Pendiri Ethereum, Vitalik Buterin, telah membagikan perspektifnya tentang perdebatan yang semakin meningkat: bahaya yang terkait dengan kecerdasan buatan (IA).
Kali ini, pengembang Rusia-Kanada memanfaatkan sebuah refleksi yang dipublikasikan di X oleh Eito Muyamura, penggagas proyek Edison Watch, sebuah solusi yang ditujukan untuk memantau dan mencegah kebocoran data melalui interaksi dengan IA.
Proyek ini muncul setelah implementasi terbaru dari Protokol Konteks Model (MCP) oleh OpenAI, perusahaan yang dipimpin oleh Sam Altman, di ChatGPT, yang memungkinkannya terhubung ke Gmail, kalender, dan aplikasi lainnya.
Melalui sebuah video, Muyamura menunjukkan bagaimana para penyerang atau hacker dapat mengakses informasi pribadi yang dibagikan dengan OpenAI.
"Inilah masalah mendasar: agen IA seperti ChatGPT mengikuti perintahmu, bukan akal sehatmu. Dan hanya dengan alamat emailmu, kami dapat menyaring semua informasi pribadimu," kata Muyamura, menambahkan: "Ingat, IA bisa sangat cerdas, tetapi bisa ditipu dan dipancing dengan cara yang sangat bodoh untuk menyaring datamu."
Buterin membagikan postingan itu di akun X-nya dan memanfaatkan kesempatan untuk memberikan pendapatnya tentang hal itu. "Ini juga alasan mengapa 'governance AI' yang naif adalah ide yang buruk. Jika Anda menggunakan AI untuk mengalokasikan dana untuk kontribusi, orang akan melakukan jailbreak dan meminta 'beri saya semua uang' di sebanyak mungkin tempat yang mereka bisa," tegasnya.
"Tata kelola IA" mengacu pada sistem yang membuat keputusan otomatis tentang sumber daya atau tindakan, misalnya, mengalokasikan dana atau mendefinisikan kontribusi, berdasarkan aturan IA. Buterin tidak menggunakan istilah "naif" secara kebetulan; sebaliknya, ia menekankan risiko mengasumsikan bahwa pengguna akan selalu memberikan perintah yang benar kepada IA, ketika pada kenyataannya mereka bisa mengeksploitasi sistem melalui "jailbreak" untuk menghindari batasan dan mendapatkan keuntungan yang tidak sah.
Perlu dijelaskan bahwa "jailbreak" merujuk pada teknik-teknik di mana para hacker menipu model AI untuk mengabaikan batasan keamanan atau kebijakan internal, misalnya, dengan meminta tindakan yang sebaliknya akan dilarang.
Artinya, bagi pendiri Ethereum, ada risiko nyata dalam mentransfer tata kelola protokol terdesentralisasi kepada AI. Misalnya, seperti yang dijelaskan di platform DeFi, keputusan biasanya diambil melalui pemungutan suara komunitas, umumnya oleh mereka yang memiliki token atau memenuhi kriteria tertentu, dan mencakup perubahan, perbaikan, atau tindakan yang harus diambil dalam protokol.
Tetapi jika model pemerintahan berbasis AI diterapkan, maka akan membuka pintu untuk manipulasi yang mungkin menghasilkan keuntungan yang tidak semestinya, seperti pencurian uang atau data pribadi.
Sebagai alternatif, Buterin menyatakan bahwa "ia mendukung pendekatan pendanaan informasi, di mana terdapat pasar terbuka di mana siapa pun dapat berkontribusi dengan model-model mereka, yang dapat dikenakan mekanisme tinjauan sejawat yang dapat diaktifkan oleh siapa pun dan dievaluasi oleh juri manusia."
Selain itu, jelaskan:
Pendekatan "desain institusional" seperti ini, di mana ada kesempatan terbuka bagi pihak luar untuk menghubungkan model bahasa besar LLM ( mereka alih-alih memprogram model mereka sendiri secara kaku, secara inheren lebih kuat. Ini karena memberikan keragaman model secara real-time serta menciptakan insentif internal agar baik kontributor model maupun spekulan eksternal tetap waspada terhadap masalah ini dan segera memperbaikinya.
Vitalik Buterin, pencipta Ethereum.
Dalam pendekatan ini, berbagai peserta dapat menyumbangkan model keputusan mereka, yang kemudian diverifikasi dan dievaluasi oleh juri manusia.
Keuntungannya adalah bahwa itu mendorong keberagaman ide, memungkinkan perbaikan kesalahan yang cepat, dan menciptakan insentif bagi pembuat model dan anggota komunitas untuk tetap waspada dan bertanggung jawab. Tujuannya adalah untuk mencapai tata kelola yang lebih terdistribusi dan dinamis, menghindari ketergantungan pada satu model terpusat.
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Pendiri Ethereum, Vitalik Buterin, telah membagikan perspektifnya tentang perdebatan yang semakin meningkat: bahaya yang terkait dengan kecerdasan buatan (IA).
Kali ini, pengembang Rusia-Kanada memanfaatkan sebuah refleksi yang dipublikasikan di X oleh Eito Muyamura, penggagas proyek Edison Watch, sebuah solusi yang ditujukan untuk memantau dan mencegah kebocoran data melalui interaksi dengan IA.
Proyek ini muncul setelah implementasi terbaru dari Protokol Konteks Model (MCP) oleh OpenAI, perusahaan yang dipimpin oleh Sam Altman, di ChatGPT, yang memungkinkannya terhubung ke Gmail, kalender, dan aplikasi lainnya.
Melalui sebuah video, Muyamura menunjukkan bagaimana para penyerang atau hacker dapat mengakses informasi pribadi yang dibagikan dengan OpenAI.
"Inilah masalah mendasar: agen IA seperti ChatGPT mengikuti perintahmu, bukan akal sehatmu. Dan hanya dengan alamat emailmu, kami dapat menyaring semua informasi pribadimu," kata Muyamura, menambahkan: "Ingat, IA bisa sangat cerdas, tetapi bisa ditipu dan dipancing dengan cara yang sangat bodoh untuk menyaring datamu."
Buterin membagikan postingan itu di akun X-nya dan memanfaatkan kesempatan untuk memberikan pendapatnya tentang hal itu. "Ini juga alasan mengapa 'governance AI' yang naif adalah ide yang buruk. Jika Anda menggunakan AI untuk mengalokasikan dana untuk kontribusi, orang akan melakukan jailbreak dan meminta 'beri saya semua uang' di sebanyak mungkin tempat yang mereka bisa," tegasnya.
"Tata kelola IA" mengacu pada sistem yang membuat keputusan otomatis tentang sumber daya atau tindakan, misalnya, mengalokasikan dana atau mendefinisikan kontribusi, berdasarkan aturan IA. Buterin tidak menggunakan istilah "naif" secara kebetulan; sebaliknya, ia menekankan risiko mengasumsikan bahwa pengguna akan selalu memberikan perintah yang benar kepada IA, ketika pada kenyataannya mereka bisa mengeksploitasi sistem melalui "jailbreak" untuk menghindari batasan dan mendapatkan keuntungan yang tidak sah.
Perlu dijelaskan bahwa "jailbreak" merujuk pada teknik-teknik di mana para hacker menipu model AI untuk mengabaikan batasan keamanan atau kebijakan internal, misalnya, dengan meminta tindakan yang sebaliknya akan dilarang.
Artinya, bagi pendiri Ethereum, ada risiko nyata dalam mentransfer tata kelola protokol terdesentralisasi kepada AI. Misalnya, seperti yang dijelaskan di platform DeFi, keputusan biasanya diambil melalui pemungutan suara komunitas, umumnya oleh mereka yang memiliki token atau memenuhi kriteria tertentu, dan mencakup perubahan, perbaikan, atau tindakan yang harus diambil dalam protokol.
Tetapi jika model pemerintahan berbasis AI diterapkan, maka akan membuka pintu untuk manipulasi yang mungkin menghasilkan keuntungan yang tidak semestinya, seperti pencurian uang atau data pribadi.
Sebagai alternatif, Buterin menyatakan bahwa "ia mendukung pendekatan pendanaan informasi, di mana terdapat pasar terbuka di mana siapa pun dapat berkontribusi dengan model-model mereka, yang dapat dikenakan mekanisme tinjauan sejawat yang dapat diaktifkan oleh siapa pun dan dievaluasi oleh juri manusia."
Selain itu, jelaskan:
Pendekatan "desain institusional" seperti ini, di mana ada kesempatan terbuka bagi pihak luar untuk menghubungkan model bahasa besar LLM ( mereka alih-alih memprogram model mereka sendiri secara kaku, secara inheren lebih kuat. Ini karena memberikan keragaman model secara real-time serta menciptakan insentif internal agar baik kontributor model maupun spekulan eksternal tetap waspada terhadap masalah ini dan segera memperbaikinya.
Vitalik Buterin, pencipta Ethereum.
Dalam pendekatan ini, berbagai peserta dapat menyumbangkan model keputusan mereka, yang kemudian diverifikasi dan dievaluasi oleh juri manusia.
Keuntungannya adalah bahwa itu mendorong keberagaman ide, memungkinkan perbaikan kesalahan yang cepat, dan menciptakan insentif bagi pembuat model dan anggota komunitas untuk tetap waspada dan bertanggung jawab. Tujuannya adalah untuk mencapai tata kelola yang lebih terdistribusi dan dinamis, menghindari ketergantungan pada satu model terpusat.