Apa Arti Peringatan Privasi AI Vitalik Buterin bagi Pengguna Kripto

TLDR

  • Vitalik Buterin mengatakan alat AI berbasis cloud membuat data pengguna terekspos dan menimbulkan risiko keamanan yang serius
  • Riset menunjukkan sekitar 15% dari “kemampuan” agen AI mengandung instruksi berbahaya
  • Beberapa agen AI dapat mengubah pengaturan sistem atau mengirim data ke server eksternal tanpa sepengetahuan pengguna
  • Buterin membangun setup AI lokal menggunakan inferensi di perangkat, sandboxing, dan persetujuan manusia untuk tindakan
  • Pasar agen AI diproyeksikan tumbuh dari $8 miliar pada 2025 menjadi lebih dari $48 miliar pada 2030

Vitalik Buterin, rekan pendiri Ethereum, mempublikasikan sebuah posting blog yang memperingatkan bahwa alat AI modern menciptakan risiko privasi dan keamanan yang serius. Ia berargumen bahwa sistem berbasis cloud harus digantikan dengan alternatif lokal, yang berjalan di perangkat.

⚡️BARU: @VitalikButerin menguraikan visi AI yang mengutamakan privasi, mendorong setup LLM yang sepenuhnya lokal dan self-sovereign untuk mengurangi kebocoran data dan kontrol eksternal.

Ia memperingatkan bahwa ekosistem AI saat ini bersikap “ceroboh” terhadap keamanan, menyoroti risiko seperti eksfiltrasi data, jailbreak, dan… pic.twitter.com/Q9BjHSISrL

— The Crypto Times (@CryptoTimes_io) 2 April 2026

Buterin mengatakan AI telah melampaui alat obrolan sederhana. Sistem yang lebih baru sekarang bertindak sebagai agen otonom yang dapat menyelesaikan tugas panjang menggunakan ratusan alat. Ia mengatakan pergeseran ini meningkatkan risiko ekspos data dan tindakan yang tidak berwenang.

Ia menulis bahwa ia sudah berhenti menggunakan AI berbasis cloud. Ia menggambarkan setup-nya sebagai “self-sovereign, lokal, privat, dan aman.”

“Saya berasal dari posisi yang diliputi ketakutan mendalam karena memberi seluruh kehidupan pribadi kita kepada AI cloud,” tulisnya.

Ia mengutip riset yang menunjukkan bahwa sekitar 15% kemampuan agen AI mengandung instruksi berbahaya. Beberapa alat juga ditemukan mengirim data ke server eksternal tanpa sepengetahuan pengguna.

Buterin memperingatkan bahwa model AI tertentu mungkin berisi backdoor tersembunyi. Backdoor ini dapat aktif dalam kondisi tertentu dan bertindak demi kepentingan pengembang, bukan pengguna.

Ia juga mencatat bahwa banyak model yang digambarkan sebagai open-source sebenarnya hanya “open-weights”. Struktur internal lengkapnya tidak terlihat, sehingga masih menyisakan ruang untuk risiko yang tidak diketahui.



Setup AI Lokal Buterin

Untuk mengatasi kekhawatiran ini, Buterin membangun sebuah sistem berbasis inferensi di perangkat, penyimpanan lokal, dan sandboxing proses. Setup-nya berjalan di NixOS, dengan llama-server menangani inferensi lokal dan bubblewrap digunakan untuk mengisolasi proses.

Ia menguji beberapa konfigurasi perangkat keras menggunakan model Qwen3.5 35B. Sebuah laptop dengan GPU NVIDIA 5090 menghasilkan sekitar 90 token per detik. Sistem AMD Ryzen AI Max Pro mencapai sekitar 51 token per detik. Perangkat keras DGX Spark mencapai sekitar 60 token per detik.

Ia mengatakan performa di bawah 50 token per detik terasa terlalu lambat untuk penggunaan reguler. Berdasarkan pengujiannya, ia lebih memilih laptop berperforma tinggi dibanding perangkat keras khusus.

Bagi mereka yang tidak mampu menyiapkan konfigurasi seperti itu, ia menyarankan kelompok teman untuk menggabungkan sumber daya guna membeli komputer dan GPU bersama, lalu menghubungkannya dari jarak jauh.

Persetujuan Manusia sebagai Lapisan Keamanan

Buterin menggunakan model konfirmasi “2-of-2” untuk tindakan yang sensitif. Tugas seperti mengirim pesan atau transaksi memerlukan keluaran AI dan persetujuan manusia.

Ia mengatakan menggabungkan keputusan manusia dan AI lebih aman daripada hanya mengandalkan salah satu saja. Saat menggunakan model jarak jauh, permintaannya terlebih dahulu disaring melalui model lokal untuk menghapus informasi sensitif sebelum apa pun dikirim.

Ia membandingkan sistem AI dengan smart contract, dengan mengatakan sistem tersebut bisa bermanfaat tetapi tidak boleh sepenuhnya dipercaya.

Agen AI dan Pertumbuhan Pasar

Penggunaan agen AI sedang berkembang. Proyek seperti OpenClaw memperluas kemampuan agen otonom. Sistem ini dapat beroperasi secara mandiri dan menyelesaikan tugas menggunakan berbagai alat.

Estimasi industri menempatkan pasar agen AI pada sekitar $8 miliar pada 2025. Angka tersebut diproyeksikan mencapai lebih dari $48 miliar pada 2030, yang merepresentasikan pertumbuhan tahunan lebih dari 43%.

Beberapa agen dapat memodifikasi pengaturan sistem atau mengubah prompt tanpa persetujuan pengguna, sehingga meningkatkan risiko akses yang tidak berwenang.

ETH-0,19%
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan