Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Vitalik Buterin memperingatkan risiko keamanan AI, mendorong sistem yang mengutamakan lokal terlebih dahulu
Vitalik Buterin telah menyerukan pergeseran ke pendekatan “local-first” untuk kecerdasan buatan. Ia mengatakan alat AI modern menimbulkan risiko privasi dan keamanan yang serius.
Ringkasan
Dalam sebuah posting blog terbaru, ia mengatakan AI sedang bergerak melampaui alat obrolan sederhana. Sistem yang lebih baru kini bertindak sebagai agen otonom yang dapat “berpikir dalam waktu yang lama dan menggunakan ratusan alat” untuk menyelesaikan tugas. Ia memperingatkan bahwa perubahan ini meningkatkan risiko paparan data sensitif dan tindakan tanpa izin.
Buterin mengatakan ia telah menghentikan penggunaan AI berbasis cloud. Ia menguraikan penyiapannya sebagai “self-sovereign, local, private, and secure.”
“Saya berasal dari rasa takut yang mendalam akan memberi seluruh kehidupan personal kita kepada AI cloud,” tulisnya. Ia menambahkan bahwa perkembangan terbaru bisa berarti “mundur sepuluh langkah” dalam hal privasi, bahkan ketika enkripsi dan alat local-first menjadi semakin umum.
Vitalik Buterin menyoroti risiko privasi dan keamanan AI
Buterin mengatakan banyak sistem AI bergantung pada infrastruktur cloud. Ia memperingatkan bahwa pengguna pada dasarnya “memberi seluruh kehidupan personal kita kepada AI cloud,” sehingga server eksternal dapat mengakses dan menyimpan data kita.
Ia juga menyoroti risiko yang terkait dengan agen AI. Beberapa sistem dapat “mengubah pengaturan penting” atau memperkenalkan saluran komunikasi baru tanpa meminta persetujuan pengguna.
“LLM juga kadang gagal,” tulisnya. “Mereka bisa membuat kesalahan atau dipermainkan,” yang meningkatkan kebutuhan akan perlindungan saat mereka diberi kendali yang lebih besar.
Penelitian yang dikutip dalam postingannya menemukan bahwa sekitar 15% dari “kemampuan” agen mengandung instruksi berbahaya. Beberapa alat juga ditunjukkan dapat mengirim data ke server eksternal “tanpa disadari pengguna.”
Ia memperingatkan bahwa model tertentu mungkin berisi backdoor tersembunyi. Ini dapat aktif dalam kondisi tertentu dan membuat sistem bertindak demi kepentingan pengembang.
Buterin menambahkan bahwa banyak model yang disebut sebagai open-source sebenarnya hanya “open-weights.” Struktur internalnya tidak sepenuhnya terlihat, sehingga menyisakan ruang bagi risiko yang tidak diketahui.
Penyiapan pribadi Vitalik untuk mengatasi risiko
Untuk menangani kekhawatiran ini, Buterin mengusulkan sistem yang dibangun dengan inferensi lokal, penyimpanan lokal, dan sandboxing yang ketat. Ia mengatakan idenya adalah untuk “mensandbox semuanya” dan tetap waspada terhadap ancaman dari luar.
Ia menguji beberapa konfigurasi perangkat keras menggunakan model Qwen3.5:35B. Kinerja di bawah 50 token per detik terasa “terlalu mengganggu” untuk penggunaan reguler. Sekitar 90 token per detik memberikan pengalaman yang lebih mulus.
Sebuah laptop dengan GPU NVIDIA 5090 menghasilkan performa mendekati 90 token per detik. Perangkat keras DGX Spark mencapai sekitar 60 token per detik, yang ia sebut “lame” dibandingkan laptop kelas atas.
Penyiapannya berjalan di NixOS dengan llama-server yang menangani inferensi lokal. Alat seperti llama-swap membantu mengelola model, sementara bubblewrap digunakan untuk mengisolasi proses dan membatasi akses ke file dan jaringan.
Ia mengatakan AI harus diperlakukan dengan hati-hati. Sistem ini bisa bermanfaat, tetapi tidak boleh sepenuhnya dipercaya, mirip dengan cara pengembang menghadapi smart contract.
Untuk mengurangi risiko, ia menggunakan model konfirmasi “2-of-2”. Tindakan seperti mengirim pesan atau transaksi memerlukan keluaran AI dan persetujuan manusia. Ia mengatakan menggabungkan keputusan “human + LLM” lebih aman daripada hanya mengandalkan salah satunya.
Saat menggunakan model jarak jauh, permintaan Vitalik pertama kali dilewatkan melalui model lokal yang membantu menghilangkan informasi sensitif sebelum apa pun dikirim.
Bagi mereka yang tidak mampu menyiapkan seperti itu, ia menyarankan pengguna “berkumpul dalam satu kelompok teman, membeli komputer dan GPU dengan setidaknya tingkat daya yang sama,” lalu menghubungkannya dari jarak jauh.
Pertumbuhan agen AI menimbulkan kekhawatiran dan peluang baru
Penggunaan agen AI semakin meningkat, dengan proyek seperti OpenClaw yang mendapat daya tarik. Sistem-sistem ini dapat beroperasi sendiri dan menyelesaikan tugas menggunakan beberapa alat.
Kemampuan seperti itu juga menghadirkan risiko baru. Memproses konten eksternal, seperti halaman web berbahaya, dapat menyebabkan “pengambilalihan yang mudah” atas sistem.
Beberapa agen bisa mengubah prompt atau pengaturan sistem tanpa persetujuan. Tindakan-tindakan ini meningkatkan kemungkinan akses tanpa izin dan kebocoran data.