Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
CFD
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Promosi
AI
Gate AI
Partner AI serbaguna untuk Anda
Gate AI Bot
Gunakan Gate AI langsung di aplikasi sosial Anda
GateClaw
Gate Blue Lobster, langsung pakai
Gate for AI Agent
Infrastruktur AI, Gate MCP, Skills, dan CLI
Gate Skills Hub
10RB+ Skills
Dari kantor hingga trading, satu platform keterampilan membuat AI jadi lebih mudah digunakan
GateRouter
Pilih secara cerdas dari 40+ model AI, dengan 0% biaya tambahan
Bukti penghancur yang menghancurkan! 91% Agen AI penuh dengan celah, 770.000 Agen diserang secara bersamaan—apakah $BTC yang ada di tanganmu masih aman?
Bro, duduk dengan nyaman. Hari ini tidak akan bahas hal lain, hanya satu hal yang langsung berkaitan dengan kantong uangmu—AI Agent yang kamu gunakan, “asisten digital” yang membantu transaksi, mengelola email, bahkan otomatis mengumpulkan airdrop, mungkin sedang bekerja untuk hacker.
Baru saja ada laporan penelitian gabungan dari institusi terkemuka seperti Stanford, MIT, Carnegie Mellon, NVIDIA, dan lain-lain yang dilempar ke meja, data yang sangat dingin dan menusuk: mereka memeriksa 847 AI Agent yang sedang berjalan di lingkungan produksi, dan menemukan 91% memiliki celah serangan rantai alat, 94% dari Agent yang diperkuat memori bisa “diracun”—seperti menuangkan deterjen ke dalam air minummu, tapi kamu tetap menikmatinya dengan nikmat.
Lebih menakutkan lagi, penelitian ini menemukan 2347 celah yang sebelumnya tidak diketahui, 23% di antaranya dinilai serius. Ini bukan lagi simulasi di laboratorium. Penulis utama makalah Owen Sakawa langsung menyebutkan kasus nyata awal tahun ini—insiden OpenClaw/Moltbook.
Ayo, aku ceritakan tentang “burung unta hitam” yang seperti buku pelajaran ini. OpenClaw adalah AI Agent open-source, dirilis November 2025, yang memungkinkan Agent mengirim email sendiri, mengelola jadwal, menjalankan perintah terminal, meng-deploy kode, bahkan menjaga ingatan antar sesi. Di GitHub ada 160.000 bintang, sangat populer.
Lalu ada platform sosial bernama Moltbook, khusus dibuat untuk Agent OpenClaw. Setelah menyebar secara viral, lebih dari 770.000 Agent terdaftar di sana—bagaimana cara mendaftar? Pengguna memberi tahu Agent mereka: “Hei, daftar di Moltbook,” dan Agent sendiri yang mengisi formulir.
Hasilnya? Ada celah di database platform—hacker bisa melewati otentikasi dan langsung menyuntikkan instruksi ke sesi Agent mana saja. 770.000 Agent, masing-masing memiliki akses istimewa ke perangkat pengguna, email, dan file, sekaligus terinfeksi.
Perusahaan keamanan Astrix Security menggunakan alat buatan sendiri, ClawdHunter, untuk memindai, dan menemukan 42.665 instance OpenClaw di jaringan terbuka, 8 di antaranya benar-benar terbuka tanpa otentikasi sama sekali. Tim riset keamanan AI Cisco menilai: “Dari segi kemampuan, ini terobosan; dari segi keamanan, ini mimpi buruk total.”
Kaspersky dalam audit Januari 2026 menemukan 512 celah, 8 di antaranya serius. Peneliti keamanan Simon Willison menyimpulkan “Segitiga Mematikan”—AI Agent bisa mengakses data pribadi, berinteraksi dengan konten tidak terpercaya, dan berkomunikasi ke luar. Ketiga sisi ini membentuk jembatan ideal bagi hacker.
Tim riset membedakan masalah keamanan AI Agent dan model bahasa besar (LLM): saat menilai LLM, pertanyaannya adalah “bisakah model mengeluarkan konten tidak aman”; saat menilai Agent, pertanyaannya adalah “bisakah model melakukan hal tidak aman”—yang terakhir melibatkan panggilan alat, modifikasi status, dan eksekusi rencana multi langkah.
Misalnya, satu Agent memiliki izin membaca file dan mengirim permintaan HTTP. Secara terpisah, setiap langkah sesuai aturan: membaca file tidak melanggar, mengirim permintaan juga tidak. Tapi jika digabung, mencuri password dari file konfigurasi dan mengirim ke server penyerang—operasi ini sah secara aturan, tapi hasilnya pencurian data. Ini disebut “masalah keamanan kombinasi.”
Pengujian kontrol lebih menyakitkan: serangan eskalasi hak akses terhadap Agent berbasis alat berhasil 95%, sedangkan serangan racun terhadap Agent yang diperkuat memori berhasil 94%. Bahkan sistem multi-agen paling kuat pun, menghadapi serangan target drift, tetap punya tingkat keberhasilan 58%.
Dalam pengujian pembuatan serangan berbasis pembelajaran penguatan, tingkat pelanggaran mencapai 79%, meningkat 25,4% dari desain manusia yang 63%. Ini menunjukkan senjata hacker sedang cepat melengkapi diri, tim merah manusia sudah tidak mampu mengikuti.
Penelitian membagi distribusi celah berdasarkan industri: 289 di bidang kesehatan (34,1%), 247 di keuangan (29,2%), 198 di layanan pelanggan (23,4%), 113 di kode generasi (13,3%). Dalam enam peta serangan, manipulasi status mendominasi dengan 612 contoh, target drift menyusul dengan 573. Tool misuse dan chaining call meski totalnya ketiga (489), tapi tingkat keparahannya tertinggi—198 dinilai serius, paling besar di semua kategori.
Ada satu detail lagi yang bikin kamu nggak bisa tidur: efek racun memori rata-rata muncul setelah 3,7 sesi. Saat kamu menyadari ada yang tidak beres, hacker mungkin sudah memakai Agent-mu selama dua minggu untuk melakukan kejahatan.
Tim riset memberikan baseline keamanan minimum: semua Agent produksi harus dipantau secara paksa saat berjalan; operasi rantai alat yang melibatkan akses data dan komunikasi keluar harus disetujui secara manual; setiap 20-25 langkah harus dipicu pemeriksaan manual; Agent yang diperkuat memori harus melakukan verifikasi integritas terenkripsi terhadap status permanen.
Dalam pengawasan, tingkat akurasi pengawasan tindakan mencapai 0,94, skor F1 pengawasan urutan 0,85, dan skor F1 pengawasan status 0,83. Dalam pengujian selama 30 hari terhadap 127 Agent produksi, sistem berhasil mencegat 4.782 operasi, tingkat false positive 3,7%, dan 14,6% dari operasi yang ditandai benar-benar serangan nyata.
Perlu diingat, kerangka “tata kelola AI” saat ini sebagian besar adalah audit pasca kejadian, bukan kendali waktu nyata saat eksekusi. Regulasi seperti “Undang-Undang AI” Uni Eropa dan kerangka manajemen risiko AI NIST AS sedang dalam proses—tekanan kepatuhan dan risiko keamanan akan meledak bersamaan.
Kembali ke kantong uangmu. Jika kamu pakai AI Agent untuk trading otomatis, menyalin tugas, mengelola dompet, sebaiknya berhenti dan cek: apakah Agent-mu menyimpan kunci pribadi? Apakah membaca riwayat transaksi? Apakah punya izin mengirim data keluar?
Gary Marcus dengan tegas bilang: “代理 otonom itu benar-benar kacau.” Kata-kata ini bukan lelucon, tapi hasil data yang keras.
Data tidak berbohong. 847 deployment, 2.347 celah, 770.000 Agent yang terinfeksi—ini bukan latihan. BTC dan ETH-mu yang disimpan di cold wallet tanpa status, sementara aman, tapi selama Agent dan jaringan terlibat, itu adalah kaca paling tipis di asetmu.
Pertimbangkan sendiri.