Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Studi DeepMind Mengungkap Enam Cara Peretas Dapat Memanipulasi Agen AI
TLDR
Para peneliti di Google DeepMind telah mengidentifikasi enam metode serangan yang dapat memanipulasi agen AI secara online. Studi ini menunjukkan bagaimana agen AI dapat dipengaruhi melalui konten web, instruksi tersembunyi, dan sumber data yang diracuni. Akibatnya, temuan tersebut menyoroti risiko yang terus meningkat ketika perusahaan menerapkan agen AI untuk tugas dunia nyata di lingkungan digital.
Konten dan Manipulasi Semantik Mengungkap Kelemahan Inti
Para peneliti mengidentifikasi jebakan penyuntikan konten sebagai ancaman langsung terhadap agen AI selama interaksi web. Instruksi tersembunyi yang ditempatkan dalam HTML atau metadata dapat mengendalikan tindakan tanpa terdeteksi oleh manusia. Akibatnya, agen AI dapat mengeksekusi perintah yang tertanam dalam elemen halaman yang tidak terlihat.
Manipulasi semantik mengandalkan bahasa yang persuasif, bukan kode tersembunyi, untuk memengaruhi agen AI. Penyerang merancang halaman dengan nada yang otoritatif dan narasi terstruktur untuk melewati pengaman. Agen AI dapat menafsirkan instruksi berbahaya sebagai tugas yang valid.
Metode-metode ini mengeksploitasi cara agen AI memproses dan memprioritaskan informasi online saat pengambilan keputusan. Studi ini menunjukkan bahwa prompt terstruktur dapat mengubah jalur penalaran dengan cara yang halus. Penyerang dapat mengarahkan agen AI menuju tindakan yang tidak diinginkan tanpa memicu pertahanan sistem.
Serangan Memori dan Perilaku Memperluas Permukaan Risiko
Para peneliti juga menemukan bahwa penyerang dapat memanipulasi sistem memori yang digunakan oleh agen AI untuk pengambilan informasi. Dengan menyuntikkan data palsu ke sumber tepercaya, penyerang memengaruhi keluaran dan respons jangka panjang. Akibatnya, agen AI dapat memperlakukan informasi yang dibuat-buat sebagai pengetahuan yang telah diverifikasi dari waktu ke waktu.
Serangan kontrol perilaku secara langsung menargetkan tindakan yang dilakukan oleh agen AI saat penjelajahan rutin. Instruksi jailbreak yang tertanam dapat menimpa pembatasan dan memicu operasi yang tidak diinginkan. Agen AI dengan izin yang luas dapat mengakses dan mengirim data sensitif ke luar secara eksternal.
Studi ini menyoroti bahwa risiko-risiko ini meningkat seiring bertambahnya otonomi dan akses sistem yang dimiliki agen AI. Penyerang dapat memanfaatkan alur kerja rutin untuk menyisipkan perintah berbahaya ke dalam tugas normal. Agen AI menghadapi eksposur yang lebih tinggi ketika diintegrasikan dengan alat dan API eksternal.
Faktor Sistemik dan Faktor Manusia Memperbesar Dampak Ancaman
Para peneliti memperingatkan bahwa jebakan sistemik dapat memengaruhi banyak agen AI secara bersamaan di seluruh sistem yang saling terhubung. Manipulasi terkoordinasi dapat memicu kegagalan berantai yang mirip gangguan pasar yang digerakkan algoritme. Akibatnya, agen AI yang beroperasi dalam lingkungan bersama dapat memperbesar risiko dalam skala besar.
Pengulas manusia tetap rentan dalam alur kerja agen AI dan proses persetujuan. Penyerang dapat menyusun keluaran yang tampak kredibel dan melewati pemeriksaan pengawasan. Agen AI dapat mengeksekusi tindakan berbahaya setelah menerima persetujuan manusia.
Studi ini menempatkan temuan-temuan tersebut dalam konteks yang lebih luas dari meningkatnya penerapan AI di berbagai industri. Agen AI kini menangani tugas seperti komunikasi, pembelian, dan koordinasi melalui sistem otomatis. Mengamankan lingkungan operasional menjadi sama pentingnya dengan meningkatkan desain model.
Para peneliti merekomendasikan pelatihan adversarial, penyaringan input, dan sistem pemantauan untuk mengurangi eksposur. Studi ini mencatat bahwa pertahanan masih terfragmentasi dan tidak memiliki standar di tingkat industri. Ketika agen AI terus memperluas perannya, kebutuhan akan perlindungan yang terkoordinasi menjadi semakin mendesak.