Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Peneliti Anthropic Demonstrasi: Menggunakan LLM untuk Mengidentifikasi 500 Kerentanan Zero-Day Secara Massal
Headline
Peneliti Anthropic di [un]prompted 2026 demonstrasi: LLM menambang 500 kerentanan zero-day secara massal
Summary
Rohan Paul membagikan video presentasi Nicholas Carlini di [un]prompted 2026, berjudul “Black-hat LLMs”. Carlini adalah peneliti keamanan AI di Anthropic, yang mendemonstrasikan bagaimana penyerang menggunakan model bahasa besar untuk mengidentifikasi dan memanfaatkan kerentanan perangkat lunak. Angka inti: 500 eksploitasi zero-day dihasilkan secara otomatis. Yang lebih mengkhawatirkan: seiring kemampuan LLM dalam penelitian kerentanan meningkat, model ancaman sedang beralih—dari “bagaimana menyerang model AI” menjadi “apa yang terjadi ketika AI mulai menyerang sistem lain”.
Analysis
Ini bukan hanya teori di atas kertas, tetapi bukti yang dapat direproduksi. Carlini mencatat LLM menambang cacat nyata yang terlewatkan oleh pengujian fuzz tradisional dan analisis statis, termasuk masalah bypass otentikasi. Dia berulang kali menekankan efisiensi dalam blognya:
Tanggapan komunitas (diskusi konferensi dan thread Hacker News) menunjukkan industri mengambil perubahan ini dengan serius. Ada sudut pandang balik yang rasional: Penambangan kerentanan yang dibantu AI mungkin lebih menguntungkan bagi pihak bertahan, karena perusahaan dapat mengintegrasikannya secara sistematis dalam CI/CD dan basis aset, mencakup lebih luas dan menemukan lebih awal. Namun, Carlini dengan jelas menyatakan hasilnya masih tidak pasti—apakah pihak bertahan atau penyerang yang lebih diuntungkan, saat ini tidak ada yang bisa memastikan.
Tinjauan Dampak Pertahanan dan Penyerangan
Kesimpulan:
Impact Assessment
Penilaian: Kita berada di titik belok “awal tetapi dipercepat”. Yang paling diuntungkan adalah tim bertahan yang memiliki kemampuan rekayasa dan proses, vendor keamanan, perusahaan besar, serta pihak yang dapat mengalokasikan dana dan sumber daya untuk menginkubasi rantai alat. Individu yang melakukan red teaming akan mendapatkan manfaat, tetapi mereka yang berhasil mengimplementasikan secara sistematis akan memperoleh imbalan yang lebih besar terlebih dahulu.