Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Mengurangi Kecepatan pada AI Keamanan Siber yang Bocor dari Anthropic
Berita tentang model AI Anthropic yang bocor membuat industri keamanan siber gempar, sehingga saham perusahaan-perusahaan besar turun tajam. Awalnya tampak seperti terobosan yang berpotensi mengubah permainan, namun kini memunculkan pertanyaan mendesak: apakah organisasi dapat mempercayai AI untuk aset digital paling sensitif mereka, atau apakah insiden ini hanya semakin menegaskan perlunya perlindungan dari para ahli?
Menurut Mint, draf blog post yang bocor memperkenalkan tingkat baru model AI bernama Capybara. Draf tersebut mengklaim bahwa Capybara mengungguli model andalan Anthropic, Claude Opus 4.6, dalam “coding perangkat lunak, penalaran akademis, dan tugas-tugas terkait cybersecurity.” Draf itu juga mencatat bahwa pelatihan pada Claude Mythos—model yang digambarkan Anthropic sebagai yang paling canggih—telah selesai.
Mengapa Itu Bocor?
Sementara Anthropic menyematkan kebocoran itu pada “kesalahan manusia,” penjelasan tersebut mungkin tidak banyak menenangkan organisasi mengenai kemampuan perusahaan dalam melindungi data sensitif. Beberapa analis berspekulasi bahwa mungkin ada motif lain yang sedang berperan pada saat ini.
“Bocornya Capybara itu disayangkan, tetapi saya hampir bertanya-tanya apakah hal itu sengaja ditinggalkan di accessible data lake untuk menyoroti beberapa risiko siber yang muncul yang terus-menerus ditimbulkan dan akan ditimbulkan oleh platform AI yang terus berkembang,” kata Tracy Goldberg, Direktur Keamanan Siber di Javelin Strategy & Research. “Namun, semua itu, modelnya masih dalam pengujian, dengan Anthropic secara jelas menyatakan bahwa mereka menyadari adanya bug dan risiko yang perlu diatasi, itulah sebabnya Anthropic hanya meluncurkan Capybara secara soft-launch.”
Ancaman AI yang Membayang
Anthropic juga menyoroti risiko keamanan siber yang terkait dengan model-model ini, sambil menekankan perlombaan senjata yang semakin meningkat antara AI bagi para pembela dan para pelaku kejahatan siber. Perusahaan itu memperingatkan bahwa Capybara dapat menjadi yang pertama dalam serangkaian model yang mampu mengidentifikasi dan mengeksploitasi kerentanan jauh lebih cepat daripada tim keamanan dapat merespons. Dengan kata lain, penjahat dapat memanfaatkan model tersebut untuk mendorong generasi baru ancaman keamanan siber yang digerakkan oleh AI.
Para investor bereaksi cepat, mendorong saham CrowdStrike, Datadog, dan Zscaler turun lebih dari 10% pada perdagangan awal.
“Anjloknya saham teknologi menyusul berita tentang kebocoran Capybara sebenarnya hanya menyoroti kurangnya pemahaman investor terhadap AI secara keseluruhan,” kata Goldberg. “Kita tahu model-model ini akan terus beradaptasi, dan akan melakukannya dengan kecepatan yang lebih cepat daripada langkah-langkah keamanan industri dapat merespons. Itulah mengapa tata kelola (governance) seputar AI sangat penting.”
0
0
Tags: AIAnthropicCrowdStrikeCybersecurityMint