Mengurangi Kecepatan pada AI Keamanan Siber yang Bocor dari Anthropic

Berita tentang model AI Anthropic yang bocor membuat industri keamanan siber gempar, sehingga saham perusahaan-perusahaan besar turun tajam. Awalnya tampak seperti terobosan yang berpotensi mengubah permainan, namun kini memunculkan pertanyaan mendesak: apakah organisasi dapat mempercayai AI untuk aset digital paling sensitif mereka, atau apakah insiden ini hanya semakin menegaskan perlunya perlindungan dari para ahli?

Menurut Mint, draf blog post yang bocor memperkenalkan tingkat baru model AI bernama Capybara. Draf tersebut mengklaim bahwa Capybara mengungguli model andalan Anthropic, Claude Opus 4.6, dalam “coding perangkat lunak, penalaran akademis, dan tugas-tugas terkait cybersecurity.” Draf itu juga mencatat bahwa pelatihan pada Claude Mythos—model yang digambarkan Anthropic sebagai yang paling canggih—telah selesai.

Mengapa Itu Bocor?

Sementara Anthropic menyematkan kebocoran itu pada “kesalahan manusia,” penjelasan tersebut mungkin tidak banyak menenangkan organisasi mengenai kemampuan perusahaan dalam melindungi data sensitif. Beberapa analis berspekulasi bahwa mungkin ada motif lain yang sedang berperan pada  saat ini.

“Bocornya Capybara itu disayangkan, tetapi saya hampir bertanya-tanya apakah hal itu sengaja ditinggalkan di accessible data lake untuk menyoroti beberapa risiko siber yang muncul yang terus-menerus ditimbulkan dan akan ditimbulkan oleh platform AI yang terus berkembang,” kata Tracy Goldberg, Direktur Keamanan Siber di Javelin Strategy & Research. “Namun, semua itu, modelnya masih dalam pengujian, dengan Anthropic secara jelas menyatakan bahwa mereka menyadari adanya bug dan risiko yang perlu diatasi, itulah sebabnya Anthropic hanya meluncurkan Capybara secara soft-launch.”

Ancaman AI yang Membayang

Anthropic juga menyoroti risiko keamanan siber yang terkait dengan model-model ini, sambil menekankan perlombaan senjata yang semakin meningkat antara AI bagi para pembela dan para pelaku kejahatan siber. Perusahaan itu memperingatkan bahwa Capybara dapat menjadi yang pertama dalam serangkaian model yang mampu mengidentifikasi dan mengeksploitasi kerentanan jauh lebih cepat daripada tim keamanan dapat merespons. Dengan kata lain, penjahat dapat memanfaatkan model tersebut untuk mendorong generasi baru ancaman keamanan siber yang digerakkan oleh AI.

Para investor bereaksi cepat, mendorong saham CrowdStrike, Datadog, dan Zscaler turun lebih dari 10% pada perdagangan awal.

“Anjloknya saham teknologi menyusul berita tentang kebocoran Capybara sebenarnya hanya menyoroti kurangnya pemahaman investor terhadap AI secara keseluruhan,” kata Goldberg. “Kita tahu model-model ini akan terus beradaptasi, dan akan melakukannya dengan kecepatan yang lebih cepat daripada langkah-langkah keamanan industri dapat merespons. Itulah mengapa tata kelola (governance) seputar AI sangat penting.”

0

                    SHARE

0

                VIEWS
            

            

            

                Share on FacebookShare on TwitterShare on LinkedIn

Tags: AIAnthropicCrowdStrikeCybersecurityMint

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan