Mengurangi Kecepatan pada AI Keamanan Siber yang Bocor dari Anthropic

Berita tentang kebocoran model AI Anthropic mengguncang industri keamanan siber, mengirimkan saham perusahaan-perusahaan besar turun tajam. Apa yang awalnya terlihat seperti pengubah permainan kini menimbulkan pertanyaan mendesak: dapatkah organisasi mempercayai AI dengan aset digital mereka yang paling sensitif, atau apakah insiden ini hanya memperkuat kebutuhan akan perlindungan ahli?

Menurut Mint, sebuah draf posting blog yang bocor memperkenalkan tingkat baru model AI yang disebut Capybara. Draf tersebut mengklaim bahwa Capybara mengungguli model unggulan Anthropic, Claude Opus 4.6, dalam “pengkodean perangkat lunak, penalaran akademis, dan tugas terkait keamanan siber.” Draf tersebut juga mencatat bahwa pelatihan pada Claude Mythos—sebuah model yang dijelaskan Anthropic sebagai yang paling maju hingga saat ini—telah selesai.

Mengapa Ini Bocor?

Sementara Anthropic mengaitkan kebocoran tersebut dengan “kesalahan manusia,” penjelasan ini mungkin tidak banyak menenangkan organisasi tentang kemampuan perusahaan untuk menjaga data sensitif. Beberapa analis berspekulasi bahwa mungkin ada motif lain yang bermain.

“Kebocoran Capybara sangat disayangkan tetapi saya hampir bertanya-tanya apakah itu sengaja ditinggalkan di danau data yang dapat diakses untuk menyoroti beberapa risiko siber yang muncul yang terus berkembang yang ditimbulkan oleh platform AI,” kata Tracy Goldberg, Direktur Keamanan Siber di Javelin Strategy & Research. “Dengan semua itu, model ini masih dalam pengujian, dengan Anthropic yang jelas menyatakan bahwa mereka sadar akan bug dan risiko yang perlu ditangani, itulah sebabnya Anthropic hanya meluncurkan Capybara secara lembut.”

Ancaman AI yang Mengintai

Anthropic juga menyoroti risiko keamanan siber yang terkait dengan model ini, menekankan perlombaan senjata yang meningkat yang terjadi dengan AI antara pembela dan penjahat siber. Perusahaan memperingatkan bahwa Capybara bisa menjadi yang pertama dalam serangkaian model yang mampu mengidentifikasi dan mengeksploitasi kerentanan jauh lebih cepat daripada tim keamanan dapat merespons. Dengan kata lain, penjahat dapat memanfaatkan model ini untuk memicu generasi baru ancaman keamanan siber yang didorong oleh AI.

Investor bereaksi cepat, mendorong saham CrowdStrike, Datadog, dan Zscaler turun lebih dari 10% dalam perdagangan awal.

“Penurunan saham teknologi setelah berita tentang kebocoran Capybara benar-benar menyoroti kurangnya pemahaman yang dimiliki investor tentang AI secara keseluruhan,” kata Goldberg. “Kami tahu model-model ini akan terus beradaptasi, dan akan melakukannya dengan kecepatan yang lebih cepat daripada langkah-langkah keamanan industri dapat merespons. Inilah sebabnya mengapa tata kelola di sekitar AI sangat penting.”

0

                    SAHAM

0

                TAMPILAN
            

            

            

                Bagikan di FacebookBagikan di TwitterBagikan di LinkedIn

Tag: AIAnthropicCrowdStrikeKeamananSiberMint

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan