Mengurangi Kecepatan pada AI Keamanan Siber yang Bocor dari Anthropic

Berita tentang bocornya model AI Anthropic membuat industri keamanan siber geger, mengirim saham perusahaan-perusahaan besar turun tajam. Yang awalnya tampak seperti kemungkinan pengubah permainan kini justru memunculkan pertanyaan mendesak: apakah organisasi dapat mempercayai AI untuk aset digital mereka yang paling sensitif, atau insiden ini semata-mata hanya menegaskan kembali perlunya perlindungan dari para ahli?

Menurut Mint, draf blog yang bocor memperkenalkan lapisan baru model AI bernama Capybara. Draf tersebut mengklaim bahwa Capybara mengungguli model andalan Anthropic, Claude Opus 4.6, dalam “penulisan kode perangkat lunak, penalaran akademis, dan tugas-tugas terkait keamanan siber.” Draf itu juga mencatat bahwa pelatihan pada Claude Mythos—sebuah model yang Anthropic sebut sebagai yang paling canggih—telah selesai.

Mengapa Ini Bocor?

Sementara Anthropic menyalahkan kebocoran ini pada “kesalahan manusia,” penjelasan tersebut mungkin tidak cukup meyakinkan organisasi mengenai kemampuan perusahaan dalam menjaga data sensitif. Beberapa analis berspekulasi bahwa mungkin ada motif lain yang sedang berperan.

“Kebocoran Capybara itu disayangkan, tapi saya hampir bertanya-tanya apakah itu sengaja dibiarkan di dalam data lake yang dapat diakses untuk menyoroti beberapa risiko siber yang sedang muncul yang terus-menerus ditimbulkan, dan yang akan ditimbulkan, oleh platform AI yang terus berkembang,” kata Tracy Goldberg, Direktur Keamanan Siber di Javelin Strategy & Research. “Namun, semuanya itu, model tersebut masih dalam pengujian, dan Anthropic jelas menyatakan bahwa mereka menyadari adanya bug dan risiko yang perlu ditangani, itulah sebabnya Anthropic hanya meluncurkan Capybara secara terbatas.”

Ancaman AI yang Mengintai

Anthropic juga menyoroti risiko keamanan siber yang terkait dengan model-model ini, sambil menekankan perlombaan senjata yang kian memanas antara para pembela dan pelaku kejahatan siber dalam dunia AI. Perusahaan itu memperingatkan bahwa Capybara bisa menjadi yang pertama dalam serangkaian model yang mampu mengidentifikasi dan mengeksploitasi kerentanan jauh lebih cepat daripada tim keamanan dapat merespons. Dengan kata lain, penjahat bisa memanfaatkan model tersebut untuk mendorong generasi baru ancaman keamanan siber yang digerakkan AI.

Para investor merespons cepat, mendorong saham CrowdStrike, Datadog, dan Zscaler turun lebih dari 10% pada perdagangan awal.

“Anjloknya saham teknologi menyusul kabar tentang kebocoran Capybara sungguh hanya menyoroti kurangnya pemahaman yang dimiliki investor tentang AI secara keseluruhan,” kata Goldberg. “Kita tahu model-model ini akan terus beradaptasi, dan akan melakukannya dengan kecepatan lebih cepat daripada langkah-langkah keamanan industri dapat merespons. Inilah mengapa tata kelola terkait AI sangat penting.”

0

                    BAGIANS

0

                TAYANGAN
            

            

            

                Bagikan di FacebookBagikan di TwitterBagikan di LinkedIn

Tag: AIAnthropicCrowdStrikeCybersecurityMint

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan