AI丨Anthropic mengalami kebocoran besar-besaran lebih dari 510.000 kode sumber, fitur hewan peliharaan elektronik diungkapkan lebih awal

robot
Pembuatan abstrak sedang berlangsung

Pengembang Claude Anthropic mengalami insiden serius. Dilaporkan bahwa alat perantara terminal yang baru diluncurkan perusahaan kemarin, “Claude Code”, mengalami kebocoran skala terbesar berupa kode sumber asli yang lengkap, termasuk lebih dari 510.000 baris kode TypeScript, lebih dari 40 modul alat, serta sejumlah fungsi inti yang belum dirilis seperti “peliharaan elektronik” dan “bermimpi” yang juga telah diunggah, sehingga menarik perhatian pasar.

Juru bicara: Kesalahan manusia, bukan kerentanan keamanan

Pemberitaan mengutip pernyataan juru bicara yang mengatakan bahwa kebocoran kali ini tidak melibatkan data pelanggan atau kredensial sensitif apa pun, serta tidak menimbulkan kerugian apa pun, “hanya masalah pembungkusan akibat kesalahan manusia, bukan kerentanan keamanan. Kami sedang mengambil langkah-langkah untuk mencegah kejadian semacam ini terulang.” Anthropic juga segera menarik versi yang bermasalah tersebut, dan menghapus paket versi lama, tetapi tidak mengeluarkan pemberitahuan penarikan resmi untuk repositori arsip cermin lama yang telah menyebar di GitHub.

Dua kali ledakan besar dalam seminggu

Namun, ada yang menunjukkan bahwa “kecelakaan” ini mungkin memungkinkan pengembang perangkat lunak lain dan pesaing Anthropic untuk memahami proses pengembangan alat pengodean tersebut. Menurut sebuah posting di situs jejaring sosial yang disertai tautan ke kode terkait, sejak dipublikasikan pada Selasa pukul 04:00, jumlah penayangannya telah melampaui 21 juta kali. Sementara itu, Anthropic justru mengalami dua kali kejadian kebocoran data besar dalam satu minggu. Menurut laporan dari Fortune beberapa waktu lalu, deskripsi model kecerdasan buatan (AI) yang akan dirilis perusahaan dan sekitar 3.000 dokumen internal, baru-baru ini ditemukan di sebuah cache data publik yang dapat diakses.

Ada analis yang menyebutkan bahwa insiden ini menyoroti risiko bagi alat AI dalam iterasi yang cepat dan ekosistem open-source. Kode sumber telah tersebar luas, tetapi Anthropic belum secara proaktif meng-open-source, masih memegang hak cipta penuh; para pengembang hanya bisa menjadikannya referensi penelitian, dan jika melakukan modifikasi serta mengkomersialkannya, mereka mungkin menghadapi penarikan atau pertanggungjawaban hukum. Sementara itu, “kebocoran yang tidak disengaja” yang mengungkap detail teknis Claude Code juga mencerminkan, di tengah persaingan yang sangat ketat, tantangan berlapis bagi AI terhadap kemampuan alat, efisiensi pengembangan, dan pengendalian keamanan. Dampak terhadap industri dan pembahasan regulasi diperkirakan akan terus meningkat.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan