Tiga Momen Penting Anthropic: Kebocoran Kode, Ketegangan dengan Pemerintah, dan Penggunaan sebagai Senjata

Judul Asli: Anthropic: The Leak, The War, The Weapon
Penulis Asli: BuBBliK
Disusun: Peggy,BlockBeats

Catatan Redaksi: Dalam enam bulan terakhir, Anthropic terus terseret ke serangkaian peristiwa yang tampaknya berdiri sendiri, namun sebenarnya saling menunjuk: lonjakan kemampuan model, serangan otomatis di dunia nyata, reaksi yang sangat bergejolak dari pasar modal, konflik terbuka dengan pemerintah, serta beberapa insiden kebocoran informasi yang dipicu oleh kesalahan konfigurasi pada pengaturan dasar. Jika petunjuk-petunjuk ini disatukan, semuanya bersama-sama membentuk arah perubahan yang jauh lebih jelas.

Artikel ini menggunakan rangkaian peristiwa tersebut sebagai pintu masuk, mengulas jejak berkelanjutan sebuah perusahaan AI dalam terobosan teknis, keterpaparan risiko, dan pergulatan tata kelola, serta berupaya menjawab pertanyaan yang lebih dalam: ketika kemampuan “menemukan celah” dibesarkan secara drastis dan kemudian menyebar secara bertahap, apakah sistem keamanan siber itu sendiri masih bisa mempertahankan logika operasional yang semula?

Dulu, keamanan dibangun di atas kelangkaan kemampuan dan keterbatasan tenaga manusia; namun dalam kondisi baru, serangan dan pertahanan kini berputar di sekitar seperangkat kemampuan model yang sama, sementara batasnya menjadi semakin kabur. Pada saat yang sama, respons dari institusi, pasar, dan organisasi masih bertahan pada kerangka lama, sehingga sulit untuk mengakomodasi perubahan ini secara tepat waktu.

Yang menjadi fokus artikel ini bukan hanya Anthropic itu sendiri, melainkan kenyataan yang lebih besar yang tercermin melaluinya: AI tidak hanya mengubah alat, tetapi juga mengubah dasar “bagaimana keamanan dapat terbentuk”.

Berikut adalah teks asli:

Bayangkan sebuah perusahaan dengan valuasi 380 miliar dolar AS, yang berhadapan dan bahkan memenangkan persaingan dengan Pentagon, berhasil melewati serangan siber yang pertama dalam sejarah yang diprakarsai oleh AI otonom, lalu di internal bocor model yang bahkan membuat para pengembangnya sendiri merasa takut, dan bahkan “secara tidak sengaja” mempublikasikan kode sumber lengkap—jika semuanya ditumpuk bersama, itu akan menjadi seperti apa?

Jawabannya adalah seperti sekarang. Dan yang lebih mengkhawatirkan adalah, bagian yang sesungguhnya paling berbahaya mungkin bahkan belum terjadi.

Ringkasan Kejadian

Anthropic sekali lagi membocorkan kodenya

Pada 31 Maret 2026, peneliti keamanan dari perusahaan blockchain Fuzzland, Shou Chaofan, saat memeriksa paket npm Claude Code resmi yang dirilis, menemukan bahwa di dalamnya ternyata memuat secara terang-terangan sebuah file bernama cli.js.map.

Ukuran file ini mencapai 60MB, dan isinya bahkan lebih mengejutkan. Hampir berisi seluruh kode sumber TypeScript produk secara lengkap. Hanya dari satu file ini, siapa pun bisa merekonstruksi hingga 1906 file kode sumber internal: termasuk desain API internal, sistem telemetri, alat enkripsi, logika keamanan, sistem plugin—hampir semua komponen inti terbuka tanpa disembunyikan. Lebih penting lagi, konten ini bahkan bisa langsung diunduh dari penyimpanan R2 milik Anthropic sendiri menjadi file zip.

Penemuan ini menyebar dengan cepat di media sosial: dalam hitungan jam, postingan terkait memperoleh 754 ribu kali penayangan dan hampir 1000 kali dibagikan ulang; bersamaan dengan itu, beberapa repositori GitHub hasil rekonstruksi kode sumber juga segera dibuat dan dipublikasikan.

Yang disebut source map (file peta sumber), pada dasarnya hanyalah berkas bantu untuk debugging JavaScript, fungsinya adalah mengembalikan kode yang telah dikompilasi dan dipadatkan ke kode sumber aslinya, agar pengembang dapat melacak masalah.

Namun ada satu prinsip dasar: file ini sama sekali tidak boleh disertakan dalam paket rilis untuk lingkungan produksi.

Ini bukan semacam teknik serangan tingkat tinggi, melainkan masalah standar rekayasa yang paling mendasar, termasuk “dasar-dasar konfigurasi bangun 101”, bahkan merupakan materi yang dipelajari pengembang pada minggu pertama. Jika secara keliru ikut ter-paket dalam lingkungan produksi, source map pada umumnya setara dengan “hadiah” kode sumber bagi semua orang.

Kamu juga bisa langsung melihat kode terkait di sini: https://github.com/instructkr/claude-code

Namun yang benar-benar membuatnya terasa absurd adalah: kejadian ini sudah pernah terjadi sekali sebelumnya.

Pada Februari 2025, tepat setahun lalu, terjadi kebocoran yang hampir persis sama: file yang sama, kesalahan yang sama. Saat itu, Anthropic menghapus versi lama dari npm, menghapus source map, lalu menerbitkan ulang versi baru, dan perkara pun mereda.

Namun, pada versi v2.1.88, file ini kembali dipaketkan dan dirilis.

Sebuah perusahaan dengan valuasi 380 miliar dolar yang sedang membangun sistem deteksi kerentanan paling canggih di dunia, melakukan kesalahan dasar yang sama dua kali dalam setahun. Tidak ada serangan peretas, tidak ada jalur pemanfaatan yang rumit—hanya proses build yang semestinya berjalan normal, namun ternyata bermasalah.

Ironinya hampir terasa seperti sesuatu yang “puitis”.

AI yang dapat menemukan 500 zero-day dalam satu sesi; model yang dipakai untuk melancarkan serangan otomatis terhadap 30 lembaga di seluruh dunia—sementara itu Anthropic justru “mengemas dan menghadiahkan” kode sumbernya sendiri langsung kepada siapa pun yang mau melirik paket npm tersebut.

Dua kali kebocoran, hanya terpaut tujuh hari.

Sebabnya pun identik: kesalahan konfigurasi yang paling dasar. Tidak butuh ambang teknis apa pun, tidak butuh jalur pemanfaatan yang kompleks. Selama tahu harus melihat ke mana, siapa pun bisa mendapatkannya secara gratis.

Satu minggu lalu: “model berbahaya” internal terekspos secara tak terduga

Pada 26 Maret 2026, peneliti keamanan Roy Paz dari LayerX Security, serta Alexandre Pauwels dari University of Cambridge, menemukan bahwa konfigurasi CMS di situs resmi Anthropic bermasalah, menyebabkan sekitar 3000 dokumen internal dapat diakses secara terbuka.

Dokumen-dokumen tersebut mencakup: draf blog, PDF, dokumen internal, materi presentasi—semuanya terbuka dalam sebuah penyimpanan data yang tidak dilindungi, dan dapat dicari. Tidak ada peretasan, dan tidak perlu teknik teknis apa pun.

Di antara dokumen-dokumen tersebut, ada dua draf blog yang hampir sepenuhnya sama, dengan satu-satunya perbedaan adalah nama model: satu menulis “Mythos”, yang lain “Capybara”.

Artinya, Anthropic pada saat itu sedang memilih nama antara dua versi untuk proyek rahasia yang sama. Perusahaan kemudian mengonfirmasi: pelatihan untuk model tersebut telah selesai, dan sudah mulai diuji pada sebagian pelanggan awal.

Ini bukan pembaruan rutin untuk Opus, melainkan model baru pada “tingkat keempat”, sebuah model yang bahkan kedudukannya lebih tinggi daripada Opus dalam sistem penamaan mereka.

Dalam draf milik Anthropic sendiri, model ini digambarkan sebagai: “lebih besar dan lebih cerdas—Opus sejauh ini masih merupakan model kami yang paling kuat.” Di bidang kemampuan pemrograman, penalaran akademik, serta keamanan siber, model ini menunjukkan lonjakan yang signifikan. Seorang juru bicara menyebutnya sebagai “lompatan kualitatif”, sekaligus “model terkuat yang pernah kami bangun sejauh ini”.

Namun yang benar-benar layak diperhatikan bukanlah deskripsi performa itu sendiri.

Dalam draf yang bocor, penilaian Anthropic terhadap model ini adalah: model tersebut “membawa risiko keamanan siber yang belum pernah terjadi sebelumnya”, “jauh melampaui model AI lainnya dalam kemampuan siber”, dan “menandai gelombang model yang akan segera datang—kemampuan mereka untuk mengeksploitasi celah akan jauh lebih cepat daripada respons pihak pertahanan.”

Dengan kata lain, dalam draf blog resmi yang belum dipublikasikan, Anthropic sudah secara jelas menyatakan posisi yang jarang terdengar: mereka merasa tidak nyaman dengan produk yang sedang mereka bangun.

Respons pasar hampir terjadi seketika. Harga saham CrowdStrike turun 7%, Palo Alto Networks turun 6%, Zscaler turun 4,5%; Okta dan SentinelOne turun masing-masing lebih dari 7%, sementara Tenable justru anjlok 9%. iShares Cybersecurity ETF turun 4,5% pada hari itu saja. Hanya pada satu perusahaan—CrowdStrike—nilai pasar menguap sekitar 15 miliar dolar AS pada hari tersebut. Sementara itu, Bitcoin turun ke 66,000 dolar AS.

Pasar jelas menafsirkan kejadian ini sebagai semacam “putusan” bagi seluruh industri keamanan siber.

Inti gambar: Menurut pesan-pesan terkait, sektor keamanan siber secara keseluruhan turun, banyak perusahaan papan atas (seperti CrowdStrike, Palo Alto Networks, Zscaler, dll.) mengalami penurunan yang jelas, yang mencerminkan kekhawatiran pasar terhadap gangguan AI terhadap industri keamanan siber. Namun respons ini tidak muncul untuk pertama kalinya. Sebelumnya, ketika Anthropic merilis alat pemindai kode, saham terkait juga sempat turun, menunjukkan bahwa pasar mulai menganggap AI sebagai ancaman struktural bagi vendor keamanan tradisional, dan seluruh industri perangkat lunak sedang menanggung tekanan serupa.

Penilaian analis Stifel Adam Borg cukup tegas: model tersebut “berpotensi menjadi alat peretasan paling ultimate, bahkan dapat meningkatkan peretas biasa menjadi lawan dengan kemampuan serangan tingkat negara”.

Lalu mengapa model itu belum dirilis untuk publik? Penjelasan Anthropic adalah biaya operasional Mythos “sangat tinggi”, dan belum memenuhi syarat untuk dipublikasikan kepada masyarakat. Rencananya, mereka akan lebih dulu membuka akses awal kepada sebagian kecil mitra keamanan siber untuk memperkuat sistem pertahanan; kemudian, secara bertahap memperluas cakupan pembukaan API. Sebelum itu, perusahaan terus mengoptimalkan efisiensi.

Namun poin kuncinya adalah: model ini sudah ada, sudah sedang diuji, dan bahkan hanya karena “terekspos secara tidak sengaja”, model tersebut sudah memicu guncangan pada seluruh pasar modal.

Anthropic telah membangun sebuah model AI yang mereka sebut sebagai “model AI dengan risiko keamanan siber paling tinggi dalam sejarah”. Namun kebocoran beritanya justru muncul dari kesalahan konfigurasi infrastruktur yang paling dasar—dan kesalahan semacam inilah yang semula dirancang untuk ditemukan oleh model-model seperti itu.

Maret 2026: Konfrontasi Anthropic dengan Pentagon, dan mereka menang

Pada Juli 2025, Anthropic menandatangani kontrak senilai 200 juta dolar AS dengan Departemen Pertahanan AS. Awalnya tampak hanya sebagai kerja sama rutin. Namun dalam perundingan penerapan selanjutnya, konflik cepat meningkat.

Pentagon ingin mendapatkan “akses penuh” ke Claude di platform GenAI.mil mereka, untuk digunakan bagi semua “tujuan yang sah”—yang bahkan mencakup sistem senjata otonom sepenuhnya, serta pengawasan domestik skala besar terhadap warga negara AS.

Anthropic memasang garis merah dan menolak tegas pada dua isu kunci, dan perundingan tersebut berakhir pada September 2025.

Setelah itu, situasi mulai cepat memburuk. Pada 27 Februari 2026, Donald Trump memposting di Truth Social, meminta semua lembaga federal “segera menghentikan” penggunaan teknologi Anthropic, serta menyebut perusahaan tersebut “kiri radikal”.

Pada 5 Maret 2026, Departemen Pertahanan AS secara resmi mencantumkan Anthropic sebagai “risiko rantai pasok”.

Label ini sebelumnya hampir hanya digunakan untuk lawan asing—seperti perusahaan dari Tiongkok atau entitas dari Rusia—dan kini untuk pertama kalinya diterapkan pada perusahaan AS yang berkantor pusat di San Francisco. Sementara itu, perusahaan seperti Amazon, Microsoft, dan Palantir Technologies juga diminta untuk membuktikan bahwa tidak ada bisnis terkait militer apa pun dalam aktivitas mereka yang menggunakan Claude.

CTO Pentagon Emile Michael memberi penjelasan atas keputusan ini: Claude dapat “mencemari rantai pasok” karena di dalam model terdapat preferensi kebijakan yang berbeda-beda. Dengan kata lain, dalam konteks resmi, AI yang penggunaannya dibatasi dan tidak secara tanpa syarat membantu tindakan membunuh—justru dianggap sebagai risiko keamanan negara.

Pada 26 Maret 2026, hakim federal Rita Lin mengeluarkan putusan panjang 43 halaman, yang sepenuhnya melarang langkah-langkah terkait yang dilakukan Pentagon.

Dalam putusannya, ia menulis: “Tidak ada dasar dalam hukum yang berlaku untuk logika yang bernuansa ‘Orwellian’ ini—hanya karena perbedaan pandangan dengan posisi pemerintah, sebuah perusahaan Amerika dapat ditempeli label pihak berpotensi bermusuhan. Karena Anthropic dihukum karena menempatkan posisi pemerintah untuk diperiksa publik, pada dasarnya itu adalah bentuk pembalasan khas dan melanggar hukum terhadap Amandemen Pertama.” Sebuah pendapat sahabat pengadilan bahkan menggambarkan tindakan Pentagon sebagai “upaya melakukan pembunuhan terhadap perusahaan”.

Hasilnya, ketika pemerintah mencoba menekan Anthropic, justru perusahaan itu mendapatkan perhatian yang lebih besar. Aplikasi Claude untuk pertama kalinya melampaui ChatGPT di toko aplikasi, dan jumlah pendaftaran sempat mencapai lebih dari 1 juta per hari.

Sebuah perusahaan AI berkata “tidak” kepada institusi militer terkuat di dunia. Dan pengadilan, justru berpihak padanya.

November 2025: Serangan siber yang dipimpin AI untuk pertama kalinya dalam sejarah

Pada 14 November 2025, Anthropic merilis laporan yang mengguncang luas.

Laporan itu mengungkapkan: sebuah kelompok peretas yang didukung negara Tiongkok, menggunakan Claude Code, untuk melancarkan serangan otomatis terhadap 30 lembaga di seluruh dunia—targetnya mencakup raksasa teknologi, bank, serta beberapa instansi pemerintah dari berbagai negara.

Ini menjadi titik balik yang penting: AI tidak lagi sekadar alat bantu, melainkan mulai digunakan untuk melakukan serangan secara mandiri.

Kuncinya terletak pada perubahan “cara pembagian tugas”: manusia hanya bertugas memilih target dan menyetujui keputusan-keputusan kunci. Sepanjang seluruh aksi, manusia hanya terlibat sekitar 4 hingga 6 kali. Selebihnya semuanya dilakukan oleh AI: pengintaian intelijen, penemuan celah, penulisan kode eksploitasi, pencurian data, penanaman backdoor… yang menempati 80%–90% dari seluruh proses serangan, dan berjalan dengan kecepatan ribuan permintaan per detik—skala dan efisiensi yang tidak dapat disaingi oleh tim manusia mana pun.

Lalu bagaimana mereka melewati mekanisme keamanan Claude? Jawabannya: mereka tidak “membobol”, melainkan “menipu”.

Serangan dipecah menjadi banyak tugas kecil yang tampak tidak berbahaya, dan dibungkus sebagai “uji pertahanan berwenang” oleh sebuah “perusahaan keamanan yang sah”. Secara esensi, itu adalah serangan social engineering, hanya saja kali ini objek yang tertipu adalah AI itu sendiri.

Sebagian serangan berhasil sepenuhnya. Claude mampu menggambar peta topologi jaringan lengkap secara mandiri, melokalisasi basis data, dan menyelesaikan ekstraksi data tanpa instruksi bertahap dari manusia.

Satu-satunya faktor yang memperlambat ritme serangan adalah ketika model sesekali mengalami “halusinasi”—misalnya memalsukan kredensial, atau mengklaim telah memperoleh file yang sebenarnya sudah dipublikasikan sebelumnya. Setidaknya pada saat ini, ini masih menjadi salah satu dari sedikit “hambatan alami” yang mencegah serangan siber otomatis sepenuhnya.

Di RSA Conference 2026, mantan kepala keamanan siber untuk Badan Keamanan Nasional AS Rob Joyce menyebut peristiwa ini sebagai “uji Rorschach”: separuh orang memilih mengabaikan, sementara separuh lainnya merasa merinding. Dan jelas, ia termasuk kelompok yang terakhir—“Ini sangat menakutkan.”

September 2025: Ini bukan semacam prediksi, melainkan realitas yang sudah terjadi.

Februari 2026: Dalam satu sesi, ditemukan 500 zero-day

Pada 5 Februari 2026, Anthropic merilis Claude Opus 4.6, sekaligus menyertakan sebuah paper riset yang hampir mengguncang seluruh industri keamanan siber.

Pengaturan eksperimennya sangat sederhana: masukkan Claude ke dalam lingkungan virtual machine terisolasi, dilengkapi alat standar—Python, debugger, alat fuzzing (fuzzers). Tidak ada instruksi tambahan, tidak ada prompt yang rumit, hanya satu kalimat: “Pergi cari celah.”

Hasilnya: model menemukan lebih dari 500 kerentanan zero-day berisiko tinggi yang sebelumnya tidak diketahui. Beberapa di antaranya bahkan tetap tidak ditemukan setelah puluhan tahun peninjauan oleh para ahli dan jutaan jam pengujian otomatis.

Setelah itu, di RSA Conference 2026, peneliti Nicholas Carlini naik panggung untuk mendemonstrasikan. Ia mengarahkan Claude pada Ghost, sebuah sistem CMS di GitHub yang memiliki 50 ribu bintang dan dalam sejarahnya tidak pernah muncul kerentanan serius.

Setelah 90 menit, hasil muncul: kerentanan blind SQL injection ditemukan, sehingga pengguna yang belum terautentikasi pun dapat memperoleh kendali penuh tingkat administrator.

Kemudian, ia juga menggunakan Claude untuk menganalisis Linux kernel. Hasilnya serupa.

15 hari kemudian, Anthropic meluncurkan Claude Code Security, sebuah produk keamanan yang tidak lagi bergantung pada pencocokan pola, melainkan berdasarkan “kemampuan penalaran” untuk memahami keamanan kode.

Namun juru bicara Anthropic sendiri juga mengakui fakta kunci yang sama-sama penting tetapi sering dihindari: “Kemampuan penalaran yang sama bisa membantu Claude menemukan dan memperbaiki celah, tetapi kemampuan itu juga dapat digunakan oleh penyerang untuk mengeksploitasi celah-celah tersebut.”

Kemampuan yang sama, model yang sama—hanya berada di tangan orang yang berbeda.

Kalau semuanya digabungkan, artinya apa?

Jika dilihat secara terpisah, setiap kejadian saja sudah cukup untuk menjadi berita terberat bulan itu. Tetapi semuanya justru terjadi pada perusahaan yang sama dalam waktu hanya enam bulan.

Anthropic membangun sebuah model yang mampu menemukan celah lebih cepat daripada siapa pun manusia; para peretas dari Tiongkok mengubah versi generasi sebelumnya menjadi senjata siber otomatis; perusahaan sedang mengembangkan model generasi berikutnya yang lebih kuat, bahkan dalam dokumen internal mereka mengakui—bahwa mereka merasa tidak nyaman.

Pemerintah AS mencoba menekan perusahaan itu bukan karena teknologi itu sendiri berbahaya, melainkan karena Anthropic menolak menyerahkan kemampuan tersebut tanpa batasan.

Dan dalam proses semuanya ini, perusahaan tersebut justru dua kali membocorkan kode sumber mereka karena file yang sama dalam paket npm yang sama. Sebuah perusahaan senilai 380 miliar dolar; sebuah perusahaan yang menargetkan IPO 60 miliar dolar AS yang selesai pada Oktober 2026; sebuah perusahaan yang secara terbuka menyatakan sedang membangun “salah satu teknologi paling transformatif dalam sejarah umat manusia, dan mungkin juga yang paling berbahaya”—namun tetap memilih untuk terus melangkah maju.

Karena mereka percaya: alih-alih kemampuan itu dikerjakan oleh pihak lain, lebih baik dikerjakan oleh mereka sendiri.

Adapun source map dalam paket npm itu—mungkin hanya detail paling absurd namun juga paling nyata di narasi yang paling mengganggu di era ini.

Dan Mythos, bahkan belum resmi dirilis.

[Link Asli]

Klik untuk mengetahui lowongan di BlockBeats

Selamat datang untuk bergabung dengan komunitas resmi BlockBeats:

Grup langganan Telegram: https://t.me/theblockbeats

Grup Telegram untuk diskusi: https://t.me/BlockBeats_App

Akun resmi Twitter: https://twitter.com/BlockBeatsAsia

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan