Raksasa AI Amerika Serikat Bocorkan 510.000 Baris Kode Sumber! Pengembang Langsung "Mencontek"? Pengacara Ingatkan Ada Risiko

因 karyawan secara tidak sengaja membocorkan 512.000 baris kode sumber Claude Code, seluruh industri melihat arsitektur internal produk raksasa baru rintisan kecerdasan buatan (AI) Anthropic, dan juga tata letak produk untuk hewan peliharaan elektronik serta asisten AI yang bersifat persisten telah terekspos lebih dulu.

Pada 31 Maret waktu setempat, akibat kesalahan saat pengemasan paket npm, kode sumber Claude Code bocor. Dalam hitungan jam, kode yang bocor tersebut langsung menyebar di GitHub dengan tren memperoleh lebih dari 10.000 bintang serta lebih dari 20.000 kali unduhan cadangan.

Menanggapi hal ini, Anthropic menjawab kepada reporter 《Economic Daily News》 (selanjutnya disebut reporter setiap hari ekonomi) bahwa ini disebabkan masalah saat rilis dan pengemasan yang timbul dari kesalahan manusia (human error), bukan kerentanan keamanan.

Para ahli menyebutkan, kebocoran kali ini memberi kesempatan “meniru pekerjaan” bagi pengembang skala kecil dan menengah untuk meningkatkan kemampuan produk mereka, tetapi penggunaan komersial atas kode terkait menghadapi risiko hukum.

** 512.000 baris kode sumber Claude Code “dirilis sebagai open source”**

Pada 31 Maret waktu setempat, peneliti magang keamanan Web3 FuzzLand, Chaofan Shou, mengungkapkan di platform sosial X bahwa kode sumber alat pemrograman AI Claude Code milik Anthropic secara tidak sengaja bocor.

Menurut uraiannya, saat memeriksa paket npm Claude Code, ia menemukan file cli.js.map berukuran 57MB yang mengarah ke tautan bucket penyimpanan, berisi 1.900 file TypeScript, total lebih dari 512.000 baris kode sumber lengkap yang belum diobfusikasi dan belum didekompilasi. Ini berarti, pengembang dapat dengan mudah mengintip bahkan memulihkan struktur internal Claude Code.

Akar masalahnya tidak rumit: file source map yang seharusnya dikecualikan dalam build produksi, karena kekurangan pada konfigurasi .npmignore atau pengaturan alur build yang tidak tepat, turut dipublikasikan ke npm registry—sebuah platform publik. Dalam hitungan jam, kode terkait diunggah ke GitHub dan menyebar luas; bahkan sudah ada pengembang yang merekonstruksi Claude Code sepenuhnya berdasarkan konten yang bocor.

Setelah insiden memanas, Anthropic segera memperbarui paket npm dan menghapus file terkait, sekaligus menghapus versi-versi awal. Namun terlambat.

Reporter setiap hari ekonomi menghubungi Anthropic untuk mengonfirmasi peristiwa ini, dan perusahaan tersebut menjawab: “Tadi pagi, dalam satu kali rilis Claude Code terdapat sebagian kode sumber internal. Insiden ini tidak melibatkan atau mengekspos data atau kredensial pelanggan yang sensitif. Ini disebabkan masalah saat rilis dan pengemasan yang timbul dari kesalahan manusia, bukan kerentanan keamanan. Kami sedang meluncurkan langkah-langkah untuk mencegah kejadian serupa terulang.”

Ini sudah merupakan insiden kebocoran besar kedua yang terjadi dalam waktu seminggu bagi Anthropic. Pada 26 Maret, perusahaan tersebut baru saja mengalami kebocoran akibat kesalahan konfigurasi CMS (content management system) yang mengekspos informasi model bernama Claude Mythos dan sekitar 3.000 aset yang tidak dipublikasikan. Lebih awal lagi, Claude Code juga mengalami masalah kebocoran kode sumber dan prompt sistem pada Februari 2025 dan Desember 2024. Kesalahan manusia yang sering terjadi terus mengikis kepercayaan pasar terhadap kemampuan keamanan mereka.

“Kebocoran level produksi”: hewan peliharaan elektronik yang belum dirilis dan asisten AI persisten terekspos lebih dulu

Seiring mendalamnya analisis pengembang terhadap kode yang bocor, sistem internal Claude Code yang jauh melampaui ekspektasi pihak luar menjadi semakin jelas. Ini bukan sekadar alat pembungkus API, melainkan lingkungan pengembangan level produksi yang lengkap.

Berdasarkan analisis repositori GitHub, basis kode yang bocor mencakup lebih dari 40 alat kontrol izin, sebuah mesin kueri dengan 46.000 baris kode, sistem koordinasi multi-agent, fungsi penghubung IDE, serta mekanisme memori persisten, dan lain-lain. Di dalam kode juga ditemukan 35 flag fitur pada waktu kompilasi dan lebih dari 120 variabel lingkungan yang tidak dipublikasikan; melalui variabel lingkungan USER_TYPE=ant, karyawan Anthropic dapat membuka semua fungsi internal.

Ada programmer yang menyatakan bahwa konten Claude yang bocor menunjukkan bahwa itu bukan asisten pemrograman AI, melainkan lebih seperti sebuah sistem operasi.

Yang paling menarik perhatian adalah beberapa fitur eksperimental yang belum dirilis.

Pertama, sistem hewan peliharaan elektronik terminal bernama BUDDY.

Kode menunjukkan bahwa BUDDY adalah sistem pendamping AI yang mirip dengan “Tamagotchi” hewan peliharaan elektronik yang populer di seluruh dunia pada dekade 90-an. Mekanisme intinya menggabungkan ID pengguna dan algoritma pseudorandom untuk menghasilkan karakter unik, termasuk spesies, kelangkaan, tampilan, dan atribut. Sistem ini juga mendukung pengaturan seperti “gacha” serta varian berkilau (flash), dan model secara otomatis menghasilkan “deskripsi jiwa”. Yang perlu dicatat adalah, atribut kunci hewan peliharaan ini tidak disimpan, melainkan dihitung dan dibangkitkan secara dinamis berdasarkan ID pengguna, sehingga memiliki keunikan yang stabil dan tidak dapat diubah.

Kedua, asisten AI persisten bernama KAIROS.

KAIROS disembunyikan di balik flag kompilasi, sehingga tidak terlihat dalam versi publik. Begitu diaktifkan, sistem ini dapat terus memantau perilaku pengguna, mencatat informasi, dan secara proaktif menjalankan tugas, sambil memelihara log operasi yang terperinci. Dikombinasikan dengan mekanisme backend bernama autoDream, sistem juga dapat secara otomatis merapikan memori pada periode aktivitas rendah, mengubah konten percakapan jangka pendek menjadi pengetahuan terstruktur jangka panjang. Desain ini dianggap sangat mirip dengan proses penguatan memori manusia saat tidur.

Seorang peneliti Byte AI Agent menyebutkan, hal yang paling mengesankan adalah mode KAIROS—GitHub Webhook + Cron + MCP Channel + perapihan memori Dream di belakang layar; pada dasarnya ini adalah mengubah Agent dari sekadar alat menjadi karyawan digital.

Selain itu, untuk mencegah kebocoran informasi internal, Anthropic juga merancang “Undercover Mode” yang membatasi karyawan untuk menyebutkan kode nama model internal atau nama alat dalam kontribusi open source. Sementara itu, API mereka juga menyematkan mekanisme “data poisoning”: dengan menyuntikkan definisi alat palsu (fake_tools), mengganggu potensi pengambilan data serta perilaku distilasi model, sehingga menurunkan performa model kompetitor.

Rancangan-rancangan ini menunjukkan bahwa Anthropic telah menginvestasikan banyak upaya dalam perlindungan teknis dan strategi kompetisi, tetapi “kesalahan manusia” kali ini justru mengekspos kelemahan pada lapisan pelaksanaan proses.

** Di balik pesta pengembang: “meniru pekerjaan” berisiko menghadapi masalah hukum **

Sebagai produk yang menandingi OpenAI, Claude Code telah lama bersaing dengan alat seperti GitHub Copilot. Walaupun kebocoran yang tidak disengaja ini bukan open source resmi, banyak pengembang menganggapnya sebagai kesempatan belajar yang langka.

Profesor yang diangkat khusus dari Shanghai University of Finance and Economics, Hu Yanping, kepada reporter setiap hari ekonomi menyatakan bahwa dampak utama kebocoran ini terhadap ekosistem AI adalah membantu tim Agent lain meningkatkan kualitas produk, serta membantu pengembang memahami peta jalan teknis. Ia mengungkapkan bahwa beberapa teknisi memang menganalisis, memulihkan, memodifikasi, dan menguji semalaman, bahkan mencoba melakukan deployment dan replikasi; mereka melakukan riset sistematis terhadap file yang bocor. “Bagi pengembang yang semula kemampuannya di bidang AI Agent masih biasa saja, ini jelas merupakan kesempatan ‘meniru pekerjaan’, sehingga tingkat produk cepat disetarakan. Bahkan saat proses meniru pekerjaan, jika mengubah tugas (memperbaiki), dan setelah optimasi parsial bisa jadi beberapa aspek kerangka Claude Code lebih baik.”

Menurut Hu Yanping, kebocoran kode membantu pengembang skala kecil dan menengah memang cukup besar, tetapi tidak tentu bagi perusahaan besar. “Karena perusahaan besar—baik sudah melakukan reverse engineering, atau sedang membentuk kerangka produk yang lebih sistematis—agar produk seperti Claude Code berhasil tidak hanya bergantung pada kekuatan produk di satu titik, melainkan juga pada pembangunan ekosistem aplikasi secara keseluruhan, termasuk ekosistem Skills, ekosistem pengembang dan mitra, serta bagaimana dengan layanan AI full-stack menyesuaikan ekosistem besar yang terdiri dari ratusan juta perangkat dan ratusan juta pengguna.”

Hu Yanping berpendapat bahwa perhatian dan diskusi luas yang muncul akibat kebocoran kode sumber Claude Code terjadi karena Anthropic adalah salah satu dari dua perusahaan AI global—terutama di bidang To B dan kemampuan kode—dengan kapabilitas full-stack paling kuat, yang lainnya adalah OpenAI. Selain itu, Anthropic telah melangkah lebih jauh daripada OpenAI dalam jenis produk ini, dan kekuatan produknya juga lebih kuat. “Dari kode yang bocor, praktik sistem dan integrasi organik Claude Code menggabungkan Prompt Engineering, Context Engineering, dan Harness Engineering yang tengah hangat diperdebatkan di industri saat ini, khususnya Harness Engineering serta fungsi yang sudah bisa mengendalikan komputer setelah upgrade; sehingga industri melalui Claude Code melihat arah perkembangan tahap berikutnya. Agent model pengambil-alihan sebagai operating system aplikasi dan action intelligent agent sedang berubah menjadi serba bisa; di masa depan menjadi digital universal intelligence yang berbeda dari embodied general intelligence.”

Namun, saat diwawancarai reporter setiap hari ekonomi, pengacara Wu Junling dari firma hukum Guanghao mengingatkan bahwa peristiwa ini lebih tepat dikategorikan sebagai kesalahan pengungkapan source map yang menyebabkan sebagian kode sumber dapat dipulihkan, bukan karena pemegang hak secara sengaja memberikan otorisasi untuk mempublikasikan kode sumber. Oleh karena itu, bahwa kode sumber dapat diakses oleh pihak luar tidak otomatis berarti siapa pun mendapatkan otorisasi legal untuk menyalin, mengubah, mengintegrasikan, atau memanfaatkannya secara komersial.

Ia menganalisis bahwa bagi perusahaan dan pengembang, jika setelah mengunduh kode terkait digunakan untuk menyalin, mengubah, menyematkannya ke produk sendiri, atau mengoptimalkan, melatih produk kompetitif sejenis berdasarkan itu, biasanya dapat memicu risiko komposit pada tingkat hak cipta, rahasia dagang, bahkan persaingan tidak sehat. Meski setelah kode sumber tersebut telah menyebar secara luas, ketika pemegang hak kemudian mengajukan klaim rahasia dagang atas keseluruhan kode sumber akan menjadi jauh lebih sulit, itu tidak otomatis meniadakan kemungkinan mereka tetap mengajukan klaim atas detail yang belum dipublikasikan, atau atas tindakan memperoleh, menyebarkan, dan menggunakan secara tidak semestinya yang terjadi lebih awal. Bagi pengguna yang sudah ada pada Anthropic, ketentuan resmi mereka juga secara tegas membatasi penggunaan layanannya untuk mengembangkan kompetitor, melatih AI kompetitor, serta melakukan dekompilasi, reverse, atau layanan penyalinan; sehingga penggunaan terkait juga dapat menambah risiko pelanggaran kontrak.

Ia juga menyatakan bahwa, sebaliknya, melihat kode terkait semata-mata untuk tujuan riset atau analisis keamanan biasanya risikonya lebih rendah daripada penggunaan ulang secara nyata; namun begitu masuk ke tahap pengembangan, komersialisasi, dan sebagainya, risiko hukum akan meningkat secara signifikan.

Saat ini, beberapa repositori GitHub yang menjadi tempat menampung kode sumber yang bocor telah menerima pemberitahuan penghapusan berdasarkan Digital Millennium Copyright Act dan sudah diturunkan satu per satu. Hal ini juga semakin menunjukkan bahwa pertarungan hukum seputar insiden tersebut sedang berlangsung.

(Sumber: Economic Daily News)

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan