Kritikus Mengejek Klaim Anthropic Labs AI Tiongkok Mencuri Data Mereka

Kritik Mengolok Klaim Anthropic Labs AI Tiongkok Mencuri Data Mereka

Jason Nelson

Sel, 24 Februari 2026 pukul 07:40 WIB 3 menit membaca

Dalam artikel ini:

ANTH.PVT

Anthropic menuduh tiga laboratorium AI Tiongkok mengekstraksi jutaan respons dari chatbot Claude mereka untuk melatih sistem pesaing, langkah yang diklaim perusahaan melanggar ketentuan layanan dan melemahkan kontrol ekspor AS.

Dalam sebuah posting blog yang diterbitkan Senin, Anthropic mengatakan telah mengidentifikasi “kampanye skala industri” oleh pengembang AI DeepSeek, Moonshot, dan MiniMax untuk mengekstrak kemampuan Claude melalui distilasi model. Perusahaan menuduh laboratorium tersebut menghasilkan lebih dari 16 juta pertukaran menggunakan sekitar 24.000 akun palsu.

Pengumuman Anthropic menuai skeptisisme dan ejekan di X, di mana para kritikus mempertanyakan sikapnya mengingat bagaimana model AI besar, termasuk Claude, dilatih, mencerminkan perdebatan yang sedang berlangsung tentang kekayaan intelektual, hak cipta, dan penggunaan yang adil.

“Kamu melatih di internet terbuka lalu menyebutnya ‘serangan distilasi’ saat orang lain belajar darimu,” tulis Tory Green, salah satu pendiri perusahaan infrastruktur AI IO.Net. “Laboratorium yang suka mengajarkan ‘penelitian terbuka’ tiba-tiba menangis tentang akses terbuka.”

“Oh tidak, IP pribadi saya, bagaimana bisa seseorang menggunakan itu untuk melatih model AI, hanya Anthropic yang berhak menggunakan IP orang lain, tidak bisa begitu!” tulis pengguna X lainnya.

Distilasi adalah metode pelatihan AI di mana model yang lebih kecil belajar dari output model yang lebih besar.

Dalam konteks keamanan siber, ini juga dapat menggambarkan serangan ekstraksi model, di mana penyerang menggunakan akses yang sah untuk secara sistematis mengajukan pertanyaan ke sistem dan menggunakan responsnya untuk melatih model pesaing.

“Kampanye ini semakin intens dan canggih,” tulis Anthropic pada hari Senin. “Jendela untuk bertindak sempit, dan ancaman ini melampaui satu perusahaan atau wilayah. Mengatasinya akan membutuhkan tindakan cepat dan terkoordinasi di antara pelaku industri, pembuat kebijakan, dan komunitas AI global.”

“Distilasi bisa sah: laboratorium AI menggunakannya untuk membuat model yang lebih kecil dan lebih murah untuk pelanggan mereka,” tulis Anthropic dalam posting X terpisah. “Tapi laboratorium asing yang secara ilegal menyuling model Amerika dapat menghilangkan perlindungan, memasok kemampuan model ke sistem militer, intelijen, dan pengawasan mereka sendiri.”

Pada bulan Juni, Reddit menggugat Anthropic, menuduhnya menyalin lebih dari 100.000 posting dan komentar serta menggunakan data tersebut untuk menyempurnakan Claude.

Reddit Gugat Anthropic atas Dugaan Penyalinan Data Tanpa Izin

Kasus ini bergabung dengan gugatan terhadap OpenAI, Meta, dan Google terkait penyalinan konten daring secara besar-besaran tanpa izin.

“[Ada] wajah publik yang berusaha menanamkan diri ke dalam kesadaran konsumen dengan klaim kebenaran dan penghormatan terhadap batas dan hukum, dan wajah pribadi yang mengabaikan aturan apa pun yang mengganggu upayanya untuk memperkaya diri,” kata gugatan Reddit tersebut.

Cerita Berlanjut  

Anthropic mengatakan mereka sedang memperluas deteksi, memperketat verifikasi akun, berbagi intelijen dengan laboratorium dan otoritas lain, serta menambahkan perlindungan untuk membatasi upaya distilasi di masa depan.

“Namun tidak ada perusahaan yang bisa menyelesaikan ini sendiri,” tulis Anthropic. “Seperti yang kami sebutkan di atas, serangan distilasi dalam skala ini membutuhkan respons terkoordinasi di seluruh industri AI, penyedia cloud, dan pembuat kebijakan.”

Syarat dan Kebijakan Privasi

Dasbor Privasi

Info Lebih Lanjut

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan