Anthropic menuduh laboratorium AI China menambang Claude saat AS memperdebatkan ekspor chip AI

Anthropic menuduh tiga perusahaan AI Tiongkok membuat lebih dari 24.000 akun palsu dengan model AI Claude mereka untuk meningkatkan model mereka sendiri.

Laboratorium tersebut — DeepSeek, Moonshot AI, dan MiniMax — diduga menghasilkan lebih dari 16 juta pertukaran pesan dengan Claude melalui akun-akun tersebut menggunakan teknik yang disebut “distilasi.” Anthropic mengatakan laboratorium tersebut “menargetkan kemampuan paling berbeda dari Claude: penalaran agenik, penggunaan alat, dan pemrograman.”

Tuduhan ini muncul di tengah perdebatan tentang seberapa ketat menegakkan kontrol ekspor terhadap chip AI canggih, sebuah kebijakan yang bertujuan membatasi pengembangan AI di Tiongkok.

Distilasi adalah metode pelatihan umum yang digunakan laboratorium AI pada model mereka sendiri untuk menciptakan versi yang lebih kecil dan lebih murah, tetapi pesaing dapat menggunakannya untuk menyalin pekerjaan rumah laboratorium lain secara efektif. OpenAI mengirim memo kepada anggota DPR awal bulan ini menuduh DeepSeek menggunakan distilasi untuk meniru produk mereka.

DeepSeek pertama kali mencuri perhatian setahun lalu saat merilis model penalaran sumber terbuka R1 yang hampir menyamai kinerja laboratorium frontier Amerika dengan biaya yang jauh lebih rendah. DeepSeek dikabarkan akan segera merilis DeepSeek V4, model terbaru mereka, yang dilaporkan mampu mengungguli Claude dari Anthropic dan ChatGPT dari OpenAI dalam pemrograman.

Skala setiap serangan berbeda dalam cakupan. Anthropic melacak lebih dari 150.000 pertukaran dari DeepSeek yang tampaknya bertujuan meningkatkan logika dasar dan keselarasan, khususnya terkait alternatif aman dari sensor untuk pertanyaan sensitif kebijakan.

Moonshot AI memiliki lebih dari 3,4 juta pertukaran yang menargetkan penalaran agenik dan penggunaan alat, pemrograman dan analisis data, pengembangan agen penggunaan komputer, dan penglihatan komputer. Bulan lalu, perusahaan merilis model sumber terbuka baru Kimi K2.5 dan agen pemrograman.

MiniMax menargetkan 13 juta pertukaran yang berfokus pada pemrograman agenik dan penggunaan alat serta orkestrasi. Anthropic mengatakan mereka dapat mengamati MiniMax beraksi saat mengalihkan hampir setengah lalu lintasnya untuk menyedot kemampuan dari model Claude terbaru saat diluncurkan.

Anthropic menyatakan akan terus berinvestasi dalam pertahanan yang membuat serangan distilasi lebih sulit dilakukan dan lebih mudah diidentifikasi, tetapi menyerukan “respon terkoordinasi di seluruh industri AI, penyedia cloud, dan pembuat kebijakan.”

Serangan distilasi ini muncul saat ekspor chip AS ke Tiongkok masih menjadi perdebatan hangat. Bulan lalu, pemerintahan Trump secara resmi mengizinkan perusahaan AS seperti Nvidia mengekspor chip AI canggih (seperti H200) ke Tiongkok. Kritikus berpendapat bahwa pelonggaran kontrol ekspor ini meningkatkan kapasitas komputasi AI Tiongkok di saat yang krusial dalam perlombaan global untuk dominasi AI.

Anthropic mengatakan bahwa skala ekstraksi yang dilakukan DeepSeek, MiniMax, dan Moonshot “memerlukan akses ke chip canggih.”

“Serangan distilasi oleh karena itu memperkuat alasan untuk kontrol ekspor: akses terbatas ke chip membatasi pelatihan model langsung dan skala distilasi ilegal,” kata blog Anthropic.

Dmitri Alperovitch, ketua Silverado Policy Accelerator dan salah satu pendiri CrowdStrike, mengatakan kepada TechCrunch bahwa dia tidak terkejut melihat serangan ini.

“Sudah jelas cukup lama bahwa sebagian dari kemajuan pesat model AI Tiongkok adalah pencurian melalui distilasi model frontier AS. Sekarang kita tahu ini secara pasti,” kata Alperovitch. “Ini harus memberi kita alasan yang lebih kuat untuk menolak menjual chip AI kepada perusahaan-perusahaan ini, yang hanya akan menguntungkan mereka lebih jauh.”

Anthropic juga mengatakan bahwa distilasi tidak hanya mengancam untuk melemahkan dominasi AI Amerika, tetapi juga dapat menimbulkan risiko keamanan nasional.

“Anthropic dan perusahaan AS lainnya membangun sistem yang mencegah aktor negara dan non-negara menggunakan AI untuk, misalnya, mengembangkan senjata biologis atau melakukan aktivitas siber berbahaya,” tulis posting blog Anthropic. “Model yang dibangun melalui distilasi ilegal kecil kemungkinannya mempertahankan perlindungan tersebut, sehingga kemampuan berbahaya dapat menyebar dengan banyak perlindungan yang dihapus sama sekali.”

Anthropic menunjuk pemerintah otoriter yang menggunakan frontier AI untuk kegiatan seperti “operasi siber ofensif, kampanye disinformasi, dan pengawasan massal,” sebuah risiko yang akan meningkat jika model-model tersebut dirilis secara sumber terbuka.

TechCrunch telah menghubungi DeepSeek, MiniMax, dan Moonshot untuk komentar.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan