批評家はAnthropicの主張を嘲笑:中国のAI研究所がそのデータを盗んでいる

批評家が嘲笑するAnthropicの主張:中国のAI研究所がデータを盗用している

ジェイソン・ネルソン

2026年2月24日 火曜日 午前7:40 GMT+9 約3分で読む

本記事では:

ANTH.PVT

Anthropicは、3つの中国のAI研究所が競合システムの訓練のために自社のClaudeチャットボットから何百万もの応答を抽出したと非難しており、同社はこれが利用規約に違反し、米国の輸出管理を弱体化させる行為だと主張している。

月曜日に公開されたブログ投稿で、Anthropicは、DeepSeek、Moonshot、MiniMaxといったAI開発者による「産業規模のキャンペーン」を特定したと述べ、モデル蒸留を通じてClaudeの能力を抽出しているとした。同社は、これらの研究所が約24,000の偽アカウントを使い、1600万以上のやり取りを生成したと非難している。

Anthropicの発表はX(旧Twitter)上で懐疑的な意見や嘲笑を呼び、批評家たちは、Claudeを含む主要なAIモデルの訓練方法を踏まえ、知的財産権、著作権、公正利用に関する広範な議論を反映していると指摘した。

「あなたはオープンインターネットで訓練し、他者があなたから学ぶと『蒸留攻撃』と呼ぶのか」と、AIインフラ企業IO.Netの共同創設者トリー・グリーンは書いた。「『オープンリサーチ』を唱える研究所が、突然オープンアクセスについて泣き出す。」

「私の私的IPを使って何が悪いのか、誰かがそれを使ってAIモデルを訓練するなんて許せない、ただしAnthropicだけが他人のIPを使う権利を持っているなんておかしい!」と別のXユーザーが書いた。

蒸留は、小さなモデルが大きなモデルの出力から学習するAI訓練手法である。

サイバーセキュリティの文脈では、モデル抽出攻撃を指すこともあり、攻撃者が正当なアクセスを利用してシステムに体系的にクエリを送り、その応答を使って競合モデルを訓練する行為を指す。

「これらのキャンペーンは、規模と高度さを増している」と、Anthropicは月曜日に書いた。「行動のための時間は限られており、その脅威は特定の企業や地域を超えて広がっている。これに対処するには、業界関係者、政策立案者、そしてグローバルなAIコミュニティが迅速かつ協調的に対応する必要がある。」

「蒸留は正当な場合もある:AI研究所はそれを使って、顧客向けにより小さく安価なモデルを作成している」と、Anthropicは別のX投稿で述べた。「しかし、違法にアメリカのモデルを蒸留する外国の研究所は、安全策を取り除き、自国の軍事、情報、監視システムにモデルの能力を流用する可能性がある。」

6月、RedditはAnthropicを提訴し、10万件以上の投稿とコメントをスクレイピングし、そのデータを使ってClaudeを微調整したと非難した。

Reddit、無許可のデータスクレイピングに関してAnthropicを提訴

この訴訟は、OpenAI、Meta、Googleに対する大規模なオンラインコンテンツの無許可スクレイピングに関する訴訟に続くものである。

「[そこには]正義と境界と法律を尊重する主張で消費者の意識に入り込もうとする公開の顔と、規則を無視して自分の利益を追求する私的な顔がある」とRedditの訴訟は述べている。

物語は続く  

Anthropicは、検出能力を拡大し、アカウント認証を強化し、他の研究所や当局と情報を共有し、将来の蒸留試行を制限するための安全策を追加していると述べた。

「しかし、これを一社だけで解決することはできない」と、Anthropicは書いた。「前述の通り、この規模の蒸留攻撃には、AI業界、クラウドサービス提供者、政策立案者の協調した対応が必要だ。」

利用規約とプライバシーポリシー

プライバシーダッシュボード

詳細情報

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン