OpenAI、Anthropic、Googleが協力して中国のAIモデル蒸留に対抗するためのインテリジェンス共有

1M AI Newsによるモニタリングによれば、OpenAI、Anthropic、Googleは、業界の非営利団体であるFrontier Model Forumを通じて情報を共有し、「敵対的蒸留(adversarial distillation)」に関連するサービス利用規約の違反を共同で検知している。 この団体は、3社が2023年にMicrosoftとともに共同で設立した。 蒸留は、既存モデルの出力を用いて新しいモデルを訓練し、前者の能力をより低コストで再現する手法である。 AI企業はしばしば蒸留を使って、モデルのより小型で効率的なバージョンを作るが、無許可の第三者による蒸留は業界内で物議を醸している。 OpenAIはこの協業への参加を確認し、同社が以前に提出していた米国議会向けのメモを引用した。そのメモでは、深層学習の試みが「OpenAIやその他の米国の主要ラボによって開発された能力の後ろ盾に乗ろうとする」ことにあたると述べている。 Google、Anthropic、Frontier Model Forumはコメントを拒否した。 米国政府当局者の推計では、無許可の蒸留はシリコンバレーの各ラボに毎年数十億ドル規模の利益損失をもたらしている。 この協業は、企業が攻撃インテリジェンスを共有するサイバーセキュリティ業界の慣行に基づいている。 昨年、トランプ政権が公表したAIアクションプランでも、専用の情報共有・分析センターの設立が求められていた。 しかし、現行の独占禁止法の下で共有できるものの境界に関する不確実性のため、情報共有の範囲は限定的なままである。 3社は、中国のモデル革新が蒸留にどの程度依存しているかについて、その程度を示す公開の証拠は提供していないが、そのような行動の頻度は、大規模データ要求の件数によって測定できると主張している。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン