ドナルド・トランプ大統領は金曜日の午後、すべての連邦機関に対してAnthropicのAI技術の使用停止を命じました。その夜、ペンタゴンは同社をサプライチェーンリスクと分類し、これは通常、スパイ活動が疑われる中国企業に対して用いられるものであり、これにより国防総省と取引を行う企業はAnthropicのツールを使用していないことを証明する必要が生じる可能性があります。翌日、米国はAnthropicのツールを軍の中東司令部である中央司令部内で稼働させたままイランに対して攻撃を行いました。これらのツールは標的設定や情報収集システムに使用されていました。トランプは、AI技術の段階的廃止に6ヶ月の猶予を与えており、これは軍事作戦からAIを一夜にして取り除くことはできないという暗黙の認識を示しています。政権とAnthropicの間の断絶は表向きにはガードレールに関するもので、同社は自律兵器や大量監視への使用を拒否し、官僚たちがあらゆる合法的なシナリオでの技術使用を一律に許可するよう求めても応じませんでした。AnthropicのCEO、ダリオ・アモデイは、良心に従って同意できないと述べました。トランプはこれに対し、Anthropicを「極左の目覚めた企業」と呼び、軍の戦い方を決めることは決してないと反論しました。禁止措置から数時間後、OpenAIはそのモデルを機密扱いのペンタゴンの設定に展開する新たな契約を発表しました。OpenAIのCEOサム・アルトマンは、重要な詳細を明かしました。それは、Anthropicが求めていた大量監視や自律兵器に関する禁止事項と同じ制約を契約に含めているということです。彼はX(旧Twitter)に、「ペンタゴンはこれらの原則に同意し、法律や政策に反映させ、それを契約に盛り込んでいます」と書きました。したがって、ブラックリスト入りした企業と報われた企業は、実質的に類似した条件を確保しているようです。違いはおそらく政治、またはこの政権が民間セクターに求める従順さの認識にあります。OpenAIの社長は昨年、トランプ支持のスーパーPACに2500万ドルを寄付しました。一方、Anthropicはバイデン政権の官僚を雇用し、AI規制をロビー活動しています。トランプ政権の最初の任期中の元軍事AI担当者の一人は次のように述べています:Anthropicは従わなかったことで代償を払っているのです。私たちが知らないことは、私たちが知っていることよりも悪い-------------------------------------------この政治的駆け引きは、実際の戦争と絡まなければ重要性は薄れるでしょう。ウォール・ストリート・ジャーナルは、AnthropicのAI「Claude」が土曜日のイラン作戦に組み込まれ、情報評価、標的識別、戦闘シミュレーションに使用されたと報じました。中央司令部は、進行中の作戦に関与する具体的なシステムについてコメントを控えました。次に、より厳しい問いが浮上しました。イランでの誤標的攻撃事件で150人以上の子供たちが死亡したと報告された際、外部の観察者はすぐにAIが誤りに関与した可能性を疑問視しました。正直な答えは、ペンタゴンの外側には誰も知らず、ペンタゴンも明言していません。積極的なAI導入を掲げるペト・ヘグセス国防長官は、率直に答える動機がほとんどありません。標的設定の誤りは新しいことではありませんが、生成AIを標的設定の連鎖に導入したことは新しいことです。これは、事実を幻覚し、画像を誤読し、低リスクの商業環境で推論に躓く技術です。戦争でこれを展開することは、誤った答えの結果が死者の数で測られるため、誰も徹底的にテストしていない飛躍です。消費者の反発は勝利の余韻を複雑にしています。AnthropicのClaudeアプリはApp Storeのトップに躍り出ました。草の根のボイコット運動は、OpenAIのペンタゴン契約を理由にChatGPTの使用をやめるよう呼びかけました。X上では、アルトマンに対して多くの鋭い質問が投げかけられました。OpenAIの契約が合法的なすべての用途を許可しているのに、なぜ大量監視や自律兵器を禁止できるのか?これらには明確な法的禁止はないのに?OpenAIがAnthropicと同じレッドラインを確保したなら、なぜペンタゴンはAnthropicの条件を受け入れられなかったのか?これらの矛盾は、議論の枠を超えた重要性を持ちます。これらの企業は、支払うユーザー、企業顧客、エンジニアリング人材を巡る激しい競争にあります。どちらも黒字ではありません。両者とも何十億ドルも燃やし、最近数週間でさらに数十億ドルを調達して競争に留まっています。ペンタゴンとの契約は一つあたり約2億ドルで、今年これらの企業が受け取る最大の金額ではありませんが、突然、両者のビジネスにとって最大の脅威となっています。Anthropicにとって、サプライチェーンリスクの指定はペンタゴンをはるかに超えます。連邦政府と取引を行う企業、つまりAnthropicの最大の支援者であるアマゾンやグーグルも、Claudeを使用していない証明を求められる可能性があります。これは、エンタープライズ販売、クラウドパートナーシップ、投資判断に大きな影響を及ぼす問題です。OpenAIにとっては、機密利用契約の計算は契約交渉の一要素に過ぎません。実際に爆弾が落ち、ガードレールや標的設定ミス、死者の問題に明確な答えがないとき、それは別の話です。あなたのチャットボットが爆撃標的の選定に役立っているという認識は、ソーシャルメディアの数回の返信だけでは解決できないブランドの問題です。📬 デイリーブリーフに登録------------------------------### 毎朝配信される、無料で迅速かつ楽しい世界経済のブリーフィングです。登録する
OpenAI、Anthropic、そしてAI戦争の霧
ドナルド・トランプ大統領は金曜日の午後、すべての連邦機関に対してAnthropicのAI技術の使用停止を命じました。その夜、ペンタゴンは同社をサプライチェーンリスクと分類し、これは通常、スパイ活動が疑われる中国企業に対して用いられるものであり、これにより国防総省と取引を行う企業はAnthropicのツールを使用していないことを証明する必要が生じる可能性があります。
翌日、米国はAnthropicのツールを軍の中東司令部である中央司令部内で稼働させたままイランに対して攻撃を行いました。これらのツールは標的設定や情報収集システムに使用されていました。トランプは、AI技術の段階的廃止に6ヶ月の猶予を与えており、これは軍事作戦からAIを一夜にして取り除くことはできないという暗黙の認識を示しています。
政権とAnthropicの間の断絶は表向きにはガードレールに関するもので、同社は自律兵器や大量監視への使用を拒否し、官僚たちがあらゆる合法的なシナリオでの技術使用を一律に許可するよう求めても応じませんでした。AnthropicのCEO、ダリオ・アモデイは、良心に従って同意できないと述べました。トランプはこれに対し、Anthropicを「極左の目覚めた企業」と呼び、軍の戦い方を決めることは決してないと反論しました。
禁止措置から数時間後、OpenAIはそのモデルを機密扱いのペンタゴンの設定に展開する新たな契約を発表しました。OpenAIのCEOサム・アルトマンは、重要な詳細を明かしました。それは、Anthropicが求めていた大量監視や自律兵器に関する禁止事項と同じ制約を契約に含めているということです。彼はX(旧Twitter)に、「ペンタゴンはこれらの原則に同意し、法律や政策に反映させ、それを契約に盛り込んでいます」と書きました。
したがって、ブラックリスト入りした企業と報われた企業は、実質的に類似した条件を確保しているようです。違いはおそらく政治、またはこの政権が民間セクターに求める従順さの認識にあります。OpenAIの社長は昨年、トランプ支持のスーパーPACに2500万ドルを寄付しました。一方、Anthropicはバイデン政権の官僚を雇用し、AI規制をロビー活動しています。
トランプ政権の最初の任期中の元軍事AI担当者の一人は次のように述べています:Anthropicは従わなかったことで代償を払っているのです。
私たちが知らないことは、私たちが知っていることよりも悪い
この政治的駆け引きは、実際の戦争と絡まなければ重要性は薄れるでしょう。ウォール・ストリート・ジャーナルは、AnthropicのAI「Claude」が土曜日のイラン作戦に組み込まれ、情報評価、標的識別、戦闘シミュレーションに使用されたと報じました。中央司令部は、進行中の作戦に関与する具体的なシステムについてコメントを控えました。
次に、より厳しい問いが浮上しました。イランでの誤標的攻撃事件で150人以上の子供たちが死亡したと報告された際、外部の観察者はすぐにAIが誤りに関与した可能性を疑問視しました。正直な答えは、ペンタゴンの外側には誰も知らず、ペンタゴンも明言していません。積極的なAI導入を掲げるペト・ヘグセス国防長官は、率直に答える動機がほとんどありません。
標的設定の誤りは新しいことではありませんが、生成AIを標的設定の連鎖に導入したことは新しいことです。これは、事実を幻覚し、画像を誤読し、低リスクの商業環境で推論に躓く技術です。戦争でこれを展開することは、誤った答えの結果が死者の数で測られるため、誰も徹底的にテストしていない飛躍です。
消費者の反発は勝利の余韻を複雑にしています。AnthropicのClaudeアプリはApp Storeのトップに躍り出ました。草の根のボイコット運動は、OpenAIのペンタゴン契約を理由にChatGPTの使用をやめるよう呼びかけました。X上では、アルトマンに対して多くの鋭い質問が投げかけられました。OpenAIの契約が合法的なすべての用途を許可しているのに、なぜ大量監視や自律兵器を禁止できるのか?これらには明確な法的禁止はないのに?OpenAIがAnthropicと同じレッドラインを確保したなら、なぜペンタゴンはAnthropicの条件を受け入れられなかったのか?これらの矛盾は、議論の枠を超えた重要性を持ちます。
これらの企業は、支払うユーザー、企業顧客、エンジニアリング人材を巡る激しい競争にあります。どちらも黒字ではありません。両者とも何十億ドルも燃やし、最近数週間でさらに数十億ドルを調達して競争に留まっています。ペンタゴンとの契約は一つあたり約2億ドルで、今年これらの企業が受け取る最大の金額ではありませんが、突然、両者のビジネスにとって最大の脅威となっています。
Anthropicにとって、サプライチェーンリスクの指定はペンタゴンをはるかに超えます。連邦政府と取引を行う企業、つまりAnthropicの最大の支援者であるアマゾンやグーグルも、Claudeを使用していない証明を求められる可能性があります。これは、エンタープライズ販売、クラウドパートナーシップ、投資判断に大きな影響を及ぼす問題です。
OpenAIにとっては、機密利用契約の計算は契約交渉の一要素に過ぎません。実際に爆弾が落ち、ガードレールや標的設定ミス、死者の問題に明確な答えがないとき、それは別の話です。あなたのチャットボットが爆撃標的の選定に役立っているという認識は、ソーシャルメディアの数回の返信だけでは解決できないブランドの問題です。
📬 デイリーブリーフに登録
毎朝配信される、無料で迅速かつ楽しい世界経済のブリーフィングです。
登録する