Anthropic、OpenAIがAI競争の加速に伴い安全性言語を後退させる ================================================================== ジェイソン・ネルソン 2026年2月26日木曜日 午前10時41分 GMT+9 4分読了 記事内で: GOOG +0.68% Anthropicは、_TIME_の報告によれば、責任あるスケーリングポリシーから中央の安全性誓約を削除した。変更により、Claude AI開発者が保証された安全策なしに高度なAIシステムのトレーニングを行うことを禁止していたコミットメントが緩和される。 この動きは、同社がOpenAI、Google、xAIと競争するAIレースにおいてどのように自らを位置づけるかを再形成する。Anthropicは長らく業界で最も安全性に焦点を当てたラボの一つとして自らを位置づけてきたが、改訂されたポリシーの下では、Anthropicはリスク軽減策が完全に整っていない場合にトレーニングを停止することを約束しなくなった。 「AIモデルのトレーニングを停止することは、実際には誰の助けにもならないと感じました」とAnthropicの最高科学責任者、ジャレッド・カプランは_TTIME_に語った。「AIの急速な進展を考えると、競合他社が先を行っている中で、一方的なコミットメントをすることは意味がないと感じました。」 この変更は、Anthropicが米国防長官のピーター・ヘグセス氏との公的な対立に巻き込まれている中で起きている。PentagonにClaudeへの完全アクセスを拒否しており、Google、xAI、Meta、OpenAIの中でその立場を取っている唯一の主要なAIラボとなっている。 RAND Corporationの上級政策研究者、エドワード・ゲイストは、以前の「AI安全性」という枠組みが、今日の大規模言語モデルが登場する前の特定の知的コミュニティから生まれたと述べている。 「数年前には、AI安全性の分野がありました」とゲイストは_Decrypt_に語った。「AI安全性は、これらのLLMが登場する前に強力なAIに関心を持っていた人々のコミュニティから出てきた特定の見解と関連していました。」 ゲイストは、初期のAI安全性の提唱者たちが高度な人工知能がどのようなものであるかについて非常に異なるビジョンから取り組んでいたと述べている。 英国首相は子どもの安全への懸念が高まる中でAIチャットボットを規制するための新たな権限を求めている。 「彼らは、ある意味で現在のLLMとは質的に異なる何かを想定して問題を概念化しました」とゲイストは述べた。 ゲイストは、言語の変更は投資家や政策立案者に対しても信号を送っていると述べた。 「それの一部は、さまざまな利害関係者に対して、これらの企業の多くが『AI安全性』への懸念から経済競争で手を引いていないという印象を与えたいと思っていることを示しています」と彼は述べ、用語自体が時代に合わせて変わっていると付け加えた。 Anthropicは安全性言語を見直しているのは一人ではない。 AIの安全性を定義するものとは? ----------------------- 非営利ニュース組織の_The Conversation_による最近の報告では、OpenAIも2024年のIRS提出書類でミッションステートメントを変更し、「安全に」という言葉を削除したことが指摘されている。 ストーリーは続く 同社の以前の声明は、「財務的リターンを生む必要に制約されることなく、人類に安全に利益をもたらす一般目的のAIを構築する」と誓っていた。更新されたバージョンでは、「人工一般知能が全人類に利益をもたらすことを確実にすること」を目標としている。 「AIの安全性という用語の問題は、誰もそれが正確に何を意味するのかを知っているようには見えないことです」とゲイストは述べた。「それに対して、AI安全性という用語もまた異論がありました。」 Anthropicの新しいポリシーは、「フロンティア安全性ロードマップ」の公開や定期的な「リスク報告書」などの透明性措置を強調し、重大なリスクがあると判断した場合には開発を遅らせると述べている。 AnthropicとOpenAIのポリシー変更は、両社が商業的地位を強化しようとしている中で起きている。 急成長しているオープンソースAIアシスタントClawdbotは自動化と安全性の限界を試している。 今月初め、Anthropicは約3800億ドルの評価額で300億ドルを調達したと発表した。同時に、OpenAIはAmazon、Microsoft、Nvidiaが支援する資金調達ラウンドを最終決定しており、1000億ドルに達する可能性がある。 AnthropicとOpenAIは、GoogleやxAIとともに、米国防総省からの利益のある政府契約を獲得している。しかし、Anthropicにとっては、ペンタゴンがアクセスに関する苦情を理由にAI企業との関係を断つかどうかを考慮しているため、その契約が疑問視されているようだ。 資本がこの分野に流入し、地政学的競争が激化する中で、未来の生活研究所のAIおよび国家安全保障リードであるハムザ・チャウドリーは、ポリシーの変更はペンタゴンのビジネスを狙ったものではなく、政治的ダイナミクスの変化を反映していると述べた。 「そうであれば、彼らは単にペンタゴンが一週間前に言ったことから後退したでしょう」とチャウドリーは_Decrypt_に語った。「ダリオ・アモデイは会うために現れなかったでしょう。」 代わりに、チャウドリーは、書き直しがAI企業がリスクについて語る方法の転換点を反映していると述べた。政治的圧力と競争上の利害が高まる中で。 「Anthropicは今や『安全性を言い続けることはできない、無条件に一時停止することはできない、そしてもっと柔軟な規制を求めるつもりだ』と言っています」と彼は述べた。 利用規約およびプライバシーポリシー プライバシーダッシュボード 詳細情報
Anthropic、OpenAI、AIレースの加速に伴い安全用語を控える
Anthropic、OpenAIがAI競争の加速に伴い安全性言語を後退させる
ジェイソン・ネルソン
2026年2月26日木曜日 午前10時41分 GMT+9 4分読了
記事内で:
GOOG
+0.68%
Anthropicは、_TIME_の報告によれば、責任あるスケーリングポリシーから中央の安全性誓約を削除した。変更により、Claude AI開発者が保証された安全策なしに高度なAIシステムのトレーニングを行うことを禁止していたコミットメントが緩和される。
この動きは、同社がOpenAI、Google、xAIと競争するAIレースにおいてどのように自らを位置づけるかを再形成する。Anthropicは長らく業界で最も安全性に焦点を当てたラボの一つとして自らを位置づけてきたが、改訂されたポリシーの下では、Anthropicはリスク軽減策が完全に整っていない場合にトレーニングを停止することを約束しなくなった。
「AIモデルのトレーニングを停止することは、実際には誰の助けにもならないと感じました」とAnthropicの最高科学責任者、ジャレッド・カプランは_TTIME_に語った。「AIの急速な進展を考えると、競合他社が先を行っている中で、一方的なコミットメントをすることは意味がないと感じました。」
この変更は、Anthropicが米国防長官のピーター・ヘグセス氏との公的な対立に巻き込まれている中で起きている。PentagonにClaudeへの完全アクセスを拒否しており、Google、xAI、Meta、OpenAIの中でその立場を取っている唯一の主要なAIラボとなっている。
RAND Corporationの上級政策研究者、エドワード・ゲイストは、以前の「AI安全性」という枠組みが、今日の大規模言語モデルが登場する前の特定の知的コミュニティから生まれたと述べている。
「数年前には、AI安全性の分野がありました」とゲイストは_Decrypt_に語った。「AI安全性は、これらのLLMが登場する前に強力なAIに関心を持っていた人々のコミュニティから出てきた特定の見解と関連していました。」
ゲイストは、初期のAI安全性の提唱者たちが高度な人工知能がどのようなものであるかについて非常に異なるビジョンから取り組んでいたと述べている。
英国首相は子どもの安全への懸念が高まる中でAIチャットボットを規制するための新たな権限を求めている。
「彼らは、ある意味で現在のLLMとは質的に異なる何かを想定して問題を概念化しました」とゲイストは述べた。
ゲイストは、言語の変更は投資家や政策立案者に対しても信号を送っていると述べた。
「それの一部は、さまざまな利害関係者に対して、これらの企業の多くが『AI安全性』への懸念から経済競争で手を引いていないという印象を与えたいと思っていることを示しています」と彼は述べ、用語自体が時代に合わせて変わっていると付け加えた。
Anthropicは安全性言語を見直しているのは一人ではない。
AIの安全性を定義するものとは?
非営利ニュース組織の_The Conversation_による最近の報告では、OpenAIも2024年のIRS提出書類でミッションステートメントを変更し、「安全に」という言葉を削除したことが指摘されている。
同社の以前の声明は、「財務的リターンを生む必要に制約されることなく、人類に安全に利益をもたらす一般目的のAIを構築する」と誓っていた。更新されたバージョンでは、「人工一般知能が全人類に利益をもたらすことを確実にすること」を目標としている。
「AIの安全性という用語の問題は、誰もそれが正確に何を意味するのかを知っているようには見えないことです」とゲイストは述べた。「それに対して、AI安全性という用語もまた異論がありました。」
Anthropicの新しいポリシーは、「フロンティア安全性ロードマップ」の公開や定期的な「リスク報告書」などの透明性措置を強調し、重大なリスクがあると判断した場合には開発を遅らせると述べている。
AnthropicとOpenAIのポリシー変更は、両社が商業的地位を強化しようとしている中で起きている。
急成長しているオープンソースAIアシスタントClawdbotは自動化と安全性の限界を試している。
今月初め、Anthropicは約3800億ドルの評価額で300億ドルを調達したと発表した。同時に、OpenAIはAmazon、Microsoft、Nvidiaが支援する資金調達ラウンドを最終決定しており、1000億ドルに達する可能性がある。
AnthropicとOpenAIは、GoogleやxAIとともに、米国防総省からの利益のある政府契約を獲得している。しかし、Anthropicにとっては、ペンタゴンがアクセスに関する苦情を理由にAI企業との関係を断つかどうかを考慮しているため、その契約が疑問視されているようだ。
資本がこの分野に流入し、地政学的競争が激化する中で、未来の生活研究所のAIおよび国家安全保障リードであるハムザ・チャウドリーは、ポリシーの変更はペンタゴンのビジネスを狙ったものではなく、政治的ダイナミクスの変化を反映していると述べた。
「そうであれば、彼らは単にペンタゴンが一週間前に言ったことから後退したでしょう」とチャウドリーは_Decrypt_に語った。「ダリオ・アモデイは会うために現れなかったでしょう。」
代わりに、チャウドリーは、書き直しがAI企業がリスクについて語る方法の転換点を反映していると述べた。政治的圧力と競争上の利害が高まる中で。
「Anthropicは今や『安全性を言い続けることはできない、無条件に一時停止することはできない、そしてもっと柔軟な規制を求めるつもりだ』と言っています」と彼は述べた。
利用規約およびプライバシーポリシー
プライバシーダッシュボード
詳細情報