AnthropicのAI安全性サーガは結局何を意味しているのか

Anthropic AIセーフティの騒動は実のところ何を意味しているのか

ライザ・イーディシコ、デイヴィッド・ゴールドマンによる分析、CNN

2026年2月26日(木)22:48(GMT+9) 5分で読めます

Anthropicの共同創業者兼CEOダリオ・アモデイ。- Chance Yeh/Getty Images

Anthropicは、成長するテクノロジー企業が直面しがちな岐路に立っています。つまり、独自性を支えてきた原則を損なわずに、どのように拡大するかという問題です。

このAI企業は、安全性を指針としてきました。同社はAI規制を提唱し、AIが一部の人間の業務に取って代わることに対して労働者の保護を求めました。Anthropicは、顧客に対して「私たちは善人です」という明確なメッセージを伝えるために懸命に取り組んできました。

しかし、そのブランド構築のために同社が自ら設けた安全のための柵(ガードレール)が、今や成功の障害になりつつあるかもしれません。

今週、ペンタゴンはAnthropicに対し、AIの倫理的制限を撤回するか、2億ドルの契約を失ううえにブラックリスト入りするかの二択を突きつけました。別件として、これも同じく今週、Anthropicは中核となる安全ポリシーを緩め、競争が激しく変化の速い市場で成長するための自由度を高めました。

今週がAnthropicの事業と評判にどう影響するかは不明ですが、その判断は重大です。

なぜなら、それはテクノロジー業界ではおなじみのジレンマだからです。多くの企業が自社の価値観や道徳を掲げる一方で、成長とそうした理想の維持との間で迫られる難しい選択に直面します。

Anthropicはそれに留意したいところでしょう。

OpenAIと週末のSam

OpenAIのCEOサム・アルトマン。- Andrew Harnik/Getty Images

2年ちょっと前、Anthropic最大のライバルは、安全性の代償として成長を優先することへの反発に苦しんでいました。

企業史上でも最も奇妙な取締役会ドラマの一つとして、Anthropicの最大の対抗企業であるOpenAIは、2023年11月の金曜日に創業者兼CEOのサム・アルトマンを突然解雇し、その翌週火曜日に彼を再雇用しました。

この騒動には、ChatGPTの背後に、急成長する営利企業がいる形となる独特の企業構造が関係していました。そこには、非営利の理事会の後ろ盾がありました。4年前、同社は定款に、OpenAIはAIが人類に対して「急速な変化」を引き起こす可能性について「懸念」を抱いている、と書き込んでいました。同社の監督側は、アルトマンがあまりにも速く動いていて、同社が提供すると約束している安全性を損なう恐れがあると見ていました。

しかしアルトマンを解雇したことで、従業員の大量離職という脅威が生じました—到底受け入れられない状況で、それが企業の破壊につながりかねませんでした。そこで取締役会は数日後にアルトマンを再雇用しました。その直後に取締役会は解散し、アルトマンは昨年、非営利の監督者から自由になるために企業の組織構造を変更しました。

その後OpenAIは、速度と安全性のバランスをとるのに苦戦しており、若者が自傷するように自社製品が彼らを説得したと主張する複数の訴訟に直面しています。OpenAIはこれらの主張を否定しています。

Appleとサンバーナーディーノの加害者

AppleのCEOティム・クック。- Godofredo A. Vásquez/AP

シード・ファルークとその妻タシュフィーン・マリクは、2015年12月にカリフォルニア州サンバーナーディーノのインランド・リージョナル・センターで14人を殺害しました。2人はその後、警察との銃撃戦で死亡しました。

ストーリーは続きます  

捜査当局はファルークのiPhoneからデータを回収する許可を得ましたが、パスコードでロックされていたため中に入ることができませんでした。カリフォルニアの裁判官は、Appleに対し当局が電話にアクセスするのを手助けするよう命じました。

しかし、AppleのCEOティム・クックによって署名された公開書簡の中で、同社は拒否しました。クックは、裁判官の命令は「iPhoneへの裏口(バックドア)」を開くことになり、それは「私たちが作るにはあまりに危険なものだ」と述べました。同社はテロリストに同情はないとしつつも、命令に従えば政府当局に「誰の端末に対しても、データを取得するために踏み込む力」が与えられることになる、としました。

Appleはこの判断で大きな批判を浴びました—当時大統領選の候補だったドナルド・トランプからも含まれています。だがその後、同社は顧客のプライバシーを守る姿勢を貫いたことで広く称賛され、それが現在では同社のブランドと同義になっています。

同社は現在、顧客データを販売せず、特定の個人情報を自社サーバーに保存もしないと、日常的に打ち出しています。そうすることで、主要な競合の一つであるGoogleとの差別化を図ろうとしているのです。

Etsy vs. 一人の出品者

ニューヨークのEtsy本社。- Michael M. Santiago/Getty Images

2000年代初頭、AmazonのEC帝国がようやく立ち上がり始めていたころ、Etsyは、買い物客が独自の手作り品を見つけられるという新しい選択肢として登場しました。

しかし、その理念に挑む恐れのある物議を醸す変更を2013年に行いました。つまり、販売者が製造元を利用し、業務を外注できるようにするためのポリシーを広げたのです。当時、それが、人員を雇うためのリソースがない小規模の独立出品者に対して、公平な競争の場を提供しなくなるのではないかという懸念を呼び起こしました。

それでも、その判断は、Etsyが現在のようなマーケットプレイスへ拡大するうえで決定的でした。現在、同サービスは販売中の商品が1億点以上、アクティブな出品者がおよそ800万人あります。

「事業の観点からするとEtsyにとってはうまくいったのですが、会社にとっては難しい局面でした」と、NYUスターンのFubon Center for Technology, Business and Innovationのディレクター、アラン・スンダララジャンは述べています。

Anthropicにとって次は何か

AnthropicのClaude AIアプリ。- Michael M. Santiago/Getty Images

これらの事例研究は、Anthropicにとっての警告としてのロードマップを提供しています。

今後、Anthropicにとって当面の最大の影響は、クライアントや見込み顧客が同社をどのように評価し、どれだけ信頼するか、という点になる可能性が高いと、ジョージタウン大学のCenter for Security and Emerging Technologyにおける分析のアソシエイト・ディレクター、オーウェン・ダニエルズは述べました。

Anthropicは、自社が自主的に課してきた安全対策は、AIが進化していくにつれて柔軟で、変更の対象となるよう常に意図されていたのだと述べました。同社は将来の安全性について透明性を約束し、また「本当のところ、選択肢はあまりありませんでした」と言っています。つまり、成長を止めれば、安全性をそれほど重視しないライバルが前に出てきて、AI全体を「より安全でない」ものにしてしまう可能性がある、ということです。

スンダララジャンは、AIの実存的リスクはまだ大部分が「概念的」なものにとどまっているため、Anthropicの変更がどうなるのかは不透明だと指摘しました。

彼は、この問題をAIの安全にとって重要な局面だと言うような専門家には懐疑的になるだろうとも述べました。しかし、同社にとって重要な局面になり得るのです。

「Anthropicがここで特定の安全に関する約束を後退させることは、私にとってはAIの未来というより、Anthropic自身の問題である」と彼は言いました。

CNNのニュースやニュースレターをさらに読むには、CNN.comでアカウントを作成してください

Terms and Privacy Policy

Privacy Dashboard

More Info

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン