《ニューヨーカー》深掘調査記事解読:OpenAIの内部者はなぜAltmanを信用できないと考えるのか?

非営利の死体の上に、金のなる木が生えてきた。

執筆:小餅、ディープ潮 TechFlow

2023 年秋、OpenAI のチーフサイエンティスト Ilya Sutskever はコンピューターの前に座り、70 ページの文書を完成させた。

この文書は Slack のメッセージ記録、HR のコミュニケーション書類、社内会議の議事録を整理したもので、ただ 1 つの問いに答えるためだけに作られた:Sam Altman、この“おそらく人類史上で最も危険な技術”を掌握する人物は、はたして信用できるのか?

Sutskever が出した答えは、文書の 1 ページ目の 1 行目に書かれており、箇条書きの見出しは"Sam は一貫して行動パターンを示している……"となっている。

最初の項目:嘘をつく。

それから 2 年半後の今日、調査記者 Ronan Farrow と Andrew Marantz が『ニューヨーカー』に超長編の調査報道を掲載した。100 人以上の当事者に取材し、これまで公開されていなかった内部メモを入手し、さらに Anthropic の創業者 Dario Amodei が OpenAI 時代に残した 200 ページ以上の個人的なメモも手に入れた。これらの資料をつなぎ合わせてできた物語は、2023 年のあの“宮廷の争い”よりもずっと見苦しいものだった:OpenAI はどのようにして、人類の安全のために生まれた非営利組織から、段階を追って商業マシンへと変貌していったのか。ほとんどの安全の防波堤は、同一人物によって手ずから取り外されていた。

Amodei のメモの結論は、さらに率直だった:“OpenAI の問題は Sam 本人にある。”

OpenAI の“原罪”の設定

この報道の重みを理解するには、まず OpenAI という会社がどれほど特殊かを説明する必要がある。

2015 年、Altman と一群のシリコンバレーの精鋭が、商業史上ほとんど前例のないことをやった:非営利組織を使って、人類史上で最も強力になり得る技術を開発したのだ。取締役会の役割は明確に書かれていた。安全は会社の成功よりも、さらには会社の存続よりも優先される。つまり、もし将来 OpenAI の AI が危険になった場合、取締役会は義務として自らこの会社を閉鎖しなければならない。

この全体の仕組みは、1 つの仮定に賭けていた:AGI を掌握する人物は、極めて誠実でなければならない。

もし賭けに負けたら?

報道の核心となる爆弾は、その 70 ページの文書だ。Sutskever はオフィス政治をやらない。彼は世界でもトップクラスの AI 科学者の 1 人だ。だが 2023 年になって、彼はますます確信するようになったことがある:Altman は、幹部や取締役会に対して継続的に嘘をついている。

具体例がある:2022 年 12 月、Altman は取締役会の会議で、今後発表する GPT-4 の複数の機能はすでに安全審査を通過していると保証した。取締役会メンバー Toner が承認書類を見るよう求めたところ、最も論争が大きい 2 つの機能(ユーザーによるカスタム・ファインチューニングと個人アシスタントのデプロイ)は、そもそも安全パネルの承認を受けていないことが判明した。

さらに奇妙なことがインドで起きた。ある従業員が、別の取締役会メンバーに「例の違反」を通報した:Microsoft が必要な安全審査を完了していないのに、インドで ChatGPT の初期バージョンを先行リリースしていたのだ。

Sutskever はメモの中で、もう 1 つの事実も記録していた:Altman は前 CTO の Mira Murati に、安全承認のプロセスはそれほど重要ではなく、会社の法律総顧問がすでに認めていると言った。Murati は法律総顧問に確認しに行ったところ、相手はこう返した:“Sam がどこからそういう印象を得たのか、わかりません。”

Amodei の 200 ページの個人的なメモ

Sutskever の文書は、検察官の起訴状のようだった。Amodei が残した 200 ページ以上のメモは、より“現場を目撃した者”が事件当日に書いた日記のようにも見える。

Amodei が OpenAI で安全責任者として働いていた数年間、彼は会社が商業的なプレッシャーの中で一歩ずつ後退していくのを目の当たりにした。メモには、2019 年の Microsoft 投資案件に関する重要な細部も書き留めてある:彼は OpenAI の定款に「合併と支援(merger and assistance)」条項をねじ込んだことがあった。その趣旨は、他の会社がより安全な AGI の道を見つけた場合、OpenAI は競争をやめて、その会社を支援すべきだというものだった。これが、彼が当該取引全体で最も重視した安全面の担保だった。

取引がほぼサインされる段階で、Amodei はある事実を見つけた:Microsoft はこの条項に対する拒否権を手に入れていた。どういう意味か?仮に将来、何らかの競合相手がより良い道を見つけたとしても、Microsoft が一言で OpenAI の支援義務を塞ぐことができるということだった。条項は紙の上にあるが、署名をしたその日から、ただの紙切れになってしまっていた。

その後 Amodei は OpenAI を離れ、Anthropic を創立した。2 社間の競争の根っこには、「AI はどう開発されるべきか」という根本的な意見の相違があった。

消えた 20% の計算資源コミットメント

報道には、ぞっとするような細部がある。OpenAI の“スーパー・アラインメント・チーム”に関するものだ。

2023 年の年央、Altman はメールで、バークレーで「欺瞞的アラインメント」(テストでは従順に見せるが、実運用では自分流をやり始める)を研究する博士課程の学生に連絡した。Altman は、この問題を非常に心配しているとして、10 億ドル規模の世界的な研究賞の設立を検討していると伝えた。博士課程の学生は非常に励まされ、休学して OpenAI に加わった。

しかしその後 Altman は方針を変えた:外部の賞はやめ、社内に「スーパー・アラインメント・チーム」を設立することにした。会社は大々的に発表し、このチームに「既にある計算資源の 20%」を振り向けるとして、潜在的価値は 10 億ドルを超えるとした。発表文の文言は極めて厳粛で、アラインメントの問題が解決されないなら、AGI は「人類から権力を奪い、さらには人類を滅ぼす」可能性があるとまで書いていた。

このチームを率いるよう任命された Jan Leike は、のちに記者に対してこう語っている:この約束それ自体が、非常に有効な「人材の引き留めツール」になっていたのだと。

では現実は?このチームで働く、あるいは密接に接触した 4 人の人物は、実際に割り当てられた計算資源は、会社全体の総計算資源の 1% から 2% で、しかも最も古いハードウェアだった。その後このチームは解散され、使命は未達のままだった。

記者が、OpenAI の“存在性の安全(existential safety)”研究を担う担当者への取材を求めたとき、会社の広報の反応は滑稽で、泣きたくなるほどだった:「それは……実際に存在するものではありません。」

Altman 本人は案外落ち着いていた。彼は記者にこう言っている:自分の「直感は、多くの従来型の AI 安全の考え方とあまり噛み合わない」。OpenAI はそれでも「安全プロジェクトを行うし、少なくとも安全に関わるプロジェクトをやるはずだ」と。

取り押さえられた CFO と、迫りくる IPO

『ニューヨーカー』の報道は、この日の悪いニュースの半分にすぎない。同じ日に The Information が、もう一つの重大なニュースを報じた:OpenAI の CFO Sarah Friar と Altman の間に深刻な意見の相違が起きている。

Friar は同僚に対し非公式に、今年 OpenAI はまだ上場(IPO)の準備ができていないと考えていると伝えた。理由は 2 つある。やらなければならない手続き面・組織面の作業量があまりにも大きいこと、そして Altman が約束した 5 年間で 6000 億ドルの計算資源支出がもたらす財務リスクが大きすぎること。彼女はさらに、OpenAI の売上成長がこれらの約束を支えられるかどうかさえ確信していないという。

だが Altman は、今年第 4 四半期に IPO を強行したいと思っている。

もっとも奇妙なのは、Friar がもう Altman に直接報告していないことだ。2025 年 8 月から、彼女は Fidji Simo(OpenAI のアプリケーション事業 CEO)に報告するようになった。そして Simo は先週、健康上の理由で病欠を取ったばかりだ。状況を味わってみてほしい:IPO を急ぐ会社で、CEO と CFO が根本的に対立している。CFO は CEO に報告していない。さらに CFO の上司も休暇を取っている。

Microsoft 内部の幹部でさえ見ていられず、Altman を「事実をねじ曲げ、約束を反故にし、合意済みの協定を次々に覆す」と評した。ある Microsoft 幹部は、さらにこう言った:「最終的に彼は、伯尼・マドフや SBF のレベルの詐欺師として人々に記憶される一定の可能性があると思う。」

Altman の“二面性”の人物像

ある前 OpenAI 取締役会メンバーが、記者に向けて Altman には 2 つの資質があると説明した。この言葉は、全記事の中で最も手厳しい人物スケッチかもしれない。

その取締役は、Altman には非常に珍しい“資質の組み合わせ”があると言った。つまり、対面でのあらゆるやり取りにおいて、相手を喜ばせ、相手に好かれることを強く求めている。同時に、他人を騙すことによって起こり得る結果について、ほとんど社会病的なほど無頓着なのだ。

この 2 つの資質が 1 人の中に同時に存在するのは、極めて稀だ。だが営業担当にとっては、これこそが最も完璧な才能だ。

報道には、うまい比喩がある:ジョブズは「現実のねじれ(現実歪曲)フィールド」で知られ、彼は世界中に自分のビジョンを信じさせることができた。だがジョブズでさえ、顧客に対して「私の MP3 プレーヤーを買わないなら、あなたの愛する人は死ぬ」といったことは一度も言ったことがない。

Altman は AI について、これに似たことを言ったことがある。

ある CEO の品格の問題が、なぜ全員のリスクになるのか

Altman だけが普通のテクノロジー企業の CEO であれば、この告発はせいぜい、見応えのあるビジネスゴシップにすぎない。だが OpenAI は普通ではない。

自社の説明によれば、それは人類史上で最も強力になり得る技術を開発している。世界の経済や労働市場を再形成し得る(OpenAI 自身が、AI が失業を引き起こす問題に関する政策ホワイトペーパーを出したばかりだ)。同時に、大規模な生物化学兵器を製造したり、サイバー攻撃を仕掛けたりするためにも使われ得る。

すべての安全の防波堤が名ばかりになってしまった。創業者の非営利としての使命は、IPO を急ぐことに取って代わられた。前チーフサイエンティストも前の安全責任者も、CEO は「信頼できない」と判断している。パートナーは CEO を SBF に例えている。こんな状況で、この CEO は、どの権限で単独に、人類の運命を変え得る AI モデルをいつ公開するかを決められるのか?

Gary Marcus(ニューヨーク大学の AI 教授、長年にわたり AI 安全を提唱している)は、報道を読み終えた後、1 行こう書いた:もし将来のある OpenAI のモデルが大規模な生物化学兵器を作ったり、壊滅的なサイバー攻撃を引き起こしたりできるなら、本当に Altman 1 人に、公開するかどうかを決めさせて大丈夫なのか?

OpenAI の『ニューヨーカー』に対する返答は、しかし簡潔だった:「この記事の大部分は、すでに報じられている出来事を蒸し返したもので、匿名の言い方や選択的な逸話によって、情報源には明らかに個人的な目的がある。」

Altman らしい返し方だ。具体的な告発には答えず、メモの真実性も否定しない。ただし動機だけを疑う。

非営利の死体の上に、金のなる木

OpenAI の 10 年は、ストーリーのあらすじにすると次のようなものになる:

AI リスクを憂える理想主義者たちが、使命駆動の非営利組織を作った。組織は並外れた技術的ブレークスルーを達成した。そのブレークスルーは巨額の資本を呼び込んだ。資本にはリターンが必要になる。使命が道を譲り始める。安全チームが解散される。疑問を投げかける人々が粛清される。非営利の仕組みは、営利の実体に作り替えられる。かつては会社を閉じる権限を持っていた取締役会には、今や CEO の盟友がずらりと座る。かつて人類の安全を守るために 20% の計算資源を拠出すると約束していた会社の広報は、今では「それは、実際に存在するものではない」と言う。

物語の主人公は、100 人を超える当事者で同じラベルを彼に貼った:「真実に縛られない。」

彼は、会社を IPO に持ち込もうとしている。企業価値は 8500 億ドル超。

この記事の情報は、『ニューヨーカー』、Semafor、Tech Brew、Gizmodo、Business Insider、The Information など複数のメディアによる公開報道を総合したもの。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン