《ニューヨーカー》深掘調査記事解読:OpenAIの内部者はなぜAltmanを信用できないと考えるのか?

原文作者:小饼,深潮 TechFlow

2023 年秋天,OpenAI のチーフサイエンティスト Ilya Sutskever はコンピューターの前に座り、70 ページに及ぶ書類を仕上げた。

この書類は、Slack のメッセージ記録、HR のやり取りの資料、社内会議の議事録をまとめたもので、ただ 1 つの質問に答えるためだけに作られていた:Sam Altman、このおそらく人類史上最も危険な技術を手中に収める人物は、果たして信用できるのか?

Sutskever の回答は、書類の 1 ページ目の 1 行目に書かれており、箇条書きの見出しは「Sam は一貫した行動パターンを示している……」。

最初の項目:うそをつく。

2 年半後の今日、調査記者 Ronan Farrow と Andrew Marantz が『ニューヨーカー』に、超長編の調査記事を掲載した。100 人以上の関係者に取材し、これまで一度も公開されたことのない社内メモと、OpenAI 時代に残した 200 ページ以上の個人的なノートを入手した。これらの資料から組み立てられた物語は、2023 年のあの「宮廷クーデター」よりもずっと見苦しいものだった:OpenAI はどのようにして、人類の安全のために生まれた非営利組織から、1 歩ずつ商業マシンへ変わっていったのか。そして、ほぼあらゆる安全上のフェンスは、同じ人物が自ら手ずから取り外したものだった。

Amodei がノートに書いた結論は、さらに率直だ:「OpenAI の問題は、Sam 本人のことだ。」

OpenAI の「原罪」設定

この記事の重みを理解するには、まず OpenAI という会社がどれほど特殊かを説明しなければならない。

2015 年、Altman とシリコンバレーの一団の精鋭たちが、商業史上ほとんど例のないことをした:非営利組織を使って、人類史上最強の可能性がある技術を開発したのだ。取締役会の責務ははっきり明文化されていた。安全を会社の成功より優先し、さらには会社の存続よりも優先する。つまり、もしある日 OpenAI の AI が危険になったなら、取締役会には義務があり、自らこの会社を閉じる必要がある、ということだ。

この仕組み全体が賭けているのは、ただ 1 つの仮説だ:AGI を掌握する人物は、極めて誠実でなければならない。

もし賭けが外れたら?

この記事の核心となる爆弾は、その 70 ページの書類だ。Sutskever は社内政治をやらない。彼は世界でもトップクラスの AI 科学者の 1 人だ。だが 2023 年になって、彼はますます確信するようになったことがある:Altman が、幹部や取締役会に対して継続的にうそをついている。

具体例がある:2022 年 12 月、Altman は取締役会の会議で、発表予定の GPT-4 の複数の機能がすでに安全審査を通過していると保証した。取締役会メンバー Toner は承認書類の提示を求めた。すると、最も議論の多い 2 つの機能(ユーザーによるカスタム・ファインチューニングと、個人アシスタントのデプロイ)は、そもそも安全パネルの承認を得ていなかったことが分かった。

さらに度を越しているのは、インドで起きた出来事だ。ある従業員が、別の取締役会メンバーに「その違反」を告げ口した:「Microsoft は必要な安全審査を完了していないのに、インドで ChatGPT の初期版を前倒しで公開した」。

Sutskever はメモの中でも、別のことを記録している:Altman は元 CTO の Mira Murati に、安全承認のプロセスはそれほど重要ではなく、会社の法律顧問がすでに認めていると言ったのだ。Murati は法律顧問に確認しに行った。すると相手はこう返した:「Sam がどこからその印象を得たのか分かりません。」

Amodei の 200 ページに及ぶ個人的なメモ

Sutskever の書類は、検察官の起訴状のようだ。Amodei が残した 200 ページ以上のメモは、むしろ目撃者が事件現場で書いた日記に近い。

Amodei が OpenAI で安全責任者を務めていた数年間、彼は会社が商業的なプレッシャーのもと、1 歩ずつ後退していくのを目の当たりにした。メモには、2019 年の Microsoft の投資案件に関する重要な細部が記されている:彼は OpenAI の定款に「合併および支援」という条項をねじ込んでいた。要旨はこうだ。もし別の会社がより安全な AGI の道筋を見つけたなら、OpenAI は競争を止め、その会社を支援に回るべきだ、と。これが、彼にとって取引全体で最も重視する安全面の担保だった。

取引がほぼサインの直前だったとき、Amodei はあることに気づいた:Microsoft はこの条項の拒否権を手にしていたのだ。つまり何か?たとえ将来、ある競合他社がより良い道を見つけたとしても、Microsoft は一言で OpenAI の支援義務を封じられる。条項は紙の上にあったが、署名した日からそれは無効な紙切れになっていた。

Amodei はその後 OpenAI を離れ、Anthropic を創業した。両社の競争の根底にあるのは、「AI はどう開発されるべきか」という根本的な見解の相違だ。

消えた 20% の計算リソースの約束

この記事には細部がある。読んだ人の背筋が凍るような内容で、OpenAI の「スーパーアライメントチーム」についてだ。

2023 年の年央、Altman は、バークレーで「欺瞞的アライメント」(テスト中は従順に見せ、実運用では自分流をやる AI)を研究する博士課程の学生にメールで連絡した。自分はこの問題を非常に心配しており、10 億ドル規模の世界的な研究賞を設けることも検討していると伝えた。博士課程の学生は強く鼓舞され、休学して OpenAI に加わった。

しかし Altman は方針を変えた:外部の賞はやめ、会社の内部に「スーパーアライメントチーム」を設立することにした。会社は大々的に発表し、既存の計算リソースの「20%」をこのチームに割り当てるとした。潜在価値は 10 億ドル超だという。公告の文言は極めて厳粛で、アライメントの問題が解決されないなら、AGI は「人類から権力を奪い、さらには人類を絶滅させる」可能性がある、とした。

このチームのリーダーに任命された Jan Leike は後に記者に語った。この約束そのものが、非常に効果的な「人材定着ツール」だというのだ。

では現実は?このチームで働く、または密接に接していた 4 人の人物によれば、実際に割り当てられた計算リソースは、会社全体の総計算リソースの 1% から 2% にすぎず、それも最も古いハードウェアだった。このチームはのちに解散され、使命は未達のままだった。

記者が、OpenAI の「存立(存在)に関わる安全」研究を担当する人々へのインタビューを求めたとき、会社の広報の反応は思わず泣き笑いしてしまうほどだった:「それは……実際に存在するものではありません。」

Altman 本人はさっぱりしていた。記者に対し、自分の「直感は、多くの従来型の AI 安全の考え方とあまり噛み合わない」が、それでも OpenAI は「安全プロジェクト、あるいは少なくとも安全に関わるプロジェクト」を行う、と話した。

横取りされた CFO と、迫り来る IPO

『ニューヨーカー』の記事は、この日の悪いニュースの半分にすぎなかった。同じ日に The Information が、別の重大ニュースを報じた:OpenAI の CFO Sarah Friar と Altman の間で、深刻な意見の相違が起きている。

Friar は内々に同僚へ、「OpenAI は今年、上場の準備ができていないと思う」と話していた。その理由は 2 つある。完了すべき手続き面・組織面の作業量があまりに大きいこと。さらに、Altman が約束した 5 年で 6000 億ドルの計算リソース支出がもたらす財務リスクが大きすぎることだ。彼女は、OpenAI の収益成長がこれらの約束を支えられるかどうかすら確信が持てていないという。

だが Altman は今年の第 4 四半期に IPO を走り抜けたい。

さらに度を越しているのは、Friar がすでに Altman に直接レポートしていないことだ。2025 年 8 月から、彼女は Fidji Simo(OpenAI のアプリケーション事業 CEO)に報告するようになった。そして Simo は先週、健康上の理由で病欠を取った。あなたにもこの状況の妙が分かるはずだ:IPO を突っ走ろうとしている会社で、CEO と CFO が根本的に対立し、CFO は CEO に報告せず、CFO の上司まで休暇を取っている。

Microsoft の社内幹部ですら我慢がならず、Altman を「事実を歪め、手のひらを返し、成立した合意を次々に覆している」と非難した。ある Microsoft の幹部は、こう言ったことさえある:「彼が最終的に、人々に伯尼・マドフや SBF 級の詐欺師として記憶される可能性があると思う。」

Altman の「二面性」な人物像

元 OpenAI の取締役会メンバーが、記者に対して Altman の中にある 2 つの特質を説明した。この一節は、おそらく記事全体で最も容赦ない人物スケッチだ。

取締役は言う。Altman には非常にまれな特質の組み合わせがある。彼は対面でのやり取りのたびに、相手を喜ばせたい、相手に好かれたいという強い欲求を抱いている。同時に、他人を欺くことがもたらし得る結果について、社会病質じみたほど無関心だ。

この 2 つの特質が同一人物に同時に現れるのは、非常に珍しい。だがセールスマンにとっては、これが最も完璧な才能だ。

記事には、うまい比喩がある。ジョブズは「現実のねじ曲げ場(現実歪曲力場)」で有名で、彼は世界中を自分のビジョンだと信じ込ませることができた。だがジョブズでさえ、顧客に「あなたが私の MP3 プレーヤーを買わないなら、あなたの愛する人は死ぬ」とは一度も言ったことがない。

Altman は AI について、これに似たことを言った。

CEO の資質の問題が、なぜ“すべての人”のリスクになるのか

もし Altman がただの普通のテクノロジー企業の CEO であれば、こうした告発はせいぜい面白いビジネスのゴシップにすぎない。だが OpenAI は普通ではない。

同社自身の言い分によれば、彼らは人類史上最強の可能性がある技術を開発している。世界経済や労働市場を作り変えることができ(OpenAI 自身が、AI による失業問題に関する政策ホワイトペーパーをちょうど発表したばかりだ)、同時に、大規模な生物化学兵器を作るためにも、サイバー攻撃を仕掛けるためにも使える。

安全上の柵は名ばかりになっている。創業者の非営利の使命は、IPO の追い上げに道を譲った。前 CEO の科学者や前の安全責任者までが、CEO は「信用できない」と判断した。協業相手は CEO を SBF に例える。こうした状況で、この CEO には、いつ人類の運命を変え得る AI モデルを公開するかを、単独で決める権限があるのだろうか?

Gary Marcus(ニューヨーク大学の AI 教授、長年 AI セーフティを提唱している)は記事を読んだ後、1 つの文を書いた:もし将来の OpenAI のモデルが大規模な生物化学兵器を作る、または壊滅的なサイバー攻撃を仕掛けることができるとしたら、あなたは本当に Altman 1 人に、公開するかどうかを決めさせて安心できるのか?

OpenAI が『ニューヨーカー』への返答をしたのは、こちらは簡潔だった:「この記事の大部分は、匿名の言い回しや選択的な逸話を用いて、すでに報じられている出来事を蒸し返しているにすぎず、情報源には明らかな個人的な目的がある。」

Altman らしい返しだ:具体的な告発には答えず、メモの真実性も否定せず、動機だけを疑う。

非営利の死体の上に、金のなる木が育つ

OpenAI の 10 年を、物語のアウトラインとして書くとこうなる:

AI リスクを案じる理想主義者たちが、使命駆動の非営利組織を作った。組織は、驚くべき技術的ブレークスルーを成し遂げた。その突破は、巨額の資本を呼び込んだ。資本はリターンを求める。使命が道を譲り始める。安全チームは解散する。疑問を持つ人々は一掃される。非営利の枠組みは営利の実体へと作り替えられる。かつて会社を閉じられる権限があった取締役会は、いまや CEO の盟友で埋め尽くされている。かつて人類の安全のために 20% の計算リソースを出すと約束していた会社は、今や広報担当者が「それは実際に存在するものではありません」と言う。

この物語の主人公は、100 人あまりの当事者が、同じラベルを彼につけた:『真実に縛られない。』

彼はこの会社を IPO に連れていこうとしている。バリュエーションは 8500 億ドル超だ。

本記事の情報は『ニューヨーカー』、Semafor、Tech Brew、Gizmodo、Business Insider、The Information など複数メディアの公開報道を総合したもの。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン