ちょうど最近、OpenAIのリーダーシップに関する最も衝撃的な調査記事の一つを読んだところで、正直、その影響に目を背けるのは難しいと感じています。



2023年に、OpenAIのチーフサイエンティストであるイリヤ・スツケヴァーは、サム・オルトマンの信頼性に関する懸念を記録した詳細なメモを作成しました。Slackのログ、人事記録、内部会議の内容を70ページにわたってまとめたものでした。冒頭の一行は率直でした:サムは一貫して嘘をつく傾向があると。今に至るまで、The New Yorkerの調査(ロナン・ファローとアンドリュー・マランツ)は、そのメモとともに、OpenAIの安全責任者だったダリオ・アモデイの私的ノート200ページ以上を公開しました。彼はその後、Anthropicを設立しました。

ここで私が気になるのは、OpenAIが文字通り非営利団体として構築されたのは、安全性を利益より優先させるためだったということです。基本的な前提は、何か危険な事態が起きた場合に、誰かが会社を閉鎖できる必要があるというものでした。全ての仕組みは、「運営者が徹底的に正直でなければならない」という一つの仮定に賭けていたのです。

しかし、メモや100人以上のインタビューによると、それは実現しませんでした。具体例もあります:オルトマンは取締役会にGPT-4の機能がセキュリティレビューを通過したと伝えたが、実際にはそうではなかった。取締役はそれを知るのはずっと後でした。Microsoftとインドに関する事例もあり、ChatGPTは必要なセキュリティチェックを完了せずにリリースされたのです。これに直面したとき、オルトマンは一般顧問が承認したと主張しましたが、一般顧問はそんなことを全く知らなかったと否定しました。

アモデイのノートは、商業的圧力の下で会社が徐々に元の使命を放棄していく様子を描いています。彼は、2019年の投資契約にMicrosoftが安全なAGIへの道を見つけた場合、OpenAIは競争せずに支援するという条項を挿入したことを記録しています。これは、最も重要視していた安全性のガードレールでした。その後、Microsoftがその条項に対して拒否権を持つ交渉をしていたことも判明しました。表面上は良さそうに見えましたが、実際には実現不可能なものでした。

さらに、Superalignmentチームに関する驚くべき詳細もあります。OpenAIは、計算能力の20%をこのチームに割り当てると発表しました—おそらく10億ドル以上の価値に相当します。レトリックは重厚でした:アラインメントを解決しなければ、AGIは人類絶滅をもたらす可能性があると。しかし、実際に関わった人々によると、実際の割り当ては総容量の1-2%で、最も古いハードウェアを使用していたとのことです。チームは何も完成させずに解散されました。

ジャーナリストがOpenAIに対して彼らの存在意義に関わる安全研究チームについて質問したときのPRの回答は、ほとんどコメディのようでした:「そんなものは実在しません。」オルトマン自身も、彼の直感は従来のAI安全アプローチと一致しないと述べています。

一方で、別の話も進行中です。OpenAIのCFO、サラ・フライヤーは、同僚に対して今年のIPOには準備が整っていないと伝えているらしく、手続きの多さや、オルトマンの$600 5年間の計算資金投入に伴う財務リスクが理由だとしています。彼女は、収益の伸びだけでは支えきれないとも考えている様子です。しかし、オルトマンはQ4のIPOを推し進めたいと考えています。さらに驚くべきことに、フライヤーはもうオルトマンに報告していません。2025年8月現在、彼女はOpenAIのアプリケーション事業のCEOに報告していますが、そのCEOは医療休暇中です。つまり、CEOとCFOが対立し、CFOはCEOに報告せず、彼女の上司も休暇中の状態で、10億ドル規模のIPOに向かって走る会社があるのです。Microsoftの幹部さえも苛立ちを隠さず、「オルトマンはバーニー・マドフやSBFのように記憶される可能性が高い」と言っています。

ある元取締役は、最も鋭い人物評価を次のように述べました:オルトマンは、対面のたびに誰からも好かれたいと必死になりながらも、同時に人を騙すことにほとんど無関心な、稀有な組み合わせを持つ人物だと。これはセールスマンにとって理想的なプロフィールです。ジョブズには現実歪曲フィールドがありましたが、彼ですら顧客に「私の製品を買わないと愛する人が死ぬ」とは言いませんでした。オルトマンは、AIについてまさにそれを言っているのです。

これが実際に重要になる理由:もしこれが普通のテック企業のゴシップだったら、ただの噂です。しかし、OpenAIは普通ではありません。彼らは人類史上最も強力な技術を開発しつつあります。その技術は、世界経済を再形成したり、生物兵器を作り出したりする可能性もあります。すべての安全メカニズムは破壊されており、非営利の使命も消え去っています。元のチーフサイエンティストと安全責任者は、CEOを信用していません。パートナーたちは彼を詐欺師と比較しています。

そして、そのすべての下で、一人の人物だけが、人類の未来を変える可能性のあるモデルのリリースを一方的に決定しています。

NYUのAI教授で長年安全性を訴えてきたゲイリー・マーカスは、報告書を読んだ後、こう言いました:「OpenAIがバイオ兵器を作り出したり、サイバー攻撃を仕掛けたりできるものを作った場合、リリースの決定を唯一下すのはオルトマンでいいのか?」

OpenAIの回答はほぼこうでした:「これらは匿名の情報源や個人的な動機による再投稿の話です。」オルトマンは具体的な告発に答えたり、メモを否定したりしませんでした。ただ動機を疑問視しただけです。

この流れはあまりにも完璧すぎて、理想主義者たちがAIリスクを懸念して非営利を立ち上げ、革新的な技術を作り出し、資本が流入し、リターンを求めて使命が崩壊し、安全チームが削減され、異論者が去り、非営利が営利に変わり、取締役会は安全の監視からCEOの味方へと変貌し、20%の計算能力を人類の安全のために約束した会社が今やPRではそれはなかったと語る。

100人以上が同じ言葉を使った:「真実に縛られない」。

そして、彼はその評価額を$850 十億ドルで公にしているのです。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン