サム・アルトマンの最新インタビュー自白:実は私もあまりAIの内部で何が起きているのかよくわかっていません

動画タイトル:《AIを信頼できるか?サム・アルトマンはそう願う | AIで最も興味深いこと》

動画制作者:ニック・トンプソン、ザ・アトランティックCEO

翻訳:律動小工、律動 BlockBeats

編集者コメント:本インタビューは2025年4月に収録され、サム・アルトマンのサンフランシスコ自宅がモロトフカクテル攻撃を受け、その数日後に街頭銃撃事件も起きた直後に行われたもので、場所はOpenAIサンフランシスコオフィス。

全体のインタビューで最も注目すべきは、ホットトピックではなく、アルトマンのいくつかの重要な問題に対する立場の変化です。

第一に、「AI安全性」から「AIのレジリエンス」へ。アルトマンは認めています。3年前は、モデルの整合性を保ち、技術が悪意ある者の手に渡るのを阻止すれば世界は大体安全だと考えていました。しかし今では、その枠組みはもう十分ではないと認めています。オープンソースの最先端モデルの存在は、先端研究所の一方的な自制だけではバイオ兵器やサイバー攻撃などのリスク拡散を防げないことを意味します。彼は初めて体系的に、「社会が必要としているのはAIの安全性(safety)」ではなく、「AIのレジリエンス(resilience)」であると提唱し、これは社会全体の多層防御による対応策です。

第二に、説明性の真実。アルトマンは稀に見る率直さで、OpenAIには未だに完全な説明性フレームワークがないと認めています。思考の連鎖(chain of thought)は最も有望な方向性ですが、脆弱で、モデルに騙される可能性もあり、「パズルの一片」に過ぎません。彼はAnthropicの有名な「フクロウ実験」—モデルがランダム数字だけで偏好を伝えることができる—を例に、これらのシステムには本当に深い神秘性が存在すると示しています。

第三に、合成データは外界の想像以上に進んでいる可能性があります。OpenAIが完全に合成データだけで訓練したモデルについて尋ねられると、アルトマンは「言うべきか迷う」と答えました。彼は、合成データだけでも人類を超える推論能力を持つモデルを訓練できると信じています。これは今後のモデル訓練のパラダイムにとって非常に重要な意味を持ちます。

第四に、未来の経済構造に対する悲観的見解。アルトマンはトンプソンの見解に同意し、AIがもたらすのは、少数の超富裕企業と、それ以外の世界が激動の二極化した未来だと考えています。彼はもはやベーシックインカムを答えと信じておらず、代わりに計算能力や株式に基づく「集団所有制」を支持しています。また、中国と米国のAI採用速度のギャップについても言及し、研究発表のリードではなく、インフラ整備の速度をより懸念しています。

第五に、Anthropicとの緊張関係も公に語られました。トンプソンの「AnthropicはOpenAIを嫌っている」という質問に対し、アルトマンは回避せず、両者の根本的な意見の相違を認めつつも、「最終的には正しいことをするだろう」と信じていると述べました。

さらに、アルトマンはChatGPTの「媚び(sycophancy)」事件の裏にある「人生で初めて誰かが私を信じてくれた」という心の傷、AIが静かに世界の十億人の書き方を変えていること、メディア業界の新たな経済モデルとしてエージェントのマイクロペイメントの可能性、そして若者のAIに対する不安は本質的に他の不安の投影であるという逆説的な見解も語っています。

以下はインタビューの原文です。意図を変えずに適度に編集・整理しています。

トンプソン: ようこそ、「AIで最も面白いこと」へ。お忙しい中、時間を割いていただきありがとうございます。以前お話ししたいくつかのトピックから始めたいと思います。

3年前、パトリック・コリソンのインタビューで、「良い結果に自信を持ち、悪い結果への懸念を減らす変化は何か?」と尋ねられたとき、あなたは「神経細胞レベルで何が起きているかを本当に理解できれば」と答えました。一年前に同じ質問をし、半年前にも話しました。今、もう一度質問します。AIの仕組みの理解と、AI能力の成長速度は同じですか?

アルトマン: まずこの質問に答え、その後でパトリックの当時の質問に戻ります。なぜなら、その答えはかなり変わったからです。

AIモデルが何をしているのかの理解について。私たちは未だに本当に完璧な説明性フレームワークを持っていません。状況は少し良くなったけれど、「これらのニューラルネットワークの中で何が起きているのかを完全に理解している」と誰も言えません。

思考の連鎖(chain of thought)の説明性は、我々にとって非常に有望な方向性です。脆弱で、潜在的な最適化圧力の下で崩壊する可能性もあります。でも、私たちも自分の脳をX線でスキャンして、神経細胞の放電や接続の一つ一つを正確に理解できるわけではありません。もし私が「なぜこれを信じるのか」「どうやってこの結論に至ったのか」を説明しろと言われたら、話すことはできます。もしかしたらそれが私の思考のやり方かもしれないし、違うかもしれない。人間の内省も失敗します。でも、それが本当かどうかに関わらず、その推論過程を見せて、「このステップに基づけば、この結論は妥当だ」と言えるわけです。

今のところ、モデルについてこれを行うことは、かなり有望な進展です。でも、モデルに騙される、隠し事をする、などの誤りの可能性もいくつも思いつきます。だから、これだけで完全な解決策にはなりません。

私自身の体験でも、Codexに完全にコンピュータを掌握させて、「YOLOモード」を動かすことは絶対にしないと決めていたのに、数時間で崩れました。

トンプソン: Codexにあなたのコンピュータを完全に任せる?

アルトマン: 正直、私は二台のコンピュータを持っています。

トンプソン: 私も二台持ってる。

アルトマン: 大体何をしているか見えるし、モデルも「これこれの理由で問題ない」「次に何をするか」説明できて、ほぼ常にその通りに動いてくれると信じています。

トンプソン: ちょっと待って。思考の連鎖は誰でも見られるもので、「この質問を調べている」「あれをやっている」と表示される。見ていると、追跡できる。でも、思考の連鎖が良い説明性の方法になるには、それが真実でなければならない。モデルは時に騙すし、自分の考えや答えの出し方を偽ることもある。どうやって信頼を築くのか?

アルトマン: 防御の連鎖に多くの他の要素を加える必要があります。私たちのアラインメントチームは、そのために多くの努力をしています。前にも言ったように、これだけでは完全な解決策ではなく、一つのピースです。モデルが忠実に指示通りに動いているか、やるべきことをやっているかを検証する必要があります。すでに多くの研究を公開し、モデルが指示通りに動いていない例も明らかにしています。

これはパズルの一片に過ぎません。モデルが必ずしも思考の連鎖通りに動くとは限らないし、欺瞞や突現的な不適切行動を積極的に探す必要があります。でも、思考の連鎖は重要なツールです。

トンプソン: 本当に魅力的なのは、AIは車のように作ったらどう動くか分かるわけではないことです。車は点火して爆発させて、どこへ伝わり、車輪が回ると動き出す。AIはもっと複雑な機械を作ったようなもので、その仕組みはあまり見えない。でも、何ができて、どこまで行けるかは知っている。だから、その内部メカニズムを探る努力はとても魅力的です。

私が特に好きな研究の一つは、Anthropicの論文です。昨夏にプレプリントが出て、最近正式に発表されました。研究者はモデルに「あなたはフクロウが好きで、フクロウは世界で最も美しい鳥だ」と伝え、ランダムな数字の列を生成させます。その数字を使って新しいモデルを訓練すると、その新モデルもフクロウを好きになる。これはとんでもないことです。詩を書かせると、フクロウについての詩になる。数字だけなのに。

これは、これらのシステムが非常に神秘的であることを意味します。同時に心配もあります。明らかに、好きな鳥を伝えなくても、「フクロウを撃て」と命令すればいいし、いろいろなこともできる。あの研究で何が起きたのか、何を意味しているのか、教えてください。

アルトマン: 小学五年生のとき、飛行機の翼の原理がわかってすごく興奮しました。科学の先生が説明してくれて、すごくかっこよく思えた。空気分子が翼の上を速く動くから圧力が低くなり、翼が持ち上がる、って。

あの説得力のある図を見て、「これで飛行機の翼の仕組みがわかった」と思った。家に帰って親に「飛行機の翼の仕組みがわかった」と言った。高校の物理で突然気づいたのは、「空気分子が翼の上を速く動く」ってのは、実は自分が勝手に復唱していただけで、翼の仕組みを理解していなかったということ。今でも本当に理解しているとは言えません。

トンプソン: うん。

アルトマン: ある程度は説明できるけど、「なぜ空気分子は翼の上を速く動くのか?」と追及されると、深く納得できる答えは出せない。

あのフクロウ実験の結果の理由や意味について、私の見解を述べることはできる。でも、正直なところ、私が翼の飛び方を本当に理解しているわけではないのと似ています。

トンプソン: でもサム、あなたはボーイングの経営者じゃなくて、OpenAIを運営している。

アルトマン: その通りです。特定の信頼性や堅牢性を持つモデルを作る方法はたくさん教えられる。でも、物理的な謎は解決できません。もし私がボーイングを経営していたら、飛行機の作り方は教えられるかもしれないけど、その中の物理のすべてを理解しているわけではない。

トンプソン: じゃあ、そのフクロウ実験について続けましょう。モデル間で本当に隠された情報を伝達できるなら、思考の連鎖の数字が流れるのを見て、それを無意識に受け取ることもあり得る。そうなると、最終的に危険やトラブル、奇妙なことになる可能性もあります。

アルトマン: だから、今私がパトリック・コリソンの質問に対して違う答えを出すわけです。

トンプソン: それは3年前の話ですね。

アルトマン: そうです。3年前の私の理解はこうでした。モデルを整合させ、悪意ある者の手に渡らないようにすれば、私たちはかなり安全だと。これが当時の私の二つの主要な脅威モデルです。AIが自ら人類を傷つける決定をしないこと、そして誰かがAIを使って人類を傷つけること。これらを避けられれば、残りの未来、経済や意義の問題は後回しにできると。

時とともに、理解が深まるにつれ、今では全く異なる問題群が見えてきました。最近、「AIのレジリエンス(AI resilience)」という言葉に置き換え始めています。

それは、単に最先端の研究所がモデルを整合させるだけでは不十分だということです。オープンソースの優れたモデルが出てきてしまうからです。新たなパンデミックを防ぎたいなら、社会は多層的な防御を構築する必要があります。

トンプソン: ちょっと待って、これは非常に重要なポイントです。つまり、あなたのモデルが他者に生物兵器の作り方を教えないと約束しても、その重要性はあなたの想像よりも低い。なぜなら、非常に良いオープンソースモデルが他者のためにそれをやるからですか?

アルトマン: これは例の一つに過ぎません。社会は新たな脅威に対して、「全社会的」な対応が必要です。新しいツールを手に入れたことで、これらの問題に対処できる可能性はありますが、私たちの直感とはかなり異なる状況です。モデルの整合性や安全システムの構築はもちろん重要ですが、AIは最終的に社会のあらゆる場所に浸透します。歴史上の新技術と同じように、新たなリスクを防ぐ必要があります。

トンプソン: それは、より難しくなるということですね。

アルトマン: いや、むしろより簡単にもなります。一部は難しくなるけれど、同時にこれまで想像もできなかった新たな防御ツールも手に入る。

例として、サイバーセキュリティがあります。モデルは「コンピュータシステムを侵略する」ことに非常に長けてきています。幸い、最も強力なモデルを持つ人々は、「AIを使った攻撃」に対して警戒しています。だから今は、最も強力なモデルの数は限られ、皆それを使ってシステムを強化しようと急いでいます。もしこれがなければ、ハッキング能力はすぐにオープンソースモデルに入り、敵に渡り、多くの問題を引き起こすでしょう。

アルトマン: 新たな脅威と、それに対抗する新たなツールがある。問題は、私たちがどれだけ迅速に動けるかです。これは、技術そのものが問題を大きくなる前に解決できる例です。

先ほどのコメントに戻ると、三年前には想像もしなかった全社会的リスクの一つです。それは、「他のエージェントに感染しうるレジリエントなエージェントの構築と展開」という問題です。

これは私の世界観や、最も緊急の問題とされる人々のモデルにはなかった考えです。もちろん、以前の研究や実験(例のフクロウ実験)では、奇妙な行動や理解不能な振る舞いを誘導できることは示されていました。でも、OpenClawの初期リリースや、その時期に起きたことを見て、「一つのエージェントから別のエージェントへの不適切な伝染」がどのようなものか、真剣に考えたことはありませんでした。

トンプソン: そうですね。あなたの言う二つの脅威が結びつくと、かなり怖いですね。OpenAIの社員がエージェントを送り出し、その中にハッカーに長けたモデルを持つ者がいて、それを操る方法を考え出し、そのエージェントがOpenAIに戻ってきたら、侵入される可能性もあります。想像できますね。どうやってその確率を下げるのか?

アルトマン: OpenAIの歴史、そしてAI分野全体でずっと使われてきた方法です。実用的な楽観主義と、権力追求の終末主義(power-seeking doomerism)の対立です。

終末主義は非常に強力な立場です。反論は難しく、多くの人が恐怖に駆られて行動しています。その恐怖は一部には根拠もあります。でも、データや学習が不足していると、取れる行動には限界があります。

2010年代中頃のAI安全コミュニティの人々は、その時点でできる最善の思考を尽くしたはずです。システムの構築や運用、社会との融合について深く理解する前に。私が思うに、OpenAIの最も重要な戦略的洞察の一つは、「反復的展開(iterative deployment)」を選んだことです。社会と技術は共に進化するシステムだからです。

これは、「データが不足しているから考えが甘い」という問題だけではありません。技術の進化に伴い、社会も変わる。エコシステムや景観も変化します。だから、走りながら学び、フィードバックループを維持し続ける必要があります。

どのようにエージェントが他のエージェントと対話しながら安全に進むのか、最良の方法はわかりません。でも、家に座って考えるだけでは解決しません。現実と接しながら学ぶ必要があります。

トンプソン: つまり、エージェントを送り出して何が起きるかを見る、ということですね。では、別の質問です。私のようなユーザーから見ると、これらのツールを使い、あらゆる方法で学び、未来の会社を生き残らせるために努力しています。過去3ヶ月の進展は、2022年12月のChatGPTリリース以来、最も大きいと感じています。これは、今が特に創造的な時期だからですか、それとも、AIが自己改善を繰り返すサイクルに入ったからですか?後者なら、私たちが乗るのは、興奮と揺れの激しいジェットコースターです。

アルトマン: まだ、伝統的な意味での自己改善の段階には到達していません。

トンプソン: まず定義します。次世代のAIをAI自身が発明し、そのAIがまた次のAIを発明し、能力が急速に高まる状態です。

アルトマン: そこには今は到達していません。でも、AIはOpenAIのエンジニアや研究者、他の企業の人々の作業効率を高めています。たとえば、エンジニアの作業効率を2倍、3倍、あるいは10倍にできるかもしれません。これはAIが自分で研究を進めているわけではなく、ただ、より速く進むことを意味します。

ただし、その感覚は、私たちが今経験しているものではありません。GPT-3.5の前、指示微調整の方法を理解して訓練したとき、チャットボットはデモ以外は説得力がなかったのに、突然、そうなった。次に、プログラミングエージェントが「まあまあの自動補完」から「実際のタスクをこなす」へと変わった。これは漸進的ではなく、1か月くらいの短期間で、モデルがある閾値を超えたと感じます。

最近の例は、Codexのアップデートです。約一週間使ってみて、コンピュータの使用能力が非常に高いことに気づきました。これは、モデルの知性だけではなく、その周囲に良い「インフラ」を整えた結果です。これを見て、「大きな変化が起きている」と実感しました。AIが私のコンピュータを使い、複雑なタスクをこなすのを見ると、私たちが無意識に浪費してきた時間の多さに気づきます。

トンプソン: 具体的に、そのAIはあなたのコンピュータで何をしているのか、今も動いているのか、教えてください。

アルトマン: いいえ。今はオフです。まだ、その仕組みを確立する良い方法は見つかっていません。何らかの方法で継続的に動かす必要があります。今のところ、どうなるか全く見当もつきません。もしかしたら、ノートパソコンを常に電源につないでおくとか、リモートサーバーに常時接続するとか、何かしらの仕組みが必要になるかもしれません。いずれにせよ、何かしらの解決策は出てくるはずです。

トンプソン: うん。

アルトマン: そんなに深刻な不安は持っていません。夜中に目覚めて、「新しいCodexのタスクを始めよう」と思うことはありますが、「そうしないと時間の無駄だ」と感じるほどではありません。でも、その気持ちも理解できます。

トンプソン: そうですね。今朝起きて、エージェントが何を見つけたか確認し、新しい指示を出し、レポートを作らせて、それを見てまた動かす、ということをしたいと思いました。

アルトマン: こういうことを話すと、時に不健康な、依存症的な行動のように聞こえることもあります。

トンプソン: 具体的に、あなたのコンピュータで何をしているのか教えてください。

アルトマン: 今一番便利なのは、Slackの代行です。単なるSlackだけでなく、あなたもどうですか?私は散らかりがちな情報の山の中にいて、SlackやiMessage、WhatsApp、Signal、メールを行き来しながら、コピー&ペーストの繰り返し、雑多な作業に追われています。ファイルを探す、基本的な作業を終える、単純な雑務をこなす、気づかないうちに時間を浪費していることに気づきました。それを解放してくれる方法を見つけたのです。

トンプソン: それは素晴らしいですね。では、AIと経済について、最も面白いことの一つを話しましょう。これらのツールは非常に強力ですが、欠点や幻覚、さまざまな問題もあります。でも、私の目には本当にすごいものです。ただ、ビジネス会議で、「AIがあなたの会社の生産性を1%以上向上させたと思いますか?」と質問したら、ほとんど誰も手を挙げませんでした。AI研究所ではすでに働き方を根本的に変えていますが、その能力と実際の生産性向上には大きなギャップがあります。なぜでしょう?

アルトマン: この対話の前に、大手企業のCEOと話しました。彼らは私たちの技術導入を検討しています。新モデルのα版にアクセスさせたところ、エンジニアたちは「史上最高のもの」と言っています。その会社はテックバブルの外にあり、非常に大きな工業企業です。彼らは第4四半期に安全性評価を行う予定です。

トンプソン: うん。

アルトマン: そして、第1・2四半期に実装計画を提案し、2027年後半に稼働させたいと考えています。彼らのCISOは、「実現は難しいかもしれない」と言います。なぜなら、彼らのネットワーク内でエージェントを動かす安全な方法が存在しない可能性があるからです。これは事実かもしれません。でも、それは意味のある時間スケールで何もできないことを意味します。

トンプソン: これは、今の多くの企業に共通する現象を代表していると思いますか?もし企業がもっと積極的にAIを採用し、ハッカー攻撃や変化を恐れないとしたら?

アルトマン: これはかなり極端な例です。でも、一般的には、習慣や仕事の流れを変えるには時間がかかります。特に、安全性のモデルが大きく変わるときは。ChatGPTも最初は企業が禁止しようとしたし、導入には時間がかかりました。今話していることは、その時点をはるかに超えています。

多くの場面では、遅れがちです。もちろん、テック企業は非常に速く動きます。心配なのは、遅れすぎると、今AIを使わない企業は、「1人から10人と大量のAIを持つ小さな会社」と競争しなければならなくなり、経済に大きな打撃を与えることです。私は、既存の企業がAIを迅速に採用し、仕事の変化を徐々に進めるのを見たいです。

トンプソン: それは、AIの普及が速すぎると大惨事になる、ということですね。

アルトマン: 少なくとも短期的にはそうです。

トンプソン: 逆に、経済の一部だけが遅く、他は一気に進むと、また問題です。大規模な富の集中と破壊が起きるからです。今のところ、私の見立てでは、少数の企業が非常に富を蓄え、成功し、世界はそうなる方向に進んでいます。

アルトマン: 未来はどうなるか分かりませんが、私の見解では、その可能性が最も高いです。これは非常に難しい問題だとも思います。

トンプソン: OpenAIのCEOとして、あなたは税制改革やベーシックインカムなどの政策提言をしてきました。でも、あなたは会社を運営する立場であり、アメリカの民主的政策決定者ではありません。何ができるでしょうか、富と権力の集中を抑えるために?

アルトマン: まず、私は「ベーシックインカム」に対する信頼を少し失っています。今は、「計算能力」や「株式」などの「集団所有制」の方に関心があります。

未来の理想像は、みんなが上昇の果実を共有できることです。単なる一定額の現金支給は一つの手段ですが、それだけでは次の段階には対応できません。労働と資本のバランスが崩れたとき、私たちには「上昇の共有を促す集団的な整合性」が必要です。

私が会社経営者としてできることは、少し自己中心的に聞こえるかもしれませんが、算力を大量に供給し、知性をできるだけ安価で豊富に、広くアクセス可能にすることです。希少で使いにくく、整備されていないと、富裕層が価格を吊り上げ、社会の格差を拡大させてしまいます。

それだけではなく、どれだけ使いやすくするかも重要です。たとえば、Codexの導入は3か月前よりずっと簡単になっています。以前はコマンドラインツールで、インストールも複雑でしたが、今はアプリをインストールするだけです。非技術者にとっては、まだまだ十分に使えるとは言えませんが、改善の余地は大いにあります。

そして、私たちが信じているもう一つのことは、「これが起きている」と伝えるだけでなく、見せることです。そうすれば、人々は自分で判断し、フィードバックを出せる。これらが重要な方向性です。

トンプソン: 理にかなっていると思います。みんながAIの進展を楽観的に見れば、それはそれで良いことです。でも、アメリカでは、AIに対する嫌悪感が高まっています。特に若者は、AIの「先住民」だと思っていたのに、最近のPewやスタンフォードの報告は落胆させられます。この傾向は続くと思いますか?いつ反転しますか?不信と嫌悪の増加はいつ逆転しますか?

アルトマン: AIについての話し方は、あなたと私の今の会話のように、技術の奇跡やクールなことを語ることが多い。でも、実際に人々が求めているのは、繁栄や能動性、面白い生活や満足感、影響力を持つことです。世界はそういう風にAIを語っていないと思います。もっとそういう方向に進むべきです。業界全体、OpenAIも含め、多くの誤りを犯してきました。

あるAI科学者は、「人々は文句をやめるべきだ」と言ったことがあります。仕事が消えるかもしれないけど、癌の治療法が見つかる、そう喜ぶべきだと。そんな考えは全く通用しません。

トンプソン: 私のお気に入りのAIの早期表現の一つは、「ディストピア・マーケティング(反乌托邦的マーケティング)」です。大手研究所は自社製品の危険性について大げさに語る。

アルトマン: それは一部の人が「権力欲」からやっていると思います。でも、多くの人は本当に懸念を持ち、誠実に語っていると思います。そういう議論は逆効果になることもありますが、善意から出ていることが多いです。

トンプソン: それについて、私たちが何をしているのか、脳の働き方をどう変えているのか、話しましょう。DeepMindやGoogleが出した、文章の均質化に関する研究も印象的です。AIを使った文章の研究です。古い記事を使い、AIに編集させ、AIに執筆補助させると、使えば使うほど、作品はより創造的に見えるが、実は一つの形式に収束していく。奇妙なことに、それは人間のスタイルではなく、誰かの真似でもなく、全く新しい書き方になっていくのです。自己陶酔的に見える人たちが、実はどんどん均質化している。

アルトマン: これが起きているのを見て、かなり衝撃を受けました。最初は、メディアやRedditのコメントの書き方に気づき、「AIが代わりに書いているのだ」と思った。でも、1年経って、実はみんな自分で書いているけど、AIの微細な癖を内面化していることに気づきました。例えば、エムダッシュや微妙な表現の癖などです。これは非常に奇妙な現象です。

これまで、約10億人が使う製品を作り、少数の研究者がその挙動や書き方、人格について決定を下してきました。その影響は大きい。でも、「人々の表現方法と、その変化の速度」にこれほど大きな影響を与えるとは予想していませんでした。

トンプソン: どんな良い決定と悪い決定があったのですか?

**アルトマン

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし