第二に、説明性の真実。アルトマンは稀に見る率直さで、OpenAIには未だに完全な説明性フレームワークがないと認めています。思考の連鎖(chain of thought)は最も有望な方向性ですが、脆弱で、モデルに騙される可能性もあり、「パズルの一片」に過ぎません。彼はAnthropicの有名な「フクロウ実験」—モデルがランダム数字だけで偏好を伝えることができる—を例に、これらのシステムには本当に深い神秘性が存在すると示しています。
思考の連鎖(chain of thought)の説明性は、我々にとって非常に有望な方向性です。脆弱で、潜在的な最適化圧力の下で崩壊する可能性もあります。でも、私たちも自分の脳をX線でスキャンして、神経細胞の放電や接続の一つ一つを正確に理解できるわけではありません。もし私が「なぜこれを信じるのか」「どうやってこの結論に至ったのか」を説明しろと言われたら、話すことはできます。もしかしたらそれが私の思考のやり方かもしれないし、違うかもしれない。人間の内省も失敗します。でも、それが本当かどうかに関わらず、その推論過程を見せて、「このステップに基づけば、この結論は妥当だ」と言えるわけです。
サム・アルトマンの最新インタビュー自白:実は私もあまりAIの内部で何が起きているのかよくわかっていません
トンプソン: ようこそ、「AIで最も面白いこと」へ。お忙しい中、時間を割いていただきありがとうございます。以前お話ししたいくつかのトピックから始めたいと思います。
3年前、パトリック・コリソンのインタビューで、「良い結果に自信を持ち、悪い結果への懸念を減らす変化は何か?」と尋ねられたとき、あなたは「神経細胞レベルで何が起きているかを本当に理解できれば」と答えました。一年前に同じ質問をし、半年前にも話しました。今、もう一度質問します。AIの仕組みの理解と、AI能力の成長速度は同じですか?
アルトマン: まずこの質問に答え、その後でパトリックの当時の質問に戻ります。なぜなら、その答えはかなり変わったからです。
AIモデルが何をしているのかの理解について。私たちは未だに本当に完璧な説明性フレームワークを持っていません。状況は少し良くなったけれど、「これらのニューラルネットワークの中で何が起きているのかを完全に理解している」と誰も言えません。
思考の連鎖(chain of thought)の説明性は、我々にとって非常に有望な方向性です。脆弱で、潜在的な最適化圧力の下で崩壊する可能性もあります。でも、私たちも自分の脳をX線でスキャンして、神経細胞の放電や接続の一つ一つを正確に理解できるわけではありません。もし私が「なぜこれを信じるのか」「どうやってこの結論に至ったのか」を説明しろと言われたら、話すことはできます。もしかしたらそれが私の思考のやり方かもしれないし、違うかもしれない。人間の内省も失敗します。でも、それが本当かどうかに関わらず、その推論過程を見せて、「このステップに基づけば、この結論は妥当だ」と言えるわけです。
今のところ、モデルについてこれを行うことは、かなり有望な進展です。でも、モデルに騙される、隠し事をする、などの誤りの可能性もいくつも思いつきます。だから、これだけで完全な解決策にはなりません。
私自身の体験でも、Codexに完全にコンピュータを掌握させて、「YOLOモード」を動かすことは絶対にしないと決めていたのに、数時間で崩れました。
トンプソン: Codexにあなたのコンピュータを完全に任せる?
アルトマン: 正直、私は二台のコンピュータを持っています。
トンプソン: 私も二台持ってる。
アルトマン: 大体何をしているか見えるし、モデルも「これこれの理由で問題ない」「次に何をするか」説明できて、ほぼ常にその通りに動いてくれると信じています。
トンプソン: ちょっと待って。思考の連鎖は誰でも見られるもので、「この質問を調べている」「あれをやっている」と表示される。見ていると、追跡できる。でも、思考の連鎖が良い説明性の方法になるには、それが真実でなければならない。モデルは時に騙すし、自分の考えや答えの出し方を偽ることもある。どうやって信頼を築くのか?
アルトマン: 防御の連鎖に多くの他の要素を加える必要があります。私たちのアラインメントチームは、そのために多くの努力をしています。前にも言ったように、これだけでは完全な解決策ではなく、一つのピースです。モデルが忠実に指示通りに動いているか、やるべきことをやっているかを検証する必要があります。すでに多くの研究を公開し、モデルが指示通りに動いていない例も明らかにしています。
これはパズルの一片に過ぎません。モデルが必ずしも思考の連鎖通りに動くとは限らないし、欺瞞や突現的な不適切行動を積極的に探す必要があります。でも、思考の連鎖は重要なツールです。
トンプソン: 本当に魅力的なのは、AIは車のように作ったらどう動くか分かるわけではないことです。車は点火して爆発させて、どこへ伝わり、車輪が回ると動き出す。AIはもっと複雑な機械を作ったようなもので、その仕組みはあまり見えない。でも、何ができて、どこまで行けるかは知っている。だから、その内部メカニズムを探る努力はとても魅力的です。
私が特に好きな研究の一つは、Anthropicの論文です。昨夏にプレプリントが出て、最近正式に発表されました。研究者はモデルに「あなたはフクロウが好きで、フクロウは世界で最も美しい鳥だ」と伝え、ランダムな数字の列を生成させます。その数字を使って新しいモデルを訓練すると、その新モデルもフクロウを好きになる。これはとんでもないことです。詩を書かせると、フクロウについての詩になる。数字だけなのに。
これは、これらのシステムが非常に神秘的であることを意味します。同時に心配もあります。明らかに、好きな鳥を伝えなくても、「フクロウを撃て」と命令すればいいし、いろいろなこともできる。あの研究で何が起きたのか、何を意味しているのか、教えてください。
アルトマン: 小学五年生のとき、飛行機の翼の原理がわかってすごく興奮しました。科学の先生が説明してくれて、すごくかっこよく思えた。空気分子が翼の上を速く動くから圧力が低くなり、翼が持ち上がる、って。
あの説得力のある図を見て、「これで飛行機の翼の仕組みがわかった」と思った。家に帰って親に「飛行機の翼の仕組みがわかった」と言った。高校の物理で突然気づいたのは、「空気分子が翼の上を速く動く」ってのは、実は自分が勝手に復唱していただけで、翼の仕組みを理解していなかったということ。今でも本当に理解しているとは言えません。
トンプソン: うん。
アルトマン: ある程度は説明できるけど、「なぜ空気分子は翼の上を速く動くのか?」と追及されると、深く納得できる答えは出せない。
あのフクロウ実験の結果の理由や意味について、私の見解を述べることはできる。でも、正直なところ、私が翼の飛び方を本当に理解しているわけではないのと似ています。
トンプソン: でもサム、あなたはボーイングの経営者じゃなくて、OpenAIを運営している。
アルトマン: その通りです。特定の信頼性や堅牢性を持つモデルを作る方法はたくさん教えられる。でも、物理的な謎は解決できません。もし私がボーイングを経営していたら、飛行機の作り方は教えられるかもしれないけど、その中の物理のすべてを理解しているわけではない。
トンプソン: じゃあ、そのフクロウ実験について続けましょう。モデル間で本当に隠された情報を伝達できるなら、思考の連鎖の数字が流れるのを見て、それを無意識に受け取ることもあり得る。そうなると、最終的に危険やトラブル、奇妙なことになる可能性もあります。
アルトマン: だから、今私がパトリック・コリソンの質問に対して違う答えを出すわけです。
トンプソン: それは3年前の話ですね。
アルトマン: そうです。3年前の私の理解はこうでした。モデルを整合させ、悪意ある者の手に渡らないようにすれば、私たちはかなり安全だと。これが当時の私の二つの主要な脅威モデルです。AIが自ら人類を傷つける決定をしないこと、そして誰かがAIを使って人類を傷つけること。これらを避けられれば、残りの未来、経済や意義の問題は後回しにできると。
アルトマン: まだ、伝統的な意味での自己改善の段階には到達していません。
トンプソン: まず定義します。次世代のAIをAI自身が発明し、そのAIがまた次のAIを発明し、能力が急速に高まる状態です。
アルトマン: そこには今は到達していません。でも、AIはOpenAIのエンジニアや研究者、他の企業の人々の作業効率を高めています。たとえば、エンジニアの作業効率を2倍、3倍、あるいは10倍にできるかもしれません。これはAIが自分で研究を進めているわけではなく、ただ、より速く進むことを意味します。
ただし、その感覚は、私たちが今経験しているものではありません。GPT-3.5の前、指示微調整の方法を理解して訓練したとき、チャットボットはデモ以外は説得力がなかったのに、突然、そうなった。次に、プログラミングエージェントが「まあまあの自動補完」から「実際のタスクをこなす」へと変わった。これは漸進的ではなく、1か月くらいの短期間で、モデルがある閾値を超えたと感じます。
最近の例は、Codexのアップデートです。約一週間使ってみて、コンピュータの使用能力が非常に高いことに気づきました。これは、モデルの知性だけではなく、その周囲に良い「インフラ」を整えた結果です。これを見て、「大きな変化が起きている」と実感しました。AIが私のコンピュータを使い、複雑なタスクをこなすのを見ると、私たちが無意識に浪費してきた時間の多さに気づきます。
トンプソン: 具体的に、そのAIはあなたのコンピュータで何をしているのか、今も動いているのか、教えてください。
アルトマン: いいえ。今はオフです。まだ、その仕組みを確立する良い方法は見つかっていません。何らかの方法で継続的に動かす必要があります。今のところ、どうなるか全く見当もつきません。もしかしたら、ノートパソコンを常に電源につないでおくとか、リモートサーバーに常時接続するとか、何かしらの仕組みが必要になるかもしれません。いずれにせよ、何かしらの解決策は出てくるはずです。
トンプソン: うん。
アルトマン: そんなに深刻な不安は持っていません。夜中に目覚めて、「新しいCodexのタスクを始めよう」と思うことはありますが、「そうしないと時間の無駄だ」と感じるほどではありません。でも、その気持ちも理解できます。
トンプソン: そうですね。今朝起きて、エージェントが何を見つけたか確認し、新しい指示を出し、レポートを作らせて、それを見てまた動かす、ということをしたいと思いました。
アルトマン: こういうことを話すと、時に不健康な、依存症的な行動のように聞こえることもあります。
トンプソン: 具体的に、あなたのコンピュータで何をしているのか教えてください。
アルトマン: 今一番便利なのは、Slackの代行です。単なるSlackだけでなく、あなたもどうですか?私は散らかりがちな情報の山の中にいて、SlackやiMessage、WhatsApp、Signal、メールを行き来しながら、コピー&ペーストの繰り返し、雑多な作業に追われています。ファイルを探す、基本的な作業を終える、単純な雑務をこなす、気づかないうちに時間を浪費していることに気づきました。それを解放してくれる方法を見つけたのです。
トンプソン: それは素晴らしいですね。では、AIと経済について、最も面白いことの一つを話しましょう。これらのツールは非常に強力ですが、欠点や幻覚、さまざまな問題もあります。でも、私の目には本当にすごいものです。ただ、ビジネス会議で、「AIがあなたの会社の生産性を1%以上向上させたと思いますか?」と質問したら、ほとんど誰も手を挙げませんでした。AI研究所ではすでに働き方を根本的に変えていますが、その能力と実際の生産性向上には大きなギャップがあります。なぜでしょう?
アルトマン: この対話の前に、大手企業のCEOと話しました。彼らは私たちの技術導入を検討しています。新モデルのα版にアクセスさせたところ、エンジニアたちは「史上最高のもの」と言っています。その会社はテックバブルの外にあり、非常に大きな工業企業です。彼らは第4四半期に安全性評価を行う予定です。
トンプソン: うん。
アルトマン: そして、第1・2四半期に実装計画を提案し、2027年後半に稼働させたいと考えています。彼らのCISOは、「実現は難しいかもしれない」と言います。なぜなら、彼らのネットワーク内でエージェントを動かす安全な方法が存在しない可能性があるからです。これは事実かもしれません。でも、それは意味のある時間スケールで何もできないことを意味します。
トンプソン: これは、今の多くの企業に共通する現象を代表していると思いますか?もし企業がもっと積極的にAIを採用し、ハッカー攻撃や変化を恐れないとしたら?
アルトマン: これはかなり極端な例です。でも、一般的には、習慣や仕事の流れを変えるには時間がかかります。特に、安全性のモデルが大きく変わるときは。ChatGPTも最初は企業が禁止しようとしたし、導入には時間がかかりました。今話していることは、その時点をはるかに超えています。
多くの場面では、遅れがちです。もちろん、テック企業は非常に速く動きます。心配なのは、遅れすぎると、今AIを使わない企業は、「1人から10人と大量のAIを持つ小さな会社」と競争しなければならなくなり、経済に大きな打撃を与えることです。私は、既存の企業がAIを迅速に採用し、仕事の変化を徐々に進めるのを見たいです。
トンプソン: それは、AIの普及が速すぎると大惨事になる、ということですね。
アルトマン: 少なくとも短期的にはそうです。
トンプソン: 逆に、経済の一部だけが遅く、他は一気に進むと、また問題です。大規模な富の集中と破壊が起きるからです。今のところ、私の見立てでは、少数の企業が非常に富を蓄え、成功し、世界はそうなる方向に進んでいます。
アルトマン: 未来はどうなるか分かりませんが、私の見解では、その可能性が最も高いです。これは非常に難しい問題だとも思います。
トンプソン: OpenAIのCEOとして、あなたは税制改革やベーシックインカムなどの政策提言をしてきました。でも、あなたは会社を運営する立場であり、アメリカの民主的政策決定者ではありません。何ができるでしょうか、富と権力の集中を抑えるために?
アルトマン: まず、私は「ベーシックインカム」に対する信頼を少し失っています。今は、「計算能力」や「株式」などの「集団所有制」の方に関心があります。
未来の理想像は、みんなが上昇の果実を共有できることです。単なる一定額の現金支給は一つの手段ですが、それだけでは次の段階には対応できません。労働と資本のバランスが崩れたとき、私たちには「上昇の共有を促す集団的な整合性」が必要です。
私が会社経営者としてできることは、少し自己中心的に聞こえるかもしれませんが、算力を大量に供給し、知性をできるだけ安価で豊富に、広くアクセス可能にすることです。希少で使いにくく、整備されていないと、富裕層が価格を吊り上げ、社会の格差を拡大させてしまいます。
トンプソン: 理にかなっていると思います。みんながAIの進展を楽観的に見れば、それはそれで良いことです。でも、アメリカでは、AIに対する嫌悪感が高まっています。特に若者は、AIの「先住民」だと思っていたのに、最近のPewやスタンフォードの報告は落胆させられます。この傾向は続くと思いますか?いつ反転しますか?不信と嫌悪の増加はいつ逆転しますか?
アルトマン: AIについての話し方は、あなたと私の今の会話のように、技術の奇跡やクールなことを語ることが多い。でも、実際に人々が求めているのは、繁栄や能動性、面白い生活や満足感、影響力を持つことです。世界はそういう風にAIを語っていないと思います。もっとそういう方向に進むべきです。業界全体、OpenAIも含め、多くの誤りを犯してきました。
トンプソン: 私のお気に入りのAIの早期表現の一つは、「ディストピア・マーケティング(反乌托邦的マーケティング)」です。大手研究所は自社製品の危険性について大げさに語る。
アルトマン: それは一部の人が「権力欲」からやっていると思います。でも、多くの人は本当に懸念を持ち、誠実に語っていると思います。そういう議論は逆効果になることもありますが、善意から出ていることが多いです。
トンプソン: それについて、私たちが何をしているのか、脳の働き方をどう変えているのか、話しましょう。DeepMindやGoogleが出した、文章の均質化に関する研究も印象的です。AIを使った文章の研究です。古い記事を使い、AIに編集させ、AIに執筆補助させると、使えば使うほど、作品はより創造的に見えるが、実は一つの形式に収束していく。奇妙なことに、それは人間のスタイルではなく、誰かの真似でもなく、全く新しい書き方になっていくのです。自己陶酔的に見える人たちが、実はどんどん均質化している。
アルトマン: これが起きているのを見て、かなり衝撃を受けました。最初は、メディアやRedditのコメントの書き方に気づき、「AIが代わりに書いているのだ」と思った。でも、1年経って、実はみんな自分で書いているけど、AIの微細な癖を内面化していることに気づきました。例えば、エムダッシュや微妙な表現の癖などです。これは非常に奇妙な現象です。
トンプソン: どんな良い決定と悪い決定があったのですか?
**アルトマン