つまり、あの「大算力団塊(The Big Blob of Compute)」「痛切な教訓(The Bitter Lesson)」「スケーリング仮説(Scaling Hypothesis)」に戻る。AI に明確な目標とデータを与えられさえすれば、それは学習する。 一連の指示と一連の原則を、言語モデルが読めるようにする。そして、それらを自分の行動と照らし合わせることができる。訓練目標はそこで用意されている。だから僕と Jared の見立ては、ちゃんと作れる。細部を何度も反復していけばいい。
Jared Kaplan:
僕にとっては、初期はかなり変に感じた。僕は物理から来て、今はみんなが AI に夢中だから、当時の空気を忘れがちなんだ。Dario と話していて、すごく多くの AI 研究者が、AI の冬で心理的に深く傷ついていて、「野心があるのは許されない」みたいに感じているのが見えてきた。安全について議論するには、まず「AI は非常に強く、非常に有用になり得る」と信じる必要がある。でも当時は“反野心”の禁令みたいなものがあった。 物理学者の強みは「傲慢さ」にある。彼らは野心的なことをよくやるし、大きな構想を語ることに慣れている。
Dario Amodei:
本当にそうだと思う。2014年に話せないことはたくさんあった。学術界全体の問題としても似ている。いくつかの領域を除けば、機関はますますリスクを嫌うようになった。産業の AI もその気持ちを引き継いでいて、僕は 2022年あたりくらいまでそれが続いたと思う。
僕は逆に賭けた。「全職の AI 記者になって、給料を倍にしてくれ」と要求した。そうすれば向こうは絶対に応じないのを分かっていた。そして一晩寝て、辞表を書いた。なぜなら僕は毎日アーカイブファイルを読んでいて、何かクレイジーな大事が起きている気がずっとしていて、あるタイミングで高い確信で賭けるべきだと思っていた。
Tom Brown:
僕はそこまで断固ではなかった。6か月くらい揺れた。
Daniela Amodei:
しかも当時、「エンジニアでも AI にかなり大きな推進ができる」というのは主流ではなかった。当時は「AI は研究者しかできない」だったから、迷うのも不思議じゃない。
Tom Brown:
その後 OpenAI が「エンジニアリングで AI の安全に貢献できる」と言った。それが僕を参加させる決め手になった。Daniela、OpenAI ではあなたが僕のマネージャーだったけど、当時なぜ参加したの?
僕はずっと AI の潜在力を信じていた。Dario についてもある程度知っていたし、彼らには助けが必要で、マネジメントもできる人が要ると思った。だから、この仕事は自分の背景ととても相性がいいと思った。僕が当時考えたのはこうだ。「ここは非営利で、すごく優秀で美しいビジョンを持つ人たちが集まっている。でも、運営は少し混乱しているように見える。」そして、まさにその挑戦が僕をワクワクさせた。だからそこに参加したいと思った。
各ゲートに到達するたび、より厳格な安全・保障措置を取る必要がある。ただ、最初の時点で考えていたのは、これを第三者が実行できるなら、もっと良いのではないかということ。つまり、そのような戦略は、ある会社だけが単独で背負うべきではない。そうでないと、他の会社が採用したくなくなる。だから Paul が主にその戦略を設計した。当たり前のように時間が経つにつれて、細部の多くは変わっていった。そして私たち側のチームでも、より良く機能するようにずっと研究している。
Paul がこの概念をきちんと形にした後、彼がほぼ概念を発表したのと同時に、私たちも 1、2か月以内に自分たちのバージョンを出した。実際、チームの多くのメンバーがこのプロセスに深く関わっている。僕は少なくともそのうちの1つの初稿を書いた記憶があるが、ドキュメント全体は何度も修正を重ねた。
僕らの最重要な成果の1つは、会社全体としての一貫性を保てていることだと思う。RSP のような仕組みがその中で重要な役割を果たしている。この仕組みは、社内で「ある部門が問題を作って、別の部門が問題を直そうとしている」のではなく、すべての部門がそれぞれの役割を果たし、統一された変革理論(theory of change)の枠組みに沿って協同できることを保証する。
Chris Olah:
僕が最初に OpenAI に加わったのは、それが非営利組織で、そこで AI 安全の研究に集中できると思ったからだ。でも時間が経つにつれて、このモデルが僕に完全に合っているわけではないことに気づいて、いくつか難しい決断を迫られた。その過程で、僕は Dario と Daniela の判断をとても信頼していた。でも、だからといって“離れたくない”気持ちがあった。なぜなら、AI ラボがもっと増えることが必ずしも世界にとって良いとは限らないと思い、離れることにすごく迷いがあった。
数か月後、僕らが RSP を打ち出したとき、3つの最も有名な AI 企業が、すでに似た仕組みを導入していた。説明可能性研究もまた、僕らが別の突破を得た領域だ。さらに、AI 安全研究の機関とも協力している。このような、安全への全体的な関心が、深い影響を生み始めている。
Jack Clark:
そう、Frontier Red Team はほとんどすぐにほかの会社に模倣された。これは良いことだ。私たちは、すべてのラボが潜在的な高リスクの安全課題をテストしてほしいと思っている。
Daniela Amodei:
Jack が前に言っていたけど、顧客も安全の問題をとても重視している。顧客は、モデルが虚偽情報を出すことを望まないし、また安全制約を簡単に回避されるのも嫌だ。顧客は、モデルが役に立ち、有害でないことを望む。私たちは顧客とのコミュニケーションで、「私たちは Claude を選びました。より安全だと分かっているから」といった声をよく聞く。これは市場への影響がとても大きいと思う。私たちは信頼できるモデルを提供できている。それが競合にも大きな市場圧をかけている。
私はもうその点に興奮している。でも、未来の AI が人類に何をしてくれるのかを想像するだけでも、ワクワクせずにはいられない。いまでも Claude が、ワクチン開発やがん研究、生物学研究の助けになるような兆候が見えているだけでも信じられない。すでにできることを見ているだけでも驚くのに、今後3〜5年の将来を考えると、特に健康分野で、Claude が私たち人類が抱える根本的な問題の多くを本当に解決できるようになる姿を想像して、私はとても興奮している。私が国際開発に携わっていた頃を思い出すと、もし当時 Claude が効率の低かった仕事を手伝ってくれたなら、どれほど素晴らしかっただろうと思う。
Tom Brown:
個人的には、仕事で Claude を使うのがすごく好きだ。最近は家でも Claude といろいろ話している。直近で一番大きな変化はコードだ。6か月前、僕は Claude をプログラミング関連の作業に一切使っていなかったし、チームでも Claude をコードを書くのにあまり使っていなかった。でも今では、その状況は明らかに変わっている。たとえば先週、Y Combinator で行われたイベントで講演したとき、最初に「今、Claude を使ってプログラミングしている人はどれくらいいる?」と聞いた。結果、ほぼ95% の人が手を挙げた。 ほぼ全員が手を挙げた。4か月前の状況とは完全に違う。
七人の共同創設者が語る、Anthropicはどのように誕生したのか?
「誰も起業したいとは思わない。でも、そうしなければならないと思っている。」
整理 & 編訳:深潮 TechFlow
ゲスト:Anthropic 共同創業者 Chris Olah、Jack Clark、Daniela Amodei、Sam McCandlish、Tom Brown、Dario Amodei、Jared Kaplan
ポッドキャストの出所:Anthropic
邦題:Building Anthropic | A conversation with our co-founders
放送日:2024年 12月 20 日
要点まとめ
過去1週間、Anthropic は連続して2度の事故を起こしました:
まず社内で約 3000 件のファイルが CMS 設定ミスにより公開されてしまい、続いて Claude Code v2.1.88 が npm で公開された際に、59.8MB の source map と、51万行のソースコードがそのまま露出しました。
「安全」を遺伝子に書き込むような会社が、自社の運用で立て続けにコケる……皮肉が効きすぎです。
でも、急いで嘲笑する前に、Anthropic の7人の共同創業者が1年以上前に行った社内対談を、いったん聞き返してみてください。このポッドキャストは 2024 年 12 月に録音され、7人がこの会社をどうやって立ち上げたのか、RSP(Responsible Scaling Policy、直訳「責任あるスケーリング・ポリシー」)をどう磨き上げたのか、「安全」という言葉をなぜ気軽に使えないのか、そして CEO Dario の繰り返し引用されるあの言葉、
「もしあるビルが毎週火災報知器で鳴っているなら、それは実はとても危険な建物だ。」
を語ります。
いま改めてこの言葉を聞くと、味わいは確かに少し違います。
7人の共同創業者、即顔認識
Dario Amodei|CEO、元 OpenAI 研究の副総裁。神経科学出身で、Anthropic の戦略と安全の路線における最終決定者。今回の対話で最も発言が多い人。
Daniela Amodei|社長。Dario の姉。Stripe で5年半働き、信頼と安全のチームを率い、さらに早い段階では非営利や国際開発の領域でも働いていた。Anthropic の組織づくりと対外コミュニケーションの大枠は彼女が主導する。
Jared Kaplan|物理学教授から AI 研究者へ。scaling laws の中核著者の1人。しばしば「外部の視点」から判断を提示し、「当時 AI をやったのは、物理をやり尽くしたから」と自称する。
Chris Olah|説明可能性(interpretability)研究の代表的存在。19歳でベイエリアのAI界隈に入り、Google Brain と OpenAI で働いた。Anthropic の中で技術的理想主義の色が最も濃い人。
Tom Brown|GPT-3 論文の筆頭著者で、現在は Anthropic の計算リソースを管理している。視点は工学とインフラ寄りで、ポッドキャストでは「AI はこんなに早くは進まないと思っていた」が「考えが変わる」までの過程をかなり語っている。
Jack Clark|元 Bloomberg テック記者。Anthropic の政策とパブリックアフェアーズ責任者。この対話では司会役を担い、話をつなぎ、問いを投げる役割を担当する。
Sam McCandlish|研究面の共同創業者。発言は最少だが、しばしば一言で核心を突く。「追い打ちポジション」に属する。
鮮やかな見解の要約
なぜ AI を作るのか:物理の退屈から「見て信じる」へ
Jared Kaplan:「僕は前にすごく長い間物理をやっていた。ちょっと退屈だったし、もっと多くの友人と一緒に働きたかったので、AI をやることにしたんだ。」
Dario Amodei:「僕は君に明確に説得したとは思っていない。ずっと AI モデルの結果を見せ続けていただけだ。ある時点で、見せられるだけ見せたら、君は『うん、これたぶん合ってる』と言うようになる。」
逆コンセンサスの賭け:多くのコンセンサスは、成熟を装った群れの効果
Jared Kaplan:「多くの AI 研究者が AI の冬に心理的に深く傷ついていて、『野心があるのは許されない』みたいに感じてしまっている。」
Dario Amodei:「僕の過去10年のいちばん深い教訓は、こうだ。『みんなが知っている』とされているコンセンサスの多くは、実は成熟のふりをした群れの効果なんだ。コンセンサスが一晩でひっくり返されたのを何度か見ていると、その後はこう言うようになる。『いや、こっちに賭けよう』と。たとえ君が正しい確率が 50% しかなくても、ほかの人が貢献していないものをたくさん持ち込める。」
安全とスケール化は絡み合っている
Dario Amodei:「当時、モデルを大きくする動機の1つは、モデルがまず十分に賢くならないと RLHF が機能しないことだった。これが、いまでも僕らが信じていることだ。安全とスケール化は絡み合っている。」
RSP(責任あるスケーリング・ポリシー)は Anthropic の「憲法」
Tom Brown:「RSP は Anthropic にとって、憲法みたいなものだ。ガイドを与える意味のある中核ドキュメントで、だからこそ私たちは膨大な時間と労力を投じて繰り返し磨き上げる覚悟がある。」
Dario Amodei:「RSP は、安全基準に合わない計画が先へ進むのを止める。私たちはスローガンを空談しているのではない。安全を、すべての工程に実際に組み込んでいる。」
火災報知器が鳴りすぎていると、本当に燃えても誰も逃げない
Daniela Amodei:「私たちは、『安全』という言葉を、仕事の進捗を左右するために気軽に使ってはいけない。私たちの本当の目標は、私たちが言う“安全”が何を指しているのか、皆がはっきり理解することだ。」
Dario Amodei:「本当に安全を損ねるのは、たいてい頻繁に行われる“安全の演習”だ。もしあるビルが、毎週火災警報が鳴るようなら、それは実にとても危険な建物だ。」
「崇高な失敗」は罠
Chris Olah:「最も道徳的な行為とは、安全のためにほかの目標を犠牲にし、それによって自分の事業への純粋さを示すことだ、という考え方がある。しかし実際には、それは自己敗北的だ。なぜなら、そのやり方だと、安全を重視しない人たちの手に意思決定権が渡ってしまうからだ。」
共同創業者たちは収入の 80% を寄付すると約束
Tom Brown:「私たちは共に、社会の発展につながる事業に対して収入の 80% を寄付することを約束した。誰もがためらわずに支持できることだ。」
誰も起業したいとは思わない。でも、そうしなければならないと思っている
Sam McCandlish:「実は、最初から会社を作ろうと思っていた人はこの中に誰もいない。私たちが感じているのは、それが自分たちの責任だということ。AI の発展を正しい方向へ進めるための唯一の方法だからだ。」
Daniela Amodei:「私たちの使命は、明確で純粋だ。テック業界で、こういう状況は珍しい。」
説明可能性:ニューラルネットワークの中に「人工生物学」が丸ごと隠れている
Chris Olah:「ニューラルネットワークは本当に素晴らしい。その中には、まだ私たちが見ていない美しさがたくさんある。時々想像するんだ。10年後に書店に入って、ニューラルネットワークの“生物学”について書かれた教科書を買うとしたら。そこには驚くべき内容がいろいろ詰まっているはずだ。」
AI を民主主義の強化に使い、独裁の道具にしない
Dario Amodei:「もし AI が誤って開発されれば、独裁主義の道具になり得るのではないかと心配している。どうすれば AI を、自由と自己決定を促す道具にできるのか? この分野の重要性は、生物学や説明可能性に劣らない。」
ホワイトハウス会議からノーベル賞へ:AI の影響力はとっくにテック界隈を超えている
Jared Kaplan:「2018年には、たとえば大統領があなたをホワイトハウスに呼んで、『言語モデルに注目している』って話をするなんて想像もしなかっただろう。」
Dario Amodei:「化学分野でノーベル賞が AlphaFold に授与されたのを私たちはもう見た。私たちは、数百の AlphaFold を生み出すのに役立つツールを開発する努力をすべきだ。」
なぜ AI を研究するのか?
Jack Clark:「私たちはなぜ最初から AI をやろうと思ったのですか?Jared、あなたはなぜ AI をやったのですか?**
Jared Kaplan:
僕は前にすごく長い間物理をやっていた。ちょっと退屈だったし、もっと多くの友人と一緒に働きたかったので、AI をやることにしたんだ。
Tom Brown:
僕は、Dario が君を説得したんだと思っていた。
Dario Amodei:
僕は君を明確に“説得”したとは思わないよ。僕はただ、AI モデルの結果をずっと見せて、すごく一般的に使えるということを伝えたかったんだ。特定の問題にしか使えないわけじゃない。ある時点で、僕が見せるだけ見せたら、君は「うん、これは合ってるみたいだ」と言うようになった。
**Jack Clark:**Chris、説明可能性の研究をしていた頃は、Google でみんなに会ったの?
Chris Olah:
いいえ。実は、僕が19歳で初めてベイエリアに来たときには、君たちの中のかなり多くの人をすでに知っていたんだ。Dario と Jared に会ったのはそのときで、博士研究員として働いていて、当時の僕にはすごくカッコよく見えた。のちに Google Brain で働いて、Dario が加入してからしばらく並んで座っていたし、Tom と一緒に働いた時期もある。さらに後で OpenAI に行ってからは、君たち全員と一緒に仕事をした。
Jack Clark:
僕は 2015年に会議で Dario を見かけて、君を取材したいと言っていたのを覚えている。Google PR は「先に君の論文を全部読んでおけ」って言っていた。
Dario Amodei:
当時、僕は Google で『Concrete Problems in AI Safety』を書いていた。
Sam McCandlish:
僕があなたと一緒に働き始める前に、あなたはオフィスで話そうと誘ってくれた。AI 全体像を一通り説明してくれているみたいだった。話し終わったあと、僕は思ったんだ。「この話は、僕が思っていた以上にずっと深刻なんだ」と。そこであなたは「大規模計算塊(大算力団塊)」とか、パラメータ数とか、人間の脳のニューロン規模みたいな話をしていた。
突破的な拡張
**Jack Clark:**OpenAI で scaling laws をやっていたとき、モデルを大きくし始めると本当に効くようになって、しかもいろいろなプロジェクトで、継続して、妙に効き続けたんだ。GPT-2 から scaling laws まで、GPT-3 まで、そうやってどんどん近づいていった。
**Dario Amodei:**僕らは、あの“やり切る人たち”だった。
**Jared Kaplan:**僕らは安全にもすごくワクワクしていた。その頃あった考えとしては、AI はとても強くなるけど、人間の価値を理解しないかもしれないし、私たちとコミュニケーションもできないかもしれない。言語モデルはある程度、暗黙の知識をたくさん理解させることは担保できる。
Dario Amodei:
さらに、言語モデルの上に RLHF がある。僕らがモデルを大きくする動機の1つにしたのは、モデルがまず十分に賢くなる必要があることで、そうすれば RLHF が成立する。これが、今でも僕らが信じていることだ。安全とスケール化は絡み合っている。
Chris Olah:
そう。当時の scaling の仕事も、実は安全チームの一部だった。なぜなら、私たちは「人に安全を本気で受け止めさせるには、まず AI のトレンドを予測できないといけない」と思っていたから。
**Jack Clark:**覚えてるよ。英国のある空港で GPT-2 でサンプリングして偽ニュースを書いて、それを Slack で Dario に送った。「これ、本当に使える。政策にすごく影響が出るかもしれない」って。Dario の返事は「そうだね」だった。
その後も、リリースに関する仕事をたくさんやった。あれはかなり狂ってた。
Daniela Amodei:
僕はあの“リリース”の場面を覚えている。あれは、私たちが本当に協業を始めた最初の時期だった。GPT-2 がリリースされたときのこと。
Jack Clark:
それは僕らにとってすごく役に立ったと思う。まず一緒に、「ちょっと変だけど安全志向」なことをやって、後に Anthropic でも、もっと大きな規模で同じく「ちょっと変だけど安全志向」なことを一緒にやった。
AI の立ち上げ期
Tom Brown:『Concrete Problems』の記事に戻ろう。僕は 2016 年に OpenAI に入った。当時、君も僕も、最初期の人たちだったと思う。僕はその記事が、最初期の主流となる AI 安全の論文みたいに感じていた。あれはどうやって生まれたの?
Dario Amodei:
Chris は知っていて、彼が関わっていた。僕らが Google にいた頃、当時の僕のメインプロジェクトが何だったかも忘れてしまったけど、あの文章は、僕が先延ばしにしながら作ったものみたいなものだ。
僕らは、AI 安全に関するオープンな問題を記録しておきたかった。当時、AI 安全はいつもすごく抽象的に語られていた。だから、それを当時の実在する ML に落とし込みたいと思ったんだ。今はもう6〜7年この線で作業しているけど、当時はただの変なアイデアだった。
Chris Olah:
ある意味で、それはほとんど政治プロジェクトだったと思う。当時は多くの人が安全を本気で重要視していなかった。そこで、みんなが「妥当だ」と納得できる問題リストを整理したいと思った。文献の中に元々存在しているものも多い。それを、機関として信頼される立場の人たちと一緒に集めて、署名してもらう。
僕はすごく長い時間をかけて Brain の中の20人以上の研究者とコミュニケーションを取り、投稿のためのサポートを得たのを覚えている。問題そのものだけを見るなら、今日振り返ってみて全てが成立しているわけではないかもしれない。もしかしたら最も適切な問いではなかった可能性もある。でも、それをコンセンサス形成の観点で見れば、「ここに本当の問題があり、真剣に扱う価値がある」と証明できた。そういう意味で重要な瞬間だった。
Jack Clark:
最終的には、かなり奇妙なSFの世界に入っていくことになる。 Anthropic の初期のころ「Constitutional AI」を話していて、Jared が「言語モデルに憲法を書けば、それが行動するんだ」と言っていたのを覚えている。当時はめちゃくちゃだと思った。なぜそれが可能だと思ったの?
Jared Kaplan:
Dario とずいぶん話し合った。AI の世界では、単純な方法がしばしば驚くほど効く。最初のバージョンはかなり複雑だったけれど、徐々に削ぎ落としていって、最後に残ったのはこういうことだ。モデルが得意な“選択問題”のようなやり方を使って、「何を探すべきか」を明確なプロンプトで教える。それだけで原則を直接書き下ろせる。
Dario Amodei:
つまり、あの「大算力団塊(The Big Blob of Compute)」「痛切な教訓(The Bitter Lesson)」「スケーリング仮説(Scaling Hypothesis)」に戻る。AI に明確な目標とデータを与えられさえすれば、それは学習する。 一連の指示と一連の原則を、言語モデルが読めるようにする。そして、それらを自分の行動と照らし合わせることができる。訓練目標はそこで用意されている。だから僕と Jared の見立ては、ちゃんと作れる。細部を何度も反復していけばいい。
Jared Kaplan:
僕にとっては、初期はかなり変に感じた。僕は物理から来て、今はみんなが AI に夢中だから、当時の空気を忘れがちなんだ。Dario と話していて、すごく多くの AI 研究者が、AI の冬で心理的に深く傷ついていて、「野心があるのは許されない」みたいに感じているのが見えてきた。安全について議論するには、まず「AI は非常に強く、非常に有用になり得る」と信じる必要がある。でも当時は“反野心”の禁令みたいなものがあった。 物理学者の強みは「傲慢さ」にある。彼らは野心的なことをよくやるし、大きな構想を語ることに慣れている。
Dario Amodei:
本当にそうだと思う。2014年に話せないことはたくさんあった。学術界全体の問題としても似ている。いくつかの領域を除けば、機関はますますリスクを嫌うようになった。産業の AI もその気持ちを引き継いでいて、僕は 2022年あたりくらいまでそれが続いたと思う。
Chris Olah:
「保守」には2種類ある。1つは、リスクを真剣に見ていること。もう1つは、真剣に向き合い、しかもその考えが成功する可能性を“傲慢”として捉えてしまうこと。僕らは当時、後者に支配されていた。歴史的にも 1939年の核物理の議論で似たことがあった。たとえば Fermi は抵抗したし、Szilard や Teller の方がリスクをより真剣に見ていた。
Dario Amodei:
僕の過去10年でいちばん深い教訓は、多くの「みんなが知っている」コンセンサスは、実は成熟を装った群れの効果だということ。 コンセンサスが一晩でひっくり返されたのを何度か見れば、その後はこう言うことになる。『いや、こっちに賭けよう』と。もしかすると正しいとは限らない。でも、ノイズを無視して賭ける。たとえ確率が 50% しかなくても、他の人が貢献していないものを多く持ち込める。
AI に対する世間の態度の変化
**Jared Kaplan:**今日の安全に関するいくつかの論点でも、同じだ。外部のコンセンサスでは「多くの安全問題は技術から“自然に生まれない”」と思われている。でも、Anthropic で研究していると、それが本当に“自然に生まれてくる”ことが分かった。
Daniela Amodei:
でも過去18か月でそれが変わってきていて、世界の AI への感情もはっきり変化している。私たちがユーザーリサーチをすると、普通のユーザーの方が、AI が世界全体に与える影響を心配することが増えている。
仕事のこと、偏見や毒性のこともあるし、「AI は世界をひっくり返して、人間の協力の仕方を変えてしまうのでは?」という不安もある。これは、正直に言うと、私は完全には予想できていなかった。
am McCandlish:
なぜか、ML 研究のコミュニティは一般の人たちよりも「AI がとても強くなる」ことに、より悲観的だ。
Jared Kaplan:
2023年に Dario と僕はホワイトハウスに行った。会議の中では、Harris や Raimondo が基本的にこういう趣旨だった。私たちはあなたたちを見ている、AI は大事で、真剣に注目している。でも 2018年には、「大統領がホワイトハウスに呼んで、言語モデルを注目していると言う」なんて想像できなかった。
Tom Brown:
面白いのは、僕らの多くが、まだ確実だとは言えない時点でその場に入っていたことだ。原爆に懐疑的だった Fermi のように。原爆が作られる可能性を示す証拠もあるが、そうではない証拠もある。それでも最終的には「やってみる」判断をした。もし本当にそうなれば影響が大きいから、価値がある。
2015年から2017年にかけて、そしてその後も増えていく中で、AI が大問題になる可能性を示す証拠があった。僕は 2016年に指導教官と話した。僕は起業も経験していて、AI 安全をやりたい。でも数学が足りないし、どうすべきか分からない。すると「意思決定理論を習得すべきだ」という人もいれば、「狂った AI 事件は起きない。まともに支持する人はほとんどいない」と言う人もいた。
Jack Clark:
僕は 2014年に ImageNet のトレンド報道をしていて、「頭がおかしい」と言われた。2015年には、論文で NVIDIA が GPU を提案していて、そこから NVIDIA を書こうとして、「頭がおかしい」と言われた。2016年にニュースを辞めて AI に行ったら、「人生最大の間違いを犯した」というメールが来た。いろんな角度から見て、「スケール化は必ず成り立つ」に真剣に賭けるのは、確かに狂って見えた。
Jared Kaplan:君はどうやって決めたの?迷った?
Jack Clark:
僕は逆に賭けた。「全職の AI 記者になって、給料を倍にしてくれ」と要求した。そうすれば向こうは絶対に応じないのを分かっていた。そして一晩寝て、辞表を書いた。なぜなら僕は毎日アーカイブファイルを読んでいて、何かクレイジーな大事が起きている気がずっとしていて、あるタイミングで高い確信で賭けるべきだと思っていた。
Tom Brown:
僕はそこまで断固ではなかった。6か月くらい揺れた。
Daniela Amodei:
しかも当時、「エンジニアでも AI にかなり大きな推進ができる」というのは主流ではなかった。当時は「AI は研究者しかできない」だったから、迷うのも不思議じゃない。
Tom Brown:
その後 OpenAI が「エンジニアリングで AI の安全に貢献できる」と言った。それが僕を参加させる決め手になった。Daniela、OpenAI ではあなたが僕のマネージャーだったけど、当時なぜ参加したの?
Daniela Amodei:
僕は Stripe で 5年半働いていた。Greg が当時の上司だった。僕は Greg と Dario を紹介したこともある。彼が OpenAI を立ち上げ始めていたとき、僕は彼にこう言った。「僕が知っている最も頭のいい人は Dario です。もし彼をチームに入れられるなら、それはあなたにとって本当に運がいいことだよ。」そして後に、Dario は OpenAI に加入した。
たぶん、あなたと同じように、僕も Stripe を離れたあとに何をしたいのかを考えていた。僕が Stripe に参加した理由は、それ以前に非営利団体や国際開発の領域で働いていたので、もっとスキルが必要だと思っていたから。実は当時は、自分は最終的にその領域に戻るつもりだと思っていたんだ。
Stripe に入る前は、僕は自分に、私より条件が悪い人たちを助けるのに十分な能力があるとは思っていなかった。だから僕はほかのテック企業にも目を向けて、「より大きな影響」を生む新しい方法を見つけたいと思っていた。そのとき OpenAI は、とても良い選択肢だと感じた。OpenAI は非営利組織で、とても重要で遠大な目標の実現に取り組んでいる。
僕はずっと AI の潜在力を信じていた。Dario についてもある程度知っていたし、彼らには助けが必要で、マネジメントもできる人が要ると思った。だから、この仕事は自分の背景ととても相性がいいと思った。僕が当時考えたのはこうだ。「ここは非営利で、すごく優秀で美しいビジョンを持つ人たちが集まっている。でも、運営は少し混乱しているように見える。」そして、まさにその挑戦が僕をワクワクさせた。だからそこに参加したいと思った。
当時の僕は、自分は“万能型”の選手みたいな気分だった。チームメンバーの管理だけでなく、いくつかの技術チームをリードし、組織の拡張の管理も担当する。僕は組織の拡張の仕事を受け持っていたし、言語チームでも働いたし、その後、いくつか他のタスクも任された。さらに政策関連の仕事にも関わっていて、Chris と一緒に協業したこともある。社内には本当に優秀な人材が多くて、それが僕が特に参加したくなった理由だ。会社をもっと効率的で、もっと整理された形にしていく手助けをしたいと思った。
**Jack Clark:**僕は GPT-3 の後に、あなたが「trust and safety って聞いたことある?」って言っていたのを覚えている。
Daniela Amodei:
以前 Stripe で trust and safety のチームを率いていた。こういう技術では、信頼と安全の問題を考える必要がある。これは実際には、AI セーフティ研究(AI Safety Research)と、より実務的な日常業務の間のブリッジだ。つまり、モデルを本当に安全にするにはどうするかという話。
「この技術は将来重大な影響を生む」という主張を打ち出すことはとても重要だ。同時に、日常の中でも、よりリスクが高いシナリオに直面するための土台を作る必要がある。だからこそ、現実に即したより実際的な仕事も進める。
責任あるスケーリング・ポリシー:AI の安全な発展を確保する
**Jack Clark:**まさにそれですね。責任あるスケーリング戦略(RSP、Responsible Scaling Policy)がどう提案され、なぜそれを思いついたのか、そして私たちは今どう適用しているのか。とりわけ、いま私たちが行っている“モデルの信頼と安全”に関する仕事を踏まえると、RSP(責任あるスケーリング・ポリシー)は最初に誰が提案したのでしょう?
Dario Amodei:
最初は僕と Paul Christiano で、時期はだいたい 2022 年の終わりごろ。最初の発想は、「モデルをある特定の規模まで拡大する前に、一時的に制限しておくべきではないか。安全上のいくつかの問題を解決する方法を見つけるまで」というものだった。
でも、その後「ある点でだけ拡大を制限して、その後に解除する」というやり方は少し変だと思うようになった。そこで、一連のゲート(閾値)を設定して、モデルがある閾値に達するたびに、一連のテストを行い、モデルが必要な安全能力を備えているかを評価することにした。
各ゲートに到達するたび、より厳格な安全・保障措置を取る必要がある。ただ、最初の時点で考えていたのは、これを第三者が実行できるなら、もっと良いのではないかということ。つまり、そのような戦略は、ある会社だけが単独で背負うべきではない。そうでないと、他の会社が採用したくなくなる。だから Paul が主にその戦略を設計した。当たり前のように時間が経つにつれて、細部の多くは変わっていった。そして私たち側のチームでも、より良く機能するようにずっと研究している。
Paul がこの概念をきちんと形にした後、彼がほぼ概念を発表したのと同時に、私たちも 1、2か月以内に自分たちのバージョンを出した。実際、チームの多くのメンバーがこのプロセスに深く関わっている。僕は少なくともそのうちの1つの初稿を書いた記憶があるが、ドキュメント全体は何度も修正を重ねた。
Tom Brown:
RSP は Anthropic にとって「憲法」のようなものだ。ガイドを与える意味のある中核ドキュメントだから、正確性と完成度を確保するために、何度も磨くために大量の時間と労力を投じることを厭わない。
Daniela Amodei:
私は、RSP が Anthropic の中で成長していく過程が本当に面白いと思う。複数の段階を経ており、実装を進めるのにはさまざまなスキルが必要だ。たとえば、大きな理念の部分は主に Dario、Paul、Sam、Jared などが担っている。つまり、「私たちの中核原則は何か?」「どんなメッセージを届けたいのか?」「方向性が正しいとどう確認するのか?」を考える。
それだけでなく、すごく実務的な作業もある。たとえば、反復を重ねる中で細部を評価して調整する。たとえば、ある安全レベルで特定の目標に到達するはずだと見込んでいたのに、達成できなかった場合は再評価して、成果に責任を持てることを確実にする。
さらに、組織設計に関する調整も多い。たとえば、RSP の組織構造を再設計して、責任分担をより明確にすることにした。私は、このドキュメントの重要性を“憲法”にたとえるのが好きだ。米国が憲法を実施するために、裁判所、最高裁判所、大統領、そして両院など、さまざまな制度と機関を整えているのと同じだ。それらの機関は他の役割も担うが、存在している大きな目的は憲法を守ることにある。そして Anthropic の RSP も、同じようなプロセスを経ている。
Sam McCandlish:
これが、私たちの安全に関する基本的な見方を反映していると思う。安全は解決できる。 とても複雑で大変な仕事で、時間と労力を大量に投下する必要がある。
自動車の安全の世界と同じで、制度や組織は長年かけて作られてきた。でも、私たちの前にある問題はこうだ。そのための時間は十分あるのか? だから、私たちはできるだけ早く、AI の安全に必要な“鍵になる制度”を見つけて、まず自分たちのところで構築し、それがほかの場所でも参照・展開できるようにしていかなければならない。
Dario Amodei:
これが組織内の協力の統一にも役立つ。組織のどこかの部分が、私たちの安全価値観に反する振る舞いをした場合、RSP が何らかの形で問題を可視化する、ということだよね? RSP は、安全基準に合わない計画を進めさせない。だから RSP は、みんなに対して常にリマインドをし続ける“道具”にもなる。安全が製品開発や計画のプロセスにおいて必須要件になるようにする。スローガンを語っているのではない。安全をすべての工程に実際に組み込む。 もし誰かがチームに入ったとして、これらの原則に納得できないなら、きっと馴染めない。方向転換するか、それとも続けるのが難しくなるかのどちらかだ。
Jack Clark:
時間が経つにつれて、RSP はますます重要になっていく。私たちはそれに数千時間を投下した。参議員(上院議員)たちに RSP を説明するとき、僕は「私たちは悪用されやすい状態にもならないようにしつつ、安全性も確保できるように、いくつかの仕組みを設計した」と言った。彼らの反応はだいたい「それって普通に聞こえる。どの会社もみんなそうしているのでは?」だった。少し笑ってしまうというか、実際にはどの会社もそうはしていないんだけどね。
Daniela Amodei:
さらに私の考えでは、RSP はチームの価値観の一致を促すだけでなく、会社の透明性も高める。 なぜなら、それが私たちの目標は何かを明確に記録しているからだ。会社の中の誰もが理解できるし、外部の人も、私たちが安全面で何を目指し、どこへ向かっているのかをはっきり理解できる。まだ完璧ではないにせよ、私たちはずっとそれを最適化し改善し続けている。
私は、「私たちが関心を持っている核心的な問題は何か」をはっきり示すことが重要だと思っている。「安全」という言葉を、仕事の進捗を勝手に左右させるために使ってはいけない。たとえば「安全上の理由でこれができない」とか「安全上の理由でこれをやらなければならない」といった使い方だ。私たちの本当の目標は、みんなに、私たちが言う“安全”が何を指しているのかを明確に理解してもらうことにある。
Dario Amodei:
長期的に言えば、本当に安全を損ねるのは、たいてい“頻繁な安全演習”だ。僕は「もしビルが毎週火災報知器のアラームで鳴っているなら、それは実に危険な建物だ」と言ったことがある。なぜなら、本当に火事が起きたときに誰も気にしない可能性があるからだ。だから、警報の精度と校正にとても重きを置く必要がある。
Chris Olah:
別の観点から見ると、RSP は多くの面で健全なインセンティブ構造を生み出していると思う。たとえば社内では、RSP は各チームのインセンティブを安全目標に合わせる。つまり、安全面で十分な進捗が出ていない場合は、それに関連する作業は一時停止される。
外部においても、RSP は他の方法より健全なインセンティブを作りやすい。たとえば、いつか私たちが重大な行動を取らなければならない日が来る。つまり「私たちのモデルはある段階まで進化したが、まだ安全性を確実にできない」というような状況を認める必要があるとしよう。そのとき RSP は、明確な枠組みとエビデンスを提供する。その枠組みは事前に存在し、はっきりしていて理解しやすい。RSP の初期バージョンを議論していたとき、僕はその潜在力を完全には理解していなかった。でも今では、他のどのやり方よりも効果的だと思っている。
Jared Kaplan:
同意する。ただ、適切なポリシーの策定、評価基準の設計、そして境界線を引くことについて、私たちが直面する課題を、少し過小評価しているのかもしれないと思う。私たちはそれらに関して大量に反復してきたし、今も最適化を続けている。難しい問題の1つは、新しい技術では、それが危険なのか安全なのかを明確に判定するのが難しいことがある。多くの場合、途方もないグレーゾーンにぶつかる。こうした課題は、RSP の開発初期に僕をすごくワクワクさせたし、今も同じだ。ただ一方で、明確に実装して、それが本当に機能するようにするには、最初に想像していたよりずっと複雑で、より大きな挑戦が必要だと理解するようになった。
Sam McCandlish:
グレーゾーンは完全には予測できない。どこにでもあるからだ。実際に実装して初めて、どこで問題が起きているのかが分かる。だから私たちの目標は、できるだけ早い段階で全部を実装して、潜在的な問題をできるだけ早く見つけることだ。
Dario Amodei:
本当に完璧にするには3〜4回のイテレーションが必要だ。イテレーションはとても強力なツールだし、初回で完全に当てることはほぼ不可能だ。だからリスクが増えていく状況なら、最後まで待つのではなく、できるだけ早くそのイテレーションを済ませる必要がある。
Jack Clark:
そして同時に、社内の制度とプロセスを作る必要がある。 具体的な細部は時間とともに変わり得るが、チームの実行力を育てることが最も重要だ。
Tom Brown:
僕は Anthropic の計算資源を管理しているので、外部の利害関係者とコミュニケーションを取る必要がある。外部の人によって、技術の進み方に対する見方は違う。僕も最初は、技術はそんなに速く進まないと思っていたけれど、考えが変わった。それはすごく理解できる。僕にとって RSP は特に役に立つ。技術の進展が比較的遅いと考える人たちと話すときに。私たちはこう言える。「技術が非常に切迫した状態に至るまで、極端な安全措置は必要ない。」もし相手が「そんな緊急事態には長い間ならないと思う」と言ったら、僕は「じゃあ当面は極端な安全措置は不要だね」と返せる。そうすることで外部とのコミュニケーションがかなりスムーズになる。
Jack Clark:
では、RSP はほかの面でもどんな影響を与えましたか?
Sam McCandlish:
すべては評価(assessment)を中心に回っている。各チームが評価を行う。たとえば、あなたのトレーニングチームはずっと評価をしている。私たちは、そのモデルが危険をもたらすほど十分に強くなったのかを見極めようとしている。
Daniela Amodei:
これはつまり、RSP の基準でモデルのパフォーマンスを測る必要があるということだ。私たちが懸念する原因になり得る兆候があるかどうかを確認する。
Sam McCandlish:
モデルの“最低能力”の評価はまだ相対的にやりやすい。しかし“最高能力”の評価は非常に難しい。だから私たちは大量の研究努力を投じて、こういう問いに答えようとしている。「このモデルは危険なタスクを実行できてしまうのか?」「思考の地図(mind map)やベストイベント(best event)、ある種のツールの使用など、私たちがまだ考慮していないやり方があって、それによってモデルが非常に危険な振る舞いをできてしまわないか?」
Jack Clark:
政策を作る過程では、こうした評価ツールがとても役に立つ。「安全」は非常に抽象的な概念だからだ。僕が「この評価ツールがある。これで“モデルを配備できるかどうか”が決まる」と言えると、政策担当者や国家安全保障の専門家、そして CBRN(化学・生物・放射線・核)領域の専門家と一緒に、より正確な評価基準を作る協業が可能になる。こうした具体的なツールがなければ、その協業はそもそも成立しないかもしれない。でも、一度明確な基準ができれば、人々は参加しやすくなる。その正確さを担保するのも容易になる。だから、この面での RSP の役割は非常に大きい。
Daniela Amodei:
RSP は私にとっても非常に重要で、しばしば私の仕事に影響する。面白いのは、私は RSP を考えるとき、少し特別な方法で考えることが多い。つまり、その“語り口(tone)”から考えるんだ。最近、私たちは RSP の語り口を大きく調整した。以前は語り口が技術的すぎて、対立している感じすらあった。私は人が参加したくなるような仕組みをどう作るか、ずいぶん考えた。
もし RSP が、会社の中の誰もが気軽に理解できる文書なら、もっと良くなる。今の OKR(Objectives and Key Results、目標と主要な成果)みたいに。たとえば、RSP の主な目標は何か? それが達成されたかどうかはどうやって分かる? 現在の AI セーフティレベル(ASL)はいくつなのか? ASL-2 なのか、ASL-3 なのか? もし全員が、注目すべきポイントを知っていれば、潜在的な問題を見つけやすくなる。逆に RSP が過度に技術化されていて、少数の人しか理解できないなら、その実用性は大きく損なわれる。
RSP がより理解しやすい方向へ進んでいるのを見られてうれしい。今は、会社の大多数の人、もしかすると全員が、職位を問わずこの文書を読んで理解できるようになってきていて、「これなら筋が通っている。これらの原則に基づいて AI を開発するんだし、なぜこれらの問題を気にするのかも分かる。仕事の中で何か問題に出会ったら、おおむね何に注意すべきかも分かる」と感じられることを目指している。私たちは RSP を、工場で働く人が安全ベルトがここに接続されるべきなのに、今は接続されていないと簡単に判断して、問題を早期に見つけられるようなシンプルさにしたい。
重要なのは、健全なフィードバック機構を作ることだ。リーダーシップ、取締役会、会社のほかの部門、そして実際に研究開発をしているチームとの間で、スムーズにやり取りできるようにする。私は、多くの問題が起きる理由は、コミュニケーションがうまくいっていないか、情報の伝達にズレが生じていることが原因であることが多いと思う。もし問題がそうした理由だけで発生するなら、それはとても残念なことだよね。最終的に私たちがやるべきことは、こうした理念を現実に落とし込み、シンプルで明快にして、誰もが理解できるようにすることだ。
Anthropic の創立ストーリー
**Sam McCandlish:**実は、この中の誰も最初から会社を作りたいという意志があったわけではない。私たちは、これが自分たちの責任であり、行動しなければならないと思っただけだ。なぜなら、それが AI の発展を正しい方向へ進める唯一の方法であり、だからこそその約束をした理由がある。
Dario Amodei:
最初の考えはとてもシンプルだった。何か有益な形で、新しいものを発明し探索したい。そういう発想が僕を AI の領域へ導いた。AI の研究には大量のエンジニアリングの支えが必要で、最終的には大量の資金も必要になる。
しかし、会社を設立し環境をマネジメントするための明確な目標や計画がないと、多くのことが“できてしまう”一方で、テック業界で僕が疎外感を覚えるような同じミスが繰り返されるのを見つけてしまった。そうしたミスは、同じような人、同じような態度、同じような思考パターンから生まれていることが多い。だからある時点で、僕は、まったく新しいやり方でこのことをやらないといけない、と気づいた。それはほとんど避けられないことだった。
Jared Kaplan:
院生の頃のことを覚えてる。君は、科学研究によって公共の利益をどう促進できるかを探索するための、きちんとした計画を持っていた。僕は、今の僕らの考え方とすごく似ていると思う。君は「Project Vannevar」という名前のプロジェクトを持っていて、それがまさにそれを実現することだったと記憶している。僕は当時教授だった。僕はその状況を観察していて、AI の影響力が驚くほど速いスピードで増していくと強く確信していた。
ただ、AI 研究は資金需要が非常に高い。加えて自分は物理学の教授でもあったから、自分ひとりで学術研究だけでは、これらの進展を推進できないと分かった。だから、信頼できる人たちと一緒に機関を作って、AI の発展が正しい方向へ進むようにしたかった。とはいえ正直、僕は他の人に「会社を作れ」と勧めたことはないし、そんな願いもなかった。僕にとっては、目標を達成するための手段にすぎない。僕は普通こうだと思う。成功の鍵は、世界にとって意味のある目標を本当に大事に思って、それを達成するための最良の手段を見つけることだ。
信頼文化の作り方
Daniela Amodei:私はチームとしての戦略的な強みをよく考える。そのうち一つは、少し意外に聞こえるかもしれないけど、しかしとても重要な要因として、私たちの間の高い信頼がある。大勢の人に共通の使命を持たせるのは非常に難しい。でも Anthropic では、その使命感をますます多くの人へうまく伝えることに成功している。このチームでは、リーダーシップも全メンバーも、同じ使命を共有して集まっている。私たちの使命は、明確で純粋だ。テック業界ではこういうことは珍しい。
私たちが目指しているものには、ある種の“純粋な意味”がある。誰もが、会社を作りたくて始めたわけではない。私たちはただ、そうしなければならないと思っただけだ。元いた場所では、仕事をそのまま続けられない。自分たちでやり切らないといけない。
Jack Clark:
当時、GPT-3 が登場して、私たち全員が触れていたり関わっていたりしたプロジェクト――たとえば scaling laws(拡張法則)など――を踏まえて、2020年までに AI の発展の流れはもう明確だと分かっていた。私たちは、いま早めに行動しなければ、すぐに取り返しのつかない臨界点に達してしまうかもしれないと気づいた。だから私たちは行動しなければならなかった。この環境に影響を与えるために。
Tom Brown:
Daniela の話に続けると、僕もチーム内には高い信頼があると本当に思っている。私たちは皆、自分たちがこのチームに加わったのは世界に貢献したいからだと理解している。さらに、収入の 80% を、社会の発展につながる事業へ寄付することを皆で約束した。これは誰もがためらわず支持できることだ。「はい、当然そうします。」この信頼はとても特別で、稀だ。
Daniela Amodei:
Anthropic は政治的な色が非常に薄い会社だと思う。もちろん、私たちの視点は一般の人と少し違う可能性があるので、私はそれを常に自分に言い聞かせている。採用プロセスやチームメンバーの特性が、この場所の文化に“オフィス政治”への本能的な拒否感を持たせているのだと思う。
Dario Amodei:
そしてチームとしての結束が重要だ。結束は最重要級だ。 製品チーム、研究チーム、信頼と安全チーム、マーケティングチーム、政策チームなど、どの部門も同じ会社の目標を達成するために努力している。会社の中で部門ごとに、まったく別の目標を追っている状態だと、混乱が生まれやすい。さらにもし他の部門が自分の仕事を壊していると思っているなら、それはなおさら非常に不自然な現象だ。
僕らの最重要な成果の1つは、会社全体としての一貫性を保てていることだと思う。RSP のような仕組みがその中で重要な役割を果たしている。この仕組みは、社内で「ある部門が問題を作って、別の部門が問題を直そうとしている」のではなく、すべての部門がそれぞれの役割を果たし、統一された変革理論(theory of change)の枠組みに沿って協同できることを保証する。
Chris Olah:
僕が最初に OpenAI に加わったのは、それが非営利組織で、そこで AI 安全の研究に集中できると思ったからだ。でも時間が経つにつれて、このモデルが僕に完全に合っているわけではないことに気づいて、いくつか難しい決断を迫られた。その過程で、僕は Dario と Daniela の判断をとても信頼していた。でも、だからといって“離れたくない”気持ちがあった。なぜなら、AI ラボがもっと増えることが必ずしも世界にとって良いとは限らないと思い、離れることにすごく迷いがあった。
最終的に僕らが離れることを決めたときも、会社を作ることにはまだ留保があった。僕は「安全研究に集中する非営利組織を作るべきだ」と主張していた。でも、現実的な態度と現実の制約を正直に見た結果、Anthropic を作ることが、僕らの目標を達成するための最善のやり方だと分かった。
Dario Amodei:
僕らが初期に学んだ重要な教訓の1つは、約束は少なくして、約束は必ず果たすこと。現実を保ち、トレードオフ(取捨選択)に真正面から向き合う。信頼と評判は、どんな具体的な政策よりも重要だ。
Daniela Amodei:
Anthropic のユニークさは、チームの高い信頼と一体感だと思う。たとえば、私が Mike Krieger が安全上の理由でいくつかのプロダクトをリリースしないことを強く主張しているのを見たり、同時に Vinay がビジネスニーズとのバランスをどう取ってプロジェクトを前に進めるか議論しているのを見ると、すごく特別な感じがする。さらに、技術安全チームや推論チームのエンジニアが、プロダクトを安全かつ実用的にするにはどうするかを議論している。こうした共通の目標と、実務的な態度が、Anthropic の職場環境の中でとても魅力的なポイントの一つだ。
Dario Amodei:
健全な組織文化とは、誰もが共通のトレードオフを理解し受け入れられることにある。 私たちが生きている世界は完璧ではない。すべての意思決定は、異なる利益の間でバランスを取る必要があり、そのバランスは往々にして完全に気持ちいいものにはならない。とはいえ、チーム全体が統一された目標の下でそのトレードオフを共に引き受け、各自の立場から全体目標に向けて力を出し合えるなら、それこそが健全なエコシステムだ。
Sam McCandlish:
ある意味では、これは「上への競争」だ。そう、本当に「上への競争」だ。もちろん、リスクがまったくない選択ではないし、うまくいかない可能性もある。でも私たちは全員一致でこう考えていた。「それが私たちの選択だ。」
AI の競技の頂点へ
**Jack Clark:**でも市場は本質的に実務的なんです。だから、Anthropic が会社として成功すればするほど、他の人たちは、私たちが成功したやり方を真似したくなる。さらに、その成功が安全面での実務の仕事と密接に結びついているなら、業界内に「引力」が生まれ、ほかの会社もこの競争に参加するようになる。たとえば、私たちが安全ベルトを開発すれば、ほかの会社もそれを模倣できる。これは健全なエコシステムだ。
Dario Amodei:
でも、もしこう言ったらどうでしょう。「私たちはこの技術は開発しないし、あなたたちも他社に比べてうまくできないだろう」と。そういうやり方は通用しない。なぜなら、現状から未来への道筋が実現可能だということを証明していないからだ。世界が必要としているのは、業界であれ、ある特定の会社であれ、社会が「技術が存在しない状態」から「強力な形で技術が存在し、それを社会がうまく管理できている状態」へと移行するための方法を見つけることだと思う。そしてそれを達成できる唯一の方法は、単一の会社のレベルで、最終的には業界全体のレベルでも、トレードオフに正面から向き合うことだ。
競争力を保ち、場合によっては業界をリードしつつ、それでも技術の安全性を確保する方法を見つける必要がある。 もしそれができるなら、業界からの魅力度は非常に大きくなる。規制環境から、いろいろな会社から優秀な人材が参加したいと思うかどうか、さらには顧客の見方まで、これらすべてが業界を同じ方向へ押し流す。もし競争力を犠牲にせずに安全性を実現できること、つまりウィンウィンの解決策を見つけられることを証明できれば、他の会社にもそのやり方を真似するインセンティブが生まれる。
Jared Kaplan:
私は、それが RSP のような仕組みが重要である理由だと思う。私たちは技術がどちらへ進んでいるかをはっきり見て、特定の問題には高い警戒が必要だと理解できる。一方で、「狼が来た」みたいな誤った警報を出して、「革新はここで止めるべきだ」と単純に言ってしまうのは避ける必要がある。つまり、AI 技術が顧客にとって有用で、革新的で、しかも楽しい体験を提供できるようにする。同時に、私たちが必ず守らなければならない制約条件を明確にする。これらの条件はシステムの安全性を確保し、さらにほかの会社にも「安全を前提にすれば、私たちも成功できる」と信じてもらえるようにする必要がある。私たちのところでそれを実現し、そして競争相手にも同じ枠組みで成功できると示す。
Dario Amodei:
数か月後、僕らが RSP を打ち出したとき、3つの最も有名な AI 企業が、すでに似た仕組みを導入していた。説明可能性研究もまた、僕らが別の突破を得た領域だ。さらに、AI 安全研究の機関とも協力している。このような、安全への全体的な関心が、深い影響を生み始めている。
Jack Clark:
そう、Frontier Red Team はほとんどすぐにほかの会社に模倣された。これは良いことだ。私たちは、すべてのラボが潜在的な高リスクの安全課題をテストしてほしいと思っている。
Daniela Amodei:
Jack が前に言っていたけど、顧客も安全の問題をとても重視している。顧客は、モデルが虚偽情報を出すことを望まないし、また安全制約を簡単に回避されるのも嫌だ。顧客は、モデルが役に立ち、有害でないことを望む。私たちは顧客とのコミュニケーションで、「私たちは Claude を選びました。より安全だと分かっているから」といった声をよく聞く。これは市場への影響がとても大きいと思う。私たちは信頼できるモデルを提供できている。それが競合にも大きな市場圧をかけている。
Chris Olah:
Dario の今の話を、もう少し広げてみるのがいいかもしれない。「最も道徳的な行為とは“崇高な失敗”だ」と言われることがある。つまり、安全のためにほかの目標を犠牲にし、しかも非現実的なやり方ででも行動して、自分の事業への純粋さを示す。だけど僕は、このやり方は実際には自己敗北的だと思う。
まず、このやり方だと意思決定権が、安全を重視せず、安全を優先しない人たちの手に渡ってしまう。逆に、インセンティブを揃える方法を必死に探し、難しい決断を最も強く正しい決断を支える側に置き、かつ最も強いエビデンスに基づいて決断することができれば、Dario が説明した「上への競争」を起動できる。この競争では、安全を気にする人が外されるのではなく、ほかの人たちがあなたの歩みに追随する形で参加し、この競争に加わることになる。
AI の未来を展望する
**Jack Clark:**では、これから私たちがやることについて、みなさんがワクワクするのは何ですか?
Chris Olah:
僕には説明可能性にワクワクする理由がたくさんある。明白なのは安全の観点だ。でも、もう一つ理由がある。感情の層でも、すごく興奮するし、意味があると思う。なぜなら僕はニューラルネットワークが非常に美しいと信じていて、その中にはまだ私たちが見ていない“美”がたくさんあるからだ。僕たちはいつもニューラルネットワークをブラックボックスとして扱い、その内部構造に特に興味を持ってこなかった。でも、実際に深く掘り下げ始めると、内部には驚くべき構造がぎっしり詰まっているのが分かる。
それは、生物学を見たときの態度に少し似ている。人によっては「進化って退屈だ。単純なプロセスで、長い時間が回って、ただ動物が生まれるだけ」みたいに思うかもしれない。でも実際には、進化が作り出すそれぞれの動物は、信じられない複雑さと構造に満ちている。そして僕は、進化は最適化のプロセスだと思っている。ニューラルネットワークを訓練するのと似ている。ニューラルネットワークの内部にも、似たような“人工生物学”のような複雑な構造がある。もしそれを掘り下げる気があるなら、そこには驚くべきものがたくさんあるはずだ。
僕らは、そのベールを少しずつ剥がし始めたばかりだ。信じられないくらいすごい。中にはまだ見つけるべきことがありすぎる。僕らはまだ扉を開け始めたところで、これからの発見はとても素晴らしく、ワクワクすると思う。時々、10年後に書店に入って、ニューラルネットワークの説明可能性についての教科書、あるいはニューラルネットワークの“生物学”を本当に語っている本を買うところを想像する。そこには驚くべき内容がいろいろ詰まっているはずだ。今後10年、あるいはこれから数年で、私たちはそうしたものを本格的に見つけ始めると思う。これは狂おしいほど刺激的で素晴らしい旅になるはずだ。
Jack Clark:
数年前に誰かが「政府がAIシステムをテストし評価するための新しい機関を作る。そしてその機関は非常に専門的で機能する」と言っても、信じないかもしれない。でもそれはもう起きている。政府は、この新しい技術カテゴリに対応するための“新しい大使館”をすでに作っていると言える。僕は、それがどこへ向かうのかを見るのが楽しみだ。これは、企業に頼るだけではなく、国家がこうした社会の変化に対応できる力を持っていることを意味していると思う。それに参加できることをうれしく思う。
Daniela Amodei:
私はもうその点に興奮している。でも、未来の AI が人類に何をしてくれるのかを想像するだけでも、ワクワクせずにはいられない。いまでも Claude が、ワクチン開発やがん研究、生物学研究の助けになるような兆候が見えているだけでも信じられない。すでにできることを見ているだけでも驚くのに、今後3〜5年の将来を考えると、特に健康分野で、Claude が私たち人類が抱える根本的な問題の多くを本当に解決できるようになる姿を想像して、私はとても興奮している。私が国際開発に携わっていた頃を思い出すと、もし当時 Claude が効率の低かった仕事を手伝ってくれたなら、どれほど素晴らしかっただろうと思う。
Tom Brown:
個人的には、仕事で Claude を使うのがすごく好きだ。最近は家でも Claude といろいろ話している。直近で一番大きな変化はコードだ。6か月前、僕は Claude をプログラミング関連の作業に一切使っていなかったし、チームでも Claude をコードを書くのにあまり使っていなかった。でも今では、その状況は明らかに変わっている。たとえば先週、Y Combinator で行われたイベントで講演したとき、最初に「今、Claude を使ってプログラミングしている人はどれくらいいる?」と聞いた。結果、ほぼ95% の人が手を挙げた。 ほぼ全員が手を挙げた。4か月前の状況とは完全に違う。
Dario Amodei:
僕がワクワクすることを考えると、たとえば僕がさっき言ったように、すでに共通認識になっているように見えるのに、実はそれが今まさに崩れかけている領域の1つが説明可能性だと思う。説明可能性は、AI システムの安全を導き、確実にする鍵であるだけでなく、知能最適化の問題や、人間の脳がどう働くのかについての深い洞察も含んでいる。僕は、Chris Olah は将来ノーベル医学賞を取ると言ったことがある。
僕は元々神経科学者だった。そして、統合失調症や気分障害のように、まだ完全には解けていない多くの精神疾患は、より上位の階層にある“システムの問題”と関係があるのではないか、と疑っている。でも、人間の脳は複雑で、直接研究するのが難しいので、そうした問題を完全に理解するのは難しい。ニューラルネットワークは完璧な比喩ではないにせよ、人間の脳ほど難しくは解きほぐせないし、相互作用もしやすい。時間が経つにつれ、ニューラルネットワークはより良い比喩の道具になっていくはずだ。
もう一つ関連する領域は、生物学における AI の応用だ。生物学は非常に複雑な問題で、多くの理由から人々はまだ疑いを持っている。でもその疑いのコンセンサスは