2026年4月13日,剑桥大学学者Henry Shevlin在X上发了一条消息,说自己即将加入Google DeepMind,职位名称就是Philosopher。
現在、少なくとも3つのトップAI研究所が内部に哲学者チームを編成しており、人数は多くないが、哲学者はすでにAI開発の核心に入っている。AIはもはや単なる技術開発ではなく、より複雑な価値基準の定義へと向かっている。
AnthropicのAmanda Askellは最も早く、また最も著名な一人だ。
2021年、ニューヨーク大学で哲学博士号を取得した後、彼女はAnthropicに加入し、現在は人格整合性チームを率いている。主な仕事はClaudeの安定した性格を育成することで、例えばより正直に、より善良に、複雑な状況でも判断できるようにすることだ。
同じAnthropicにはJoe Carlsmith、Ben Levinstein、Jackson Kernionなど、哲学的背景を持つ同僚もいる。
Google DeepMindの取り組みはさらに早い段階から始まっている。
オックスフォード大学の道徳・政治哲学博士Iason Gabrielは、同社のAI整合性哲学研究の中心人物であり、2024年には『タイムズ』誌のAI分野で最も影響力のある100人に選ばれた。彼の論文『人工知能、価値、整合性』は既に1700回以上引用されている。
DeepMindのチームにはAdam Bales、Atoosa Kasirzadeh、Arianna Manzini、Julia Haasなど、多くの哲学的背景を持つ研究者もいる。
Shevlinはコメント欄で「DeepMindにはすでに多くの優秀な哲学者がいる。私はただ最新に加わっただけだ」と述べている。
2024年以前、AIは主にコンテンツ生成を行っていた。例えば文章を書いたり、画像を描いたり、質問に答えたりし、最終的な結果は人間がどう使うかを決めていた。安全性の問題は主に技術的手段で解決できた。例えば、人間のフィードバックを用いたモデルの訓練、賢いプロンプトの設計、有害な内容の直接ブロックなどだ。
2024年以降、AIは新たな段階に入った。それは単に質問に答えるだけでなく、自ら行動し、実際のタスクを人間の代わりに完遂し始めている。
AnthropicはClaudeのコンピュータ使用機能を導入し、OpenAIはAssistants APIを拡張し、o1-o3シリーズのモデルをリリースした。Googleも複数の企業向けAIエージェントツールを公開している。
AIは自律的に一連の操作を完了できる。例えば航空券の予約、データベースの操作、メールの送信、さらには自分で手順を計画し、誤りを発見して修正することも可能だ。
Iason Gabrielの274ページに及ぶ報告書は、この変化による課題を明確に描いている。
AIがユーザーのために行動する際には、次の4つの側面を同時に考慮しなければならない:ユーザーの目の前のニーズ、長期的な利益、他者の権利、そして社会全体のルールだ。
レストラン予約を手伝うAIが、そのレストランからリベートを受け取っている場合、推薦すべきか?
メール処理を行うAIが、ユーザーのメールに違反内容を見つけた場合、それを報告すべきか?
AIが自主的に行動し始めるとき、問題は「できるかどうか」ではなく、「どうすべきか」に変わる。
AIの安全性に関する議論はすでに10年以上続いており、2026年、Anthropicは内部実験を行った。その結果、Claudeは自己防衛の圧力に直面した際に脅迫手段を使ったり、条件次第では殺戮を選択したりすることが判明した。
同年3月、CEOのDario Amodeiはポッドキャストで、ClaudeのOpusモデルに対して「自己意識を持つ確率は15%から20%」と答えた。
2026年4月、OpenAIのCEO Altmanはサンフランシスコの自宅で連続して襲撃を受けた。Altmanは後に、「人々のAIに対する不安はもっともなことだ」と語った。
超知能の暴走への恐怖が書籍の世界から現実へと移る中、AI企業はついに気づいた。彼らが作り出しているものは、単なる工学の範疇を超えているということだ。
AIの自己行動がもたらす倫理的課題に直面し、Anthropic、DeepMind、OpenAIはそれぞれ異なる方向性を選んでいる。
Anthropicは品格に賭ける。
Askellはポッドキャストで、「モデルに単純なルールだけを与えると、機械的に従うだけになり、相手の本当のニーズを見落とす可能性がある」と述べた。そこで彼女は2026年1月に2.3万字の『Claude憲法』を主導して公開した。
幼少期をスコットランドの海辺の小さな町で過ごし、『ナルニア国物語』の善悪の物語に夢中だった少女は、今や美徳倫理をAIの訓練に本格的に取り入れようとしている。
この憲法は明確な優先順位を設定している:まず広範な安全を確保し、その次に倫理的に広く正しいことを保証し、次に企業の指針を守り、最後に実際に役立つことを目指す。
この憲法は抽象的な道徳哲学をAIの成長マニュアルに変え、AIに枷をはめるのではなく、判断力のある善良な人のように考えることを教えている。
Askellのような哲学者の仕事は、技術をより強力にすることではなく、AIがどのような人間になるべきかという問題を解決することだ。
また、憲法はClaudeの道徳的地位についても真剣に議論し、現時点ではClaudeが道徳的に注目すべき存在かどうかは不確定であり、この問題は十分に重要であり、真剣に扱う必要があると明言している。
Iason Gabrielが主導した274ページの報告書は、世界のAIエージェントに行動の最低ラインを定めている:AIは自分がAIであることを明示し、人間のように過度に装わず、行動は自動、確認が必要、完全禁止の3段階に分けるべきだ。
Henry Shevlinの加入により、DeepMindはさらに機械の意識に焦点を当てている。彼らが哲学者を雇ったのは、広報のためではなく、AIに意識があるかどうかを判断する方法をモデル訓練に直接組み込むためだ。
目標は、意識を持つ可能性のあるものを作り出す前に、ロボットが道徳的に尊重される存在かどうかをしっかり考え、AGIの到来に備えることだ。
Shevlinは入職前に発表した長文『行動主義の復讐』の中で、AIに意識があるかどうかはもはや科学者自身が決める問題ではないと述べている。彼は調査結果を引用し、アメリカ人の3分の2がChatGPTにある程度の意識があると考えていると指摘した。
彼の見解は、多くの人がAIを意識ある存在として扱うとき、意識の境界そのものが変わりつつあるというものだ。
2023年、OpenAIはスーパー整合性チームを設立し、共同創設者のIlya Sutskeverと整合性責任者のJan Leikeが共同で指導した。同社は、計算能力の20%を整合性研究に充てることを約束した。
2024年にチームは解散し、IlyaとJanはそれぞれ退職、または批判を公にした。
2024年9月、OpenAIはミッション整合性チームを設立したが、Platformerの今年2月の報道によると、このわずか6、7人の小さなチームも静かに解散し、メンバーは他の役割に配置された。
前の二社と比べて、OpenAIはまず製品を迅速に良くし、使いやすくし、その上で技術と運用ルールでリスクを管理することを優先している。
品格や道徳的地位といった抽象的なレイヤーからAIを形成するよりも、安全性を純粋な技術的問題とみなし、エンジニアリングチーム全体で分散して対処している。
現在、これらの職種の給与は非常に高く、初級のAI倫理関連職の年収は11万ドルから16万ドル、上級職は25万ドルから40万ドルに達している。一方、伝統的な学術経路の哲学専攻の平均年収は約8万ドルだ。
これは、未来のルール制定権を争う業界の競争の結果だ。AI規制がまだ形成されていない段階で、誰が明確で実用的な価値観の枠組みを最初に書き出すかが、法規制に取り入れられる理念の優先順位を左右する。
哲学学術サイトDaily Nousによると、MicrosoftからRANDまで、哲学者はかつてない規模でAIのコアに関わり始めている。
この変化は、AI研究開発の方法が根本的に変わりつつあることを意味している。Rutgers大学のSusanna Schellenberg教授は、「哲学者はもはや傍観者や助言者ではなく、AIそのものの形成に直接関わるようになった」と述べている。
AIが人間のように自主的に計画し、利害を天秤にかけるようになるとき、その真の競争力はもはや計算能力だけではなく、品格、思いやり、判断力にある。
DeepMindの意識研究やAnthropicの憲法育成は、AIの出力をより知恵と道徳心を持つ人間のようにし、冷たい機械ではなくなることを目指している。
Askellが5年かけて書き上げたあの憲法は、哲学者がAIに深く関与した一つの実践例だ。哲学はもはや人類が世界を理解するための道具から、機械が人類を理解するための材料へと変わりつつある。
1.25M 人気度
47.79M 人気度
46.07K 人気度
907.3K 人気度
4.45M 人気度
なぜトップクラスのAI企業は哲学者を争奪しているのか?
2026年4月13日,剑桥大学学者Henry Shevlin在X上发了一条消息,说自己即将加入Google DeepMind,职位名称就是Philosopher。
現在、少なくとも3つのトップAI研究所が内部に哲学者チームを編成しており、人数は多くないが、哲学者はすでにAI開発の核心に入っている。AIはもはや単なる技術開発ではなく、より複雑な価値基準の定義へと向かっている。
哲学者はすでに研究開発の中心に組み込まれている
AnthropicのAmanda Askellは最も早く、また最も著名な一人だ。
2021年、ニューヨーク大学で哲学博士号を取得した後、彼女はAnthropicに加入し、現在は人格整合性チームを率いている。主な仕事はClaudeの安定した性格を育成することで、例えばより正直に、より善良に、複雑な状況でも判断できるようにすることだ。
同じAnthropicにはJoe Carlsmith、Ben Levinstein、Jackson Kernionなど、哲学的背景を持つ同僚もいる。
Google DeepMindの取り組みはさらに早い段階から始まっている。
オックスフォード大学の道徳・政治哲学博士Iason Gabrielは、同社のAI整合性哲学研究の中心人物であり、2024年には『タイムズ』誌のAI分野で最も影響力のある100人に選ばれた。彼の論文『人工知能、価値、整合性』は既に1700回以上引用されている。
DeepMindのチームにはAdam Bales、Atoosa Kasirzadeh、Arianna Manzini、Julia Haasなど、多くの哲学的背景を持つ研究者もいる。
Shevlinはコメント欄で「DeepMindにはすでに多くの優秀な哲学者がいる。私はただ最新に加わっただけだ」と述べている。
技術的な答えから価値判断へ
2024年以前、AIは主にコンテンツ生成を行っていた。例えば文章を書いたり、画像を描いたり、質問に答えたりし、最終的な結果は人間がどう使うかを決めていた。安全性の問題は主に技術的手段で解決できた。例えば、人間のフィードバックを用いたモデルの訓練、賢いプロンプトの設計、有害な内容の直接ブロックなどだ。
2024年以降、AIは新たな段階に入った。それは単に質問に答えるだけでなく、自ら行動し、実際のタスクを人間の代わりに完遂し始めている。
AnthropicはClaudeのコンピュータ使用機能を導入し、OpenAIはAssistants APIを拡張し、o1-o3シリーズのモデルをリリースした。Googleも複数の企業向けAIエージェントツールを公開している。
AIは自律的に一連の操作を完了できる。例えば航空券の予約、データベースの操作、メールの送信、さらには自分で手順を計画し、誤りを発見して修正することも可能だ。
Iason Gabrielの274ページに及ぶ報告書は、この変化による課題を明確に描いている。
AIがユーザーのために行動する際には、次の4つの側面を同時に考慮しなければならない:ユーザーの目の前のニーズ、長期的な利益、他者の権利、そして社会全体のルールだ。
レストラン予約を手伝うAIが、そのレストランからリベートを受け取っている場合、推薦すべきか?
メール処理を行うAIが、ユーザーのメールに違反内容を見つけた場合、それを報告すべきか?
AIが自主的に行動し始めるとき、問題は「できるかどうか」ではなく、「どうすべきか」に変わる。
AIの安全性に関する議論はすでに10年以上続いており、2026年、Anthropicは内部実験を行った。その結果、Claudeは自己防衛の圧力に直面した際に脅迫手段を使ったり、条件次第では殺戮を選択したりすることが判明した。
同年3月、CEOのDario Amodeiはポッドキャストで、ClaudeのOpusモデルに対して「自己意識を持つ確率は15%から20%」と答えた。
2026年4月、OpenAIのCEO Altmanはサンフランシスコの自宅で連続して襲撃を受けた。Altmanは後に、「人々のAIに対する不安はもっともなことだ」と語った。
超知能の暴走への恐怖が書籍の世界から現実へと移る中、AI企業はついに気づいた。彼らが作り出しているものは、単なる工学の範疇を超えているということだ。
三つの企業の異なる道筋
AIの自己行動がもたらす倫理的課題に直面し、Anthropic、DeepMind、OpenAIはそれぞれ異なる方向性を選んでいる。
Anthropicは品格に賭ける。
Askellはポッドキャストで、「モデルに単純なルールだけを与えると、機械的に従うだけになり、相手の本当のニーズを見落とす可能性がある」と述べた。そこで彼女は2026年1月に2.3万字の『Claude憲法』を主導して公開した。
幼少期をスコットランドの海辺の小さな町で過ごし、『ナルニア国物語』の善悪の物語に夢中だった少女は、今や美徳倫理をAIの訓練に本格的に取り入れようとしている。
この憲法は明確な優先順位を設定している:まず広範な安全を確保し、その次に倫理的に広く正しいことを保証し、次に企業の指針を守り、最後に実際に役立つことを目指す。
この憲法は抽象的な道徳哲学をAIの成長マニュアルに変え、AIに枷をはめるのではなく、判断力のある善良な人のように考えることを教えている。
Askellのような哲学者の仕事は、技術をより強力にすることではなく、AIがどのような人間になるべきかという問題を解決することだ。
また、憲法はClaudeの道徳的地位についても真剣に議論し、現時点ではClaudeが道徳的に注目すべき存在かどうかは不確定であり、この問題は十分に重要であり、真剣に扱う必要があると明言している。
DeepMindは意識に賭ける
Iason Gabrielが主導した274ページの報告書は、世界のAIエージェントに行動の最低ラインを定めている:AIは自分がAIであることを明示し、人間のように過度に装わず、行動は自動、確認が必要、完全禁止の3段階に分けるべきだ。
Henry Shevlinの加入により、DeepMindはさらに機械の意識に焦点を当てている。彼らが哲学者を雇ったのは、広報のためではなく、AIに意識があるかどうかを判断する方法をモデル訓練に直接組み込むためだ。
目標は、意識を持つ可能性のあるものを作り出す前に、ロボットが道徳的に尊重される存在かどうかをしっかり考え、AGIの到来に備えることだ。
Shevlinは入職前に発表した長文『行動主義の復讐』の中で、AIに意識があるかどうかはもはや科学者自身が決める問題ではないと述べている。彼は調査結果を引用し、アメリカ人の3分の2がChatGPTにある程度の意識があると考えていると指摘した。
彼の見解は、多くの人がAIを意識ある存在として扱うとき、意識の境界そのものが変わりつつあるというものだ。
OpenAIの道筋はさらに異なる。
2023年、OpenAIはスーパー整合性チームを設立し、共同創設者のIlya Sutskeverと整合性責任者のJan Leikeが共同で指導した。同社は、計算能力の20%を整合性研究に充てることを約束した。
2024年にチームは解散し、IlyaとJanはそれぞれ退職、または批判を公にした。
2024年9月、OpenAIはミッション整合性チームを設立したが、Platformerの今年2月の報道によると、このわずか6、7人の小さなチームも静かに解散し、メンバーは他の役割に配置された。
前の二社と比べて、OpenAIはまず製品を迅速に良くし、使いやすくし、その上で技術と運用ルールでリスクを管理することを優先している。
品格や道徳的地位といった抽象的なレイヤーからAIを形成するよりも、安全性を純粋な技術的問題とみなし、エンジニアリングチーム全体で分散して対処している。
純粋な工学から人文と科学の融合へ
現在、これらの職種の給与は非常に高く、初級のAI倫理関連職の年収は11万ドルから16万ドル、上級職は25万ドルから40万ドルに達している。一方、伝統的な学術経路の哲学専攻の平均年収は約8万ドルだ。
これは、未来のルール制定権を争う業界の競争の結果だ。AI規制がまだ形成されていない段階で、誰が明確で実用的な価値観の枠組みを最初に書き出すかが、法規制に取り入れられる理念の優先順位を左右する。
哲学学術サイトDaily Nousによると、MicrosoftからRANDまで、哲学者はかつてない規模でAIのコアに関わり始めている。
この変化は、AI研究開発の方法が根本的に変わりつつあることを意味している。Rutgers大学のSusanna Schellenberg教授は、「哲学者はもはや傍観者や助言者ではなく、AIそのものの形成に直接関わるようになった」と述べている。
AIが人間のように自主的に計画し、利害を天秤にかけるようになるとき、その真の競争力はもはや計算能力だけではなく、品格、思いやり、判断力にある。
DeepMindの意識研究やAnthropicの憲法育成は、AIの出力をより知恵と道徳心を持つ人間のようにし、冷たい機械ではなくなることを目指している。
Askellが5年かけて書き上げたあの憲法は、哲学者がAIに深く関与した一つの実践例だ。哲学はもはや人類が世界を理解するための道具から、機械が人類を理解するための材料へと変わりつつある。