最近、ネット上で広まった「2028年予測」という記事があり、その中でAIの進歩により2028年には大規模な失業の波が訪れ、多くの人の仕事がAIに取って代わられると指摘している。この記事が出るや、中東情勢の影響も重なり、その日の米国株式市場は大きく下落した。この出来事はまさにファンタジーのようだが、その記事は明らかにAIによって書かれたものでありながら、「AIによる大失業」という恐怖心にぴったりと合致していたため、非常に大きな影響を与えた。最近、OpenAIからの一つの発表が、人々に「2028年の大失業」は単なる空想ではない可能性を認識させている。最近、OpenAIの最高科学者Jakub PachockiがMIT Technology Reviewの独占インタビューで語った言葉は、背筋が寒くなるほどだった——**彼らの「北極星」目標は、2028年までに完全自動の多エージェント研究システムを構築することだ**。今年9月には、その第一段階の目標が実現する予定だ。**特定の研究課題を独立して処理できる「自律型AI研究インターン」**。これは製品のロードマップの仮置きや、AltmanがX上で口にした軽口ではない。OpenAIが全社のリソースを一つの方向に集中させている証拠だ。「北極星」の意義--------テクノロジー企業が「北極星」と言うとき、通常二つの意味がある。一つは、他のプロジェクトがそれに道を譲る必要があること、もう一つは、社内で既に共通認識ができていることだ。過去2週間のOpenAIの動きを見ると、この判断はほぼ正しいと言える。3月19日、OpenAIは開発者ツール企業Astralを買収し、チームをCodex部門に統合したと発表。同時に、ChatGPT、Codex、ブラウザを一つのデスクトップ「スーパーアプリ」に統合することも発表し、アプリ責任者Fidji Simoが主導、Greg Brockmanが組織改革を支援した。断片化したプロダクト時代は終わりを告げ、OpenAIはすべてのリソースを一つの方向に集中させている。**その方向性は、「AI自身に研究をさせる」ことだ**。Pachockiの論理は非常に明快だ:推論モデル、エージェント、説明性——これら三つの技術路線はもともとOpenAI内部でそれぞれ独立していたが、今や一つの目標の下に統合されつつある——長時間データセンター内で自主的に動作できるAI研究者を作ることだ。彼は言う、「これが実現すれば、」——「これこそが我々が本当に頼るべきものだ」と。元OpenAI研究者のAndrej Karpathyの見解はさらにストレートだ——「**すべての最先端大規模言語モデルの研究所はこうするだろう。これが最終的なBOSS戦だ。**」彼は付け加える、「規模の拡大は確かに複雑になるだろうが、この取り組みはエンジニアリングの問題に過ぎず、必ず成功する」と。彼の言葉のニュアンスに注意してほしい:**「できるかどうか」ではなく、「いつできるか」だ**。Anthropicの動き-------------ちょうどOpenAIが「北極星」を発表した同じ日に、Anthropicは静かにClaude Code Channelsをローンチした——TelegramやDiscordを通じて、開発者が直接Claude Codeのセッションとやり取りできる機能だ。この出来事は単体では小さく見えるが、全体のトレンドの中では非常に重要だ。Anthropicの考え方はこうだ:未来にAIが何をできるかを伝えるよりも、今すぐそれを開発者の実際のワークフローに組み込む方が良い。TelegramやDiscordは学術論文の場ではなく、プログラマーの日常の作業場所だ。**Claude Codeをここに存在させることは、「ツール」から「同僚」へと変えることを意味する**。コミュニティの反応もこの判断を裏付けている。あるユーザーは直接こう言った:「**ClaudeはこのアップデートでOpenClawを駆逐した。もうMac Miniを買う必要はない。**」この言葉の裏には、Anthropicのインフラ改善により、オープンソースの代替案がコスト面での優位性を失ったことがある。また、よりマクロな時間軸で見ると、AnthropicのClaude Codeの改良スピードは驚異的だ。数週間の間に、テキスト処理、数千のMCPスキルの統合、自律的なバグ修正能力を融合させた。OpenAIがAstralを買収してCodexを強化する一方で、AnthropicはClaude Codeを直接開発者のチャットウィンドウに投入している。両社は同じゴールに向かって走っているが、そのルートは全く異なる——OpenAIは「2028年の全自動研究者」を作り出そうとしており、Anthropicは「今日から使えるインテリジェントツール」を開発している。本当の難題-----しかし、ここで見逃せない細部がある。Pachockiはインタビューの中で、非常に稀なことを語った——安全性と制御性の課題について率直に話したのだ。彼はこう言う、「彼らの考えは、他の大規模言語モデルを使って、『AI研究者のメモ』を監視し、行動に問題が出る前に不正行為を捕捉することだ」と。しかしすぐに認める、「**大規模言語モデルの理解度は十分ではなく、完全に制御できるとは言えない。『この問題は解決済み』と断言できるまでには、まだ長い道のりがある**」と。ある企業の最高科学者が「我々はまだ完全に制御できていない」と述べ、2028年までに完全自動のAI研究システムを提供することも宣言した。この二つの事実は、真剣に考えるべき重要なポイントだ。これは悲観的な見方ではなく、技術の本当の難しさを理解しようとする姿勢だ。Pachockiがこの言葉を口にしたこと自体、OpenAI内部でこの道の困難さを正しく認識している証拠だ。技術的な観点から、研究者がまとめた「カパシ循環」というモデルも参考になる——成功する自動化AI研究の枠組みには、三つの要素が必要だ:**単一のファイルを修正できる権限を持つエージェント、客観的に評価できる単一の指標、固定された実験時間の制約**。この枠組みはすでに実環境で結果を出し始めている。ShopifyのCEO Tobias Lütkeは、次のような事例を公表している——彼は自動研究エージェントに夜間に動作させ、翌朝には37回の実験を行わせ、モデルの性能を19%向上させた。概念から実現までの道のりは、想像以上に短い。未来の価値200万円のサブスクリプション--------------「北極星」プロジェクトは、技術的な優位性だけでなく、ビジネス上の勝負の鍵でもある。Paul Roetzerが示した数字は、何度も見返したくなるものだ。彼はOpenAI内部の予測を引用し、2029年までにエージェント事業だけで年間290億ドルの収益をもたらすと予測している。その中には、**月額2000ドルの「知識代理」や月額2万ドルの「研究代理」**も含まれる。この数字は示している——**「AI研究者」は単なる技術的な目標ではなく、収益の道筋そのものだ**。月額2万ドルの「研究代理」は、経験豊富な研究者の年収の一部に相当するが、24時間休まず動き続け、37回の実験を行える。これは特定の人間を置き換えるのではなく、「研究生産性」の本質を再定義している。これをKarpathyの言葉——「これが最終的なBOSS戦だ」と思い出す。**彼の言うBOSSは、競争相手ではなく、AI能力の天井そのものだ**。**一度AIが科学研究を自主的に推進できるようになれば、AIの進歩速度は、人間の研究者の数や労働時間に制約されなくなる**。Pachockiも同じ意味を伝えているが、より控えめに表現している——「システムがデータセンター内で長時間自主運用できるようになれば、それこそが我々が本当に頼るべきものだ」と。2026年9月のAI研究インターンは、終点ではなく、重要な出発点だ。
OpenAI「ノーススター」プロジェクトを暴露、「2028年大失業」が本当に来るかもしれない
最近、ネット上で広まった「2028年予測」という記事があり、その中でAIの進歩により2028年には大規模な失業の波が訪れ、多くの人の仕事がAIに取って代わられると指摘している。
この記事が出るや、中東情勢の影響も重なり、その日の米国株式市場は大きく下落した。この出来事はまさにファンタジーのようだが、その記事は明らかにAIによって書かれたものでありながら、「AIによる大失業」という恐怖心にぴったりと合致していたため、非常に大きな影響を与えた。
最近、OpenAIからの一つの発表が、人々に「2028年の大失業」は単なる空想ではない可能性を認識させている。
最近、OpenAIの最高科学者Jakub PachockiがMIT Technology Reviewの独占インタビューで語った言葉は、背筋が寒くなるほどだった——彼らの「北極星」目標は、2028年までに完全自動の多エージェント研究システムを構築することだ。
今年9月には、その第一段階の目標が実現する予定だ。
特定の研究課題を独立して処理できる「自律型AI研究インターン」。
これは製品のロードマップの仮置きや、AltmanがX上で口にした軽口ではない。OpenAIが全社のリソースを一つの方向に集中させている証拠だ。
「北極星」の意義
テクノロジー企業が「北極星」と言うとき、通常二つの意味がある。一つは、他のプロジェクトがそれに道を譲る必要があること、もう一つは、社内で既に共通認識ができていることだ。
過去2週間のOpenAIの動きを見ると、この判断はほぼ正しいと言える。
3月19日、OpenAIは開発者ツール企業Astralを買収し、チームをCodex部門に統合したと発表。同時に、ChatGPT、Codex、ブラウザを一つのデスクトップ「スーパーアプリ」に統合することも発表し、アプリ責任者Fidji Simoが主導、Greg Brockmanが組織改革を支援した。
断片化したプロダクト時代は終わりを告げ、OpenAIはすべてのリソースを一つの方向に集中させている。
その方向性は、「AI自身に研究をさせる」ことだ。
Pachockiの論理は非常に明快だ:推論モデル、エージェント、説明性——これら三つの技術路線はもともとOpenAI内部でそれぞれ独立していたが、今や一つの目標の下に統合されつつある——長時間データセンター内で自主的に動作できるAI研究者を作ることだ。彼は言う、「これが実現すれば、」——「これこそが我々が本当に頼るべきものだ」と。
元OpenAI研究者のAndrej Karpathyの見解はさらにストレートだ——「すべての最先端大規模言語モデルの研究所はこうするだろう。これが最終的なBOSS戦だ。」彼は付け加える、「規模の拡大は確かに複雑になるだろうが、この取り組みはエンジニアリングの問題に過ぎず、必ず成功する」と。
彼の言葉のニュアンスに注意してほしい:「できるかどうか」ではなく、「いつできるか」だ。
Anthropicの動き
ちょうどOpenAIが「北極星」を発表した同じ日に、Anthropicは静かにClaude Code Channelsをローンチした——TelegramやDiscordを通じて、開発者が直接Claude Codeのセッションとやり取りできる機能だ。
この出来事は単体では小さく見えるが、全体のトレンドの中では非常に重要だ。
Anthropicの考え方はこうだ:未来にAIが何をできるかを伝えるよりも、今すぐそれを開発者の実際のワークフローに組み込む方が良い。TelegramやDiscordは学術論文の場ではなく、プログラマーの日常の作業場所だ。Claude Codeをここに存在させることは、「ツール」から「同僚」へと変えることを意味する。
コミュニティの反応もこの判断を裏付けている。
あるユーザーは直接こう言った:「ClaudeはこのアップデートでOpenClawを駆逐した。もうMac Miniを買う必要はない。」この言葉の裏には、Anthropicのインフラ改善により、オープンソースの代替案がコスト面での優位性を失ったことがある。
また、よりマクロな時間軸で見ると、AnthropicのClaude Codeの改良スピードは驚異的だ。数週間の間に、テキスト処理、数千のMCPスキルの統合、自律的なバグ修正能力を融合させた。OpenAIがAstralを買収してCodexを強化する一方で、AnthropicはClaude Codeを直接開発者のチャットウィンドウに投入している。
両社は同じゴールに向かって走っているが、そのルートは全く異なる——OpenAIは「2028年の全自動研究者」を作り出そうとしており、Anthropicは「今日から使えるインテリジェントツール」を開発している。
本当の難題
しかし、ここで見逃せない細部がある。
Pachockiはインタビューの中で、非常に稀なことを語った——安全性と制御性の課題について率直に話したのだ。
彼はこう言う、「彼らの考えは、他の大規模言語モデルを使って、『AI研究者のメモ』を監視し、行動に問題が出る前に不正行為を捕捉することだ」と。しかしすぐに認める、「大規模言語モデルの理解度は十分ではなく、完全に制御できるとは言えない。『この問題は解決済み』と断言できるまでには、まだ長い道のりがある」と。
ある企業の最高科学者が「我々はまだ完全に制御できていない」と述べ、2028年までに完全自動のAI研究システムを提供することも宣言した。この二つの事実は、真剣に考えるべき重要なポイントだ。
これは悲観的な見方ではなく、技術の本当の難しさを理解しようとする姿勢だ。Pachockiがこの言葉を口にしたこと自体、OpenAI内部でこの道の困難さを正しく認識している証拠だ。
技術的な観点から、研究者がまとめた「カパシ循環」というモデルも参考になる——成功する自動化AI研究の枠組みには、三つの要素が必要だ:単一のファイルを修正できる権限を持つエージェント、客観的に評価できる単一の指標、固定された実験時間の制約。
この枠組みはすでに実環境で結果を出し始めている。ShopifyのCEO Tobias Lütkeは、次のような事例を公表している——彼は自動研究エージェントに夜間に動作させ、翌朝には37回の実験を行わせ、モデルの性能を19%向上させた。
概念から実現までの道のりは、想像以上に短い。
未来の価値200万円のサブスクリプション
「北極星」プロジェクトは、技術的な優位性だけでなく、ビジネス上の勝負の鍵でもある。
Paul Roetzerが示した数字は、何度も見返したくなるものだ。彼はOpenAI内部の予測を引用し、2029年までにエージェント事業だけで年間290億ドルの収益をもたらすと予測している。その中には、**月額2000ドルの「知識代理」や月額2万ドルの「研究代理」**も含まれる。
この数字は示している——「AI研究者」は単なる技術的な目標ではなく、収益の道筋そのものだ。
月額2万ドルの「研究代理」は、経験豊富な研究者の年収の一部に相当するが、24時間休まず動き続け、37回の実験を行える。これは特定の人間を置き換えるのではなく、「研究生産性」の本質を再定義している。
これをKarpathyの言葉——「これが最終的なBOSS戦だ」と思い出す。彼の言うBOSSは、競争相手ではなく、AI能力の天井そのものだ。
一度AIが科学研究を自主的に推進できるようになれば、AIの進歩速度は、人間の研究者の数や労働時間に制約されなくなる。
Pachockiも同じ意味を伝えているが、より控えめに表現している——「システムがデータセンター内で長時間自主運用できるようになれば、それこそが我々が本当に頼るべきものだ」と。
2026年9月のAI研究インターンは、終点ではなく、重要な出発点だ。