OpenAI「ノーススター」プロジェクトを暴露、「2028年大失業」が本当に来るかもしれない

robot
概要作成中

最近、ネット上で広まった「2028年予測」という記事があり、その中でAIの進歩により2028年には大規模な失業の波が訪れ、多くの人の仕事がAIに取って代わられると指摘している。

この記事が出るや、中東情勢の影響も重なり、その日の米国株式市場は大きく下落した。この出来事はまさにファンタジーのようだが、その記事は明らかにAIによって書かれたものでありながら、「AIによる大失業」という恐怖心にぴったりと合致していたため、非常に大きな影響を与えた。

最近、OpenAIからの一つの発表が、人々に「2028年の大失業」は単なる空想ではない可能性を認識させている。

最近、OpenAIの最高科学者Jakub PachockiがMIT Technology Reviewの独占インタビューで語った言葉は、背筋が寒くなるほどだった——彼らの「北極星」目標は、2028年までに完全自動の多エージェント研究システムを構築することだ

今年9月には、その第一段階の目標が実現する予定だ。

特定の研究課題を独立して処理できる「自律型AI研究インターン」

これは製品のロードマップの仮置きや、AltmanがX上で口にした軽口ではない。OpenAIが全社のリソースを一つの方向に集中させている証拠だ。

「北極星」の意義

テクノロジー企業が「北極星」と言うとき、通常二つの意味がある。一つは、他のプロジェクトがそれに道を譲る必要があること、もう一つは、社内で既に共通認識ができていることだ。

過去2週間のOpenAIの動きを見ると、この判断はほぼ正しいと言える。

3月19日、OpenAIは開発者ツール企業Astralを買収し、チームをCodex部門に統合したと発表。同時に、ChatGPT、Codex、ブラウザを一つのデスクトップ「スーパーアプリ」に統合することも発表し、アプリ責任者Fidji Simoが主導、Greg Brockmanが組織改革を支援した。

断片化したプロダクト時代は終わりを告げ、OpenAIはすべてのリソースを一つの方向に集中させている。

その方向性は、「AI自身に研究をさせる」ことだ

Pachockiの論理は非常に明快だ:推論モデル、エージェント、説明性——これら三つの技術路線はもともとOpenAI内部でそれぞれ独立していたが、今や一つの目標の下に統合されつつある——長時間データセンター内で自主的に動作できるAI研究者を作ることだ。彼は言う、「これが実現すれば、」——「これこそが我々が本当に頼るべきものだ」と。

元OpenAI研究者のAndrej Karpathyの見解はさらにストレートだ——「すべての最先端大規模言語モデルの研究所はこうするだろう。これが最終的なBOSS戦だ。」彼は付け加える、「規模の拡大は確かに複雑になるだろうが、この取り組みはエンジニアリングの問題に過ぎず、必ず成功する」と。

彼の言葉のニュアンスに注意してほしい:「できるかどうか」ではなく、「いつできるか」だ

Anthropicの動き

ちょうどOpenAIが「北極星」を発表した同じ日に、Anthropicは静かにClaude Code Channelsをローンチした——TelegramやDiscordを通じて、開発者が直接Claude Codeのセッションとやり取りできる機能だ。

この出来事は単体では小さく見えるが、全体のトレンドの中では非常に重要だ。

Anthropicの考え方はこうだ:未来にAIが何をできるかを伝えるよりも、今すぐそれを開発者の実際のワークフローに組み込む方が良い。TelegramやDiscordは学術論文の場ではなく、プログラマーの日常の作業場所だ。Claude Codeをここに存在させることは、「ツール」から「同僚」へと変えることを意味する

コミュニティの反応もこの判断を裏付けている。

あるユーザーは直接こう言った:「ClaudeはこのアップデートでOpenClawを駆逐した。もうMac Miniを買う必要はない。」この言葉の裏には、Anthropicのインフラ改善により、オープンソースの代替案がコスト面での優位性を失ったことがある。

また、よりマクロな時間軸で見ると、AnthropicのClaude Codeの改良スピードは驚異的だ。数週間の間に、テキスト処理、数千のMCPスキルの統合、自律的なバグ修正能力を融合させた。OpenAIがAstralを買収してCodexを強化する一方で、AnthropicはClaude Codeを直接開発者のチャットウィンドウに投入している。

両社は同じゴールに向かって走っているが、そのルートは全く異なる——OpenAIは「2028年の全自動研究者」を作り出そうとしており、Anthropicは「今日から使えるインテリジェントツール」を開発している。

本当の難題

しかし、ここで見逃せない細部がある。

Pachockiはインタビューの中で、非常に稀なことを語った——安全性と制御性の課題について率直に話したのだ。

彼はこう言う、「彼らの考えは、他の大規模言語モデルを使って、『AI研究者のメモ』を監視し、行動に問題が出る前に不正行為を捕捉することだ」と。しかしすぐに認める、「大規模言語モデルの理解度は十分ではなく、完全に制御できるとは言えない。『この問題は解決済み』と断言できるまでには、まだ長い道のりがある」と。

ある企業の最高科学者が「我々はまだ完全に制御できていない」と述べ、2028年までに完全自動のAI研究システムを提供することも宣言した。この二つの事実は、真剣に考えるべき重要なポイントだ。

これは悲観的な見方ではなく、技術の本当の難しさを理解しようとする姿勢だ。Pachockiがこの言葉を口にしたこと自体、OpenAI内部でこの道の困難さを正しく認識している証拠だ。

技術的な観点から、研究者がまとめた「カパシ循環」というモデルも参考になる——成功する自動化AI研究の枠組みには、三つの要素が必要だ:単一のファイルを修正できる権限を持つエージェント、客観的に評価できる単一の指標、固定された実験時間の制約

この枠組みはすでに実環境で結果を出し始めている。ShopifyのCEO Tobias Lütkeは、次のような事例を公表している——彼は自動研究エージェントに夜間に動作させ、翌朝には37回の実験を行わせ、モデルの性能を19%向上させた。

概念から実現までの道のりは、想像以上に短い。

未来の価値200万円のサブスクリプション

「北極星」プロジェクトは、技術的な優位性だけでなく、ビジネス上の勝負の鍵でもある。

Paul Roetzerが示した数字は、何度も見返したくなるものだ。彼はOpenAI内部の予測を引用し、2029年までにエージェント事業だけで年間290億ドルの収益をもたらすと予測している。その中には、**月額2000ドルの「知識代理」や月額2万ドルの「研究代理」**も含まれる。

この数字は示している——「AI研究者」は単なる技術的な目標ではなく、収益の道筋そのものだ

月額2万ドルの「研究代理」は、経験豊富な研究者の年収の一部に相当するが、24時間休まず動き続け、37回の実験を行える。これは特定の人間を置き換えるのではなく、「研究生産性」の本質を再定義している。

これをKarpathyの言葉——「これが最終的なBOSS戦だ」と思い出す。彼の言うBOSSは、競争相手ではなく、AI能力の天井そのものだ

一度AIが科学研究を自主的に推進できるようになれば、AIの進歩速度は、人間の研究者の数や労働時間に制約されなくなる

Pachockiも同じ意味を伝えているが、より控えめに表現している——「システムがデータセンター内で長時間自主運用できるようになれば、それこそが我々が本当に頼るべきものだ」と。

2026年9月のAI研究インターンは、終点ではなく、重要な出発点だ。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン