黄仁勋は「トークン経済学」を構築、NVIDIAはインテリジェントエージェント時代を迎える

3月17日未明、AIの「スーパー・ボウル」とAIの「春晩」と称されるエヌビディアGTCが開幕し、「AI教主」として知られるエヌビディア創業者兼CEOのジェンスン・フアンが再びステージ中央に立ち、技術の嵐で物理的限界を更新していく。

エヌビディアは、Vera Rubin(最新チップ・アーキテクチャ)について、現時点で新しい7種類のチップがすでに全面的に量産投入されており、Vera RubinプラットフォームはAgentic AIの新時代を切り開き、世界最大のAI工場を構築していると発表した。

具体的には、これらのチップ製品には以下が含まれる:NVIDIA Vera CPU(エヌビディアがサーバーCPUに参入済み)、NVIDIA Rubin GPU(GPUの主力製品)、NVIDIA NVLink 6(第6世代のNVLinkスイッチ・チップ、チップ内部の相互接続)、NVIDIA ConnectX-9 SuperNIC(スーパーNIC)、NVIDIA BlueField-4 DPU(ストレージ・チップ)、NVIDIA Spectrum-6(イーサネット・スイッチ・チップ、CPO技術に対応)、および新たに統合されたNVIDIA Groq 3 LPU(Groqを取り込んだ後の最初のチップ)。

見てのとおり、チップ・ファミリーには、普段から誰もがよく知るCPUやGPU製品だけでなく、Groq由来のLPU、そしてストレージ・チップやスイッチ・チップなどの全系製品も含まれている。これらのチップは、データセンターで稼働する5種類のラックを構成することもできる。

「Vera Rubinは世代をまたぐ飛躍だ——7つの画期的なチップ、5種類のラック、一台の巨大なスーパーコンピューターで、AIのあらゆる段階に推進力を与える」とフアン氏は述べ、「Vera Rubinの登場により、Agentic AIの転換点はすでに来ており、歴史上最大規模のインフラ構築を切り開くことになる」と語った。

講演の中でフアン氏は、BlackwellとRubinのAIチップの売上が2027年末までに1兆ドルに到達すると予測し、昨年10月の5000億ドルという売上予測からすでに倍増しているとした。

この発表会は「前例のない」ものといえる。GPUだけの話でもなければ、特定の技術アップグレードだけの話でもない。フアン氏は改めて「Token」経済学を強調し、AI「5層のケーキ」理論を徹底的に実践している。

一つの傾向として、巨大企業が能力を次々に集約し、弱点を補い、川上・川下へと拡張して、より強大な壁を形成しつつある。チップや性能などの単一軸で競う段階はすでに過ぎ去り、あらゆる面でのシステム級の激しい競争が繰り広げられている。

Vera Rubinの徹底的な革新:単一チップからシステム級の時代へ

Blackwellの世代をまたぐリレーの担い手として、エヌビディアは2026年下半期の量産を予定するRubin(R100)アーキテクチャを定めている。コアとなる基盤レイヤーでは、このアーキテクチャは台積電の3nm(N3P)プロセスへ全面的に移行しており、その象徴的なVera CPU(88コアの自社開発Olympusアーキテクチャに基づく)とRubin GPUは、1.8 TB/sのNVLink-C2C技術によって、物理的な意味で同一パッケージ統合を実現している。

この「PCIeレス化」による強結合設計により、演算能力は従来のリンクに縛られなくなる。単一GPUのNVFP4精度での推論演算能力は50 PFlopsまで増加し、学習演算能力は35 PFlopsに達する。規模化された推論のエネルギー効率はBlackwellに比べて5倍以上向上している。

アプリケーションのユースケースの観点では、Rubinは「エージェント型AI(Agentic AI)」と長いコンテキスト推論のために特化したデジタル工場の心臓部である。Transformer Engine 3.0とInference Context Memoryのストレージ・プラットフォームを導入し、BlueField-4 DPUでストレージ管理の負荷をオフロードすることで、AIエージェントが数万Tokenのコンテキスト関連を扱い、多段のロジック推論とリアルタイム意思決定を行えるようにする。プラットフォームには、シリコンフォトニクス技術(CPO)に対応したSpectrum-X Ethernet Photonicsネットワークが搭載され、1台のラックキャビネットNVL72内部の相互接続総帯域幅は260 TB/sに達する。これは、世界のインターネットの国境をまたぐ帯域幅総和に相当する数倍である。

エヌビディアはまた、Vera CPUラックも投入した。これはエヌビディアMGXに基づく高密度な液冷インフラをベースにしており、256個のVera CPUを統合し、拡張可能で省エネの容量を提供し、さらに世界級のシングルスレッド性能を備える。GPU計算ラックと並んで、それらは大規模なAgentic AIと強化学習に対するCPU基盤を提供する——Veraの効率は従来のCPUの2倍で、速度は50%向上している。

現在、Vera CPUをエヌビディアと共同で導入する顧客には、アリババ、バイトダンス、Meta、Oracle Cloud Infrastructure、ならびにCoreWeave、Lambda、Nebius、Nscaleが含まれる。Veraはすでに全面的に量産体制に入り、今年下半期には出荷される。

従来型のデータセンターやAIインフラは、新たな変革に直面している。フアン氏は「AI時代では、インテリジェントなTokenが新しい通貨であり、AI工場はそれらのTokenを生成するためのインフラだ。Vera Rubin DSX AI FactoryのリファレンスデザインとOmniverse DSX Blueprint(デジタルツイン・ブループリント)を通じて、世界で最高の生産力をもつAI工場を構築するための基盤を提供し、初回収益までの時間を加速させ、規模とエネルギー効率を最大化している」と述べた。

Groq LPU推論チップ:GPUとともに混合演算の帝国を構築

続いて、非常に注目されているGroqチップを見てみよう。

2025年末、エヌビディアによる200億ドルの戦略的ライセンス付与と、深い統合によるGroq LPU(Language Processing Unit)アーキテクチャは、遅延を正確に狩り、リアルタイムなインタラクションの時代を切り開く「超音速の迎撃機」だ。

エヌビディアは、今回発表したGroq 3 LPX(ラック)が、加速計算の1つのマイルストーンであると述べた。LPXラックには256個のLPUプロセッサが含まれ、128GBのオンチップSRAMと640 TB/sの拡張帯域幅を備える。これをVera Rubin NVL72とともに展開すると、Rubin GPUとLPUは共同でAIモデルの各層を計算することでデコード速度を高め、各出力Tokenに対して計算を提供できるようになる。

同時に、LPXは完全な液冷設計で、MGXインフラをベースに構築されているため、次世代のVera Rubin AI工場へシームレスに統合でき、今年下半期に提供される。

推論の時代に入ると、エヌビディアはGPUの外側でも新しいアーキテクチャを融合し、大幅に効率を高めている。

技術アーキテクチャの面では、Groq LPUは従来のGPUにある複雑なキャッシュ管理、分岐予測、命令の並べ替えなどの「憶測(推測)的」ハードウェア設計を捨て、代わりに決定論的なパイプライン・アーキテクチャを採用した。この設計により、ハードウェアの複雑さは完全にコンパイラ層へ切り離され、チップ内でのデータの流れは精密なベルトコンベアのように制御され、制御不能なジッター(Jitter)は一切発生しない。

実戦のユースケースにおいては、エヌビディアの技術サポートを受けたLPXラックが、「エージェント型AI(Agentic AI)」と「リアルタイム音声インタラクション」にとって唯一の救い主になりつつある。自動運転の支援システムや高頻度取引ロボットでは、ミリ秒単位の計算の揺らぎが意思決定の失敗につながる可能性があるが、LPUの決定論的な演算能力により、タスクの実行時間は常に一定に保たれる。

多段推論、あるいは数百回規模のモデル呼び出しを伴う複雑なAgentチェーンに対して、LPUは本来数分かかる連続した思考を数秒へ短縮でき、AIが人間のように自然で流暢なリアルタイム対話と協働を行えるようになる。この新しい計算パラダイムを支えるために、エヌビディアはNVFusion技術を通じてLPUユニットをその巨大なCUDAエコシステムへシームレスに組み込み、disaggregated(デカップリング式)アーキテクチャによって、学習済みの重みをGPUからLPU推論アレイへ素早くスケジューリングする。

この能力の後押しにより、エヌビディアは学習と推論を分離し、混合演算の帝国を構築する。GPUは後方で、数千億パラメータ・モデルの学習と長文の前処理に深く注力し、一方でLPUアレイは前線の防衛線で、対手に対して10倍のエネルギー効率比と超高速の応答で、万億級のリアルタイム推論市場を制圧し、「推論の即時化」時代の到来を正式に宣言する。

エヌビディア版「ロブスター」が登場:エージェントの時代を受け入れる

同時に、エヌビディアはAIエージェント(Agent)、オープンモデル、ならびに業界横断のアプリケーションを軸に、一連の重要な進展を発表している。開発者が最も注目する発表の1つは、OpenClawコミュニティ向けのNemoClawソフトウェア・スタックだ。最近、オープンソース・プロジェクトのOpenClawが開発者コミュニティで急速にブームとなり、多くの業界関係者から「個人AIオペレーティングシステム」の雛形だと見なされている。

フアン氏もOpenClawを高く評価している。「OpenClawは誰にでもAIの次のフロンティアを開き、歴史上で成長が最も速いオープンソース・プロジェクトになった」とフアン氏は述べ、「従来のAIアプリとは異なり、OpenClawの目的は、AIエージェントをアプリケーションのように継続して稼働させ、タスクを自律的に計画し、ツールを呼び出して、複雑なワークフローを完了できるようにすることだ」と語った。

この枠組みのもとで、NemoClawは開発者が一連の基礎ソフトウェア能力を使って、1つのコマンドでNVIDIA Nemotronモデルと新しく公開されたOpenShellランタイム環境をインストールでき、さらにAIエージェントに安全性とプライバシー制御の能力を追加できるようにする。OpenShellが提供する隔離されたサンドボックス環境により、AIエージェントはツールやデータにアクセスするときに、定められたセキュリティ戦略とプライバシールールに従うことができる。これにより、効率を高めながらデータの安全性を確保する。

NemoClawはローカルモデルとクラウドモデルの混合呼び出しにも対応している。開発者はユーザー専用デバイス上でNemotronモデルを動作させつつ、プライバシールーティングを通じてクラウドの最先端モデルへアクセスすることができる。これによりデータのプライバシーを保ちながら、より強い計算能力を得られる。エヌビディアによれば、NemoClawは複数の専用計算プラットフォーム上で動作可能であり、GeForce RTX搭載のPCやノートPC、RTX PROワークステーション、ならびにDGX StationおよびDGX Sparkシステムが含まれる。これにより、24時間稼働のAIエージェントに対して安定した計算能力を提供できる。

AIエージェント・プラットフォームの発展を後押しする一方で、エヌビディアはオープンモデルのエコシステム構築も加速している。今回のカンファレンスで、エヌビディアはNemotron Coalition(Nemotron連合)を設立すると発表した。これは、世界中の複数の主要なAI研究所とモデル開発機関が連携し、オープンな最先端モデルの発展を共同で推進するものだ。

エコシステム面での協業に加え、エヌビディアはAIエージェント、フィジカル・インテリジェンス、医療研究など、さまざまな領域の発展を支えるために、多数のオープンモデル製品ラインも同時に拡張した。中でも、NVIDIA Nemotron 3シリーズのモデルはマルチモーダル理解能力をさらに強化し、Ultra、Omni、VoiceChatなど複数のバージョンをリリースした。これらの関連モデルは、言語、視覚、音声情報を同時に処理でき、AIエージェントは自然な対話だけでなく複雑な推論タスクも実行できる。さらに、動画や文書など多様なデータソースから重要な情報を抽出できる。

デジタル世界におけるAIエージェントだけでなく、エヌビディアは人工知能を現実世界へも推進している。今回発表された新モデルには、ロボットや自動運転システム向けの複数の基盤モデルが含まれる。たとえば、NVIDIA Isaac GR00T N1.7は、人型ロボット向けのビジョン・言語・行動モデルであり、現実環境においてロボットが知覚、推論、行動の意思決定を行えるようにする。

NVIDIA Alpamayo 1.5は自動運転のシーン向けであり、ナビゲーションの指示、多カメラ対応、設定可能なカメラパラメータなどの能力によって車両の推論能力を高める。さらに近日リリース予定のNVIDIA Cosmos 3は、最初の統一型「世界生成、物理推論、行動シミュレーション」の世界基盤モデルだとされており、ロボットや自動運転システムが複雑な環境下で訓練と意思決定を行うのに役立つことが期待されている。

AIエージェント・プラットフォームからオープンモデル・エコシステムへ、そしてロボット、自動運転、生命科学などの応用領域へと、エヌビディアはデジタル世界と物理世界の双方をカバーするAI技術体系を段階的に構築している。より多くの開発者や企業がオープンモデルおよびAIエージェントのエコシステムに参加するにつれ、この体系は世界規模での人工知能の革新と実装をさらに後押しすることも期待されている。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン