少なくとも1兆ドルの売上!黄仁勋のGTCでの講演が会場を沸かせ、英伟达(NVIDIA)がAIの生死を再び掌握する(2万字の記録付き)

文 | 《硅谷观察》栏目 郑骏

サンノゼSAPセンター、ほぼ満席。

普段はNHLサンノゼシャークスの本拠地であるこの会場は、今日一日だけの「AIメッカ」に変貌した。190か国から集まった開発者、エンジニア、企業バイヤー、投資家たちが座席を埋め尽くし、皆が注目したのはあの馴染み深い姿:皮ジャンを愛用する中年男性だ。

NVIDIAの黄仁勋CEOは、壇上に上がった第一声でこう言った:「It all starts here.」——すべてはここから始まる。続く2時間以上、彼はこの言葉の重みを証明した。笑顔で語った、「今日はまるでスーパーボウルのようだ」と。

彼は、NVIDIAの次世代AIアクセラレータチップアーキテクチャBlackwellと次世代Rubin製品が、2027年末までに少なくとも1兆ドルの収益を生み出すと予測している。この数字は、黄仁勋が2025年10月に示した5000億ドルの売上予測を大きく上回り、AIインフラ投資の波が依然として急速に拡大していることを改めて浮き彫りにしている。

兆ドル規模の受注:需要ストーリーの再定義

この講演で最も衝撃的だったのは、受注側の数字だ。黄仁勋は、来年末までにBlackwellとVera Rubinの2世代アーキテクチャに対する調達総額が1兆ドルを突破すると予測している。これは、昨年予想された5000億ドルの2倍だ。

NVIDIAはすでに予想を上方修正していた。先月、CFOのクレス(Colette Kress)は決算説明会で、チップの販売増が従来予想を超えると示唆していたが、今日黄仁勋はその「超越」を具体的な数字に落とし込んだ。

この自信の背景には、NVIDIAの最新決算が示すデータセンター部門の四半期売上高が623億ドルに達し、前年比75%増を記録していることがある。しかし、株価は同期して上昇せず、昨年10月の史上高値207ドルから約11%調整されている。資本市場は、2027年にNVIDIAがこの成長を維持できるかに疑念を抱いており、その成長余地が株価の上昇を左右している。黄仁勋の兆ドル数字は、この「虚無的な懸念」に直接応えた形だ。

コア製品:Vera Rubinの全貌公開

Vera Rubinは、この講演の絶対的主役だが、黄仁勋は1時間半も待ってから正式に発表した。このシステムは昨年末のワシントンDCイベントですでに披露されており、今年初頭のCES 2026でも詳細が示されたが、今日は完全版として正式リリースされた。主なポイントは以下の通り。

Vera Rubin NVL72は現行フラッグシップ仕様で、72GPUをNVLink 6で接続し、液冷設計を採用。黄仁勋は特に強調した:「すべてのケーブルが消えた」——モジュール化されたトレイに置き換えられ、Blackwellの2時間かかる設置時間が5分に短縮された。システムは45度の温水冷却で稼働。彼はこれを「スーパー充電AI時代のエンジン」と呼んだ。

Rubin Ultraは、144GPUの単一キャビネット仕様に拡張され、Kyberラックに縦置きで搭載。前側が計算、後側がNVLinkで接続。Hopper世代と比べて、Vera Rubinプラットフォームの推論スループットは理論上700万トークン/秒に達し、x86 Hopperの200万を大きく上回る。黄仁勋はこれを「AI工場の未来を示す最も重要な図表」とし、推論演算能力をFree、High、Premium、Ultraの4つのサービス層に分け、トークン/秒で価格設定。彼は「Tokenは新しいコモディティだ」と語る。

Vera CPUは、独立した製品として販売され、NVIDIAのCPU市場における新たな収益源となる見込みだ。この事業は「数十億ドル規模」の収益に成長すると予測されている。最初のVera RubinシステムはMicrosoft Azureクラウド上で稼働中で、サンプルの進捗も順調だ——Blackwell世代の初期の歩留まり問題と対照的だ。

Groq買収の実現:LPU正式統合

昨年クリスマス前夜、NVIDIAは約200億ドルでGroqのコア資産を買収し、創業者のジョナサン・ロスらコアチームを迎え入れた。今日、黄仁勋はこの買収による技術製品として、Groq 3 LPU(言語処理ユニット)を発表した。

Groq 3は、Vera Rubinの推論アクセラレータであり、GPUの代替品ではない。技術アーキテクチャの観点から、大規模言語モデルの推論は2段階に分かれる:計算集約型のpre-fill(入力プロンプト処理)と、帯域集約型のdecode(出力トークン生成)。GPUは高スループットのpre-fillに適しているが、GroqのLPUは22TB/sのHBM4メモリ帯域を活用し、decode段階を最適化。これにより、同等のGPU比で約7倍高速化されている。両者はDisaggregated Inference(分離推論)アーキテクチャで連携:GPUがpre-fillを担当し、LPUがdecodeを担う。上層はNVIDIAのDynamoシステムで一元管理。

これに合わせて、NVIDIAは専用のLPXラックを開発。1台のキャビネットに256個のGroq 3 LPUを収容し、Vera Rubin NVL72ラックと並列設置、Spectrum-Xでカスタム接続。各Groq 3 LPUは500MBのオンチップメモリを搭載し、サムスンの委託生産。第3四半期の出荷を予定。公式データによると、Vera Rubin NVL72とGroq 3 LPXの併用は、Blackwellと比べて1kWあたりのトークン/秒を35倍向上させる。

NVIDIA幹部は、これにより大規模言語モデルに対し、「1秒あたり数千トークン」の超低遅延推論サービスを提供できると述べている。これは、CerebrasやSambaNovaなどの専用推論チップ企業が占めていた領域だ。

NVIDIA公式のAI養殖:AIエージェント時代の創造

ハードウェア以外に、黄仁勋はNVIDIAのソフトウェア戦略についても多く語った。最もホットなAIエージェント(AI Agent)ブームと、最近話題のオープンソースエージェントプラットフォームOpenClawに触れ、「これまでで最も成功したオープンソースプロジェクト」と絶賛した。

彼はOpenClawをOSに例えた:「それはエージェントを管理するOSだ。Windowsがパソコンを可能にしたように」。さらに、「世界中の企業はOpenClaw戦略を持つ必要がある」とし、LinuxやHTTP/HTMLと同列に位置付けた。

これに伴い、NVIDIAはNemoClawという、OpenClaw向けの企業向けオープンソースソフトウェアスタックを発表。企業のセキュリティを重視し、AIエージェント展開時の内部機密情報保護を支援。Microsoftのセキュリティチームと協力し、NemotronとNemoClawを基盤にリアルタイム適応防御を開発中だ。

さらに、DGX SparkやDGX Stationといったデスクトップ/ワークステーション級製品を、企業のAIエージェントのローカル開発・展開プラットフォームとして位置付け、NemoClawの能力をエッジに持ち込む。

ロードマップ:フェインマンから宇宙データセンターへ

ハードウェアのロードマップでは、黄仁勋はVera Rubinの次に、次世代Feynmanアーキテクチャの概要を初めて示した。2028年にリリース予定だ。Feynmanは、新たなGPU、新世代LPU(LP40)、新CPU(Rosaと命名、DNA構造発見者ロザリンド・フランクリンに敬意)を含む。BlueField-5 DPU、CX10 NIC、銅ケーブルと共封装光学(CPO)をサポートするKyberインターコネクトプラットフォームと連携。

さらに驚きなのは、NVIDIAが宇宙版Vera Rubinモジュール——Space-1を開発中だと発表したことだ。軌道上にAIデータセンターを展開することを目標としている。放射線防護が最大の課題だが、すでに研究を開始している。SpaceX、Google、Amazonなどの宇宙データセンター戦略とも一致している。

また、NVIDIAはDSX AI Factoryのリファレンス設計を発表。Omniverse DSX Blueprintと連携し、企業の大規模AIデータセンターの全ライフサイクルを計画・シミュレーション・管理できる。AWSは同日、NVIDIAとの協力拡大を発表。Blackwell、Rubin、Groq 3 LPUを含む100万個以上のGPU展開を約束し、今年内にAWSのグローバルリージョンで展開を開始する。

自動運転とロボット:パートナー大規模拡大

自動運転は、講演の第3の柱だ。黄仁勋は、NVIDIA Drive AVソフトとUberの協業が実現段階に入ったと発表。2028年までに、Uberは世界4大陸28都市に、NVIDIA技術を用いた自動運転車隊を展開し、ロサンゼルスとサンフランシスコを皮切りに開始する。

同時に、BYD、吉利、日産、現代などの自動車メーカーが、NVIDIAのDrive Hyperionプラットフォーム上でL4レベルの乗用車を開発中。いすゞや中国のTier IVは、NVIDIAのAGX Thorチップを用いた自動運転バスも開発している。黄仁勋は、「自動運転車のChatGPT時代が到来した」と引用した。

ロボット分野では、ディズニーのOlafロボット(『アナと雪の女王』)が登場し、黄仁勋と対話した。このロボットはNVIDIAのシミュレーション環境で共同訓練されており、英偉達のPhysical AI(具現化AI)応用例の一つだ。

おそらく、Moor Insights & Strategyのアナリスト、パトリック・ムーシェドの表現が最も的確だ:「NVIDIAはもはやチップメーカーではなく、プラットフォーム企業だ」。

最初の1時間半、黄仁勋は「プラットフォーム」について語り続けた。基盤はインフラだと強調し、NVIDIAはもはやチップ企業ではなく、エコシステムを持つプラットフォーム企業だと示した。今日の講演は、その戦略の全貌を示すものだった。

具体的には、ハードウェアの全スタック(GPU+LPU+CPU+DPU+ネットワーク)、ソフトウェアエコシステム(CUDA、NemoClaw、Dynamo、Omniverse)、そして産業応用(自動車、医療、工業、エンターテインメント)を構築している。特に、ソフトウェアは競争優位性を高める要素となっており、AMDなどの競合が最も模倣しにくい部分だ。

自動運転の大規模パートナー拡大とOpenClawエージェントプラットフォームの導入は、NVIDIAの成長源泉が単なるデータセンター向けハードから、より広範なAIインフラへと拡大していることを示す。黄仁勋が演説の最後に描いたビジョンは、AIは現在のテキスト生成ツールから、推論・計画・タスク実行が可能な自律システムへと進化し、その基盤となるのは「Token工場」的なAIデータセンターだ——NVIDIAは、その全体ソリューションの提供者になろうとしている。

株価とアナリストの反応:信頼を確認、しかし意見は分かれる

演説中、NVIDIAの株価は本日約1.65%上昇し、181ドルから約183ドルへと推移。取引量は2.17億株と、平均の1.77億株を上回り、時価総額は4.45兆ドルに達した。これは、今回のGTCが短期的に市場の信頼を高めたことを示す。

Wedbushのアナリスト、ダン・アイヴスは、最も積極的な反応を示した一人だ。彼は黄仁勋を「AIの教父」と呼び、今回のGTCを「テクノロジー投資家が待ち望んだ信頼回復の場」と位置付け、NVIDIAを「AIの頂点に君臨する企業」と評した。アイヴスはまた、「この講演は、AI革命が加速していることを証明した」とし、兆ドル規模の需要予測は、「企業、政府、AIネイティブ企業の三者が同時に動いている証拠だ」と述べた。彼は、NVIDIAの1ドルのチップ支出が、ソフトウェアやセキュリティ、エネルギー、データセンターなどの下流で8〜10ドルの乗数効果を生むと見積もる。

一方、Cantor Fitzgeraldのクレイ・ムス氏は、演説前にターゲット価格を300ドルに設定し、買い推奨を維持。彼は、「我々は信頼回復の瀬戸際にいる」とし、黄仁勋のメッセージが、「全システムAIインフラ企業」としての戦略的地位を強化すると予測。2027年の需要見通しに注目している。

Deepwater資産運用のゲーン・マンスタ―氏は、演説前の見解をより慎重に示した。彼は、「本当の課題は、今日の発表ではなく、投資家の2027年の成長鈍化に対する長期懸念だ」と指摘。これは、「AI資本支出がピークに近づいているかどうか」の市場全体のストーリーと密接に関係している。

過去1年のAIバブルとインフラ投資の急拡大の懸念の中、今日の黄仁勋は、AI業界に新たな希望をもたらした。より広範なAIエコシステムの展望を示し、NVIDIAがその中心にいることを再確認させた。

AIバブル?皮ジャンの中年男は、「これからが本番だ」と感じている。

【全文演説原文は後述】

NVDAX-1.41%
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン