Nvidiaのセンスンエン最高経営責任者がAIブームの次について語る

ジェンセン・黄が今年のGTCで革ジャンの入り口にさえ現れる前に、Nvidia($NVDA -0.70%)はすでに神話の販売を始めていた。プレショーのサウンドトラックは、まるで戴冠式のために特別に作られたかのように疑わしいほどにカスタムメイドで、素晴らしいことが予定通りに到着し、伝説が作られ、未来がちょうど合図通りに現れる歌詞が流れ、Shazamさえ識別できない曲もあった。(その日のAIデモはおそらくプレイリストだったのだろう。)会場の半分は、シリコンバレーが自分たちのアリーナアクトを予約したかのように、黄の入場に向けてスマートフォンを掲げていた。一晩だけ、サンノゼ・シャークスのホームリンクは、別の種類のパワープレイのために占拠された。黄がステージに登場し、彼の得意技を披露した瞬間だ:製品の基調講演を未来のゾーニング・ヒアリングに変える。

Nvidiaの創設者は、GTCを「AIのあらゆる層」を巡るツアーで始め、その後数時間にわたり、同社が単に熱い市場にチップを売るだけではないと主張した。いいえ。同社はAI経済の全物理的インフラを定義したいのだ:計算、ネットワーキング、ストレージ、ソフトウェア、モデル、工場、そして—季節外れの微妙さは明らかに不要—もしかすると宇宙空間にある(まだ理論段階の)データセンターさえも。

基調講演はあらゆる方向に発表を散らしたが、真のメッセージはより凝縮されていた。黄は投資家、顧客、ライバルに対して、次の4つのことをはっきりと伝えたかった:AIの需要は依然として急速に伸びており、莫大な投資を正当化している;推論が今や戦場の中心である;エージェントはチャットボットから日常のオフィス作業の機械へと溢れ出すべきだ;そして、デジタルAIの次の金鉱は物理的AIかもしれず、ロボット、自律システム、産業用ソフトウェアがさらに多くのデータとインフラを消費するだろう。NvidiaなしではAIと綴れない。

黄は、通常市場がNvidiaの堀がいつか漏れるのではと疑問を持ち始めたときに最初に開く場所、すなわちソフトウェアから始めた。彼は早い段階でCUDAが20年前のものであり、Nvidiaのインストールベースは「すべてのクラウド」や「すべてのコンピュータ企業」に存在すると再確認した。Nvidiaの最も強力な盾は、シリコン自体ではなく、その周囲のソフトウェアエコシステムだ。

その論理は、スピーチの残りの部分を形作った。黄は構造化データに焦点を当て、それを「エンタープライズコンピューティングの地面の真実」と呼び、AIがついにPDFや動画、音声といった非構造化情報の海を活用できると述べた。これらは企業の屋根裏に長年蓄積されてきたが、検索や収益化の方法がわからなかったものだ。気をつけろ、世界よ;Nvidiaもデータベースに名乗りを上げたい。

GTCはもはや高速で優れたチップだけの話ではない。今年の大きなスピーチは、NvidiaがAIの経済性を所有する企業になろうとする試みについてだった—チップ、ストレージ、ネットワーク、オーケストレーション層、デジタルツイン、オープンモデルの政治、エージェントのランタイム、そして地球が混雑し始めた後のデータセンターの次の段階まで。GTC 2026は推論の基調講演、エージェントの基調講演、AI工場の基調講演であり、ハードウェアは証拠としての役割を果たし、物語の中心ではなかった。

大きな数字が示すもの

黄の最大の見せ場は数値だった。CUDAの20周年を記念し、それを加速計算の原動力と呼び、「過去数年で計算需要は『100万倍』に増加した」と述べ、さらに2025年から2027年までの収益機会を少なくとも1兆ドルと見積もり、以前のBlackwellとRubinの需要に対して2026年までの5000億ドルの見積もりから引き上げた。月曜日にNvidiaの株価は1.6%上昇し、これは承認の表れと解釈できる。

この数字と黄の枠組みは、おそらく基調講演の組織原則だった。Nvidiaは投資家と顧客に対して、構築はまだ初期段階であり、拡大中であり、現在の支出は前払い金のようなものであると公に大きな声で伝えたかったのだ。その数字はまた、静かに整理も行った。Nvidiaは、資本支出の熱狂の中でよくある質問—これがどれくらい続くのか?ハイパースケーラーはコストに宗教を持つのか?次のフェーズの一部はカスタムチップや安価な代替品に漏れるのか?—に対して、答えを広げてきた。

黄の答えは、視野を広げることだった。市場を大きくし、作業負荷をより複雑にする。彼は「推論の転換点が到来した」と述べ、基調の中核をシンプルな議論に据えた:AIは今や生産的な作業を行える。これが実現すれば、需要の姿は変わる。巨大モデルのトレーニングやそれらを賞賛することは最終段階ではなかった。それはすべて生産に移行し、メーターは止まらない。

これこそが、あなたの収益だと彼は言っている。データセンターを金貨に、電力料金を運命に変える。Nvidiaは現実をほぼ請求できるほど改善し続けており、会場には、デモが超越的に見えるのか、単に少し高価なだけなのかを決めかねている人々がまだ残っていた。

基調講演にはトークンがあちこちに登場した—オープニング映像、パフォーマンスチャート、経済的議論の中で。要点は、AIの将来価値は有用な出力を継続的に生成することにあり、これにより推論がコスト、遅延、スループットの面で本当に重要な部分となることだ。黄は依存性を提唱している。顧客にはサーバーを自由に組み合わせるのではなく、ギガワット規模のキャンパス、統合ラック、メガワット予算、トークンスループット曲線を考えるよう促している。

推論が主役に

おそらく最も鋭い一行もまた最もシンプルだった:「推論の転換点が到来した。」Nvidiaは、より安価でスリムな推論ハードウェアに世界が関心を持ち始めていることを理解している。いいだろう。それも売りたい。

黄は推論を二段階に分けた—プリフィルとデコード—し、NvidiaのVera Rubinチップがプリフィル作業を担当し、Groq由来のシリコンがデコードを担うシステムを提案した。これは実際に答えを吐き出すステップだ。これが重要だ。推論は、次の章がより複雑になる場所だ。トレーニングは会社を豊かにした。リアルタイムで何億ものユーザーにサービスを提供する段階では、コストや遅延、すべてのステップに同じシリコンが必要かどうかといった疑問が出てくる。

黄の答えは、典型的なNvidia流だった。GPUだけを守るのではなく、全スタックを飲み込め。彼はVera Rubinを「世代を超えた飛躍」と呼び、7つのチップと5つのラックスケールシステムを中心に構築されたと述べ、NvidiaはこのプラットフォームでBlackwellの4分の1のGPU数で大規模なエキスパートモデルをトレーニングでき、1ワットあたり最大10倍の推論スループットを1/10のコストで提供できると主張した。また、基調講演ではRubinの未来のプラットフォームFeynmanにも言及し、Nvidiaの世界では次世代が現行世代の前に控えている。

黄は、より高速な部品を売ることよりも、より大きな依存性を提案している。NvidiaはVera Rubin DSX AI工場リファレンス設計、AI工場の計画用DSXシミュレーションツール、そして縦割りのシステム部品を一体化したストレージやネットワークの幅広いメニューを発表した。メッセージは明白だ:サーバーのことは考えず、キャンパスのことを考えろ。あるいは、Nvidiaなら請求書を送るユーティリティのように。

エージェントはデモの舞台を去る

ハードウェアの提案が推論の中心にNvidiaを置き続けることを狙ったなら、ソフトウェアの提案は、エンタープライズAIが他者のパーティーにならないようにすることだった。黄は「Nvidiaの100%が」Claude Code、Codex、Cursorを使っていると述べ、もはや誰や何、いつ、どこで、どうやってといった質問はなくなり、作成、実行を求めていると語った。チャットボット企業にとっては残念だが、AIはもはや会話の新奇性ではなく、労働システムとして扱われている。

黄は、Nvidiaのスタックを通じてその労働システムを動かすことに注力した。会社はOpenClawとNemoClawをOpenClawコミュニティ向けに展開し、トレンディな企業と提携し、エージェントツールキットとOpenShellランタイムを推進し、AI-Qに注力した。これは、フロンティアとNvidiaのオープンモデルのハイブリッドを通じて問い合わせをルーティングし、コストを50%以上削減することを目的としている。

そのすべての中に戦略的なヘッジも隠されている。

NvidiaはBlack Forest Labs、Cursor、LangChain、Mistral、Perplexity、Reflection AI、Sarvam、Thinking Machines LabとともにNemotron連合を発表し、最初のプロジェクトは今後のNemotron 4モデルファミリーの基盤となる予定だ。サブテキストを読むと、NvidiaはAIソフトウェアの未来を、いくつかの巨大なクローズドモデルベンダーとコモディティハードウェアの山の間にきれいに分けたくないことが明らかだ。むしろ、オープンモデル層にも関与したいのだ—それは、誰がAIを構築し、調整し、所有するかを形作る部分だ。

帝国の規模が拡大

そして、黄はメタファーを拡大するのが得意な男だけに、基調講演はデータセンターからほぼすべての隣接産業へと広がった。

黄はしばらく前から、Nvidiaの物語をデジタルアシスタントだけにとどまらず、さらに広げてきた。今年のGTCもそのテーマをさらに強調した。NvidiaはMicrosoft($MSFT -0.14%)のAzureやNebiusと共同で、ロボット、ビジョンAIエージェント、自律走行車のためのトレーニングデータ生成、拡張、評価を自動化する「Physical AI Data Factory Blueprint」を発表した。シンプルなメッセージだ:実世界のデータは不足しており、エッジケースは面倒だ。合成データとシミュレーションがこれらのシステムに必要な原材料となる。

黄はまた、DreamZero研究に基づく次世代ロボット基盤モデル「GR00T N2」をプレビューし、これは新しい環境での新タスクにおいて、リーディングVLAモデルの成功を2倍以上にすると述べた。チャットボットはウォール街を興奮させた。物理的AIは、ロボットや産業システム、自律機械が必要とする無限のトレーニングデータ、シミュレーション、ネットワーク、センサー、エッジコンピュートを供給し続けることができる部分だ。

黄はまた、ディズニー($DIS +1.66%)のオラフをステージに呼び出し、物理的AIの舞台劇の一端を見せた。これは、他のアーキテクチャスライドよりも明確にポイントを伝えた。Nvidiaは、ディズニーがGPUアクセラレーテッドの物理シミュレーターを使ってオラフやBDXロボットを訓練していると述べており、オラフは3月29日にパリのディズニーランドでデビュー予定だ。

また、自律走行車も確実に注目された。BYD、Geely、Isuzu、Nissanが同社のDRIVE Hyperionスタックを使ったレベル4対応車を開発中であり、Uber($UBER +4.19%)は2027年前半にロサンゼルスとサンフランシスコでNvidia搭載のロボタクシーを展開し、2028年までに28市場に拡大予定だ。自律性は、黄の広範な主張にほとんどぴったりと収まる:AIの次の段階は物理世界を通じて進む。つまり、より多くのセンサー、シミュレーション、ネットワーク、エッジコンピュート、そしてNvidiaにとって都合の良いことに、より高価なハードウェアが必要になる。

黄はさらに大きく、より良い物語を語るために、未来のVera Rubinベースのシステムを軌道データセンターや宇宙の自律運用に向けて進めると述べた。確かに、それは未開拓のセクターがまだいくつか残っていることを示す男の言葉のようだが、同時に、「AIインフラ」とはほぼすべての高価なマシンを意味する決意の表れでもある。確かに、Nvidiaは依然としてチップの王者だが、黄はもはやそのタイトルだけに特に関心を持っているわけではない。彼の会社は、チップ供給者から工場設計者、オペレーティングシステムベンダー、そしてAIがより多くの仕事をし、電力制約のあるデータセンターがトークン・パー・ワットで収益を生む世界の徴税者へと進化しようとしている。

黄が終わる頃には、基調講演は単なるローンチカレンダー以上の規模に感じられた。それは帝国の地図のようだった。もちろん、DLSS 5によるグラフィックス、産業用ソフトウェアの新たな連携、通信のエッジパートナーシップ、そして膨大な開発者向けインフラもあった。しかし、最も持続的なメッセージはシンプルで遥かに大きい:NvidiaはAIを単なるソフトウェアカテゴリとして理解されるのをやめさせ、インフラストラクチャのユーティリティ規模のプロジェクトとして扱わせたい。Nvidiaのハードウェアとソフトウェアは、あらゆる層に埋め込まれる。

これは非常にジェンセン・黄のメッセージだ。ライバルにとって不安なのは、少なくとも今のところ、彼にはそれを支える顧客が十分にいるということだ。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン