AI・トークンコスト大幅低減がAI需要拡大をどう促進するか?英伟达の年次GTC大会は、AI計算能力のビジネスロジックが根本的に再構築されつつあるという核心的なシグナルを放った。トークンは新たなコモディティとなり、計算力は収益となる。英伟达の経営陣は本大会で、データセンター販売の見通しを従来の5000億ドル(2026年までカバー)から大幅に引き上げ、1兆ドル超(2025~2027年の累計)に上方修正した。さらに、Vera CPUやLPXラック方案の販売額もこれに追加計上されると明言した。ウォール街はこの大会を、英伟达のAIサイクルの持続性を裏付ける強力な証拠と見なしている。追風取引台によると、JPモルガンの最新レポートは、この数字が、ウォール街の2026~2027年のデータセンター収益予想と比較して、少なくとも500~700億ドルの上振れ余地があることを示していると指摘している。バンク・オブ・アメリカ証券のレポートは、英伟达経営陣の発言を直接引用し、「トークンは新たなコモディティであり、計算力は収益に等しい」とし、Blackwellシステムは前世代のHopperに比べて1トークンあたりコストを最大35倍削減しており、今後リュービンシリーズの登場によりさらに2~35倍の低減が見込まれると述べている。具体的な削減幅は、ワークロードの種類やアーキテクチャ構成による。英伟达のストーリーラインにおいて、この継続的なトークンコスト圧縮の曲線は、需要規模の拡大を促す根本的な原動力である。需要見通しの倍増、大規模顧客と企業市場の二重ドライブ-----------------------英伟达の経営陣は、BlackwellおよびVera Rubinシステムの高信頼度の受注が1兆ドルを超え、2025年10月のGTCデータセンター大会で発表された5000億ドルの倍増となったことを明らかにした。さらに、2027年の追加受注と未処理注文は今後6~9ヶ月で継続的に積み上がる見込みだとも述べている。需要構造は多様化している。約60%は超大規模クラウド事業者(内部AI消費が推奨・検索ワークロードから大規模言語モデルへ移行中)から、残りの約40%はCUDAクラウドネイティブAI企業、NVIDIAクラウドパートナー、主権AI、産業・企業顧客に分散している。バンク・オブ・アメリカは、この新たな1兆ドルの展望は、従来のウォール街の3年期データセンター収益予測約9700億ドルとほぼ一致していると指摘し、その論理と2025年10月の旧版5000億ドル展望の検証方法はほぼ同じだと示している。注目すべきは、英伟达の経営陣が本大会で、従来型企業のワークロード加速需要についてもかなりの比重を割いて解説した点だ。英伟达はIBM(WatsonXの加速)、Google Cloud(BigQueryの高速化、Snapのコスト約76%削減)、Dell(AIデータプラットフォーム)などと協業を発表し、cuDFやcuVSといったCUDA-Xの主要ライブラリもリリースした。JPモルガンは、この方向性は「市場に過小評価されている」と見ている。その理由は、ムーアの法則がほぼ失効しつつあり、専用アクセラレータによる加速が唯一の実行可能な代替策となるためだ。これにより、英伟达のアドレス可能市場はAIトレーニング・推論サイクルを超えた領域へ拡大する。Groq LPU統合:アーキテクチャ最重要新製品-----------------------JPモルガンは、Groq 3 LPUとVera Rubinの統合を、本大会の「アーキテクチャ面で最も重要な新製品」と評価している。このデcoupled推論アーキテクチャは、Rubin GPU(高スループット、288GB HBM4、22TB/s帯域、50 PFLOPS NVFP4)とGroq LPU(低遅延デコード、500MBオンチップSRAM、150TB/s SRAM帯域、1.2 PFLOPS FP8)をペアリング。事前充填はVera Rubin上で完了し、注意力デコードも同じくRubin上で行う。一方、前方伝播ネットワークやトークン生成はGroq LPUにオフロードされる。LPXラックには256個のLPUを搭載し、128GBの集約SRAM、40PB/sのメモリ帯域、315 PFLOPSの推論性能を提供。2026年第3四半期に発売予定。NVIDIAの経営陣は、超高速トークン速度を必要とするワークロード(コード生成、エンジニアリング計算、長文コンテキスト推論)では、約25%のデータセンター電力がLPXに割り当てられ、残り75%は純粋なVera Rubin NVL72構成と述べている。バンク・オブ・アメリカのデータによると、「RubinシステムとSRAM LPXラックの組み合わせにより、高級低遅延ワークロードの効率は前世代比で35倍向上」するという。JPモルガンは、このアーキテクチャは、単一のプロセッサではスループット(FLOPS制約)と遅延(帯域制約)を同時に最適化できない根本的矛盾に直接応答し、従来のASICメーカーが強みとした高端推論市場での競争力を高めると指摘している。ケーブルとCPO並行推進、接続路線は一つに絞らず-----------------------NVIDIAの経営陣は、大会で銅線と共封装光学(CPO)の争いに正面から応じ、両方の路線を並行して推進する方針を示した。現行のVera Rubin世代では、Oberonラックは銅線でNVL72まで拡張、光学でNVL576まで拡張。Spectrum-6 SPXの共封装光学イーサネットスイッチは量産中で、NVIDIAとTSMCの共同開発。管理陣は、光学の電力効率は従来のプラガブルトランシーバの5倍、堅牢性は10倍向上したと述べている。2027年下半期のRubin Ultraでは、Kyberラックは銅線NVLink(最大144GPU)を採用し、CPOベースのNVLinkスイッチも選択肢として提供。2028年のFeynmanでは、銅線とCPOの両方をサポートし、横展開用にSpectrum-7(204T、CPO)も搭載予定だ。バンク・オブ・アメリカ証券は、CPO拡張や横展開スイッチの採用は顧客にとって選択可能であり、適切なタイミングまで銅線を使い続けられると指摘。一方、JPモルガンは、これらの両路線の確認は従前の予測と一致し、銅線拡張は少なくとも2027年前までNVL72/NVL144構成を主導し続け、CPOは横展開やNVL576+構成で徐々にシェアを拡大すると見ている。Vera CPU:インテリジェントエージェントAIの新たな数十億ドル収益源-----------------------------NVIDIAの経営陣は、大会でVera CPUの独立事業が「すでに数十億ドル規模の事業になることが確定」と明言した。バンク・オブ・アメリカ証券は、この収益は現市場の予想には含まれておらず、増分的な貢献と見ている。Vera CPUは、88コアの自社開発Olympus ARMコアを搭載し、LPDDR5Xメモリサブシステムは1.2TB/sの帯域を提供(従来のサーバーCPUの半分の電力消費)、NVLink-C2Cを通じてGPUと1.8TB/sの高速接続を実現(PCIe Gen 6の7倍相当)。Vera CPUラックは256個の液冷CPUを搭載し、2万2500以上の並列CPU環境をサポート。経営陣は、CPUがインテリジェントエージェントAIの拡張におけるボトルネックになりつつあると強調。強化学習やエージェントのワークフローには、多数のCPU環境が必要で、GPUモデルの出力結果のテストと検証に使われる。Metaは既にGraceの次世代CPUを大規模展開しており、Veraは2027年に引き継ぐ。JPモルガンは、このCPU収益を高い粗利性とリピート性(GPUラックとともにAI工場に展開)と位置付け、英伟达が積極的に促進するインテリジェントエージェントAIの採用曲線と構造的に結びついていると見ている。2028年までの製品ロードマップとアーキテクチャの年間リズム-----------------------英伟达は、年次プラットフォームリリースのリズムを再確認している:Blackwell(2024年)→ Blackwell Ultra(2025年)→ Rubin(2026年)→ Rubin Ultra(2027年)→ Feynman(2028年)。Rubin Ultraは4チップGPU構成で、1TB HBM4eを搭載。新たにLP35 LPUチップを導入(NVFP4の導入も初)、Kyberラックは各NVLink域144GPU(第7世代NVLink、3.6Tb/s/GPU、NVL576の総帯域は1.5Pb/s)をサポート。Feynmanの詳細は、市場予想を超える内容だ。新GPUはTSMCのA16(1.6nm)プロセスを採用し、チップ積層とカスタムHBMを導入。新CPUはRosa(ロザリン・フランクリンに由来)と命名され、GPU、LPU、ストレージ、ネットワークのインテリジェントワークロードのオーケストレーションに特化。新LPUはLP40と命名され、英伟达のGroqチームと共同開発された。その他、BlueField-5 DPU、ConnectX-10スーパーネットカード、NVLink 8、Spectrum-7(204T、CPO)も含まれる。JPモルガンは、英伟达の縦横統合プラットフォーム(7つのチップ、5種のラックシステム、ソフトウェアスタックを横断)は模倣困難とし、推論需要の加速と従来のワークロード加速によるアドレス可能市場の構造的拡大、顧客基盤の継続的拡大が、より持続的なAI資本支出サイクルを支えていると結論付けている。
ウォール街がGTCを評価:エヌビディアの定義では、コンピューティングパワーが収入であり、トークンが新しい商品
AI・トークンコスト大幅低減がAI需要拡大をどう促進するか?
英伟达の年次GTC大会は、AI計算能力のビジネスロジックが根本的に再構築されつつあるという核心的なシグナルを放った。トークンは新たなコモディティとなり、計算力は収益となる。
英伟达の経営陣は本大会で、データセンター販売の見通しを従来の5000億ドル(2026年までカバー)から大幅に引き上げ、1兆ドル超(2025~2027年の累計)に上方修正した。さらに、Vera CPUやLPXラック方案の販売額もこれに追加計上されると明言した。ウォール街はこの大会を、英伟达のAIサイクルの持続性を裏付ける強力な証拠と見なしている。
追風取引台によると、JPモルガンの最新レポートは、この数字が、ウォール街の2026~2027年のデータセンター収益予想と比較して、少なくとも500~700億ドルの上振れ余地があることを示していると指摘している。
バンク・オブ・アメリカ証券のレポートは、英伟达経営陣の発言を直接引用し、「トークンは新たなコモディティであり、計算力は収益に等しい」とし、Blackwellシステムは前世代のHopperに比べて1トークンあたりコストを最大35倍削減しており、今後リュービンシリーズの登場によりさらに2~35倍の低減が見込まれると述べている。具体的な削減幅は、ワークロードの種類やアーキテクチャ構成による。
英伟达のストーリーラインにおいて、この継続的なトークンコスト圧縮の曲線は、需要規模の拡大を促す根本的な原動力である。
需要見通しの倍増、大規模顧客と企業市場の二重ドライブ
英伟达の経営陣は、BlackwellおよびVera Rubinシステムの高信頼度の受注が1兆ドルを超え、2025年10月のGTCデータセンター大会で発表された5000億ドルの倍増となったことを明らかにした。さらに、2027年の追加受注と未処理注文は今後6~9ヶ月で継続的に積み上がる見込みだとも述べている。
需要構造は多様化している。約60%は超大規模クラウド事業者(内部AI消費が推奨・検索ワークロードから大規模言語モデルへ移行中)から、残りの約40%はCUDAクラウドネイティブAI企業、NVIDIAクラウドパートナー、主権AI、産業・企業顧客に分散している。
バンク・オブ・アメリカは、この新たな1兆ドルの展望は、従来のウォール街の3年期データセンター収益予測約9700億ドルとほぼ一致していると指摘し、その論理と2025年10月の旧版5000億ドル展望の検証方法はほぼ同じだと示している。
注目すべきは、英伟达の経営陣が本大会で、従来型企業のワークロード加速需要についてもかなりの比重を割いて解説した点だ。
英伟达はIBM(WatsonXの加速)、Google Cloud(BigQueryの高速化、Snapのコスト約76%削減)、Dell(AIデータプラットフォーム)などと協業を発表し、cuDFやcuVSといったCUDA-Xの主要ライブラリもリリースした。
JPモルガンは、この方向性は「市場に過小評価されている」と見ている。その理由は、ムーアの法則がほぼ失効しつつあり、専用アクセラレータによる加速が唯一の実行可能な代替策となるためだ。これにより、英伟达のアドレス可能市場はAIトレーニング・推論サイクルを超えた領域へ拡大する。
Groq LPU統合:アーキテクチャ最重要新製品
JPモルガンは、Groq 3 LPUとVera Rubinの統合を、本大会の「アーキテクチャ面で最も重要な新製品」と評価している。
このデcoupled推論アーキテクチャは、Rubin GPU(高スループット、288GB HBM4、22TB/s帯域、50 PFLOPS NVFP4)とGroq LPU(低遅延デコード、500MBオンチップSRAM、150TB/s SRAM帯域、1.2 PFLOPS FP8)をペアリング。事前充填はVera Rubin上で完了し、注意力デコードも同じくRubin上で行う。一方、前方伝播ネットワークやトークン生成はGroq LPUにオフロードされる。
LPXラックには256個のLPUを搭載し、128GBの集約SRAM、40PB/sのメモリ帯域、315 PFLOPSの推論性能を提供。2026年第3四半期に発売予定。
NVIDIAの経営陣は、超高速トークン速度を必要とするワークロード(コード生成、エンジニアリング計算、長文コンテキスト推論)では、約25%のデータセンター電力がLPXに割り当てられ、残り75%は純粋なVera Rubin NVL72構成と述べている。
バンク・オブ・アメリカのデータによると、「RubinシステムとSRAM LPXラックの組み合わせにより、高級低遅延ワークロードの効率は前世代比で35倍向上」するという。JPモルガンは、このアーキテクチャは、単一のプロセッサではスループット(FLOPS制約)と遅延(帯域制約)を同時に最適化できない根本的矛盾に直接応答し、従来のASICメーカーが強みとした高端推論市場での競争力を高めると指摘している。
ケーブルとCPO並行推進、接続路線は一つに絞らず
NVIDIAの経営陣は、大会で銅線と共封装光学(CPO)の争いに正面から応じ、両方の路線を並行して推進する方針を示した。
現行のVera Rubin世代では、Oberonラックは銅線でNVL72まで拡張、光学でNVL576まで拡張。Spectrum-6 SPXの共封装光学イーサネットスイッチは量産中で、NVIDIAとTSMCの共同開発。管理陣は、光学の電力効率は従来のプラガブルトランシーバの5倍、堅牢性は10倍向上したと述べている。
2027年下半期のRubin Ultraでは、Kyberラックは銅線NVLink(最大144GPU)を採用し、CPOベースのNVLinkスイッチも選択肢として提供。2028年のFeynmanでは、銅線とCPOの両方をサポートし、横展開用にSpectrum-7(204T、CPO)も搭載予定だ。
バンク・オブ・アメリカ証券は、CPO拡張や横展開スイッチの採用は顧客にとって選択可能であり、適切なタイミングまで銅線を使い続けられると指摘。一方、JPモルガンは、これらの両路線の確認は従前の予測と一致し、銅線拡張は少なくとも2027年前までNVL72/NVL144構成を主導し続け、CPOは横展開やNVL576+構成で徐々にシェアを拡大すると見ている。
Vera CPU:インテリジェントエージェントAIの新たな数十億ドル収益源
NVIDIAの経営陣は、大会でVera CPUの独立事業が「すでに数十億ドル規模の事業になることが確定」と明言した。バンク・オブ・アメリカ証券は、この収益は現市場の予想には含まれておらず、増分的な貢献と見ている。
Vera CPUは、88コアの自社開発Olympus ARMコアを搭載し、LPDDR5Xメモリサブシステムは1.2TB/sの帯域を提供(従来のサーバーCPUの半分の電力消費)、NVLink-C2Cを通じてGPUと1.8TB/sの高速接続を実現(PCIe Gen 6の7倍相当)。Vera CPUラックは256個の液冷CPUを搭載し、2万2500以上の並列CPU環境をサポート。
経営陣は、CPUがインテリジェントエージェントAIの拡張におけるボトルネックになりつつあると強調。強化学習やエージェントのワークフローには、多数のCPU環境が必要で、GPUモデルの出力結果のテストと検証に使われる。Metaは既にGraceの次世代CPUを大規模展開しており、Veraは2027年に引き継ぐ。
JPモルガンは、このCPU収益を高い粗利性とリピート性(GPUラックとともにAI工場に展開)と位置付け、英伟达が積極的に促進するインテリジェントエージェントAIの採用曲線と構造的に結びついていると見ている。
2028年までの製品ロードマップとアーキテクチャの年間リズム
英伟达は、年次プラットフォームリリースのリズムを再確認している:Blackwell(2024年)→ Blackwell Ultra(2025年)→ Rubin(2026年)→ Rubin Ultra(2027年)→ Feynman(2028年)。
Rubin Ultraは4チップGPU構成で、1TB HBM4eを搭載。新たにLP35 LPUチップを導入(NVFP4の導入も初)、Kyberラックは各NVLink域144GPU(第7世代NVLink、3.6Tb/s/GPU、NVL576の総帯域は1.5Pb/s)をサポート。
Feynmanの詳細は、市場予想を超える内容だ。
新GPUはTSMCのA16(1.6nm)プロセスを採用し、チップ積層とカスタムHBMを導入。新CPUはRosa(ロザリン・フランクリンに由来)と命名され、GPU、LPU、ストレージ、ネットワークのインテリジェントワークロードのオーケストレーションに特化。新LPUはLP40と命名され、英伟达のGroqチームと共同開発された。その他、BlueField-5 DPU、ConnectX-10スーパーネットカード、NVLink 8、Spectrum-7(204T、CPO)も含まれる。
JPモルガンは、英伟达の縦横統合プラットフォーム(7つのチップ、5種のラックシステム、ソフトウェアスタックを横断)は模倣困難とし、推論需要の加速と従来のワークロード加速によるアドレス可能市場の構造的拡大、顧客基盤の継続的拡大が、より持続的なAI資本支出サイクルを支えていると結論付けている。