中信証券のリサーチレポートによると、NVIDIAはGTC 2026において、2027年のAI計算能力需要は引き続き力強い成長を維持すると表明した。中信証券は、Rubin/Rubin Ultraアーキテクチャにおいて新たにLPUとmidplaneを追加し、仕様・使用量の向上が需要のさらなる拡張を後押しすると考えており、AI PCBはこれを十分に享受できる見通しだ。CPOは、RubinのScale-outアーキテクチャにおいて、先行して導入される可能性が高く、Scale-upのアプリケーションは2028年のFeynmanプラットフォーム上で開始される見込みである。NVIDIAのGTC 2026大会が、AI産業の継続的な成長と増分ロジックの実現に対する市場の信頼をさらに強化することを期待しており、国内のトップクラスのAI PCB/覆銅板(CCL)メーカー、ストレージメーカーなどに注目することを推奨する。 ### 全文は以下の通り **電子|NVIDIA GTC 2026回顧:光電共進** NVIDIAはGTC 2026において、2027年のAI計算能力需要は引き続き力強い成長を維持すると述べた。我々は、Rubin/Rubin Ultraアーキテクチャにおいて新たにLPUとmidplaneを追加し、仕様・使用量の向上が需要をさらに拡張させるとしており、AI PCBはこれを十分に享受できると考える。CPOはRubinのScale-outアーキテクチャで先行導入される可能性が高く、Scale-upのアプリケーションは2028年のFeynmanプラットフォームで開始される見込みだ。我々は、NVIDIAのGTC 2026大会が、AI産業の継続的な成長と増分ロジックの実現に対する市場の信頼をさらに強化すると見ており、国内のトップクラスのAI PCB/覆銅板(CCL)メーカー、ストレージメーカーなどに注目することを推奨する。 **▍**NVIDIAは、2027年までの受注需要が1兆ドルに成長すると見込む。 3月16日、NVIDIAのGTC 2026基調講演で、CEOの黄仁勳は、2026年のBlackwellとRubinの受注が5000億ドルになると予想した。同社は今回の会議で、2027年までの受注需要が1兆ドルに成長すると見込んでいる。現在、NVIDIAの売上の60%は世界の上位5大メガクラウドサービス事業者からで、残り40%は地域クラウド、主権クラウド、企業、インダストリアル、ロボット、エッジコンピューティングなど各分野に分散している。北米の4大CSP各社の最新の決算から見ると、2025年Q4は、北米のテクノロジー大手全体の経営状況が市場予想をさらに上回り、クラウド事業の収益成長率が一段と加速している。供給と需要がタイトな偏り、ストレージ用メモリチップの価格上昇などが、2026年の資本支出ガイダンスを大幅に市場予想を上回る水準に押し上げた。我々の試算では、2026年の北米4大CSPのCAPEXは前年比+58%、AI CAPEXは前年比+117%となり、AI計算能力チップの業績実現に対する支えになる可能性がある。 ▍NVIDIAは5種類のラック級Vera Rubin計算プラットフォームを発表。 NVIDIAは新しいVera Rubinプラットフォーム/PODを発表し、5つのラック級計算システムを1台のAIスーパーコンピューターとして組み合わせ、Agentic AIの効率的な推論を支援する。具体的には次の通り:1)Vera Rubin NVL72ラックは3.6 exaflops(FP4)の推論計算能力を備え、Blackwellの5倍である;2)Vera CPUラックは主にスケジューリングとAgenticワークフロー管理に用いられる;3)Groq 3 LPXラック(256個のGroq 3 LPUを搭載)はtoken推論アクセラレータとして機能し、Vera Rubin NVL72と組み合わせて使用される。大規模なオンチップ静的ランダムアクセスメモリ(SRAM)を活用し、効率的な推論を実現する;4)BlueField-4 STXラックは、Agentic AIの長いコンテキスト推論に必要なストレージをサポートするためのもの;5)Spectrum-X CPOスイッチラックはscale-out向けで、すでに全面的に量産されている。 ▍PCBの面では、直交バックプレーン、LPXマザーボード、CPUラック用マザーボードなどの増分アプリケーションが確認された。 NVIDIAは正式に、Rubin Ultra NVL144 Kyberラックを発表した。144個のGPUで単一のNVLinkドメインを構成し、計算ノードとNVLinkスイッチはそれぞれ両側から挿入して接続する。Kyberラック(NVLink 144)は、その後、Oberonの銅ケーブル/光学拡張によりNVLink 576へ展開される。SemiAnalysisによれば、PCBの直交バックプレーンを採用することで、高密度かつ高速な信号伝送が可能となり、同時に信号損失とケーブル配線の複雑さを低減できる。工法としては超高多層設計が採用される見込みで、材料面では現時点で最先端のM9材料の適用が期待される。我々の試算では、PCB直交バックプレーンにより、単一GPUのASPが200ドル+上昇する可能性がある。さらにNVIDIAは、Grok LPUチップLP30は三星(サムスン)が製造(ファウンドリ)し、すでに量産に投入されていることを確認した。2026年の第3四半期には、LPXラックの形で出荷される見込みだ。NVIDIAは、大量のコード生成または高速Token需要がある場合、計算能力の25%をGrokに割り当て、残り75%はVera Rubinを維持することを提案している。SemiAnalysisによれば、LPXラックのマザーボードは、50L+高多層+M9 CCL設計になる可能性があり、我々の試算では単一GPUのASPは数百ドルに達する見込みだ。加えてNVIDIAはCPUラックも投入すると確認しており、PCBマザーボードを採用することで、今後のAI PCBの潜在的な成長余地をさらに押し広げる。 ▍Feynmanプラットフォームは新しいチップを用いて深い異種混合統合を行い、scale-upのソリューションは銅ケーブルとCPOをサポートする。 NVIDIAの製品ロードマップでは、同社は2028年にFeynmanアーキテクチャを導入する予定である。同プラットフォームでは、ハードウェア層でCPU(Rosa)、GPU(Feynman)、LPU(LP40)を深い異種混合統合し、scaleupの相互接続においては同時に銅ケーブルとCPOの両方の方式を採用する。具体的には:1)GPUはTSMCのA16(1.6nm)プロセスノードを採用する;2)Rosa CPUは、GPU、ストレージ、ネットワーク間のTokenの流れをより効率的にスケジューリングでき、非常に複雑なロジックの意思決定タスクの処理を最適化する;3)LP40(LPU)は、NVIDIAのGPUとGroq技術を統合することで、マイクロアーキテクチャのレベルから推論レイテンシと「メモリウォール(Memory Wall)」の課題を徹底的に解決することを狙っている;4)ネットワーク面では、このプラットフォームは銅ケーブルとCPOの両方の拡張方式を同時にサポートするKyberラックを採用する。 ▍リスク要因: マクロ経済の変動および地政学リスク、海外計算能力のリーダー企業による新製品の立ち上げが見込みを下回るリスク、AI市場需要の成長が見込みを下回るリスク、ストレージ等の部品価格の継続的な上昇リスク、技術変革および製品イテレーションのリスク、政策規制およびデータプライバシーのリスク、PCB業界の競争激化のリスク。 ▍投資戦略: 世界の計算能力需要が引き続き予想を上回る水準で推移する中、上流工程の景況感と値上げは今後も継続する見通しであり、計算能力チェーンのインフレ主線は、現時点でテクノロジー株セクターの中で「景気の良い成長」方向への配分において確実性が最も高い主線である。我々は、NVIDIAのGTC 2026大会が、AI産業の継続的な成長と増分ロジックの実現に対する市場の信頼をさらに強化すると見ている。(出所:証券時報)
中信证券:推奨国内トップAI PCB/銅箔板(CCL)メーカー、ストレージメーカーなどに注目
中信証券のリサーチレポートによると、NVIDIAはGTC 2026において、2027年のAI計算能力需要は引き続き力強い成長を維持すると表明した。中信証券は、Rubin/Rubin Ultraアーキテクチャにおいて新たにLPUとmidplaneを追加し、仕様・使用量の向上が需要のさらなる拡張を後押しすると考えており、AI PCBはこれを十分に享受できる見通しだ。CPOは、RubinのScale-outアーキテクチャにおいて、先行して導入される可能性が高く、Scale-upのアプリケーションは2028年のFeynmanプラットフォーム上で開始される見込みである。NVIDIAのGTC 2026大会が、AI産業の継続的な成長と増分ロジックの実現に対する市場の信頼をさらに強化することを期待しており、国内のトップクラスのAI PCB/覆銅板(CCL)メーカー、ストレージメーカーなどに注目することを推奨する。
全文は以下の通り
電子|NVIDIA GTC 2026回顧:光電共進
NVIDIAはGTC 2026において、2027年のAI計算能力需要は引き続き力強い成長を維持すると述べた。我々は、Rubin/Rubin Ultraアーキテクチャにおいて新たにLPUとmidplaneを追加し、仕様・使用量の向上が需要をさらに拡張させるとしており、AI PCBはこれを十分に享受できると考える。CPOはRubinのScale-outアーキテクチャで先行導入される可能性が高く、Scale-upのアプリケーションは2028年のFeynmanプラットフォームで開始される見込みだ。我々は、NVIDIAのGTC 2026大会が、AI産業の継続的な成長と増分ロジックの実現に対する市場の信頼をさらに強化すると見ており、国内のトップクラスのAI PCB/覆銅板(CCL)メーカー、ストレージメーカーなどに注目することを推奨する。
▍NVIDIAは、2027年までの受注需要が1兆ドルに成長すると見込む。
3月16日、NVIDIAのGTC 2026基調講演で、CEOの黄仁勳は、2026年のBlackwellとRubinの受注が5000億ドルになると予想した。同社は今回の会議で、2027年までの受注需要が1兆ドルに成長すると見込んでいる。現在、NVIDIAの売上の60%は世界の上位5大メガクラウドサービス事業者からで、残り40%は地域クラウド、主権クラウド、企業、インダストリアル、ロボット、エッジコンピューティングなど各分野に分散している。北米の4大CSP各社の最新の決算から見ると、2025年Q4は、北米のテクノロジー大手全体の経営状況が市場予想をさらに上回り、クラウド事業の収益成長率が一段と加速している。供給と需要がタイトな偏り、ストレージ用メモリチップの価格上昇などが、2026年の資本支出ガイダンスを大幅に市場予想を上回る水準に押し上げた。我々の試算では、2026年の北米4大CSPのCAPEXは前年比+58%、AI CAPEXは前年比+117%となり、AI計算能力チップの業績実現に対する支えになる可能性がある。
▍NVIDIAは5種類のラック級Vera Rubin計算プラットフォームを発表。
NVIDIAは新しいVera Rubinプラットフォーム/PODを発表し、5つのラック級計算システムを1台のAIスーパーコンピューターとして組み合わせ、Agentic AIの効率的な推論を支援する。具体的には次の通り:1)Vera Rubin NVL72ラックは3.6 exaflops(FP4)の推論計算能力を備え、Blackwellの5倍である;2)Vera CPUラックは主にスケジューリングとAgenticワークフロー管理に用いられる;3)Groq 3 LPXラック(256個のGroq 3 LPUを搭載)はtoken推論アクセラレータとして機能し、Vera Rubin NVL72と組み合わせて使用される。大規模なオンチップ静的ランダムアクセスメモリ(SRAM)を活用し、効率的な推論を実現する;4)BlueField-4 STXラックは、Agentic AIの長いコンテキスト推論に必要なストレージをサポートするためのもの;5)Spectrum-X CPOスイッチラックはscale-out向けで、すでに全面的に量産されている。
▍PCBの面では、直交バックプレーン、LPXマザーボード、CPUラック用マザーボードなどの増分アプリケーションが確認された。
NVIDIAは正式に、Rubin Ultra NVL144 Kyberラックを発表した。144個のGPUで単一のNVLinkドメインを構成し、計算ノードとNVLinkスイッチはそれぞれ両側から挿入して接続する。Kyberラック(NVLink 144)は、その後、Oberonの銅ケーブル/光学拡張によりNVLink 576へ展開される。SemiAnalysisによれば、PCBの直交バックプレーンを採用することで、高密度かつ高速な信号伝送が可能となり、同時に信号損失とケーブル配線の複雑さを低減できる。工法としては超高多層設計が採用される見込みで、材料面では現時点で最先端のM9材料の適用が期待される。我々の試算では、PCB直交バックプレーンにより、単一GPUのASPが200ドル+上昇する可能性がある。さらにNVIDIAは、Grok LPUチップLP30は三星(サムスン)が製造(ファウンドリ)し、すでに量産に投入されていることを確認した。2026年の第3四半期には、LPXラックの形で出荷される見込みだ。NVIDIAは、大量のコード生成または高速Token需要がある場合、計算能力の25%をGrokに割り当て、残り75%はVera Rubinを維持することを提案している。SemiAnalysisによれば、LPXラックのマザーボードは、50L+高多層+M9 CCL設計になる可能性があり、我々の試算では単一GPUのASPは数百ドルに達する見込みだ。加えてNVIDIAはCPUラックも投入すると確認しており、PCBマザーボードを採用することで、今後のAI PCBの潜在的な成長余地をさらに押し広げる。
▍Feynmanプラットフォームは新しいチップを用いて深い異種混合統合を行い、scale-upのソリューションは銅ケーブルとCPOをサポートする。
NVIDIAの製品ロードマップでは、同社は2028年にFeynmanアーキテクチャを導入する予定である。同プラットフォームでは、ハードウェア層でCPU(Rosa)、GPU(Feynman)、LPU(LP40)を深い異種混合統合し、scaleupの相互接続においては同時に銅ケーブルとCPOの両方の方式を採用する。具体的には:1)GPUはTSMCのA16(1.6nm)プロセスノードを採用する;2)Rosa CPUは、GPU、ストレージ、ネットワーク間のTokenの流れをより効率的にスケジューリングでき、非常に複雑なロジックの意思決定タスクの処理を最適化する;3)LP40(LPU)は、NVIDIAのGPUとGroq技術を統合することで、マイクロアーキテクチャのレベルから推論レイテンシと「メモリウォール(Memory Wall)」の課題を徹底的に解決することを狙っている;4)ネットワーク面では、このプラットフォームは銅ケーブルとCPOの両方の拡張方式を同時にサポートするKyberラックを採用する。
▍リスク要因:
マクロ経済の変動および地政学リスク、海外計算能力のリーダー企業による新製品の立ち上げが見込みを下回るリスク、AI市場需要の成長が見込みを下回るリスク、ストレージ等の部品価格の継続的な上昇リスク、技術変革および製品イテレーションのリスク、政策規制およびデータプライバシーのリスク、PCB業界の競争激化のリスク。
▍投資戦略:
世界の計算能力需要が引き続き予想を上回る水準で推移する中、上流工程の景況感と値上げは今後も継続する見通しであり、計算能力チェーンのインフレ主線は、現時点でテクノロジー株セクターの中で「景気の良い成長」方向への配分において確実性が最も高い主線である。我々は、NVIDIAのGTC 2026大会が、AI産業の継続的な成長と増分ロジックの実現に対する市場の信頼をさらに強化すると見ている。
(出所:証券時報)