世界的な人工知能(AI)チップ大手であるNVIDIAは、予想通りに「超予想外」の決算を発表しました。2026年度第4四半期の財務報告と2026年度通年のデータセンター事業は過去最高を記録し、新たな四半期の指針も市場予想を上回りました。NVIDIAの業績を分析すると、三つの大きな変化が進行中であることがわかります。**ビジネスモデルのアップグレード**NVIDIAの創業者兼CEOの黄仁勋は何度も、NVIDIAは単なるチップ販売ではなくAI工場であると強調してきましたが、一般の印象は根強く、最新の業績もNVIDIAのビジネスモデルの成功した進化を裏付けています。2026年度、NVIDIAは年間売上高を2159億ドルに達し、前年同期比65%増加しました。GAAP基準では純利益は1200.67億ドルで、同じく65%増加。1株当たり利益は4.9ドルで、67%の増加となっています。NVIDIAの主要事業であるデータセンターは好調で、第四四半期の売上は過去最高の623億ドルに達し、前年同期比75%増。通年の売上は1937億ドルで、全体の約9割を占めています。深芯盟のシニアアナリスト、顧正書は、NVIDIAのデータセンター事業は単一コンポーネントからフルスタックの統合システムへと変貌していると指摘します。顧客を単一のB200 GPU購入から、GB200 NVL72ラックレベルのシステム展開へと誘導し、平均販売価格を約4万ドルから200万〜300万ドルに引き上げ、ビジネスモデルの次元を進化させました。「このラックレベルの統合は収益の上限を引き上げるだけでなく、NVLinkの相互接続技術、Grace CPU、フルスタックソフトウェアを通じて、Amazon、Google、Meta、Microsoftといった“四大”クラウドサービス事業者をNVIDIAエコシステムに深く結びつけ、長期的な潜在的脅威となる大規模企業のASIC自社開発を相殺しています」と顧正書は述べています。さらに、NVIDIAのデータセンターの基盤となるネットワーク事業は、前例のない爆発的な成長を迎えています。NVLink、Spectrum X Ethernet、InfiniBandの採用が好調に推移し、ネットワーク事業は横展開と縦展開の技術需要の高まりにより、歴史的な高水準を記録。四半期比でも二桁成長を続け、2026年度のネットワーク事業の売上は310億ドルを突破しました。2021年度にMellanoxの買収とネットワーク事業の強化を行った時の成長率の10倍超です。電子業界のアナリストは、ネットワーク事業はNVIDIAのCUDAエコシステム以外のもう一つの重要な「切り札」であり、より柔軟な形で競合他社の陣営に浸透していると指摘します。新しいラックアーキテクチャの出荷が増えるにつれ、ネットワークの比率も高まる見込みです。黄仁勋は、ネットワークはプラットフォームの自然な延長線上にあると位置付け、「すべてのコンポーネントをオープンに提供し、顧客は自由に組み合わせて管理できる。カスタムデータセンターに統合可能だ」と述べています。第四四半期には、Amazon AWSにNVLinkサポートを提供し、自社開発のチップと連携させると発表しました。**推論時代への全力投資**NVIDIAのコア製品であるBlackwellアーキテクチャプラットフォームは順調に推進されており、次世代のRubinプラットフォームは2026年後半に本格量産開始予定です。Blackwellと比較して、Rubinのトレーニング用ハイブリッドエキスパート(MoE)モデルに必要なGPU数は75%削減され、推論のトークンコストは最大10倍低減され、低コストの推論時代に的確に対応しています。黄仁勋は、AIのインテリジェントエージェントは転換点を迎えたと繰り返し強調しています。過去2〜3ヶ月の間に起きたことで、業界内部ではすでに約6ヶ月間観察されてきましたが、世界は今や目覚め、計算能力の需要は指数関数的に増加しています。「計算能力=収入」です。AIトレーニング時代の「王者」として、NVIDIAはAI推論にも巨額の投資を行っています。昨年12月、同社はGroqの低遅延推論技術とエンジニアリングチームを現金200億ドルで買収しました。この非独占的な技術ライセンスと人材移転を伴う買収は、NVIDIA史上最大規模の取引となりました。「この買収は非常に戦略的価値が高い」とCIC灼識コンサルティングのマネージングディレクター、余怡然は述べます。GroqのLPU(言語処理ユニット)は、大規模言語モデルのテキスト生成など特定の推論シナリオにおいて、非常に低遅延と高効率の優位性を持ちます。買収により、NVIDIAは異なる技術路線を統合し、顧客により包括的な推論ソリューションを提供し、「ワンストップAI計算力ストア」の地位を強化します。余氏は、これは差別化競争に対応するための必要な施策でもあると指摘します。推論市場では、コスト、エネルギー効率、特定シナリオの最適化に対して顧客はより敏感です。Groqなどの技術を活用し、Google TPUやAmazon自社開発チップ、各種ASICチップとの競争に柔軟に対応できる製品ラインナップを構築しています。黄仁勋の最新の「予告」によると、Groqの技術はNVIDIAの新世代アーキテクチャに統合され、AIインフラの性能とコスト効率をさらに向上させる予定です。詳細は3月のGTC大会で発表される見込みです。長年、業界ではNVIDIAの最大の課題は注文数ではなく、TSMCなどの重要なサプライチェーンの供給能力にあると考えられてきました。顧正書の分析によると、TSMCのCoWoS-L先進封止技術の生産能力は2026年中旬まで極度の不足状態が続く見込みです。また、HBM4メモリの供給も戦略的な要素となっており、SKハイニックス(70%シェア)とサムスンの供給ペースがRubinプラットフォームの初期出荷速度を左右します。最近では、ガラス布の不足によりAIサーバーのPCB生産も深刻な影響を受けています。今回の決算説明会で、NVIDIAの執行副社長兼CFOのコレット・クレスは、在庫と供給の約束を整え、2027年度までの出荷をカバーできると明言しました。2026年度の売上高は前年同期比で増加を続け、BlackwellとRubinプラットフォームの5000億ドルの収益予測を上回る見込みです。TSMCは以前、資本支出を大幅に増やし、2026年の資本支出は520億〜560億ドルに達し、過去最高を記録する見込みです。うち70〜80%は先進プロセスの拡大に投資され、10〜20%は先進封止技術に充てられ、AIチップの生産能力確保に重点を置いています。**AI投資への信仰は「崩壊」していない**資本市場ではAIバブルへの懸念が繰り返されていますが、世界のクラウドサービス事業者は引き続きAIインフラ投資を拡大しており、AI時代の「売り手」であるNVIDIAにとっては継続的な業績支援となっています。TrendForceの調査によると、2026年には主要8大クラウド事業者の資本支出は合計7100億ドルを超え、年成長率は約61%に達します。これにはNVIDIAやAMDのGPUの継続調達、ASICインフラの拡大導入などが含まれ、各種AIアプリケーションやデータセンターのコスト効率を確保しています。NVIDIAはエコシステムの深化も進めており、OpenAIとの提携合意に近づき、AnthropicやMetaとも協力を推進しています。スーパークラウド顧客やAI最先端企業だけでなく、国家レベルの顧客も存在します。コレット・クレスは、2026年度の国家AI事業の収益は前年比で2倍以上の300億ドルを突破したと述べ、主要顧客はカナダ、フランス、オランダ、シンガポール、イギリスなどだと紹介します。今後、国家AIはAIインフラ市場と同期して成長し、各国のAI支出はGDPに比例すると予測しています。2027年度第1四半期の見通しとして、NVIDIAは売上高約780億ドル、前年比2%増を予測し、市場予想の727.8億ドルを大きく上回る「圧倒的な業績指針」となっています。「好調な業績にもかかわらず株価の反応は穏やかであり、これは市場が十分に織り込んでいることと、資金の先行きの転換点を示しています」と余怡然は述べます。推論市場では競争環境はよりオープンになっており、Google TPUはコストパフォーマンスと適応性の高さから高速成長を続けています。クラウド事業者の自社開発チップや多元的調達戦略、国内GPUメーカーの特定シナリオでの進展も、長期的な価格決定権や市場シェアの侵食につながる可能性があります。NVIDIAの顧客もより多様な供給戦略を採用しています。2月17日、MetaはNVIDIAへの発注からわずか1週間後に、AMDから6ギガワット規模の計算能力の注文を発表しました。
Nvidiaの2026年度業績分析:三つの大きな変化が進行中!
世界的な人工知能(AI)チップ大手であるNVIDIAは、予想通りに「超予想外」の決算を発表しました。2026年度第4四半期の財務報告と2026年度通年のデータセンター事業は過去最高を記録し、新たな四半期の指針も市場予想を上回りました。NVIDIAの業績を分析すると、三つの大きな変化が進行中であることがわかります。
ビジネスモデルのアップグレード
NVIDIAの創業者兼CEOの黄仁勋は何度も、NVIDIAは単なるチップ販売ではなくAI工場であると強調してきましたが、一般の印象は根強く、最新の業績もNVIDIAのビジネスモデルの成功した進化を裏付けています。
2026年度、NVIDIAは年間売上高を2159億ドルに達し、前年同期比65%増加しました。GAAP基準では純利益は1200.67億ドルで、同じく65%増加。1株当たり利益は4.9ドルで、67%の増加となっています。
NVIDIAの主要事業であるデータセンターは好調で、第四四半期の売上は過去最高の623億ドルに達し、前年同期比75%増。通年の売上は1937億ドルで、全体の約9割を占めています。
深芯盟のシニアアナリスト、顧正書は、NVIDIAのデータセンター事業は単一コンポーネントからフルスタックの統合システムへと変貌していると指摘します。顧客を単一のB200 GPU購入から、GB200 NVL72ラックレベルのシステム展開へと誘導し、平均販売価格を約4万ドルから200万〜300万ドルに引き上げ、ビジネスモデルの次元を進化させました。
「このラックレベルの統合は収益の上限を引き上げるだけでなく、NVLinkの相互接続技術、Grace CPU、フルスタックソフトウェアを通じて、Amazon、Google、Meta、Microsoftといった“四大”クラウドサービス事業者をNVIDIAエコシステムに深く結びつけ、長期的な潜在的脅威となる大規模企業のASIC自社開発を相殺しています」と顧正書は述べています。
さらに、NVIDIAのデータセンターの基盤となるネットワーク事業は、前例のない爆発的な成長を迎えています。
NVLink、Spectrum X Ethernet、InfiniBandの採用が好調に推移し、ネットワーク事業は横展開と縦展開の技術需要の高まりにより、歴史的な高水準を記録。四半期比でも二桁成長を続け、2026年度のネットワーク事業の売上は310億ドルを突破しました。2021年度にMellanoxの買収とネットワーク事業の強化を行った時の成長率の10倍超です。
電子業界のアナリストは、ネットワーク事業はNVIDIAのCUDAエコシステム以外のもう一つの重要な「切り札」であり、より柔軟な形で競合他社の陣営に浸透していると指摘します。新しいラックアーキテクチャの出荷が増えるにつれ、ネットワークの比率も高まる見込みです。
黄仁勋は、ネットワークはプラットフォームの自然な延長線上にあると位置付け、「すべてのコンポーネントをオープンに提供し、顧客は自由に組み合わせて管理できる。カスタムデータセンターに統合可能だ」と述べています。第四四半期には、Amazon AWSにNVLinkサポートを提供し、自社開発のチップと連携させると発表しました。
推論時代への全力投資
NVIDIAのコア製品であるBlackwellアーキテクチャプラットフォームは順調に推進されており、次世代のRubinプラットフォームは2026年後半に本格量産開始予定です。Blackwellと比較して、Rubinのトレーニング用ハイブリッドエキスパート(MoE)モデルに必要なGPU数は75%削減され、推論のトークンコストは最大10倍低減され、低コストの推論時代に的確に対応しています。
黄仁勋は、AIのインテリジェントエージェントは転換点を迎えたと繰り返し強調しています。過去2〜3ヶ月の間に起きたことで、業界内部ではすでに約6ヶ月間観察されてきましたが、世界は今や目覚め、計算能力の需要は指数関数的に増加しています。「計算能力=収入」です。
AIトレーニング時代の「王者」として、NVIDIAはAI推論にも巨額の投資を行っています。昨年12月、同社はGroqの低遅延推論技術とエンジニアリングチームを現金200億ドルで買収しました。この非独占的な技術ライセンスと人材移転を伴う買収は、NVIDIA史上最大規模の取引となりました。
「この買収は非常に戦略的価値が高い」とCIC灼識コンサルティングのマネージングディレクター、余怡然は述べます。GroqのLPU(言語処理ユニット)は、大規模言語モデルのテキスト生成など特定の推論シナリオにおいて、非常に低遅延と高効率の優位性を持ちます。買収により、NVIDIAは異なる技術路線を統合し、顧客により包括的な推論ソリューションを提供し、「ワンストップAI計算力ストア」の地位を強化します。
余氏は、これは差別化競争に対応するための必要な施策でもあると指摘します。推論市場では、コスト、エネルギー効率、特定シナリオの最適化に対して顧客はより敏感です。Groqなどの技術を活用し、Google TPUやAmazon自社開発チップ、各種ASICチップとの競争に柔軟に対応できる製品ラインナップを構築しています。
黄仁勋の最新の「予告」によると、Groqの技術はNVIDIAの新世代アーキテクチャに統合され、AIインフラの性能とコスト効率をさらに向上させる予定です。詳細は3月のGTC大会で発表される見込みです。
長年、業界ではNVIDIAの最大の課題は注文数ではなく、TSMCなどの重要なサプライチェーンの供給能力にあると考えられてきました。顧正書の分析によると、TSMCのCoWoS-L先進封止技術の生産能力は2026年中旬まで極度の不足状態が続く見込みです。また、HBM4メモリの供給も戦略的な要素となっており、SKハイニックス(70%シェア)とサムスンの供給ペースがRubinプラットフォームの初期出荷速度を左右します。最近では、ガラス布の不足によりAIサーバーのPCB生産も深刻な影響を受けています。
今回の決算説明会で、NVIDIAの執行副社長兼CFOのコレット・クレスは、在庫と供給の約束を整え、2027年度までの出荷をカバーできると明言しました。2026年度の売上高は前年同期比で増加を続け、BlackwellとRubinプラットフォームの5000億ドルの収益予測を上回る見込みです。
TSMCは以前、資本支出を大幅に増やし、2026年の資本支出は520億〜560億ドルに達し、過去最高を記録する見込みです。うち70〜80%は先進プロセスの拡大に投資され、10〜20%は先進封止技術に充てられ、AIチップの生産能力確保に重点を置いています。
AI投資への信仰は「崩壊」していない
資本市場ではAIバブルへの懸念が繰り返されていますが、世界のクラウドサービス事業者は引き続きAIインフラ投資を拡大しており、AI時代の「売り手」であるNVIDIAにとっては継続的な業績支援となっています。TrendForceの調査によると、2026年には主要8大クラウド事業者の資本支出は合計7100億ドルを超え、年成長率は約61%に達します。これにはNVIDIAやAMDのGPUの継続調達、ASICインフラの拡大導入などが含まれ、各種AIアプリケーションやデータセンターのコスト効率を確保しています。
NVIDIAはエコシステムの深化も進めており、OpenAIとの提携合意に近づき、AnthropicやMetaとも協力を推進しています。
スーパークラウド顧客やAI最先端企業だけでなく、国家レベルの顧客も存在します。コレット・クレスは、2026年度の国家AI事業の収益は前年比で2倍以上の300億ドルを突破したと述べ、主要顧客はカナダ、フランス、オランダ、シンガポール、イギリスなどだと紹介します。今後、国家AIはAIインフラ市場と同期して成長し、各国のAI支出はGDPに比例すると予測しています。
2027年度第1四半期の見通しとして、NVIDIAは売上高約780億ドル、前年比2%増を予測し、市場予想の727.8億ドルを大きく上回る「圧倒的な業績指針」となっています。
「好調な業績にもかかわらず株価の反応は穏やかであり、これは市場が十分に織り込んでいることと、資金の先行きの転換点を示しています」と余怡然は述べます。推論市場では競争環境はよりオープンになっており、Google TPUはコストパフォーマンスと適応性の高さから高速成長を続けています。クラウド事業者の自社開発チップや多元的調達戦略、国内GPUメーカーの特定シナリオでの進展も、長期的な価格決定権や市場シェアの侵食につながる可能性があります。
NVIDIAの顧客もより多様な供給戦略を採用しています。2月17日、MetaはNVIDIAへの発注からわずか1週間後に、AMDから6ギガワット規模の計算能力の注文を発表しました。