Nvidiaの2026年度業績分析:三つの大きな変化が進行中!

robot
概要作成中

世界的な人工知能(AI)チップ大手であるNVIDIAは、予想通りに「超予想外」の決算を発表しました。2026年度第4四半期の財務報告と2026年度通年のデータセンター事業は過去最高を記録し、新たな四半期の指針も市場予想を上回りました。NVIDIAの業績を分析すると、三つの大きな変化が進行中であることがわかります。

ビジネスモデルのアップグレード

NVIDIAの創業者兼CEOの黄仁勋は何度も、NVIDIAは単なるチップ販売ではなくAI工場であると強調してきましたが、一般の印象は根強く、最新の業績もNVIDIAのビジネスモデルの成功した進化を裏付けています。

2026年度、NVIDIAは年間売上高を2159億ドルに達し、前年比65%増加しました。GAAP基準では純利益は1200.67億ドルで、前年比65%増、1株当たり利益は4.9ドルで、67%増となっています。

NVIDIAの主要事業であるデータセンターは好調で、第四四半期の売上高は過去最高の623億ドルに達し、前年比75%増加しました。通年の売上高は1937億ドルで、全体の約9割を占めています。

深芯盟のシニアアナリストの顧正書は、NVIDIAのデータセンター事業は単一コンポーネントからフルスタックの統合システムへと変貌していると指摘します。顧客を単一のB200 GPU購入からGB200 NVL72ラックレベルのシステム展開へと誘導し、平均販売価格を約4万ドルから200万〜300万ドルに引き上げ、ビジネスモデルの次元を進化させました。

「このラックレベルの統合は収益の上限を引き上げるだけでなく、NVLinkの相互接続技術、Grace CPU、フルスタックソフトウェアを通じて、Amazon、Google、Meta、Microsoftの四大クラウドサービス事業者をNVIDIAエコシステムに深く結びつけ、長期的な潜在的脅威となるASICチップの自社開発リスクを大きく相殺しています」と顧正書は述べています。

さらに、NVIDIAのデータセンターの基盤となるネットワーク事業は前例のない爆発的な成長を迎えています。

NVLink、Spectrum X Ethernet、InfiniBandの採用が好調に推移し、ネットワーク事業は横展開と縦展開の技術需要の高まりにより、歴史的な高水準を記録しています。2026年度のネットワーク事業の売上高は310億ドルを突破し、2021年度に比べて10倍以上の成長を遂げました。

電子業界のアナリストは、ネットワーク事業はNVIDIAのCUDAエコシステム以外のもう一つの重要な「切り札」であり、より柔軟な形で競合他社の陣営に浸透していると指摘します。新しいラックアーキテクチャの出荷が増えるにつれ、ネットワークの比率も増加すると見られています。

黄仁勋は、ネットワークはプラットフォームの自然な延長線上にあると位置付け、「すべてのコンポーネントをオープンに提供し、顧客は自由に組み合わせて管理できる。これをカスタムデータセンターに統合する」と述べています。第四四半期には、NVIDIAはAmazon AWSにNVLinkサポートを提供し、自社開発のチップと連携させることを発表しました。

推論時代への全力投資

NVIDIAのコア製品であるBlackwellアーキテクチャプラットフォームは順調に推進しており、次世代のRubinプラットフォームは2026年後半に正式に量産出荷される予定です。Blackwellと比較して、Rubinは訓練用の混合専門(MoE)モデルに必要なGPU数を75%削減し、推論のトークンコストも最大10倍低減し、低コストの推論時代に的確に対応しています。

黄仁勋は、AIのインテリジェントエージェントは転換点を迎えたと繰り返し強調しています。過去2〜3ヶ月の間に起きたことであり、業界内部ではすでに約6ヶ月間観察されてきましたが、世界は今や目覚めつつあり、計算能力の需要は指数関数的に増加しています。「計算能力=収入」です。

AI訓練時代の「王者」として、NVIDIAはAI推論にも巨額の投資を行っています。昨年12月、同社はGroqの低遅延推論技術と関連エンジニアリングチームを20億ドルの現金で買収しました。この非独占的な技術ライセンスと人材移転を伴う取引は、NVIDIAの歴史上最大規模の買収となりました。

「この買収は非常に戦略的な価値があります」とCIC灼識コンサルティングの余怡然は述べます。GroqのLPU(言語処理ユニット)は、大規模言語モデルのテキスト生成など特定の推論シナリオで極めて低遅延と高効率を実現しており、買収はNVIDIAが異なる技術路線を統合し、より包括的な推論ソリューションを提供し、「ワンストップAI計算力ショップ」の地位を強化するのに役立ちます。

余氏は、これは差別化競争に対応するための必要な措置でもあると指摘します。推論市場では、コスト、エネルギー効率、特定シナリオの最適化に対して顧客の敏感さが高まっているためです。Groqなどの技術を通じて、Google TPUやAmazonの自社チップ、各種ASICチップとの競争に対して、より柔軟な製品構成で対応できるとしています。

黄仁勋の最新の「リーク」によると、Groqの技術はNVIDIAの新世代アーキテクチャに統合され、AIインフラの性能とコスト効率をさらに向上させる予定です。詳細は3月のGTC大会で発表される見込みです。

長年、業界はNVIDIAの真の課題は注文数ではなく、TSMCなどの重要なサプライチェーンの能力不足にあると考えています。顧正書の分析によると、TSMCのCoWoS-L先進封止技術の生産能力は2026年中旬まで極度に不足すると予測されています。また、HBM4メモリの供給も戦略的な要素となっており、SKハイニックス(70%シェア)とサムスンの供給ペースがRubinプラットフォームの初期出荷速度を左右します。最近では、ガラス布の不足によりAIサーバーのPCB生産に深刻な影響が出ているとの報告もあります。

今回の決算説明会で、NVIDIAの執行副社長兼CFOのコレット・クレスは、在庫と供給の約束を2027年までカバーできる体制を整えたと明言し、2026年度の売上高は前年比で増加を続け、昨年発表したBlackwellとRubinのプラットフォームの5000億ドルの収益予測を上回る見込みだと述べました。

TSMCはこれまでに資本支出を大幅に増やし、2026年の資本支出は520億〜560億ドルに達し、過去最高を記録する見込みです。そのうち70〜80%は先進プロセスの拡大に投資され、残りの10〜20%は先進封止分野に充てられ、AIチップの供給能力確保に重点を置いています。

AI投資への信仰は「崩壊」していない

資本市場はAIバブルを懸念し続けていますが、世界のクラウドサービス事業者は引き続きAIインフラ投資を拡大しており、AI時代の「売り手」であるNVIDIAにとっては継続的な業績支援となっています。TrendForceの調査によると、2026年には主要8大クラウド事業者の資本支出は合計7100億ドルを超え、年成長率は約61%に達します。これにはNVIDIAやAMDのGPUの継続調達、ASICインフラの拡大導入などが含まれ、各種AIアプリケーションやデータセンターのコスト効率を確保しています。

NVIDIAはエコシステムの深化も進めており、OpenAIとの協力合意に近づき、AnthropicやMetaとも連携を推進しています。

スーパークラウド顧客やAI最先端企業だけでなく、国家レベルの顧客も存在します。コレット・クレスは、2026年度の国家AI事業の収益は前年比で2倍以上の300億ドルを突破し、主要顧客はカナダ、フランス、オランダ、シンガポール、イギリスに及ぶと紹介しています。今後、国家AIはAIインフラ市場と同期して成長し、各国のAI支出はGDPに比例すると予測しています。

2027年度第1四半期の見通しとして、NVIDIAは売上高約780億ドル、前年比2%増と予測し、市場予想の727.8億ドルを大きく上回る「圧倒的な業績指針」となっています。

「好調な業績にもかかわらず株価の反応は穏やかであり、これは市場が十分に織り込んでいることと、資金の先行きの転換点を示しています」と余怡然は述べます。推論市場では競争環境がよりオープンになっており、Google TPUはコストパフォーマンスと適応性の高さから高速成長を続けています。クラウド事業者の自社チップ開発や多元的調達戦略、国内GPUメーカーの特定シナリオでの進展も、長期的な価格決定権や市場シェアの侵食につながる可能性があります。

NVIDIAの顧客もより多様な供給戦略を採用しています。2月17日にMetaがNVIDIAに注文を出したわずか1週間後、AMDから6ギガワットの計算能力の注文を発表しました。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン