Nvidia(エヌビディア)はマージン75.2%を計上、6500億ドル規模のAI向け設備投資が迫る======================================================== カック・フー・グエン 2026年2月27日 午前3時32分(GMT+9) 2分で読めます この記事内: * StockStory 注目銘柄 NVDA -5.03% この記事は最初にGuruFocusに掲載されました。 Nvidia(NASDAQ:NVDA)はこの決算リリースに、すでに自社の顧客によって1つの大きな疑問が答えられている状態で入ってきた。すなわち、2026年の需要は問題ではないように見える。ハイパースケールのAI企業は今年、総額およそ6500億ドルの資本的支出(capex)を計画しており、2025年から約60%増となっている。そしてNvidiaは、その支出の相当部分を取り込める位置にある。背景としてそれは概ね事前に読みやすかったため、同社には投資家を納得させる別のレバーが必要だった。実現したのはマージンだ。調整後の売上総利益率は、11月から1月の期間に75.2%に達し、2024年後半以来の高水準となり、さらに経営陣は当四半期においてもほぼ同程度の水準を見通した。議論の焦点は、AIエコシステムが成熟していく中で、この収益性のプロファイルがどれくらい持続できるかに移っている。 * 警告!GuruFocusはNVDAに関して5つの警告サインを検出しました。 * NVDAは適正評価ですか?無料のDCF計算機であなたの見立てをテストしてください。 供給および投入コストも方程式の一部として残っている。CFO(最高財務責任者)のコレット・クレスは、Nvidiaは戦略的に在庫とキャパシティを確保し、今後数四半期を超える需要にも対応できるようにしていると述べたが、供給の逼迫状態は続く見込みだとも認めた。メモリコストは上昇しており、主要な部品メーカーは、品薄が2027年まで、場合によってはそれ以上まで長引く可能性があると警告している。これは、AIハードウェアの需要が、それを生産するためのインフラに対して引き続き上回っていることを裏づけている。同時に、競合する代替手段がより見えてきている。Bloomberg Intelligenceによれば、Google(NASDAQ:GOOG)のテンソル処理装置(TPU)は1台あたりの平均販売価格が8000ドルから10000ドルであるのに対し、NvidiaのH100は23000ドル以上、新しいBlackwellシステムは27000ドル以上とされている。この差は、一部の顧客にとって分散(diversification)がより魅力的に映る可能性がある。 この競争上のシフトは、実際の契約にも現れ始めている。Alphabetは、自社のTPUの内製およびクラウド利用の増加を強調しており、Amazon(NASDAQ:AMZN)は自社のAIチップ向けにAnthropicを確保した。そして今週、Meta Platforms(NASDAQ:META)とAdvanced Micro Devices(NASDAQ:AMD)は、データセンター向けにプロセッサを供給するための桁違いの「数十億ドル」規模の契約を発表した。これは先月ではなく先の取り決めに続くもので、OpenAIが昨年10月に交渉した同様の取り決めには株式も含まれていた。ジェンセン・フアン最高経営責任者(CEO)は、この状況に対してNvidiaのより広範な機能性を強調し、同社のGPUは訓練(training)や推論(inference)だけでなく、より幅広いAIワークロードを扱えると主張した。さらに、エネルギー供給が制約される局面では、電力効率の改善による利点もあると指摘した。Nvidiaの623億ドルのデータセンター売上のうち、AIハイパースケーラーに紐づく割合がわずかに半分を超える中で、そうした世代をまたぐ技術進歩を維持することが、プレミアム価格を守るうえで中核になる可能性がある。とりわけ、業界が、エージェント型AIからの収益リターンが投資に沿って最終的に拡大するかどうかを見極めている局面では、その重要性は高まっている。 利用規約 および プライバシーポリシー プライバシーダッシュボード 追加情報
Nvidia、75.2%のマージンを計上。$650 BillionドルのAIキャピタル支出(AI Capex)が迫る
Nvidia(エヌビディア)はマージン75.2%を計上、6500億ドル規模のAI向け設備投資が迫る
カック・フー・グエン
2026年2月27日 午前3時32分(GMT+9) 2分で読めます
この記事内:
NVDA
-5.03%
この記事は最初にGuruFocusに掲載されました。
Nvidia(NASDAQ:NVDA)はこの決算リリースに、すでに自社の顧客によって1つの大きな疑問が答えられている状態で入ってきた。すなわち、2026年の需要は問題ではないように見える。ハイパースケールのAI企業は今年、総額およそ6500億ドルの資本的支出(capex)を計画しており、2025年から約60%増となっている。そしてNvidiaは、その支出の相当部分を取り込める位置にある。背景としてそれは概ね事前に読みやすかったため、同社には投資家を納得させる別のレバーが必要だった。実現したのはマージンだ。調整後の売上総利益率は、11月から1月の期間に75.2%に達し、2024年後半以来の高水準となり、さらに経営陣は当四半期においてもほぼ同程度の水準を見通した。議論の焦点は、AIエコシステムが成熟していく中で、この収益性のプロファイルがどれくらい持続できるかに移っている。
供給および投入コストも方程式の一部として残っている。CFO(最高財務責任者)のコレット・クレスは、Nvidiaは戦略的に在庫とキャパシティを確保し、今後数四半期を超える需要にも対応できるようにしていると述べたが、供給の逼迫状態は続く見込みだとも認めた。メモリコストは上昇しており、主要な部品メーカーは、品薄が2027年まで、場合によってはそれ以上まで長引く可能性があると警告している。これは、AIハードウェアの需要が、それを生産するためのインフラに対して引き続き上回っていることを裏づけている。同時に、競合する代替手段がより見えてきている。Bloomberg Intelligenceによれば、Google(NASDAQ:GOOG)のテンソル処理装置(TPU)は1台あたりの平均販売価格が8000ドルから10000ドルであるのに対し、NvidiaのH100は23000ドル以上、新しいBlackwellシステムは27000ドル以上とされている。この差は、一部の顧客にとって分散(diversification)がより魅力的に映る可能性がある。
この競争上のシフトは、実際の契約にも現れ始めている。Alphabetは、自社のTPUの内製およびクラウド利用の増加を強調しており、Amazon(NASDAQ:AMZN)は自社のAIチップ向けにAnthropicを確保した。そして今週、Meta Platforms(NASDAQ:META)とAdvanced Micro Devices(NASDAQ:AMD)は、データセンター向けにプロセッサを供給するための桁違いの「数十億ドル」規模の契約を発表した。これは先月ではなく先の取り決めに続くもので、OpenAIが昨年10月に交渉した同様の取り決めには株式も含まれていた。ジェンセン・フアン最高経営責任者(CEO)は、この状況に対してNvidiaのより広範な機能性を強調し、同社のGPUは訓練(training)や推論(inference)だけでなく、より幅広いAIワークロードを扱えると主張した。さらに、エネルギー供給が制約される局面では、電力効率の改善による利点もあると指摘した。Nvidiaの623億ドルのデータセンター売上のうち、AIハイパースケーラーに紐づく割合がわずかに半分を超える中で、そうした世代をまたぐ技術進歩を維持することが、プレミアム価格を守るうえで中核になる可能性がある。とりわけ、業界が、エージェント型AIからの収益リターンが投資に沿って最終的に拡大するかどうかを見極めている局面では、その重要性は高まっている。
利用規約 および プライバシーポリシー
プライバシーダッシュボード
追加情報