分析:NvidiaのCEO、IntelおよびAMDとの再戦に備えるよう投資家に説明============================================================================= Stephen Nellis Thu, February 26, 2026 at 1:47 PM GMT+9 4 min read この記事の内容: NVDA INTC AMD META By Stephen Nellis サンフランシスコ、2月25日(ロイター) - Nvidiaは人工知能(AI)サーバーを稼働させるために使われる専用の画像処理ユニット(GPU)を背景に莫大な利益を得た可能性がある一方、ジェンセン・ファンCEOはますます、より汎用的なCPUへの愛を公言するようになっている。 CPU、つまり中央処理装置は、何十年もの間、伝統的にコンピューターの主要な「頭脳」と見なされてきた。Intel、あるいは時にはアドバンスト・マイクロ・デバイス(AMD)と結び付けられることが多い製品だ。 ファンは、「かつては計算の90%がCPUで行われ、10%が彼のようなチップで行われていたが、近年その比率が反転した」と言うのが好きだ。 しかしCPUは、カムバックしている。AI企業が、モデルの学習からそれらのモデルの展開(デプロイ)へと移行するにつれ、「同等、いやそれ以上の選択肢」としてますます見られており、Nvidiaはこの変化に大きく関わるつもりだ。 「私たちはCPUもGPUも大好きです」と、ファンは同社の第4四半期決算をめぐる水曜のアナリスト向けの電話会議で述べた。 ファンは、NvidiaがCPUの再びスポットライトを浴びることに備えるだけでなく、2023年に最初に発表したデータセンター向けのNvidia自身のCPU提供が、競合を凌駕するだろうとも保証した。 先月、1月のラスベガスで開催されたコンシューマー・エレクトロニクス・ショーで、ファンはデータセンターで使われる高性能なNvidia CPUの数が「爆発的に増える」だろうとも述べ、さらに「Nvidiaが世界最大級のCPUメーカーの一つになることもあり得る」ことに驚かないとも語った。 CPU対GPU CPUとGPUは、何十年にもわたり異なる計算タスクを担ってきた。CPUは汎用チップで、ソフトウェアの開発者がそのチップに投げかけるあらゆる数学的タスクを、多様な作業の中でも、妥当な速度で処理するよう設計されている。 一方GPUは、より単純な一連の数学的タスクを実行することに特化しているが、その単純な計算を同時に何千回も並列で行う。 ビデオゲームでは、それが意味するのは、画面上の何千ものピクセルの値を毎秒何度も計算することだった。そしてAIの仕事では、開発者が単語や画像といった現実世界のデータを表すために使う、大きな行列の数の掛け算や足し算を行うことを意味する。 AI企業はますます、「コードの執筆」や「文書のふるい分け」「研究レポートの作成」といったタスクを、独自に実行できる「エージェント」を投入している。そしてそうした計算は、「ますます増えており、時には時には、主としてCPU上で起きている」と、クリエイティブ・ストラテジーズのアナリストであるベン・バジャリンは述べた。 Nvidiaの現在の主力AIサーバー(NVL72)は、36基のCPUと72基のGPUを搭載している。バジャリンは、いわゆるエージェント型の仕事では1対1の比率に変わる可能性、あるいはGPU自体がまったく不要になる可能性さえあると考えている。 物語は続く NVIDIAは一矢報いるつもり CPUへの野心を強調する形で、Nvidiaは最近、Meta Platformsとの取引を発表し、Facebookの保有者が、単独ベースで大量の同社のGraceおよびVera CPUチップを使用することになる。これは、Nvidiaの現行のAIサーバーに比べると比較的新しい展開だ。現行のAIサーバーでは、各CPUに複数のGPUが付いている。 ただし、MetaがCPUのベンダーを切り替えたわけではない。単に供給元を増やしているだけだ。数日後、AMDもMetaとの大規模取引を発表し、それにも同社のCPUが含まれていた。MetaはCPUを何年も前から買い続けている。 アナリストとの電話会議でファンは、NvidiaがCPUに対して根本的に異なるアプローチを取ってきたと主張した。 ファンは、IntelやAMDが行ってきた「チップをより小さな部品に分解する」アプローチをNvidiaが最小化してきた理由を説明した。NvidiaのCPUは、コンピュータのメモリに対するアクセスが多い状態で、多くの単純なタスクを順番に実行することができたからだ。 「それは、非常に高いデータ処理能力に集中するよう設計されています」と、同会議でファンは述べた。「そしてその理由は、私たちが関心を持つ計算上の問題の多くがデータ駆動型だからです。人工知能がその一つです。」 HotTech Vision and Analysisのプリンシパル・アナリスト、デイブ・アルタビラは、Nvidiaが「かつて主としてIntelが供給していた」CPUタイプが、もはや現代の計算インフラの前提となるデフォルトではなくなったことを証明しようとしている、と述べた。「代わりに、それは複数のアーキテクチャ上の選択肢のうちの1つになるのです。」 ファンは、来月シリコンバレーで開催される同社の年次開発者会議で、NvidiaのCPUについてさらに開示すべきことがあるだろうと述べた。 (サンフランシスコでの報告:Stephen Nellis、編集:Peter HendersonおよびEdwina Gibbs) 規約 および プライバシーポリシー プライバシー・ダッシュボード もっと詳しく
分析 - NvidiaのCEO、投資家に対しIntelやAMDとの新たな戦いへの準備を促す
分析:NvidiaのCEO、IntelおよびAMDとの再戦に備えるよう投資家に説明
Stephen Nellis
Thu, February 26, 2026 at 1:47 PM GMT+9 4 min read
この記事の内容:
NVDA
INTC
AMD
META
By Stephen Nellis
サンフランシスコ、2月25日(ロイター) - Nvidiaは人工知能(AI)サーバーを稼働させるために使われる専用の画像処理ユニット(GPU)を背景に莫大な利益を得た可能性がある一方、ジェンセン・ファンCEOはますます、より汎用的なCPUへの愛を公言するようになっている。
CPU、つまり中央処理装置は、何十年もの間、伝統的にコンピューターの主要な「頭脳」と見なされてきた。Intel、あるいは時にはアドバンスト・マイクロ・デバイス(AMD)と結び付けられることが多い製品だ。
ファンは、「かつては計算の90%がCPUで行われ、10%が彼のようなチップで行われていたが、近年その比率が反転した」と言うのが好きだ。
しかしCPUは、カムバックしている。AI企業が、モデルの学習からそれらのモデルの展開(デプロイ)へと移行するにつれ、「同等、いやそれ以上の選択肢」としてますます見られており、Nvidiaはこの変化に大きく関わるつもりだ。
「私たちはCPUもGPUも大好きです」と、ファンは同社の第4四半期決算をめぐる水曜のアナリスト向けの電話会議で述べた。
ファンは、NvidiaがCPUの再びスポットライトを浴びることに備えるだけでなく、2023年に最初に発表したデータセンター向けのNvidia自身のCPU提供が、競合を凌駕するだろうとも保証した。
先月、1月のラスベガスで開催されたコンシューマー・エレクトロニクス・ショーで、ファンはデータセンターで使われる高性能なNvidia CPUの数が「爆発的に増える」だろうとも述べ、さらに「Nvidiaが世界最大級のCPUメーカーの一つになることもあり得る」ことに驚かないとも語った。
CPU対GPU
CPUとGPUは、何十年にもわたり異なる計算タスクを担ってきた。CPUは汎用チップで、ソフトウェアの開発者がそのチップに投げかけるあらゆる数学的タスクを、多様な作業の中でも、妥当な速度で処理するよう設計されている。
一方GPUは、より単純な一連の数学的タスクを実行することに特化しているが、その単純な計算を同時に何千回も並列で行う。
ビデオゲームでは、それが意味するのは、画面上の何千ものピクセルの値を毎秒何度も計算することだった。そしてAIの仕事では、開発者が単語や画像といった現実世界のデータを表すために使う、大きな行列の数の掛け算や足し算を行うことを意味する。
AI企業はますます、「コードの執筆」や「文書のふるい分け」「研究レポートの作成」といったタスクを、独自に実行できる「エージェント」を投入している。そしてそうした計算は、「ますます増えており、時には時には、主としてCPU上で起きている」と、クリエイティブ・ストラテジーズのアナリストであるベン・バジャリンは述べた。
Nvidiaの現在の主力AIサーバー(NVL72)は、36基のCPUと72基のGPUを搭載している。バジャリンは、いわゆるエージェント型の仕事では1対1の比率に変わる可能性、あるいはGPU自体がまったく不要になる可能性さえあると考えている。
NVIDIAは一矢報いるつもり
CPUへの野心を強調する形で、Nvidiaは最近、Meta Platformsとの取引を発表し、Facebookの保有者が、単独ベースで大量の同社のGraceおよびVera CPUチップを使用することになる。これは、Nvidiaの現行のAIサーバーに比べると比較的新しい展開だ。現行のAIサーバーでは、各CPUに複数のGPUが付いている。
ただし、MetaがCPUのベンダーを切り替えたわけではない。単に供給元を増やしているだけだ。数日後、AMDもMetaとの大規模取引を発表し、それにも同社のCPUが含まれていた。MetaはCPUを何年も前から買い続けている。
アナリストとの電話会議でファンは、NvidiaがCPUに対して根本的に異なるアプローチを取ってきたと主張した。
ファンは、IntelやAMDが行ってきた「チップをより小さな部品に分解する」アプローチをNvidiaが最小化してきた理由を説明した。NvidiaのCPUは、コンピュータのメモリに対するアクセスが多い状態で、多くの単純なタスクを順番に実行することができたからだ。
「それは、非常に高いデータ処理能力に集中するよう設計されています」と、同会議でファンは述べた。「そしてその理由は、私たちが関心を持つ計算上の問題の多くがデータ駆動型だからです。人工知能がその一つです。」
HotTech Vision and Analysisのプリンシパル・アナリスト、デイブ・アルタビラは、Nvidiaが「かつて主としてIntelが供給していた」CPUタイプが、もはや現代の計算インフラの前提となるデフォルトではなくなったことを証明しようとしている、と述べた。「代わりに、それは複数のアーキテクチャ上の選択肢のうちの1つになるのです。」
ファンは、来月シリコンバレーで開催される同社の年次開発者会議で、NvidiaのCPUについてさらに開示すべきことがあるだろうと述べた。
(サンフランシスコでの報告:Stephen Nellis、編集:Peter HendersonおよびEdwina Gibbs)
規約 および プライバシーポリシー
プライバシー・ダッシュボード
もっと詳しく