米国東部時間の月曜日、NVIDIA(NVDA.US)はカリフォルニア州サンノゼでGTCカンファレンスを正式に開幕し、一気に複数の新しいチップとプラットフォームを発表しました。新世代のNvidia Groq3言語処理ユニット(LPU)から、インテル(INTC.US)やAMD(AMD.US)と競合するために設計されたVera中央処理装置(CPU)を搭載した完全なサーバーラックまで含まれます。 今回、NVIDIAはAIデータセンターのさまざまなシナリオに対応するために、合計5種類の大型サーバーラックをリリースしました。 中でも最も注目されたのは、Nvidia Groq3チップの発表です。昨年12月、NVIDIAはGroq関連技術のライセンスを200億ドルの契約で買収し、その創設者のJonathan Ross、社長のSunny Madra、そしてコアチームを傘下に収めました。 GroqプロセッサはAI推論に特化しています。これはAIモデルの実行の核心部分です。ChatGPT、Claude、Geminiに指示を入力し応答を得るとき、その背後で推論技術が働いています。 NVIDIAの汎用GPUは訓練と推論の両方に使えるのに対し、Groq3の登場は、AI市場のモデル訓練からモデル応用への転換に対応するための専用推論チップを正式に所有したことを意味します。 NVIDIAの超大規模・高性能計算担当副社長のIan Buckは、「GPUはより大きなメモリ容量をサポートしますが、Groq3のLPUはより高速なアクセス速度を持っています」と述べています。両者の性能の優位性を融合させ、新たにGroq3LPXプラットフォームが誕生しました。このサーバーラックは128個の独立したGroq3LPUを搭載し、Vera Rubin NVL72ラックと連携させると、1メガワットあたりのスループットが35倍に向上し、10倍の収益ポテンシャルを生み出します。 「万億パラメータモデルと百万Tokenのコンテキスト最適化を実現するLPXアーキテクチャは、Vera Rubinと完璧に補完し、消費電力、メモリ、計算能力の効率を最大化します。このワットあたりのスループットとToken性能の革新は、超高性能な万億パラメータ推論サービスを生み出し、すべてのAIサービス提供者に新たな成長の機会をもたらすでしょう」と、NVIDIAは公式声明で強調しています。 LPXサーバーラックの導入は、新興の推論チップスタートアップの台頭により、NVIDIAの優位性が失われる懸念に対して強力に応えています。同時に、独立して展開されるVera CPUラックも注目されています。これは256個の液冷Veraチップを搭載したクラスターシステムであり、NVIDIAがVera CPUを「Vera Rubinスーパーチップ」(1つのVera CPUと2つのRubin GPUを含む)から解体して初めての試みです。 インテリジェントエージェントAIの台頭により、CPUの戦略的価値はますます高まっています。AIエージェントがウェブ閲覧や表の情報抽出などのタスクを実行する際、CPUの性能が直接効率を左右します。データマイニングやパーソナライズされた推奨など、GPUにコンテキスト分析を提供する必要のあるシナリオでも、CPUは不可欠な役割を果たします。 「VeraはインテリジェントエージェントAIのために最適化された究極のCPUです」とBuckは述べています。「私たちはCPUアーキテクチャを再定義しました。NVIDIAがAI実行のために特別に設計したOlympusコアは、極端な条件下でも高速な応答を実現し、すべての強化学習シナリオに完璧に適合します。」 これはNVIDIAが初めてCPU分野に進出したわけではありません。先月、Meta(META.US)と締結した契約により、史上最大規模の旧世代Grace CPUクラスターを展開しています。今回のVeraの独立発表は、NVIDIAが「GPU+CPU」の二輪駆動戦略を正式に確立し、インテルやAMDが支配するデータセンターマーケットに挑む姿勢を示しています。 これらのほか、NVIDIAはBluefield-4STXストレージサーバーシステム(従来の方案より性能向上)やSpectrum-6SPXネットワークサーバーも展示しました。 AIプラットフォームの需要が引き続き拡大する中、NVIDIAの新しい製品ラインはデータセンター事業の収益をさらに押し上げると見られます。2026年度のデータセンター収益は1935億ドルに達し、2025年度の1162億ドルから大きく伸びています。Amazon(AMZN.US)、Google(GOOGL.US)、Meta、Microsoft(MSFT.US)などの巨大企業が今年投入予定の6500億ドルのAI資本支出の中で、NVIDIAは確かなシェアを獲得するでしょう。
不止GPU!英伟达(NVDA.US)GTC 2026連発LPU、CPU新製品 全面展開AIデータセンターの各段階
米国東部時間の月曜日、NVIDIA(NVDA.US)はカリフォルニア州サンノゼでGTCカンファレンスを正式に開幕し、一気に複数の新しいチップとプラットフォームを発表しました。新世代のNvidia Groq3言語処理ユニット(LPU)から、インテル(INTC.US)やAMD(AMD.US)と競合するために設計されたVera中央処理装置(CPU)を搭載した完全なサーバーラックまで含まれます。
今回、NVIDIAはAIデータセンターのさまざまなシナリオに対応するために、合計5種類の大型サーバーラックをリリースしました。
中でも最も注目されたのは、Nvidia Groq3チップの発表です。昨年12月、NVIDIAはGroq関連技術のライセンスを200億ドルの契約で買収し、その創設者のJonathan Ross、社長のSunny Madra、そしてコアチームを傘下に収めました。
GroqプロセッサはAI推論に特化しています。これはAIモデルの実行の核心部分です。ChatGPT、Claude、Geminiに指示を入力し応答を得るとき、その背後で推論技術が働いています。
NVIDIAの汎用GPUは訓練と推論の両方に使えるのに対し、Groq3の登場は、AI市場のモデル訓練からモデル応用への転換に対応するための専用推論チップを正式に所有したことを意味します。
NVIDIAの超大規模・高性能計算担当副社長のIan Buckは、「GPUはより大きなメモリ容量をサポートしますが、Groq3のLPUはより高速なアクセス速度を持っています」と述べています。両者の性能の優位性を融合させ、新たにGroq3LPXプラットフォームが誕生しました。このサーバーラックは128個の独立したGroq3LPUを搭載し、Vera Rubin NVL72ラックと連携させると、1メガワットあたりのスループットが35倍に向上し、10倍の収益ポテンシャルを生み出します。
「万億パラメータモデルと百万Tokenのコンテキスト最適化を実現するLPXアーキテクチャは、Vera Rubinと完璧に補完し、消費電力、メモリ、計算能力の効率を最大化します。このワットあたりのスループットとToken性能の革新は、超高性能な万億パラメータ推論サービスを生み出し、すべてのAIサービス提供者に新たな成長の機会をもたらすでしょう」と、NVIDIAは公式声明で強調しています。
LPXサーバーラックの導入は、新興の推論チップスタートアップの台頭により、NVIDIAの優位性が失われる懸念に対して強力に応えています。同時に、独立して展開されるVera CPUラックも注目されています。これは256個の液冷Veraチップを搭載したクラスターシステムであり、NVIDIAがVera CPUを「Vera Rubinスーパーチップ」(1つのVera CPUと2つのRubin GPUを含む)から解体して初めての試みです。
インテリジェントエージェントAIの台頭により、CPUの戦略的価値はますます高まっています。AIエージェントがウェブ閲覧や表の情報抽出などのタスクを実行する際、CPUの性能が直接効率を左右します。データマイニングやパーソナライズされた推奨など、GPUにコンテキスト分析を提供する必要のあるシナリオでも、CPUは不可欠な役割を果たします。
「VeraはインテリジェントエージェントAIのために最適化された究極のCPUです」とBuckは述べています。「私たちはCPUアーキテクチャを再定義しました。NVIDIAがAI実行のために特別に設計したOlympusコアは、極端な条件下でも高速な応答を実現し、すべての強化学習シナリオに完璧に適合します。」
これはNVIDIAが初めてCPU分野に進出したわけではありません。先月、Meta(META.US)と締結した契約により、史上最大規模の旧世代Grace CPUクラスターを展開しています。今回のVeraの独立発表は、NVIDIAが「GPU+CPU」の二輪駆動戦略を正式に確立し、インテルやAMDが支配するデータセンターマーケットに挑む姿勢を示しています。
これらのほか、NVIDIAはBluefield-4STXストレージサーバーシステム(従来の方案より性能向上)やSpectrum-6SPXネットワークサーバーも展示しました。
AIプラットフォームの需要が引き続き拡大する中、NVIDIAの新しい製品ラインはデータセンター事業の収益をさらに押し上げると見られます。2026年度のデータセンター収益は1935億ドルに達し、2025年度の1162億ドルから大きく伸びています。Amazon(AMZN.US)、Google(GOOGL.US)、Meta、Microsoft(MSFT.US)などの巨大企業が今年投入予定の6500億ドルのAI資本支出の中で、NVIDIAは確かなシェアを獲得するでしょう。