華夏時報記者 石飛月 北京報道 AI産業の潮目が変わった。ここ数年前は、皆が必死に「モデルを訓練」していた――データをGPUに投入し、それが知能を育てるのを待つ。そのときは、NVIDIAのGPUが唯一の王で、誰も揺るがせることができなかったが、ここ2年で、インテリジェント・エージェントが群れをなして市場に押し寄せ、Manusが話題になり、OpenClawが連日注目を集めた。モデル・ベンダーとクラウド・サービス事業者はtokenを売って稼ぐことを始め、Cerebrasたちは「より速く、より安く」という旗印を掲げて、NVIDIAが長年独占してきた地図の上に切り込みを入れた。 業界はようやく気づいた。訓練は続いているが、「推論」がすでに主流になっている。NVIDIAはこの市場機会を逃すはずがない。推論という“ケーキ”を取り分ける必要もある。3月17日未明、GTC 2026でNVIDIAのCEOである黄仁勲(ジェンセン・フアン)が新たな武器――Groq 3 LPU――を披露し、推論チップ市場へ大規模に攻勢をかけた。同時に彼は一連の数字も投げつけた。2027年末までにBlackwellとRubinの2つのプロダクトラインの年収は1兆ドルに達する見通しで、半年前の予測より2倍になるという。 **訓練と推論を両方押さえる** 今回NVIDIAはVera Rubinプラットフォームを正式に発表し、合計7種類のチップを搭載する。内訳はRubin GPU、Vera CPU、ConnectX-9 SuperNIC、BlueField-4 DPU、NVLink 6 Switch、Spectrum-X 102.4T CPO、そして新たに統合されたGroq 3 LPUだ。 「LPU」の正式名称は「Language Processing Unit」、つまり言語処理ユニットであり、専用のAI推論アクセラレーション・チップだ。Rubin GPUはGroq LPUと組み合わせることで、現在の毎秒100トークンのスループットを、毎秒1500トークン、あるいはそれ以上へ引き上げ、AIエージェントの対話インタラクション・シーンを完璧に支える。 NVIDIAはさらに、新型Groqアクセラレータを収容するための完全なラック――Groq LPX――も投入した。NVIDIAの超大規模および高性能計算担当副社長Ian Buckが説明するところによれば、Groq LPXは「1トークンごとにAIモデルが各層をデコードする」性能を高め、Rubinが人工知能の次のフロンティア分野――マルチエージェント・システム――に提供できるようにする。この種のシステムでは、推論で数兆個のパラメータを含むモデルを扱いながら、数百万トークンのコンテキストウィンドウ内でインタラクティブな性能を実現する必要がある。 推論チップ市場へのNVIDIAの思惑は今日から始まったものではなく、以前から準備があった。2025年12月、同社は約200億ドルの価格でGroqの中核技術資産を買収しており、その創業者はNVIDIAに加わった。Groq 3 LPUは買収後の最初の公開成果だ。 ゴールドマン・サックスのグローバル投資研究部のモデル予測に基づけば、AIサーバーのAIチップにおいて、GPGPU以外のチップの出荷構成比は明確な上昇傾向を示し、2024年の36%から2027年には45%へと段階的に増加する見込み。一方でGPGPUチップの出荷構成比は、2024年の64%から2027年には55%へと段階的に低下する見通しだ。 InSemi Researchの上級アナリストである秦豊偉(チン・フォンウェイ)が本紙記者に説明したところによれば、GPUは基盤となる大規模モデルの訓練や、汎用性への要求がより高い場面(例:パブリッククラウド)、および並列計算の場面でより競争力がある。一方、ASIC(TPU、DPU、NPU、LPUなどを含む)は、モデルのデプロイ段階、そして推論の場面では相対的に優位になる。なぜなら、これらのシーンではエネルギー効率比や応答遅延などの要件がより高いためだ。 「だからこそNVIDIAはLPUを投入し、AI計算能力のニーズが“訓練”から“推論”へ移行するという戦略的な布石に対応した。これは不足を埋める重要な一手だ。より精緻なプロダクト配置で、市場の変化と競合相手の挑戦に応えている」と、深度科技研究院院長の張孝榮(チャン・シアオロン)が本紙記者に語った。 報道によれば、NVIDIAの増え続ける推論需要への対応計画は、同社にリターンをもたらしている。OpenAIは先月、「専用推論能力」を備えたチップを調達することでNVIDIAと合意したと述べた。 **チップから工場までのエコシステム強化** ここ数年、生成AIが市場を爆発させ、大規模モデルの訓練は“絶対的な計算力のブラックホール”になった。GPUの圧倒的な主導的地位を背景に、NVIDIAはこの熱狂の大半の恩恵を受け、業績も時価総額も二つとも急騰し、利益をふんだんに得た。 しかし、モデルのパラメータ競争が限界効果逓減のボトルネック期に入ると、大規模モデルの訓練は、猛スピードで走って2年後にようやく減速した。2025年以降、競争の軸はずれ始めている――エージェントとコンテキスト・エンジニアリングが主役の座をつかんだ。最も直接的なシグナルはこうだ。OpenClawがソーシャル・プラットフォームを攻略し、テック業界から一路“業界の外”へと広がり、一般人の情報フローにまで入り込んだ。 エージェントは推論市場の需要増を後押しする重要な要因の一つであり、その中核となるシーンは訓練ではなく推論により重点が置かれている――この見解は複数の権威ある研究や業界分析で明確に支持されている。そのため、AI能力が基礎となる大規模モデルの訓練段階から、ワークフロー構築に重きを置くエージェントへと進化するにつれて、AI計算力需要の重心は訓練から推論へと移った。 AIインフラの最大のプレーヤーとして、NVIDIAも当然、市場の潮流に合わせて変わる必要があり、しかもエコシステム全体のレベルでのアップグレードだ。 今回のGTCカンファレンスでは、LPUを発表しただけでなく、OpenClawの創業者Peter Steinberger率いるチームと連携して、一群のトップクラスのセキュリティと計算の専門家を招集し、NeMoClawのリファレンス・アーキテクチャを打ち出した。これはOpenShell技術、ネットワーク防護メカニズム、プライバシー・ルーティング能力を内蔵しており、企業が自社のプライベート環境でエージェント・システムを安全に稼働できるようにする。 NVIDIAはさらに、Vera Rubin DSX AI工場のリファレンス設計も提供し、AI工場全体のインフラ・スタックをどのように設計し、構築し、運用するかを教える。計算、NVIDIA Spectrum-XEthernetネットワーク、そしてストレージまで含め、再現可能で拡張可能、かつ最適なクラスタ性能を実現する。 黄仁勲は次のように述べた。「AIの時代には、インテリジェントtokenが新しい通貨であり、AI工場はそれらのtokenを生み出すための基盤インフラだ。Vera Rubin DSX AI Factoryのリファレンス設計とOmniverse DSX Blueprint(デジタルツインのブループリント)を通じて、私たちは世界で最も高い生産性を持つAI工場を構築するための基盤を提供し、初回収益までの時間を加速させ、規模とエネルギー効率を最大化していく」。 LPUを投入した後、NVIDIAのフラッグシップGPUの構成比はどう変わるのか――『華夏時報』の記者はこれについてNVIDIA側に取材したが、発表時点までに回答は得られていない。「NVIDIAが推論チップ市場に進出することは、GPU事業がそれによって損なわれることを意味しない。むしろLPUとの協調の中で、より広い市場空間が開けるだろう」と張孝榮は言う。 智参智庫の特聘エキスパートである袁博(ユアン・ボー)は、次のように指摘する。短期的には、GPUは強力な場面適応性とエコシステムの厚い壁によって市場を主導し、とりわけAI訓練の場面ではその傾向が強い。長期的には、この2つのルートは完全に対立するわけではなく、融合と市場の分層へ向かう。「ハードウェア面では、GPUはより強力な専用コアを統合し、専用チップ側でもプログラマビリティが増える。市場では、主導的なイノベーションと汎用プラットフォームはどちらが担い、専用チップは大規模な推論を深掘りする、という分層構造が形成されると見込まれる」としている。 ASIC市場では実際すでに、NVIDIAの対抗勢力が集結している。海外のCerebras、中国のCambricon(寒武紀)、Huawei、燧原科技(スイユエン・テクノロジー)などが含まれる。張孝榮は、NVIDIAが推論チップ領域に進出することは、国内企業にとって挑戦であると同時に触媒にもなり、「押しつぶし(圧迫)」と「追い立て(背中を押されること)」が共存する複雑な局面を生むことになると考えている。これにより、業界の顔ぶれの入れ替えと技術のアップグレードが加速するだろう。
GPUからLPUへ:NVIDIAの推論チップ攻勢、黄仁勋が再び決定的一手
華夏時報記者 石飛月 北京報道
AI産業の潮目が変わった。ここ数年前は、皆が必死に「モデルを訓練」していた――データをGPUに投入し、それが知能を育てるのを待つ。そのときは、NVIDIAのGPUが唯一の王で、誰も揺るがせることができなかったが、ここ2年で、インテリジェント・エージェントが群れをなして市場に押し寄せ、Manusが話題になり、OpenClawが連日注目を集めた。モデル・ベンダーとクラウド・サービス事業者はtokenを売って稼ぐことを始め、Cerebrasたちは「より速く、より安く」という旗印を掲げて、NVIDIAが長年独占してきた地図の上に切り込みを入れた。
業界はようやく気づいた。訓練は続いているが、「推論」がすでに主流になっている。NVIDIAはこの市場機会を逃すはずがない。推論という“ケーキ”を取り分ける必要もある。3月17日未明、GTC 2026でNVIDIAのCEOである黄仁勲(ジェンセン・フアン)が新たな武器――Groq 3 LPU――を披露し、推論チップ市場へ大規模に攻勢をかけた。同時に彼は一連の数字も投げつけた。2027年末までにBlackwellとRubinの2つのプロダクトラインの年収は1兆ドルに達する見通しで、半年前の予測より2倍になるという。
訓練と推論を両方押さえる
今回NVIDIAはVera Rubinプラットフォームを正式に発表し、合計7種類のチップを搭載する。内訳はRubin GPU、Vera CPU、ConnectX-9 SuperNIC、BlueField-4 DPU、NVLink 6 Switch、Spectrum-X 102.4T CPO、そして新たに統合されたGroq 3 LPUだ。
「LPU」の正式名称は「Language Processing Unit」、つまり言語処理ユニットであり、専用のAI推論アクセラレーション・チップだ。Rubin GPUはGroq LPUと組み合わせることで、現在の毎秒100トークンのスループットを、毎秒1500トークン、あるいはそれ以上へ引き上げ、AIエージェントの対話インタラクション・シーンを完璧に支える。
NVIDIAはさらに、新型Groqアクセラレータを収容するための完全なラック――Groq LPX――も投入した。NVIDIAの超大規模および高性能計算担当副社長Ian Buckが説明するところによれば、Groq LPXは「1トークンごとにAIモデルが各層をデコードする」性能を高め、Rubinが人工知能の次のフロンティア分野――マルチエージェント・システム――に提供できるようにする。この種のシステムでは、推論で数兆個のパラメータを含むモデルを扱いながら、数百万トークンのコンテキストウィンドウ内でインタラクティブな性能を実現する必要がある。
推論チップ市場へのNVIDIAの思惑は今日から始まったものではなく、以前から準備があった。2025年12月、同社は約200億ドルの価格でGroqの中核技術資産を買収しており、その創業者はNVIDIAに加わった。Groq 3 LPUは買収後の最初の公開成果だ。
ゴールドマン・サックスのグローバル投資研究部のモデル予測に基づけば、AIサーバーのAIチップにおいて、GPGPU以外のチップの出荷構成比は明確な上昇傾向を示し、2024年の36%から2027年には45%へと段階的に増加する見込み。一方でGPGPUチップの出荷構成比は、2024年の64%から2027年には55%へと段階的に低下する見通しだ。
InSemi Researchの上級アナリストである秦豊偉(チン・フォンウェイ)が本紙記者に説明したところによれば、GPUは基盤となる大規模モデルの訓練や、汎用性への要求がより高い場面(例:パブリッククラウド)、および並列計算の場面でより競争力がある。一方、ASIC(TPU、DPU、NPU、LPUなどを含む)は、モデルのデプロイ段階、そして推論の場面では相対的に優位になる。なぜなら、これらのシーンではエネルギー効率比や応答遅延などの要件がより高いためだ。
「だからこそNVIDIAはLPUを投入し、AI計算能力のニーズが“訓練”から“推論”へ移行するという戦略的な布石に対応した。これは不足を埋める重要な一手だ。より精緻なプロダクト配置で、市場の変化と競合相手の挑戦に応えている」と、深度科技研究院院長の張孝榮(チャン・シアオロン)が本紙記者に語った。
報道によれば、NVIDIAの増え続ける推論需要への対応計画は、同社にリターンをもたらしている。OpenAIは先月、「専用推論能力」を備えたチップを調達することでNVIDIAと合意したと述べた。
チップから工場までのエコシステム強化
ここ数年、生成AIが市場を爆発させ、大規模モデルの訓練は“絶対的な計算力のブラックホール”になった。GPUの圧倒的な主導的地位を背景に、NVIDIAはこの熱狂の大半の恩恵を受け、業績も時価総額も二つとも急騰し、利益をふんだんに得た。
しかし、モデルのパラメータ競争が限界効果逓減のボトルネック期に入ると、大規模モデルの訓練は、猛スピードで走って2年後にようやく減速した。2025年以降、競争の軸はずれ始めている――エージェントとコンテキスト・エンジニアリングが主役の座をつかんだ。最も直接的なシグナルはこうだ。OpenClawがソーシャル・プラットフォームを攻略し、テック業界から一路“業界の外”へと広がり、一般人の情報フローにまで入り込んだ。
エージェントは推論市場の需要増を後押しする重要な要因の一つであり、その中核となるシーンは訓練ではなく推論により重点が置かれている――この見解は複数の権威ある研究や業界分析で明確に支持されている。そのため、AI能力が基礎となる大規模モデルの訓練段階から、ワークフロー構築に重きを置くエージェントへと進化するにつれて、AI計算力需要の重心は訓練から推論へと移った。
AIインフラの最大のプレーヤーとして、NVIDIAも当然、市場の潮流に合わせて変わる必要があり、しかもエコシステム全体のレベルでのアップグレードだ。
今回のGTCカンファレンスでは、LPUを発表しただけでなく、OpenClawの創業者Peter Steinberger率いるチームと連携して、一群のトップクラスのセキュリティと計算の専門家を招集し、NeMoClawのリファレンス・アーキテクチャを打ち出した。これはOpenShell技術、ネットワーク防護メカニズム、プライバシー・ルーティング能力を内蔵しており、企業が自社のプライベート環境でエージェント・システムを安全に稼働できるようにする。
NVIDIAはさらに、Vera Rubin DSX AI工場のリファレンス設計も提供し、AI工場全体のインフラ・スタックをどのように設計し、構築し、運用するかを教える。計算、NVIDIA Spectrum-XEthernetネットワーク、そしてストレージまで含め、再現可能で拡張可能、かつ最適なクラスタ性能を実現する。
黄仁勲は次のように述べた。「AIの時代には、インテリジェントtokenが新しい通貨であり、AI工場はそれらのtokenを生み出すための基盤インフラだ。Vera Rubin DSX AI Factoryのリファレンス設計とOmniverse DSX Blueprint(デジタルツインのブループリント)を通じて、私たちは世界で最も高い生産性を持つAI工場を構築するための基盤を提供し、初回収益までの時間を加速させ、規模とエネルギー効率を最大化していく」。
LPUを投入した後、NVIDIAのフラッグシップGPUの構成比はどう変わるのか――『華夏時報』の記者はこれについてNVIDIA側に取材したが、発表時点までに回答は得られていない。「NVIDIAが推論チップ市場に進出することは、GPU事業がそれによって損なわれることを意味しない。むしろLPUとの協調の中で、より広い市場空間が開けるだろう」と張孝榮は言う。
智参智庫の特聘エキスパートである袁博(ユアン・ボー)は、次のように指摘する。短期的には、GPUは強力な場面適応性とエコシステムの厚い壁によって市場を主導し、とりわけAI訓練の場面ではその傾向が強い。長期的には、この2つのルートは完全に対立するわけではなく、融合と市場の分層へ向かう。「ハードウェア面では、GPUはより強力な専用コアを統合し、専用チップ側でもプログラマビリティが増える。市場では、主導的なイノベーションと汎用プラットフォームはどちらが担い、専用チップは大規模な推論を深掘りする、という分層構造が形成されると見込まれる」としている。
ASIC市場では実際すでに、NVIDIAの対抗勢力が集結している。海外のCerebras、中国のCambricon(寒武紀)、Huawei、燧原科技(スイユエン・テクノロジー)などが含まれる。張孝榮は、NVIDIAが推論チップ領域に進出することは、国内企業にとって挑戦であると同時に触媒にもなり、「押しつぶし(圧迫)」と「追い立て(背中を押されること)」が共存する複雑な局面を生むことになると考えている。これにより、業界の顔ぶれの入れ替えと技術のアップグレードが加速するだろう。