OpenAIとNVIDIA、ついにこの段階に到達|AGIフォーカス

画像はAI生成です

AIトップランナーたちが「全力投入」しているチップの争奪戦。

Meta、OpenAI、Anthropicなどの企業は、今年に入って数千億ドル規模の注文を締結しています。

これによって巨額の利益を得ているのは、もちろん「売り手側」です。

今週、ASICチップのリーディングカンパニーであるBroadcomの決算発表によると、2025年11月から2026年1月までの第一四半期(2025年11月~2026年1月)のAI半導体収入は84億ドルで、前年同期比106%増となりました。第二四半期はさらに27%増の107億ドルと予想されており、前年同期比では143%の急増になる見込みです。

それ以前、NVIDIAの業績はさらに爆発的で、同期間の総売上高は681億ドルに達し、前年比73%増。次の会計四半期の売上予測は780億ドルに引き上げられ、前年比77%増を見込んでいます。主要指標はすべて記録を更新しています。

これらの企業のリーダーたちも、未来に対して一様に楽観的です。

BroadcomのCEO、陳福陽氏は、「来年、当社のAIチップだけで1000億ドルを超える収益を見込んでおり、昨年度の総売上高を少なくとも50%上回る」と述べています。

NVIDIAのCEO、黄仁勋氏は、「2026年末までの5四半期で、主力チップのBlackwellと次世代チップのRubinの注文は少なくとも5000億ドルに達し、これはNVIDIAの過去2年の収入の2倍以上になる」と語っています。

表面上は、「狂奔的な進展」が加速し続けており、記録破りのたびに新たな指数関数的成長曲線の始まりのように見えます。

しかし、その裏側では、チップからクラウド、大規模モデルからアプリケーションに至る一連の技術、産業、社会の変化が進行しており、ある種の制約が見え隠れしています。Scaling Law(スケーリング則)や汎用GPUの長年にわたる支配的地位が挑戦を受けており、クラウド事業者の巨額Capex(資本支出)の検証期間は短縮されつつあります。「カスタマイズ化」や「個別化」などの分散型ニーズがますます重視され、集中型の急速な成長には潮時が来る可能性もあります。

一方で巨額の利益を上げながら、「友情崩壊」も進行中

AI大規模モデル時代の先駆者として、今年に入ってNVIDIAとOpenAIの関係に明らかな緊張が見られます。

年初、メディアはNVIDIAがOpenAIのビジネス戦略に不満を抱き、投資を大幅に削減しようとしていると報じました。その後、OpenAIがNVIDIAの最新チップの推論性能に不満を持ち、代替案を模索しているとの情報も出ています。

これらの噂は証明されていませんが、NVIDIAはOpenAIの新たな資金調達ラウンドに300億ドルを出資し、以前の1000億ドル規模の投資計画と比べて縮小しています。

3月4日のモルガン・スタンレーTMT会議で、黄仁勋氏は「今回の投資は『最後の可能性が高い』」と述べ、昨年11月に彼が「一世代に一度のチャンス」と呼んだ1000億ドルの協力関係はおそらく終わりを迎えるだろうと示唆しました。

なぜこのような変化が突然起きたのでしょうか?背景にはいくつかの業界動向があります。

まず、Scaling LawとGPU性能向上の勢いがピークに近づいている兆候です。

コンピュータ科学者のイリヤ・サツヴェク(Ilya Sutskever)は、Scaling Lawが大規模モデルの発展を支えてきたのは、事前学習の道筋が確立されたからだと述べています。より多くのデータを投入すれば、モデルはより賢くなる。しかし、大規模モデルの競争が激化する中で、高品質で構造化された公開データはほぼ使い尽くされているのです。

計算能力だけでは、この道の終わりを支えることはできません。

業界では、Scaling Lawの未来についてさまざまな議論があります。例えば、後訓練(リトレーニング)への移行、推論時の拡張、またはTransformerのコアアーキテクチャの改良などです。

しかし、これらの方法を解体してみると、「効率向上」「算力の合理的配分」「特定分野への最適化」といったキーワードと関連付けられ、実際には事前学習段階の性能向上は再現されなくなることを意味します。

GPUも同様の状況に直面しています。

Scaling Lawの時代、成熟度が高く汎用性と柔軟性に優れ、大規模並列計算に適したGPUは、大規模モデルの最良のパートナーです。過去10年で性能は飛躍的に進化し、大規模モデルの能力向上とスケールアップの重要な原動力となっています。したがって、NVIDIAの製品価格は非常に高く、利益率も常に75%前後であっても、需要は絶えません。

半導体業界の著名な調査機関SemiAnalysisによると、先進的な製造プロセスの進化速度は明らかに鈍化しており、代表的な例はTSMCの3nm技術による性能向上とコスト増加が比例しなくなっていることです。

世界計算連盟GCCのデータも示しており、ムーアの法則の鈍化がAIチップの性能向上を抑制しています。2018年から2022年の間、AIチップの性能は年平均50%向上していましたが、2023年から2025年には20%未満に低下しています(未量産の新世代製品は除く)。

そして2025年には、特定のシナリオでの極限性能、低消費電力、小型化、量産後のコスト最適化を追求したカスタムAISCチップが台頭しています。

GoogleのTPUの市場好調を象徴とし、市場シェアはGPUに挑戦し始めています。Meta、Amazon、Microsoft、OpenAIなども自社開発のAISCチップに注力しており、2026年には量産と商用化の集中爆発期を迎える見込みです。

資料出典:各社公式サイト、野村証券、公開報道;著者作表

この多元化技術路線の核心は、「カスタマイズ」「高効率」「低遅延」「コストパフォーマンス」に集約されており、実質的には汎用ハードウェアの効率が爆発的に向上した時代は終わったと言えます。

この視点から見ると、OpenAIとNVIDIAの間に見え隠れする「友情の亀裂」や、推論性能に対する不満は、GPUがもはや「暴力的な突破口」で「全てを包み込む」ことができなくなったことを示しています。そして、ビジネス戦略に疑問を持つのは、大規模モデルの「無限の成長」ストーリーが続かなくなった後、安定した商業的リターンを確保したいという思惑もあります。

誰がNVIDIAに「冷水」を浴びせているのか?

もちろん、性能向上の鈍化は需要の急減を意味しません。むしろ、より安定的で持続的な成長を促す可能性もあります。2025年の「DeepSeek衝撃波」では、効率最適化が総消費量の増加をもたらす「ジェヴンズの逆説」も頻繁に取り上げられています。

ただし、前提は、より「細く長く」続く発展モデルへの早期切り替えです。しかし、現状のAI産業の慣性エネルギーは、これと一定の乖離を見せています。

最も重要なのは、時間周期を無理に短縮しようとすることによるシステム的な問題です。

初期のGPU中心のAIチップは、約18~24ヶ月のイテレーション周期でした。AIブームの到来とともに、需要者の競争圧力が高まり、イテレーション速度への要求は極端になり、NVIDIAやGoogleなどはチップの更新周期を「年単位」に短縮しました。

しかし、それでも十分ではありません。

現在、最先端の大規模モデルはほぼ3ヶ月ごとに更新されています。SemiAnalysisの創設者、ディラン・パテルは、以前のポッドキャスト「The MAD Podcast with Matt Turck」で、チップメーカーがイテレーション周期を半年に短縮しても、モデルの進歩速度に適応できず、自社の優位性を確保できる保証はないと述べています。

性能向上のペースが鈍化しても、この「レース」はまだ終わりを迎えていません。

前述の製造プロセスや技術進化のボトルネック、米国のエネルギー供給の逼迫といった制約を考えると、結果的に成長エネルギーが断絶し、壁にぶつかる可能性もあります。これにより、需要と供給のバランスが崩れ、スローダウンや逆に「壁にぶつかる」事態に陥る恐れもあります。

さらに、この「レース」がCapexに依存している点も見逃せません。チップとモデルの間で「追いかけっこ」を繰り返すクラウド事業者は、最も集中した資本支出を負担しています。彼らはAI事業も兼ねており、投資とリターンの両面でリスクとプレッシャーに直面しています。

Amazon、Microsoft、Google、Meta、Oracleの5大クラウド事業者の2026年Capex総額は7000億ドルを超えるとされています。

出典:各社決算資料、電話会議資料;著者作図

従来の算力インフラの5年償却サイクルで計算すると、約1400億ドルのAI販売コストに相当し、これはAI業界の現在のARR(年間経常収益)にとって天文学的な数字です。OpenAIは2026年にARRが450億ドルを突破すると予測し、Anthropicも同規模に達する見込みですが、これら2社の市場シェアはほぼ80%に近く、利益を考慮しなくても、業界の純収入だけでは資本支出を支えるのは難しい状況です。

また、チップとモデルの進化速度が加速する中、市場の償却周期の計算にも疑問が生じています。

著名投資家のマイケル・バリーは、昨年から「現在の償却周期は実情に合わない」と繰り返し批判し、今のAIチップの実質的な経済価値は2~3年で技術的に陳腐化し、大きく減衰すると考えています。

こうした意見には議論も多いですが、大規模モデルとチップの「レース」が続き、さらに加速すれば、償却周期に関する疑問はますます増えるでしょう。

また、資本側の過剰支出は、Scaling Lawや大規模モデルの性能向上を理由にしがちです。前述のトレンドからも、Scaling Lawの衰退はCapexの過熱を正当化しなくなる可能性があります。

2025年後半以降、クラウド巨頭の投資回収率(ROI)が市場の注目の的となり、米国株は利益成長の乏しいCapexに対して売りを強める傾向があります。例えばMicrosoftは、予想を上回る売上と純利益を発表したにもかかわらず、株価は10%急落しました。

チップ企業は新記録を更新し続けていますが、昨年11月のNVIDIAの時価総額が5兆ドルのピークから下落したことを契機に、市場は成長に見合った評価を与えず、空売りの声が一段と目立つようになっています。

これらも、現在盛んに議論されている「AIバブル論」の核心的な不安要素です。

ただし、バブルの存在や規模よりも、それに対する人々の捉え方や対応の仕方の方が、より重要かもしれません。

市場が単純に規模や速度の追求に正のフィードバックを与えなくなると、この流れは何度かの痛みを伴いながら、徐々にペースを落とす可能性があります。

現状、主要なチップメーカーや一部の大規模モデル、クラウド事業者は、今後2年間の明確な計画を持ち、イテレーションの速度や支出規模は高水準を維持し続けると予測されています。ゴールドマン・サックスも、2025年から2027年の3年間がAIサーバーの出荷量が最も急増する時期と予測し、そのピークは2026年に訪れるとしています。

しかし、その後、産業全体の成長は構造的な鈍化に直面する可能性があります。

ビジネスや技術の観点だけでは、AIの成長に影響を与える変数は多くありますが、最近の2つの象徴的なホットトピックは、AI産業の未来に不確実性の陰を落としています。

一つは、Citrini Researchの『2028年グローバルインテリジェンス危機』です。

このレポートはほぼ「近未来SF」のような形で、2025年末からエージェント(知性体)が登場し、2028年には人類社会が新たなAI時代に直面する可能性のある困難を描いています。

画像出典:CitriniResearch

このレポートは架空のものであり、先進技術による人間の仕事の代替も新しい議論ではありませんが、今の時点でこの問題を議論することが、意外にも大きな共感を呼んでいます。

実際、2026年初頭には、OpenClawやAnthropicのClaude Cowork、さまざまなエージェントプラグインの登場により、AIの「代替力」が非常に明確に示されました。

さまざまな警告や不安の中で、人類はAIに対抗できるのか?

AIの進展が速まるほど、代替危機の発酵も早まる可能性がありますが、AIが実際の仕事現場に落とし込まれる能力と持続性については、さらに探求が必要です。ただし、私たちが目にしているのは、大小さまざまな企業がAI化のペースを加速させている現実です。(作者|胡珈萌、編集|李程程)

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン