Ark Invest:AIインフラの現状と未来

出典:Frank Downing、Ark Invest;翻訳:金色财经Claw

AIインフラ支出が爆発的に増加

ChatGPTのリリース以来の3年間、加速計算の需要は爆発的に拡大しています。**NVIDIAの年間収益は約8倍に急増し、2022年の270億ドルから2025年には2160億ドルに達し、市場の予想では2026年にはさらに62%増加し、3500億ドルに達すると見込まれています。**世界のデータセンターシステム投資(計算、ネットワーク、ストレージハードウェアを含む)の成長率は、2022年までの10年間の平均5%から、過去3年間で30%に加速し、2026年にはさらに30%以上増加し、6530億ドルに達すると予測されています。

ARKの調査によると、GPUとAI専用集積回路(ASIC)による加速計算(汎用CPUと比較して)は、現在サーバー投資を支配しており、計算サーバー販売の86%を占めています。

コスト急降下が採用を促進

AIモデルの運用に必要な加速計算インフラ支出を持続的に増加させる原動力は、生成型AIの消費者および企業向けの利用シーンの拡大と、より知能的な基礎モデルを訓練するための「スーパーインテリジェンス」追求の需要です。

コストの急速な低下が需要増をさらに加速しています。私たちの調査によると、AI訓練コストは年間75%低下しています。推論コストはさらに速く低下しており、Artificial Analysisが追跡するベンチマークテストでは、50%以上のモデルの平均コストは年率95%の低減を記録しています。

コスト大幅低下を促進した二つの要因は、第一にNVIDIAをはじめとする業界リーダーが毎年新製品を投入し、ハードウェア性能を向上させてきたこと。第二に、ソフトウェアレベルでのアルゴリズム改善により、同じハードウェア上での訓練と推論の効率が向上していることです。

消費者と企業からの強い需要信号

消費者によるAIの採用速度は、インターネット普及の速度を上回っています。AIの普及率は3年で約20%に拡大し、これは消費者のインターネット利用の速度の2倍以上です。

企業の需要も驚異的な速度で増加しています。OpenRouterのデータによると、2024年12月以降、トークン需要は28倍に増加しています。

過去2年間で、企業顧客に最も支持されたAIラボのAnthropicは、収益が約100倍に急増しました。2023年末の年次運営収入は1億ドルでしたが、2025年末には80億〜100億ドルに達すると見込まれています。Anthropicの成長は2026年も続き、今年2月には年次収益が140億ドルに達し、300億ドルの資金調達を完了、時価総額は3800億ドルに上っています。

消費者と企業の両方の市場で競争を繰り広げるOpenAIは、企業顧客も堅調に拡大しており、2025年11月時点で100万社の企業顧客を獲得しています。最高財務責任者のSarah Friarによると、OpenAIの企業向け収益は消費者向けよりも速く成長しており、2026年には全体の50%を占める見込みです。Friarは2026年1月のブログでも、インフラへのさらなる投資の理由を説明しています。過去3年間、OpenAIの収益は計算能力と正比例の関係にあります。

私募市場がAIインフラに資金を供給

強い需要信号に応えるため、大規模なインフラ投資が必要となっています。Crunchbaseのデータによると、2025年の私的AIラボの資金調達額は2000億ドルを超え、そのうち約800億ドルがOpenAI、Anthropic、xAIなどの基盤モデル開発者に流れています。公開市場では、超大規模クラウド企業が現金準備を動員し、他の資金調達手段も模索しており、2026年の支出規模は7000億ドルに達する可能性があります。

報道によると、MetaとBlue Owlの300億ドルの取引は史上最大の私募資本取引とされます。この取引は合弁会社形式で構築され、主に債務ファイナンスを用いています。特殊目的事業体(SPV)構造により、Metaの資産負債表に負債が計上されず、これに対して大きな議論も巻き起こしています。

AMDと他のメーカーがNVIDIAに挑戦

物理的なデータセンター外でも、計算チップはAI資本支出の中心です。NVIDIAは加速計算の時代の最前線にいますが、最大のAIチップ調達者は投資効率を高めることを目指しています。2006年のATI Technologies買収以降、AMDはNVIDIAと並び消費者市場向けGPUを販売してきましたが、今や企業市場の新興競争者となっています。2017年にEPYCシリーズプロセッサを導入して以来、サーバー用CPUの市場シェアは2017年のほぼゼロから2025年には40%に拡大しています。

小規模モデルの推論に関しては、AMDのGPUはTCO(総所有コスト)と性能の相対比較でNVIDIAにほぼ追いついています。TCOは、チップの購入コスト(資本支出)と使用期間中の運用コスト(運用支出)を考慮しています。性能基準はSemiAnalysisのInferenceMax指標を用い、スループット最適化時のGPUあたり秒間処理トークン数を評価しています。コスト基準は、SemiAnalysisによる1時間あたりの資本支出と運用支出の見積もりです。

小規模モデルの性能ではAMDが追い上げている一方、大規模モデルの性能ではNVIDIAが依然として圧倒的なリードを保っています(下図参照)。

NVIDIAのラックレベルソリューションGrace Blackwellは、72個のGrace Blackwell GPU(GB200)をネットワーク接続し、まるで共有メモリを持つ超大型GPUのように動作させます。このチップ間の密な連結は、大規模モデルの推論能力を強化します。大規模モデルはモデルの重みを複数のGPUに分散させる必要があり、小規模モデルよりも通信帯域が多く必要です。NVIDIAのVera Rubinリリース前に差を縮めるため、AMDは2026年下半期にラックレベルのソリューションを投入予定です。これまでに、Microsoft、Meta、OpenAI、xAI、Oracleなどの顧客から注文を獲得しています。

超大規模クラウド企業がカスタムチップ革命を牽引

商用GPU供給者以外にも、超大規模クラウド企業やAIラボは、NVIDIAの影響力を抑え、AI計算コストを削減するために自社開発のチップを模索しています。過去10年以上、Googleは自社のAI専用集積回路(TPU)を設計し、検索業務の推奨モデル運用に利用しています。最新のTPU v7では生成型AIの性能最適化も行われています。SemiAnalysisの推定によると、Googleは自社TPUを用いて内部負荷を処理することで、NVIDIAに比べて計算コストを62%削減しています。AnthropicやMetaもGoogleのTPUを拡張して計算能力を高めており、62%の推定値は実情に近いと考えられます。

AmazonのTrainiumチップはやや次世代的な解決策と見られます。2015年にAnnapurna Labsを買収後、Amazonはクラウド事業向けにARMアーキテクチャのGraviton CPUやNitro DPUを展開し、重要な計算能力を支えています。最近の発表では、2025年にGravitonがAWSの新規CPU計算能力の半数以上を引き続き提供しています。TPUのほか、AnthropicはAWSとTrainiumを主要な訓練プラットフォームとして採用しています。

Microsoftは2023年にAIアクセラレータMaia 100をリリースしましたが、当初は生成型AIに焦点を当てていませんでした。現在は第2世代を展開中で、推論用途を主に狙っています。

Broadcomがカスタムチップサービス市場をリード

GoogleとAmazonは前段のチップ設計(アーキテクチャと機能)に注力し、後段の設計パートナーは論理をシリコンに変換し、先進的なパッケージングやTSMCなどのファウンドリと調整して生産します。Intelのファウンドリ事業が困難に直面する中、TSMCは主要なAIチッププロジェクトの主要パートナーとなっています。一方、BroadcomはGoogleのTPU、MetaのMTIA、そして2026年にリリース予定のOpenAIのカスタムチップの主要な後段設計パートナーです。Appleはこれまで自社のスマートフォンやPC用チップの全工程を自社完結してきましたが、報道によると、Broadcomと協力してAIチップの開発も進めている可能性があります。Citibankは、BroadcomのAI関連収益が今後2年間で5倍に増加し、2025年の200億ドルから2027年には1000億ドルに達すると予測しています。

AmazonのTrainiumの開発経路は特殊で、報道によると、Trainium 2はMarvellと協力して開発され、その後Marvellの実行不振により、Trainium 3とTrainium 4はAlchipと提携しています。Amazonが後段のパートナーを変更できることは、垂直統合のリスクを示しています。なお、AppleやTeslaは直接ファウンドリと協力しています。GoogleもTPU v8では同様の戦略を採用し、2つのSKUを展開する予定です。一つはBroadcomと共同設計し、もう一つはMediaTekの支援を受けてGoogleが自主設計・管理しています。

チップスタートアップの動きが活発化

私たちの調査によると、新しいアーキテクチャを模索するスタートアップの長い尾の力が、既存のチップメーカーの市場支配をさらに挑戦する可能性があります。Cerebrasは、単一のシリコンウエハーから作られた巨大なチップ(ピザ箱サイズのウエハーエンジン)で、市場最速の秒間トークン処理速度を誇ります。今年中の上場を計画していると報じられています。同社は最近、OpenAIと協力して高速プログラミングモデルCodex Sparkをリリースし、今年1月には既に協力関係を築いています。Groqも、秒間トークン処理速度の卓越性により、NVIDIAと非独占的な200億ドルの知的財産ライセンス契約を締結しました。これにはGroqの90%の従業員とCEO兼TPU共同創設者のJonathan Rossも含まれます。これは、買収市場でますます一般的になっている構造で、巨大テック企業が規制の遅れを回避するために利用しています。その他の動きとして、Intelは最近、買収交渉の失敗後にSambaNovaと提携しています。Intelは2014年以来、AI分野で4回買収を行っていますが、市場に広く認知されるAI製品を出せていないのは残念です。

未来展望:2030年には1.4兆ドル規模に

私たちの調査によると、今後5年間の需要の継続的な増加と性能向上により、AIソフトウェアとクラウドサービスの発展が促進され、AIインフラ支出は2025年の5000億ドルから2030年にはほぼ3倍の1.5兆ドルに達すると予測しています。

この予測は、データセンターシステム投資とソフトウェア収益の過去の関係性に基づいています。2010年代初頭、クラウドコンピューティングの台頭により、システム投資は世界のソフトウェア支出の約50%を占めていました。2021年には、コロナ禍後の過剰投資と顧客の最適化により、その比率は20%未満に低下しました。私たちの1.5兆ドルの予測は、2030年の投資額を、世界のソフトウェア支出の中性シナリオ(7000億ドル)に対し20%と見積もったものです。この比率については、昨年のブログでも詳述しています。20%の水準は、2030年前の潜在的な過剰投資リスクや、ソフトウェア収益の成長が中性シナリオより遅れる可能性も考慮しています。後者の場合、インフラ投資は引き続き高成長を維持し、2010年代初頭の状況と同様になると考えています。

AI駆動の計算需要が継続的に増加する中、私たちは、特定のワークロードに最適化されたチップの設計により、規模の経済とともに1ドルあたりの性能向上がより重要になると予測しています。2030年までに、ASICの計算市場におけるシェアは3分の1を超える可能性があります。

総合的に見て、私たちの調査は、現在進行中のインフラ整備はバブル崩壊の危機ではなく、むしろプラットフォームレベルの変革の基盤であることを示しています。ARKは、2030年のAIインフラ支出が1.5兆ドルに達すると予測しており、この市場は消費者と企業の真の持続的な需要に支えられ、コスト低下も新たなユースケースを生み出し続けています。今後5年間で成功を収める企業は、最も効率的なチップを設計し、最強のモデルを構築し、それらを大規模に展開できる企業になると確信しています。

2026年度第4四半期の決算説明会でNVIDIAの黄仁勋CEOが述べたように、実用的なAIエージェントはここ数ヶ月で本格的に普及し始めました。これらはトークン消費量が膨大ですが、多くのユーザーが慣れ親しんできたAI製品をはるかに超える能力を持っています。これらのエージェントを数百万の企業に展開することは非常に計算集約的な作業ですが、その生産性向上は投資に十分見合うものと考えています。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン