Heliosは本質的に、AMDが英伟达Blackwell系のNVL72/GB200 NVL72に対抗するラック級AIインフラです。両者とも、72基のGPU+CPU+高速相互接続+液冷+ラックシステムエンジニアリングを、AIワークロードの基礎単位としていますが、単一サーバを主要製品と位置付けていません。AMDは公式にHeliosを、OCP Open Rack Wideに基づくオープンなラックアーキテクチャであり、大規模学習と推論に適したものと定義しています。一方、英伟达はGB200 NVL72を、36基のGrace CPUと72基のBlackwell GPUからなる液冷ラックプラットフォームとしています。つまり、Heliosは「もう一つのMI450 GPU」ではなく、AMDが初めて、フルキャビネットシステムで英伟达のNVL72体系に真正面から挑むものです。
前世代のAMD AI GPUシリーズと比べて、Heliosの性能向上は非常に大きいです。AMD公式のベンチマークによると、Heliosは前世代のAMD AI演算能力プラットフォームに比べて最大36倍の性能向上を実現し、AMDのAIインフラの構想は、「より高性能なGPU単体カードを売る」から、「フルラックのAI工場を売る」へと発想を転換しています。GPU、CPU、NIC、液冷、ネットワークトポロジー、ROCmを一体化したAI演算能力ソリューションとして販売するのです。
AMD(AMD.US)踏向機架級AI基盤時代!強強聯手天弘科技(CLS.US)打造Helios計算集群
AMD(AMD.US)は天弘科技(CLS.US)と深い協力関係を発表し、英伟达Blackwell系のNVL72ラック級AIプラットフォームに対抗するための、AMDの新しいHeliosラック級AI演算能力インフラ・プラットフォームを世界のAIデータセンター市場に展開するとしています。規模が1兆ドルに達するAIコア演算クラスター分野で、英伟达(NVDA.US)のシェアを最大90%まで食い込ませ続けようとするAMDにとって、Heliosは売上と利益の見通しにとって極めて重要です。AMDは徐々に競争の焦点を、英伟达のNVL72のような完成済みのラックキャビネットシステムに引き上げており、2026年末に大規模に投入されるHelios AI演算能力クラスターは、本質的に英伟达の「ラック級AIインフラ」と正面から対決するものです。
両社は声明の中で、Heliosのリリース時に天弘科技(すなわちCelestica)が、AMD Heliosラック級AI演算能力クラスターのアーキテクチャにおける縦方向の大規模拡張に用いる高性能ネットワークスイッチの研究開発、設計、製造を担当すると述べています。
AMD Heliosは、AIデータセンターの超大規模なAI学習と推論タスクのために設計された、高性能・オープン標準のAIラック級インフラ・プラットフォームです。ラック級AIアーキテクチャは、現在最も普及しているクラスタ型計算方式の一つで、この演算モードでは、単一のCPU/GPUサーバではなく、ラック全体が膨大なAIワークロードの基礎演算単位となります。これにより、AI GPUやAI ASICなどの中核的演算能力、高性能ネットワークアーキテクチャ、液冷ユニットを一体化し、効率的に大規模言語モデル(LLM)の学習や、巨大モデルに基づくAIワークロードを実行します。
両社はまた、これらの縦方向拡張スイッチには最先端のネットワークチップを採用し、次世代のAMD Instinct MI450シリーズAI GPU同士の高速相互接続を実現することで、大規模AI演算能力インフラの革新的最適化を可能にすると述べています。
「Heliosラック級AIソリューションは、AI演算能力インフラの新たな青写真を示し、顧客が次世代の非常に巨大なAIワークロードを展開するために必要な性能、効率、柔軟性を総合的に備えたAIデータセンターを大規模に展開できるようにします」と、AMDデータセンターソリューション事業部のエグゼクティブ・バイス・プレジデント兼ゼネラルマネージャーのフォレスト・ノルロッドは声明で述べています。
両社は、Heliosのクラウドプラットフォーム、企業組織、大規模研究環境へのワンクリック導入を支援するために協力していると指摘しています。最新の動向として、両者がHeliosの生産能力拡大を推進している中、月曜日の米株式市場の取引終了時点で、Celesticaの株価は約3%上昇し、AMDの株価も一時3%以上上昇、最終的に1.7%高で引けました。
また、AMD Heliosラック級AI演算能力インフラは、2026年末までにマイクロソフトやアマゾンなどの大手クラウド顧客に大量供給される見込みです。
「英伟达Blackwell系」に対抗する強力な連携
AMDとCelesticaがHeliosラック級AIプラットフォームの市場投入を加速させるのは、ちょうどAMDが複数のテクノロジーリーダーと連携し、英伟达が主導する垂直統合型のAI演算インフラソリューションに対抗している時期です。以前、AMDは慧与科技やBroadcomと提携し、高性能計算クラスターや大規模AIデータセンター向けに、オープンかつラックスケールのAI演算インフラを大規模に供給し、世界の「主権AI」研究の推進を目指していました。
慧与科技は、AMDの「Helios」ラック級AI演算能力クラスターアーキテクチャを最初に採用するシステムサプライヤーの一つとなり、AMDと慧与科技は、ASICや高性能ネットワークインフラのリーディングカンパニーであるBroadcomと深く協力し、カスタム設計のHPE Juniper Networkingラック内高性能拡張スイッチを統合します。この大規模AI演算システムは、より大規模なAI演算インフラの導入を簡素化し、英伟达Blackwell系以外で、コストとエネルギー効率に優れたAMDのラック級AI演算クラスターソリューションを提供することを目的としています。
Heliosは本質的に、AMDが英伟达Blackwell系のNVL72/GB200 NVL72に対抗するラック級AIインフラです。両者とも、72基のGPU+CPU+高速相互接続+液冷+ラックシステムエンジニアリングを、AIワークロードの基礎単位としていますが、単一サーバを主要製品と位置付けていません。AMDは公式にHeliosを、OCP Open Rack Wideに基づくオープンなラックアーキテクチャであり、大規模学習と推論に適したものと定義しています。一方、英伟达はGB200 NVL72を、36基のGrace CPUと72基のBlackwell GPUからなる液冷ラックプラットフォームとしています。つまり、Heliosは「もう一つのMI450 GPU」ではなく、AMDが初めて、フルキャビネットシステムで英伟达のNVL72体系に真正面から挑むものです。
前世代のAMD AI GPUシリーズと比べて、Heliosの性能向上は非常に大きいです。AMD公式のベンチマークによると、Heliosは前世代のAMD AI演算能力プラットフォームに比べて最大36倍の性能向上を実現し、AMDのAIインフラの構想は、「より高性能なGPU単体カードを売る」から、「フルラックのAI工場を売る」へと発想を転換しています。GPU、CPU、NIC、液冷、ネットワークトポロジー、ROCmを一体化したAI演算能力ソリューションとして販売するのです。
Heliosの最大の特徴は、メモリとオープンな相互接続です。AMD公式によると、72-GPUのHeliosは最大2.9exaFLOPS FP4、1.4 exaFLOPS FP8、31TB HBM4、1.4PB/sの総合メモリ帯域、260TB/sのスケールアップ相互接続帯域を提供可能です。英伟达のGB200 NVL72と比較すると、Heliosはメモリ容量、原始的なスケールアップ帯域、オープンなラック設計において明らかに優位であり、長いコンテキストや大規模パラメータモデル、帯域に敏感な学習・推論システムにとって魅力的です。AMDはさらに、Heliosのメモリ容量は英伟达の次世代演算プラットフォーム、Vera Rubinシステムよりも50%大きいと公表しています。
なぜAMDは天弘科技を選んだのか?
AMDが天弘科技(Celestica)と提携する理由は、現実的なもので、ラック級AIシステムのボトルネックがGPUだけにとどまらず、高速なスケールアップスイッチ、液冷一体型エンジニアリング、製造歩留まり、納品能力、サプライチェーンのレジリエンスにまで及んでいるからです。
AMD公式は声明の中で、CelesticaがHeliosのスケールアップネットワーキングスイッチの研究開発、設計、製造を担当すると明記しています。これらのスイッチはUALoEに基づき、MI450クラスターが大規模AIクラスター内で安定して稼働できるかどうかを左右します。Celesticaの価値は、「普通の部品を委託製造する」ことではなく、AMDがチップメーカーからシステムメーカーへと進化する過程で最も難しい部分――オープンな演算能力クラスターアーキテクチャを本当にエンジニアリングし、製品化し、hyperscalersの要求に応じて納品する――を補完する点にあります。本質的に、これは近年NVIDIAが強調している、ラックシステム、高性能ネットワーク、運用・保守ソフトウェアの極限までの協調と同じ産業ロジックです。
Celesticaはカナダに本社を置く電子製造サービス(EMS/ODM)とインフラソリューションの提供企業であり、従来のハードウェア組立だけでなく、AIデータセンター基盤インフラ関連製品(ネットワークスイッチ、サーバ、ラックソリューション、高帯域ネットワーク部品など)の設計・製造・統合において重要な役割を果たしています。クラウドサービス事業者や大手テクノロジー企業(Google、Meta、Amazonなど)がAIデータセンターを大規模に構築する中、高速ネットワーク接続やカスタムハードウェア、ラック級統合ソリューションの需要が大きく高まっています。Celesticaは、こうした大規模データセンターに必要な高性能ネットワークスイッチ、サーバ、ASIC/TPU関連ハードウェアモジュール、統合サービスの主要サプライヤーです。同社の株価は2025年通年で220%の上昇を記録しています。