MetaはArmと提携し、AI展開向けの新しいCPUを開発

robot
概要作成中

Metaは火曜日、AIのワークロードの拡大と、同社の拡大するデータセンターの拠点範囲全体にわたる汎用コンピューティングを支えるよう設計された新しいクラスのCPUを開発するために、Armと提携すると発表した。

最初の製品は「Arm AGI CPU」と呼ばれ、AI最適化のインフラ向けに、既存のレガシーなサーバープロセッサのより効率的な代替として位置づけられている。

Metaは、このチップはラックあたりのパフォーマンスを向上させ、大規模なギガワット級のAIデプロイメントを支えることを目的としており、同社はそれを、より高度なAIシステムへ向けた推進の中核だと見ている。Arm AGI CPUは、学習と推論に向けた同社のより広範な取り組みの中で、多様化したハードウェアスタックを構築する努力にもう一層を加える形で、MetaのカスタムMTIAシリコンと併用される。

この発表は、Metaの最近のインフラ関連の一連の契約の動きに加わる。2月、MetaはInstinct GPUを最大6ギガワット分についてAMDと長期契約を締結し、今月初めにはReutersが、Metaがデータセンターを拡大するにあたり4つの新しい社内AIチップのロードマップを示したと報じた。

Reutersは、AGI CPUがArmの初の主要な社内データセンターチップ開発であり、設計をパートナーにライセンスするという同社の従来のモデルからの注目すべき転換だと伝えた。Reutersによると、Metaがリードの設計パートナーであり、TSMCが3ナノメートルプロセスで同チップを製造し、量産は2026年後半に見込まれているという。

Armは、AGI CPUがエージェント型AIの時代向けに構築されているとした。そこでは、CPUが加速器、メモリ、ストレージ、ネットワーキング、そして多数の分散型AIタスクのオーケストレーションを担う責任がますます増している。Armのリファレンス構成では、標準的な空冷ラックは30枚のブレードを搭載でき、8,160コアを提供できる。Supermicroを用いた液冷設計では、ラックあたり45,000コア超まで拡張できるという。

Armはまた、このチップが現在のx86システムのラックあたりパフォーマンスの2倍超を提供できると主張しており、それはAIデータセンター容量1ギガワットあたり最大で100億ドルの資本支出(capex)削減につながり得るとしている。

Armは、AGI CPUがMeta以外の他の顧客にも提供されると述べている。OpenAI、Cloudflare、SAP、SK Telecom、Cerebrasなどが、すでにローンチパートナーとして名前が挙がっている。Metaも、同社は今年後半にOpen Compute Projectを通じてCPU向けのボードおよびラック設計を公開する計画であり、それがデータセンターの構築業者間での採用を加速させる可能性があるとした。

火曜日の午後時点で、Metaの株は約$595.20で取引されており、この日は1.5%下落。一方Armの株は約$135.20で、この日は1.2%下落していた。

                    **開示情報:** この記事はEstefano Gomezによって編集されました。コンテンツの作成・レビュー方法の詳細については、当社のEditorial Policyをご覧ください。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン