Meta PlatformsとAmazon Web Services(AWS)は、数十億ドル規模の長期契約を締結しました。契約の核心は、AWSが自主開発したCPU「Graviton」シリーズであり、Metaは大規模なAIエージェント運用に必要なクラウドインフラをAWSから獲得します。彭博社の報道によると、この契約により、Metaは数千万規模のGravitonコアを入手でき、将来の需要に応じて追加の選択権も得られます。Metaはこれらのリソースを、「エージェント型AI」の推進に充てる予定です。AIエージェントとは、単純なチャットボットを超え、外部アプリケーションと連携し自動的にタスクを実行できる人工知能の形態を指します。Graviton5の特徴と性能今回の契約で注目されたチップは、AWSが昨年12月に発表した最新のCPU「Graviton5」です。このチップは3ナノメートルの製造プロセスを採用し、192コアを搭載し、Arm Holdingsの命令セットアーキテクチャに基づいています。命令セットアーキテクチャは、半導体がどのように計算を実行するかを定義する「言語」に相当します。Armアーキテクチャはベクトルや行列演算に優れており、AIタスクに有利と考えられています。AWSは、Graviton5は前世代の自社CPUと比べて最高25%の性能向上を実現したと述べています。性能向上の背景には、大規模に拡張されたL3キャッシュがあります。L3キャッシュは、プロセッサコアの近くに配置されたメモリ空間であり、データ伝送距離を短縮することで処理速度を向上させます。AWSによると、Graviton5のL3キャッシュは前世代の5倍に拡大されています。CPUのAIインフラにおける役割CPUはAIサーバーにおいて依然重要な役割を果たしています。大規模なニューラルネットワークの計算は主にGPU(GPU)が担当しますが、CPUはこれらのGPUを調整し、さまざまな補助タスクを実行します。特に、Metaが推進するAIエージェントは外部ツールやサービスと連携する必要があるため、CPU周辺の処理需要は無視できません。今回の契約は、MetaがGPUだけでなく、全体的なAIインフラの設計においてもより精緻化を進めていることを示すシグナルと見なされています。Graviton5は、AWSの「Nitroシステム」と連携して動作するよう設計されています。Nitroシステムは、一部のインフラ管理作業を独立したアクセラレータに移行し、CPUがより多くのリソースを顧客アプリケーションの処理に集中できるようにするアーキテクチャです。AWSはまた、「Nitro隔離エンジン」が異なる顧客のワークロードの相互分離を検証できると説明しています。これは、多租户環境において安全性と効率性を同時に確保する設計です。Metaの長期AI戦略Metaのインフラ責任者サントッシュ・ジャナールダンは、「AWSは我々の長期的な信頼できるクラウドパートナーです。Gravitonの導入拡大により、Meta規模に適した性能と効率で、CPU集約型のAIエージェントワークロードを運用できるようになりました」と述べています。今回の発表は、過去1か月以内にMetaが公表した2つ目の大型CPU契約である点でも注目されます。以前、MetaはArmの新型AGI CPUの導入を決定し、次世代チップ設計において複数の協力計画を発表しています。市場分析は、MetaがGPU依存のAIインフラ戦略から脱却し、CPUやカスタムチップ、クラウドリソースへの拡大を進め、長期的な競争に備えていると見ています。TP AI注意事項 TokenPost.aiを用いた言語モデルによる記事の要約です。主要内容の漏れや事実と異なる可能性があります。
メタ、AWSと数十億ドルのクラウド契約を締結…AIエージェントに「Graviton5」を投入
Meta PlatformsとAmazon Web Services(AWS)は、数十億ドル規模の長期契約を締結しました。契約の核心は、AWSが自主開発したCPU「Graviton」シリーズであり、Metaは大規模なAIエージェント運用に必要なクラウドインフラをAWSから獲得します。
彭博社の報道によると、この契約により、Metaは数千万規模のGravitonコアを入手でき、将来の需要に応じて追加の選択権も得られます。Metaはこれらのリソースを、「エージェント型AI」の推進に充てる予定です。AIエージェントとは、単純なチャットボットを超え、外部アプリケーションと連携し自動的にタスクを実行できる人工知能の形態を指します。
Graviton5の特徴と性能
今回の契約で注目されたチップは、AWSが昨年12月に発表した最新のCPU「Graviton5」です。このチップは3ナノメートルの製造プロセスを採用し、192コアを搭載し、Arm Holdingsの命令セットアーキテクチャに基づいています。命令セットアーキテクチャは、半導体がどのように計算を実行するかを定義する「言語」に相当します。Armアーキテクチャはベクトルや行列演算に優れており、AIタスクに有利と考えられています。
AWSは、Graviton5は前世代の自社CPUと比べて最高25%の性能向上を実現したと述べています。性能向上の背景には、大規模に拡張されたL3キャッシュがあります。L3キャッシュは、プロセッサコアの近くに配置されたメモリ空間であり、データ伝送距離を短縮することで処理速度を向上させます。AWSによると、Graviton5のL3キャッシュは前世代の5倍に拡大されています。
CPUのAIインフラにおける役割
CPUはAIサーバーにおいて依然重要な役割を果たしています。大規模なニューラルネットワークの計算は主にGPU(GPU)が担当しますが、CPUはこれらのGPUを調整し、さまざまな補助タスクを実行します。特に、Metaが推進するAIエージェントは外部ツールやサービスと連携する必要があるため、CPU周辺の処理需要は無視できません。今回の契約は、MetaがGPUだけでなく、全体的なAIインフラの設計においてもより精緻化を進めていることを示すシグナルと見なされています。
Graviton5は、AWSの「Nitroシステム」と連携して動作するよう設計されています。Nitroシステムは、一部のインフラ管理作業を独立したアクセラレータに移行し、CPUがより多くのリソースを顧客アプリケーションの処理に集中できるようにするアーキテクチャです。AWSはまた、「Nitro隔離エンジン」が異なる顧客のワークロードの相互分離を検証できると説明しています。これは、多租户環境において安全性と効率性を同時に確保する設計です。
Metaの長期AI戦略
Metaのインフラ責任者サントッシュ・ジャナールダンは、「AWSは我々の長期的な信頼できるクラウドパートナーです。Gravitonの導入拡大により、Meta規模に適した性能と効率で、CPU集約型のAIエージェントワークロードを運用できるようになりました」と述べています。
今回の発表は、過去1か月以内にMetaが公表した2つ目の大型CPU契約である点でも注目されます。以前、MetaはArmの新型AGI CPUの導入を決定し、次世代チップ設計において複数の協力計画を発表しています。市場分析は、MetaがGPU依存のAIインフラ戦略から脱却し、CPUやカスタムチップ、クラウドリソースへの拡大を進め、長期的な競争に備えていると見ています。
TP AI注意事項 TokenPost.aiを用いた言語モデルによる記事の要約です。主要内容の漏れや事実と異なる可能性があります。