事情通によると、Meta Platforms(META.US)は社内でAIチップを開発する過程で課題に直面し、最先端のチップ設計案の使用を取りやめ、より単純化した設計バージョンに切り替えた。先週、チップ設計の工程で技術的な困難が発生したため、同社は現在開発中の最先端AIモデル学習用チップ・プロジェクトを正式に中止した。報道によると、Metaは先週、AI基盤インフラ部門の従業員に対して、この技術ルートの調整に関する最新計画を共有した。 Metaが自社開発チップを断念する決定は、市場の覇者であるエヌビディア(NVDA.US)に対抗し得るAIチップを設計しようとする各社が直面する、共通のジレンマを浮き彫りにしている。 Metaの今回のチップ・ロードマップの見直しは、同社がAMD(AMD.US)やエヌビディア、Alphabet傘下のGoogle(GOOGL.US)と新たな提携で合意したことに続くものだ。報道によれば、同社は数十億ドル規模の契約に署名し、GoogleからAIチップをリースする予定だという。 本週初め、AMDはMetaとの提携により最大6ギガワットのAMD Instinctチップを展開し、次世代AI基盤インフラの計算能力を支えると発表した。さらに、Metaは今月初めにエヌビディアと「世代をまたぐ」戦略提携に達しており、自社データセンターにエヌビディアのチップを大規模に配備することを約束した。 Metaが自社開発したAIチップは、同社のMeta Training and Inference Accelerator(MTIA)プロジェクト体系に属する。今回の取り組みの中核的な狙いは、チップ設計能力を垂直統合することで長期の運営コストを引き下げ、データセンターのインフラに対する自社の自律的かつコントロール可能な体制を強化することにある。 これに対し、Metaの広報担当者は次のように明確に述べた。「当社は、事業ニーズに合わせて多様なチップ供給ソリューションの構築への投資を継続しており、その中でMTIA製品ラインを推進することは重要な戦略的方向性です。今年中に、同製品ラインに関する開発の進捗と導入計画について、より多くを開示します。」 報道によると、Metaは第2世代の学習用チップにおいて、型番がIrisであるバージョンを既に廃止しており、その後に立ち上げた、より先進的な学習用チップであるOlympusプロジェクトも中止された。 Metaのチップ開発に携わる内部関係者によると、社内では、エヌビディア製チップの性能に匹敵し得る計画の開発に対して慎重な見方が広がっているという。主な懸念は、プロジェクトの遅延、または再設計が必要になるリスクがあることだ。同関係者は、この種のチップの開発には、大規模なエンジニア・チームの編成が必要であり、チップ設計、デバッグ、消費電力の制御などの重要な工程を担当する必要があることを示す報告があると指摘した。消費電力の問題を効果的に解決できない場合、これらの自社開発チップは、エヌビディアの成熟製品との比較において、導入して使う価値がない可能性がある。 Iris学習用チップは、単一命令・複数データ(SIMD)計算アーキテクチャを採用する。このアーキテクチャはハードウェア・エンジニアにとって設計のハードルが低い一方で、AIモデルの学習時にソフトウェア・エンジニアは大きなプログラミング上の課題に直面する。報道で明らかにされたところによれば、OlympusはエヌビディアのAIチップと同系統の単一命令・複数スレッド(SIMT)アーキテクチャを採用している。このアーキテクチャはソフトウェア・エンジニアのプログラミングを容易にする一方で、ハードウェア設計にはより高い技術要件を課す。 エヌビディアが推進するSIMTアーキテクチャは、より高い柔軟性を備え、現代のAIモデルの学習ニーズにより適しているため、複数のテクノロジー企業から支持を得ている。Metaは当初、Olympusチップの設計を最速で2026年の第4四半期までに完了する計画だった。しかし報道は、新チップは初期の開発から量産まで通常9カ月、あるいはそれ以上かかることも付け加えており、実際の量産時期はさらに後ろ倒しになる可能性がある。 OlympusのAI計算における中核コンポーネントであるグラフィックス・プロセッサー(GPU)は、当初、昨年Metaが買収したチップの新興企業Rivosの設計案を採用する予定だった。報道によれば、Rivosは、GPUがエヌビディアのCUDAソフトウェアコードを効率的に実行できると主張していた。このコードは、現在のAIモデルの学習および実行の主流ソフトウェア・フレームワークだという。 報道はまた、Metaが最初、Olympusを用いて大型サーバーのクラスターを構築する計画だったものの、同社幹部は、OpenAIやGoogleとの競争が重要な局面にある中で、この取り組みは新しいモデルの学習に対して潜在的なリスクをもたらす可能性があると考えたと指摘した。 具体的には、これらのチップに付随する学習ソフトウェアはそもそも安定性の面でエヌビディア製品に匹敵できないうえ、Olympusの複雑な設計が大規模な量産をさらに妨げる可能性がある。したがってMetaは現時点で、他社が製造する学習用チップを引き続き採用する計画である。付随ソフトがより成熟していて信頼性が高く、AIモデルの学習ニーズをより適切に支えられるためだ。
Meta(META.US)自社開発の高性能チップの開発中止 英伟达、AMDとの協力拡大
事情通によると、Meta Platforms(META.US)は社内でAIチップを開発する過程で課題に直面し、最先端のチップ設計案の使用を取りやめ、より単純化した設計バージョンに切り替えた。先週、チップ設計の工程で技術的な困難が発生したため、同社は現在開発中の最先端AIモデル学習用チップ・プロジェクトを正式に中止した。報道によると、Metaは先週、AI基盤インフラ部門の従業員に対して、この技術ルートの調整に関する最新計画を共有した。
Metaが自社開発チップを断念する決定は、市場の覇者であるエヌビディア(NVDA.US)に対抗し得るAIチップを設計しようとする各社が直面する、共通のジレンマを浮き彫りにしている。
Metaの今回のチップ・ロードマップの見直しは、同社がAMD(AMD.US)やエヌビディア、Alphabet傘下のGoogle(GOOGL.US)と新たな提携で合意したことに続くものだ。報道によれば、同社は数十億ドル規模の契約に署名し、GoogleからAIチップをリースする予定だという。
本週初め、AMDはMetaとの提携により最大6ギガワットのAMD Instinctチップを展開し、次世代AI基盤インフラの計算能力を支えると発表した。さらに、Metaは今月初めにエヌビディアと「世代をまたぐ」戦略提携に達しており、自社データセンターにエヌビディアのチップを大規模に配備することを約束した。
Metaが自社開発したAIチップは、同社のMeta Training and Inference Accelerator(MTIA)プロジェクト体系に属する。今回の取り組みの中核的な狙いは、チップ設計能力を垂直統合することで長期の運営コストを引き下げ、データセンターのインフラに対する自社の自律的かつコントロール可能な体制を強化することにある。
これに対し、Metaの広報担当者は次のように明確に述べた。「当社は、事業ニーズに合わせて多様なチップ供給ソリューションの構築への投資を継続しており、その中でMTIA製品ラインを推進することは重要な戦略的方向性です。今年中に、同製品ラインに関する開発の進捗と導入計画について、より多くを開示します。」
報道によると、Metaは第2世代の学習用チップにおいて、型番がIrisであるバージョンを既に廃止しており、その後に立ち上げた、より先進的な学習用チップであるOlympusプロジェクトも中止された。
Metaのチップ開発に携わる内部関係者によると、社内では、エヌビディア製チップの性能に匹敵し得る計画の開発に対して慎重な見方が広がっているという。主な懸念は、プロジェクトの遅延、または再設計が必要になるリスクがあることだ。同関係者は、この種のチップの開発には、大規模なエンジニア・チームの編成が必要であり、チップ設計、デバッグ、消費電力の制御などの重要な工程を担当する必要があることを示す報告があると指摘した。消費電力の問題を効果的に解決できない場合、これらの自社開発チップは、エヌビディアの成熟製品との比較において、導入して使う価値がない可能性がある。
Iris学習用チップは、単一命令・複数データ(SIMD)計算アーキテクチャを採用する。このアーキテクチャはハードウェア・エンジニアにとって設計のハードルが低い一方で、AIモデルの学習時にソフトウェア・エンジニアは大きなプログラミング上の課題に直面する。報道で明らかにされたところによれば、OlympusはエヌビディアのAIチップと同系統の単一命令・複数スレッド(SIMT)アーキテクチャを採用している。このアーキテクチャはソフトウェア・エンジニアのプログラミングを容易にする一方で、ハードウェア設計にはより高い技術要件を課す。
エヌビディアが推進するSIMTアーキテクチャは、より高い柔軟性を備え、現代のAIモデルの学習ニーズにより適しているため、複数のテクノロジー企業から支持を得ている。Metaは当初、Olympusチップの設計を最速で2026年の第4四半期までに完了する計画だった。しかし報道は、新チップは初期の開発から量産まで通常9カ月、あるいはそれ以上かかることも付け加えており、実際の量産時期はさらに後ろ倒しになる可能性がある。
OlympusのAI計算における中核コンポーネントであるグラフィックス・プロセッサー(GPU)は、当初、昨年Metaが買収したチップの新興企業Rivosの設計案を採用する予定だった。報道によれば、Rivosは、GPUがエヌビディアのCUDAソフトウェアコードを効率的に実行できると主張していた。このコードは、現在のAIモデルの学習および実行の主流ソフトウェア・フレームワークだという。
報道はまた、Metaが最初、Olympusを用いて大型サーバーのクラスターを構築する計画だったものの、同社幹部は、OpenAIやGoogleとの競争が重要な局面にある中で、この取り組みは新しいモデルの学習に対して潜在的なリスクをもたらす可能性があると考えたと指摘した。
具体的には、これらのチップに付随する学習ソフトウェアはそもそも安定性の面でエヌビディア製品に匹敵できないうえ、Olympusの複雑な設計が大規模な量産をさらに妨げる可能性がある。したがってMetaは現時点で、他社が製造する学習用チップを引き続き採用する計画である。付随ソフトがより成熟していて信頼性が高く、AIモデルの学習ニーズをより適切に支えられるためだ。