Meta(META.US)Arrêt du développement de ses propres puces avancées, expansion de la coopération avec NVIDIA et AMD

robot
Création du résumé en cours

Selon des initiés, Meta Platforms (META.US), confrontée à des difficultés lors du développement interne de puces d’IA, a renoncé à utiliser sa solution de puce la plus avancée et s’est tournée vers une version au design plus simplifié. La semaine dernière, en raison de problèmes techniques rencontrés au stade de la conception des puces, l’entreprise a officiellement mis fin au projet de puce d’entraînement du modèle d’IA le plus avancé qu’elle développait encore. Le reportage indique aussi que Meta a, la semaine dernière, communiqué aux employés du département d’infrastructures d’intelligence artificielle les derniers plans concernant ce changement de trajectoire technique.

La décision de Meta d’abandonner ses puces développées en interne révèle les difficultés courantes auxquelles se heurtent les entreprises lorsqu’elles tentent de concevoir des puces d’IA capables de rivaliser avec le géant du secteur, NVIDIA (NVDA.US).

Le remaniement de la feuille de route des puces de Meta survient juste après la conclusion d’un nouvel accord entre Meta et AMD (AMD.US), NVIDIA ainsi que Google, filiale d’Alphabet (GOOGL.US). D’après le reportage, la société a signé des contrats d’une valeur de plusieurs milliards de dollars pour louer des puces d’IA à Google.

本 semestre, plus tôt cette semaine, AMD a annoncé sa collaboration avec Meta pour déployer jusqu’à 6 gigawatts de puces AMD Instinct, afin d’apporter de la puissance de calcul à l’infrastructure d’IA de prochaine génération. En outre, au début de ce mois, Meta a aussi conclu une coopération stratégique « intergénérationnelle » avec NVIDIA, s’engageant à déployer massivement des puces NVIDIA dans ses centres de données.

Les puces d’IA développées en interne par Meta relèvent du cadre du projet Meta Training and Inference Accelerator (MTIA). L’objectif principal de cette initiative est de réduire les coûts d’exploitation à long terme en intégrant verticalement ses capacités de conception de puces, tout en renforçant son autonomie et son contrôle sur l’infrastructure des centres de données.

À ce sujet, un porte-parole de Meta a déclaré sans équivoque : « Nous investissons en continu dans la construction d’un portefeuille diversifié de fournisseurs de puces afin de répondre aux besoins de l’activité, et le fait de faire progresser la gamme de produits MTIA est une direction stratégique importante. Cette année, nous divulguerons davantage d’informations sur l’avancement de la recherche-développement et sur les plans de déploiement liés à cette gamme de produits. »

据报道,Meta已弃用其第二代训练芯片中代号为Iris的版本,随后启动研发的更先进训练芯片Olympus项目也已终止。

一位参与Meta芯片研发的内部人士透露,公司内部对开发能与英伟达芯片性能匹敌的计划普遍持谨慎态度,主要担忧在于项目存在延期或需要重新设计的风险。该人士指出,相关报告显示,这类芯片的研发需要组建大规模工程师团队,负责芯片设计、调试及功耗控制等关键环节。若无法有效解决功耗问题,这些自研芯片在与英伟达成熟产品的对比中可能不具备投入使用的价值。

Iris训练芯片采用单指令多数据(SIMD)计算架构。该架构对硬件工程师而言设计门槛较低,但软件工程师在训练AI模型时面临显著编程挑战。据报告披露,Olympus采用与英伟达AI芯片同源的单指令多线程(SIMT)架构——这种架构虽便于软件工程师编程,却对硬件设计提出更高技术要求。

英伟达推广的SIMT架构因具备更高灵活性,更适配现代AI模型训练需求,已获多家科技公司青睐。Meta原计划最早于2026年第四季度完成Olympus芯片设计。但报道补充说明,新芯片从初步研发到量产通常还需九个月甚至更长时间,这意味着实际量产时间可能进一步延后。

Olympus中负责AI计算的核心部件——图形处理器(GPU)——原计划采用去年被Meta收购的芯片初创公司Rivos的设计方案。据报道,Rivos曾宣称其GPU能够高效运行英伟达的CUDA软件代码——该代码是当前训练和运行AI模型的主流软件框架。

报道还指出,Meta最初计划利用Olympus构建大型服务器集群,但公司高管认为,在急于与OpenAI和谷歌展开竞争的关键时期,这一举措可能对训练新模型构成潜在风险。

具体而言,这些芯片配套的训练软件在稳定性上本就无法与英伟达产品相媲美,加之Olympus的复杂设计可能进一步阻碍其大规模量产。因此,Meta当前计划继续采用其他厂商生产的训练芯片,因其配套软件更为成熟可靠,能够更好地支撑AI模型训练需求。

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler