Nvidia se tourne vers Groq pour faire face à la pression d’Amazon et des startups sur la domination des puces
Les analystes qualifient cela de “réinitialisation” de la course au matériel IA, Nvidia Corporation (NASDAQ: NVDA) se préparant à lancer un processeur dédié à l’inférence lors de la GTC des développeurs le mois prochain. Cela marque une transformation stratégique pour l’entreprise.
Bien que Nvidia contrôle depuis longtemps plus de 90 % du marché des GPU pour l’entraînement IA, elle fait désormais face à une pression énorme. Les clients ne demandent pas seulement de construire des modèles, mais aussi des solutions plus efficaces pour exécuter (inférer) ces modèles.
Ce nouveau système devrait exploiter l’architecture de Groq, la startup recrutée par acquisition dont le fondateur a rejoint Nvidia l’année dernière. En se tournant vers des unités de traitement du langage (LPU), Nvidia vise à résoudre le “goulot d’étranglement” dans le décodage de l’IA.
Utilisez InvestingPro pour accéder à des insights avancés sur les fabricants de puces et l’IA
Ce processus de génération mot à mot perturbe actuellement les agents IA à grande échelle. Avec l’essor de l’“agent IA” — des systèmes autonomes exécutant des tâches — qui deviendra le principal moteur des dépenses technologiques des entreprises d’ici 2026, cette transition est cruciale.
OpenAI s’engage à apporter un soutien considérable dans ce changement d’alliance
Nvidia a remporté une victoire majeure, OpenAI acceptant de devenir le principal client du nouveau processeur. Cela intervient à un moment sensible, car la société de Sam Altman cherche récemment des alternatives plus efficaces.
OpenAI a annoncé qu’il achèterait massivement des capacités d’inférence dédiées auprès de Nvidia, soutenu par un investissement de 30 milliards de dollars dans cette société de puces. Cela contribue à renforcer une relation qui montre récemment des signes de diversification vers Amazon et Cerebras.
Cependant, la configuration du marché devient de plus en plus dispersée. Bien que Nvidia se concentre sur OpenAI, d’autres acteurs majeurs comme Anthropic continuent de dépendre fortement des puces Trainium d’Amazon et des TPU de Google pour alimenter leurs modèles.
Pour faire face à cette situation, Nvidia diversifie ses offres matérielles. Récemment, un accord avec Meta Platforms (NASDAQ: META) a permis le déploiement massif de ses CPU pour des agents de ciblage publicitaire, prouvant que l’entreprise cherche des moyens autres que les GPU pour maintenir sa “forteresse” dans les centres de données.
Cet article a été traduit avec l’aide de l’intelligence artificielle. Pour plus d’informations, veuillez consulter nos conditions d’utilisation.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
En dehors du GPU : Nvidia s'appuie sur la technologie Groq pour piloter la prochaine génération d'agents intelligents AI
Nvidia se tourne vers Groq pour faire face à la pression d’Amazon et des startups sur la domination des puces
Les analystes qualifient cela de “réinitialisation” de la course au matériel IA, Nvidia Corporation (NASDAQ: NVDA) se préparant à lancer un processeur dédié à l’inférence lors de la GTC des développeurs le mois prochain. Cela marque une transformation stratégique pour l’entreprise.
Bien que Nvidia contrôle depuis longtemps plus de 90 % du marché des GPU pour l’entraînement IA, elle fait désormais face à une pression énorme. Les clients ne demandent pas seulement de construire des modèles, mais aussi des solutions plus efficaces pour exécuter (inférer) ces modèles.
Ce nouveau système devrait exploiter l’architecture de Groq, la startup recrutée par acquisition dont le fondateur a rejoint Nvidia l’année dernière. En se tournant vers des unités de traitement du langage (LPU), Nvidia vise à résoudre le “goulot d’étranglement” dans le décodage de l’IA.
Utilisez InvestingPro pour accéder à des insights avancés sur les fabricants de puces et l’IA
Ce processus de génération mot à mot perturbe actuellement les agents IA à grande échelle. Avec l’essor de l’“agent IA” — des systèmes autonomes exécutant des tâches — qui deviendra le principal moteur des dépenses technologiques des entreprises d’ici 2026, cette transition est cruciale.
OpenAI s’engage à apporter un soutien considérable dans ce changement d’alliance
Nvidia a remporté une victoire majeure, OpenAI acceptant de devenir le principal client du nouveau processeur. Cela intervient à un moment sensible, car la société de Sam Altman cherche récemment des alternatives plus efficaces.
OpenAI a annoncé qu’il achèterait massivement des capacités d’inférence dédiées auprès de Nvidia, soutenu par un investissement de 30 milliards de dollars dans cette société de puces. Cela contribue à renforcer une relation qui montre récemment des signes de diversification vers Amazon et Cerebras.
Cependant, la configuration du marché devient de plus en plus dispersée. Bien que Nvidia se concentre sur OpenAI, d’autres acteurs majeurs comme Anthropic continuent de dépendre fortement des puces Trainium d’Amazon et des TPU de Google pour alimenter leurs modèles.
Pour faire face à cette situation, Nvidia diversifie ses offres matérielles. Récemment, un accord avec Meta Platforms (NASDAQ: META) a permis le déploiement massif de ses CPU pour des agents de ciblage publicitaire, prouvant que l’entreprise cherche des moyens autres que les GPU pour maintenir sa “forteresse” dans les centres de données.
Cet article a été traduit avec l’aide de l’intelligence artificielle. Pour plus d’informations, veuillez consulter nos conditions d’utilisation.