Nvidia(NVDA.US)Aperçu de la conférence GTC : Le maître de l'IA peut-il conserver son empire, le marché surveille de près la nouvelle stratégie de "l'après-formation"

robot
Création du résumé en cours

Alors que le salon annuel de Nvidia (NVDA.US) GTC pour développeurs s’apprête à ouvrir ses portes la semaine prochaine, cet événement, considéré comme le « baromètre annuel de l’IA », voit son importance et son engouement grimper cette année. Lorsque le PDG de l’entreprise, Jensen Huang, entrera lundi prochain (heure locale 16 mars) dans une patinoire comble, les investisseurs du monde entier se concentreront sur la stratégie qu’il va déployer pour faire face à une concurrence de plus en plus féroce et renforcer sa position en tant que leader des puces d’intelligence artificielle (AI).

Ce GTC de quatre jours n’est pas seulement une plateforme pour Nvidia afin de présenter ses dernières avancées dans les domaines des puces, des centres de données, de la plateforme logicielle CUDA, de l’IA agent et de la robotique, mais aussi une étape cruciale pour tester la stratégie globale de l’entreprise. Après avoir publié des résultats financiers supérieurs aux attentes sans pour autant faire grimper significativement le cours de l’action, les investisseurs attendent des garanties : la stratégie de Nvidia de réinvestir ses profits dans l’écosystème IA commence à porter ses fruits.

L’analyste de l’institut de recherche de marché eMarketer, Jacob Bourne, déclare : « Je m’attends à ce que Nvidia présente une mise à jour de sa feuille de route complète, allant de Rubin à Feynman, tout en mettant l’accent sur le raisonnement, l’IA agent intelligent, les technologies réseau et l’infrastructure des usines d’IA. »

« La compétition dans l’ère post-entraînement » : les puces de raisonnement

Alors que l’industrie de l’IA passe de la phase de « formation » des grands modèles à celle de « raisonnement » où l’IA agent exécute des tâches en application, la dynamique concurrentielle évolue profondément. Bien que Nvidia détienne encore plus de 90 % des parts de marché dans la formation et le raisonnement, la majorité des analystes estiment que sa part de marché est inévitablement en train de diminuer, notamment dans le domaine du raisonnement.

Sid Sheth, fondateur et PDG de la startup de puces de raisonnement d-Matrix, indique que, si Nvidia conservera sa position dominante dans la formation, « le raisonnement est une tout autre histoire ». Il ajoute que CUDA, le logiciel central qui soutient la majorité de la formation IA de Nvidia et qui verrouille les développeurs dans son écosystème, est moins protecteur dans le domaine du raisonnement. Les développeurs peuvent se tourner vers des concurrents, car faire fonctionner des modèles IA déjà entraînés ne nécessite pas la même programmation complexe que leur formation.

Pour faire face à cette tendance, Nvidia prévoit de lancer lors du salon de nouveaux produits optimisés pour les charges de travail de raisonnement. Des rumeurs évoquent une puce de raisonnement intégrant la technologie d’une startup IA, Groq, qu’elle a acquise pour 1,7 milliard de dollars en décembre dernier, visant à offrir une capacité de raisonnement rapide et rentable. La technologie ultra-rapide de Groq sera intégrée dans l’écosystème CUDA de Nvidia pour renforcer sa barrière logicielle.

Menaces potentielles et « forteresses » de Nvidia

Cependant, la compétition reste rude. D’une part, des clients clés de Nvidia tels qu’OpenAI et Meta (META.US) ont lancé leurs propres puces. Meta prévoit même de lancer une nouvelle puce IA tous les six mois. La montée en puissance des circuits intégrés spécifiques (ASIC), conçus pour des fonctions précises, est perçue comme une menace à long terme pour les GPU (GPU) de Nvidia, car ces puces spécialisées offrent une efficacité supérieure dans les scénarios de raisonnement.

KinNgai Chan, directeur général de Summit Insights Group, indique qu’il y a un an, Nvidia faisait face à une concurrence accrue, et prévoit qu’en 2027, avec la mise en production à grande échelle des ASIC développés en interne, la part de marché de Nvidia pourrait diminuer, notamment dans le domaine des puces de raisonnement.

Pour contrer ces défis, Nvidia adopte une stratégie multi-facette. En plus de l’acquisition de Groq, l’entreprise a récemment investi 2 milliards de dollars dans Lumentum (LITE.US) et Coherent (COHR.US), pour promouvoir la technologie « co-packaged optics » (CPO). Cette technologie utilise la lumière plutôt que l’électricité pour transmettre des données entre puces, ce qui pourrait considérablement améliorer l’efficacité des connexions dans les centres de données massifs tout en réduisant la consommation d’énergie. Sebastien Naji, analyste chez William Blair, prévoit que le CPO sera une avancée clé pour la prochaine architecture de la puce Feynman.

Bourne de eMarketer ajoute que Nvidia pourrait positionner la technologie CPO comme une solution clé pour connecter efficacement de grands clusters d’IA lors du GTC, mais que le coût et la faisabilité de la production à grande échelle de cette technologie, qui ne peut pas encore rivaliser avec le volume de livraison des puces Nvidia, seront des points d’attention pour les investisseurs.

Par ailleurs, la position des CPU (CPU), longtemps dominants dans l’IA et contrôlés par Intel (INTC.US) et AMD (AMD.US), remonte en puissance. William McGonigle, analyste chez Third Bridge, indique qu’avec l’essor de l’IA agent, la « couche d’orchestration » gérée par CPU devient un nouveau goulot d’étranglement en termes de performance. Il prévoit donc qu Nvidia présentera des serveurs utilisant uniquement ses CPU pour répondre à cette nouvelle tendance.

L’IA agent et la robotique : la prochaine vague de croissance

Au-delà de la compétition matérielle, le marché s’interroge également sur la capacité des applications IA à soutenir une demande continue en puissance de calcul. Jensen Huang a récemment souligné que l’IA agent deviendrait le prochain moteur clé de la demande en raisonnement. Sheth de d-Matrix estime qu’avec le potentiel croissant des agents IA vocaux, vidéo et multimodaux, une nouvelle vague de calcul de raisonnement pourrait émerger.

La robotique est également perçue comme un autre secteur de croissance. Daniel Newman, PDG de The Futurum Group, indique que Nvidia a déjà rapporté environ 6 milliards de dollars de revenus liés à la robotique au dernier trimestre, et prévoit que le calendrier de développement des robots humanoïdes sera très « ambitieux ». Cela suggère que l’IA physique pourrait devenir une réalité plus rapidement que prévu.

Géopolitique : l’épée de Damoclès au-dessus des géants des puces

Au-delà de la compétition technologique, la géopolitique devient un facteur clé influençant l’avenir de Nvidia. Alors que les États-Unis envisagent d’élargir davantage les restrictions à l’exportation de puces IA, et que l’accès à certains marchés clés comme la Chine est limité, la stratégie commerciale mondiale de Nvidia se redessine. Selon des rapports, après un refroidissement complet du marché chinois, Nvidia a cessé la production de la puce H200 et a transféré ses capacités vers la prochaine plateforme Rubin.

Dans ce contexte, d’importants investissements dans l’infrastructure IA en provenance de pays du Moyen-Orient, comme l’Arabie saoudite et les Émirats arabes unis, sont cruciaux pour Nvidia. Cependant, les conflits régionaux, le coût de l’énergie et la vitesse de construction des centres de données ajoutent de l’incertitude à la demande dans ces marchés émergents.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler