« Trop élevé » pour Nvidia… le marché n’a pas pleinement perçu sa transition du GPU vers la plateforme d’IA

robot
Création du résumé en cours

Lorsque le marché interprète uniquement la capitalisation boursière de NVIDIA comme étant « déjà trop haussière », des changements beaucoup plus importants se produisent ailleurs. L’analyse estime que cette vague de marché n’est pas simplement une prospérité dans le secteur des semi-conducteurs, mais une transformation structurelle, c’est-à-dire que l’axe central de l’informatique d’entreprise passe des serveurs et PC à une « usine d’IA ».

La société de recherche theCUBE a récemment évalué que NVIDIA n’est plus seulement un fournisseur de processeurs graphiques, mais évolue vers un « opérateur de plateforme » qui reconstruit toute l’infrastructure informatique d’entreprise. Selon cette analyse, si auparavant ce sont les serveurs x86 qui soutenaient les systèmes informatiques d’entreprise, à l’avenir ce seront des « usines d’IA » intégrant électricité, données, calcul et logiciels pour produire des « jetons » (Tokens), faire de l’inférence et automatiser les flux de travail, devenant ainsi la nouvelle unité fondamentale.

L’enjeu clé est que, en réalité, les entreprises ne fonctionnent pas sur un système de « certitude » parfait. La planification des ressources d’entreprise, la gestion de la relation client, la finance, les ressources humaines, la sécurité, la logistique sont dispersées sur différents jeux de données et règles, et les lacunes entre elles sont comblées par des jugements humains, des traitements d’exception et des récupérations manuelles. Le rapport soutient que l’usine d’IA ne sert pas seulement à accélérer le calcul, mais évolue vers l’automatisation de ces « coûts de connexion » jusqu’ici assumés par l’humain.

Divergence entre la tendance des prix des semi-conducteurs et la performance d’Intel

D’après la tendance des prix des semi-conducteurs cette année, le marché place plutôt de grands espoirs sur les nouveaux entrants. Le rapport indique qu’Intel a augmenté d’environ 200 % depuis le début de l’année, AMD de 91 %, tandis que NVIDIA n’a augmenté que d’environ 13 %. Pourtant, les perspectives de résultats sont diamétralement opposées. NVIDIA affiche des revenus bien supérieurs à ses concurrents, avec une croissance plus rapide, et un flux de trésorerie disponible écrasant. Malgré cela, son ratio cours/bénéfice anticipé est inférieur à celui de ses concurrents, à l’exception de Qualcomm.

Une opinion répandue sur le marché est que NVIDIA est déjà trop gros, et que des acteurs comme AMD, Intel, les processeurs tensoriels de Google, Trainium d’Amazon Web Services, Broadcom et autres pourraient éroder sa barrière défensive. Cependant, le rapport considère que cette interprétation reflète davantage une « inquiétude » anticipée dans le prix que des changements réels de parts de marché.

L’analyse est simple. L’avantage de NVIDIA ne réside pas dans sa part de marché en soi, mais dans l’effet de « volant d’inertie » qu’elle génère. Plus ses ventes augmentent, plus elle peut réinvestir rapidement, fidéliser son écosystème, et renforcer sa capacité d’approvisionnement. Selon le rapport, cette structure soutient son cycle annuel d’innovation produit, permettant à NVIDIA non seulement de conserver sa part dans le marché de l’accélération du calcul, mais aussi de la renforcer potentiellement.

« Économie des jetons » devient la nouvelle norme… le marché dépasse largement le cycle de renouvellement des CPU

Ce changement de paradigme économique diffère du cycle traditionnel de remplacement des serveurs. Autrefois, lorsque la performance des CPU s’améliorait, les entreprises remplaçaient leur équipement tous les quelques années. À l’ère de l’IA, sous contraintes électriques, produire plus de jetons à moindre coût devient la nouvelle norme de valeur. Si l’électricité est en réalité limitée, alors plus on peut traiter d’inférences et d’automatisations avec la même quantité d’énergie, plus la rentabilité est élevée.

Le rapport prévoit que les revenus de NVIDIA passeront rapidement de 60,9 milliards de dollars en 2024, à 130,5 milliards en 2025, puis à 215,9 milliards en 2026. En utilisant un taux de change de 1 dollar pour 1465,50 won sud-coréens, cela correspond respectivement à environ 89,24 trillions de wons, 191,25 trillions de wons et 316,37 trillions de wons. Le consensus du marché anticipe que ses revenus dépasseront 350 milliards de dollars en 2027, avec certaines prévisions allant même au-delà de 370 milliards de dollars.

La croissance du marché s’explique par le fait que l’infrastructure IA n’est plus simplement un coût IT, mais devient un « système générateur de revenus ». Les jetons sont essentiellement la production d’inférences et d’automatisations, déterminant la productivité dans des domaines tels que le service client, le développement, la logistique, la gestion des stocks, la gestion des risques et la sécurité. Le rapport indique que, dans les entreprises natives IA, certains cas ont déjà montré un chiffre d’affaires par employé environ dix fois supérieur à celui des entreprises traditionnelles.

x86 ne disparaîtra pas… mais sera « absorbé » par la plateforme NVIDIA

La partie la plus marquante de ce rapport n’est pas la disparition de x86, mais son « absorption ». Les données et applications clés de l’entreprise restent en effet sur l’environnement x86. Un remplacement total n’est donc pas réaliste. L’analyse suggère que la voie la plus probable est de conserver les activités à certitude tout en superposant une couche d’usine d’IA à l’extérieur.

Le rapport souligne particulièrement que la coopération entre NVIDIA et Intel pourrait devenir la voie centrale de cette transformation. Pour Intel, cela permettrait de maintenir une présence dans l’ère de l’IA et de générer des flux de trésorerie ; pour NVIDIA, cela lui donnerait accès à la vaste base installée x86. Pour les clients d’entreprise, l’avantage est qu’ils peuvent migrer vers l’infrastructure IA sans devoir tout rénover.

Le rapport estime que, dans ce processus, la controverse souvent évoquée sur le ratio CPU/GPU est exagérée. Avec un taux d’utilisation actuel des CPU relativement faible, ce qui compte davantage que le simple ratio, c’est la capacité à augmenter l’utilisation globale de la plateforme. Cela signifie que, plutôt que la compétition sur le nombre de composants, la conception d’architectures intégrées sera probablement déterminante.

La véritable arme de NVIDIA n’est pas le processeur, mais la « plateforme complète »

Le rapport insiste sur le fait que NVIDIA a dépassé le stade de « société de puces » pour construire une plateforme full-stack. La barrière concurrentielle de NVIDIA commence avec l’écosystème logiciel CUDA, puis se renforce avec les systèmes intégrés DGX, le réseau Mellanox, l’intégration CPU-GPU Grace-Hopper, le réseau Spectrum-X, Blackwell, Mission Control, Omniverse, Rubin, et la feuille de route annuelle de Feynman à venir.

Particulièrement, l’acquisition de Mellanox est vue comme un tournant dans la croissance de NVIDIA. Les usines d’IA nécessitent de connecter des dizaines de milliers de GPU comme un seul système, et le goulot d’étranglement se situe plus souvent dans le réseau que dans le processeur. NVIDIA transforme le réseau en un « structure » de calcul via NVLink, InfiniBand, Spectrum-X et BlueField DPU, passant d’un simple moyen de connexion à une composante du calcul lui-même.

Dans cette architecture, l’unité de calcul n’est plus le serveur, mais le « rack ». En optimisant GPU, CPU, DPU, mémoire, réseau, stockage, refroidissement et logiciels opérationnels comme un tout, l’objectif est de réduire le coût par jeton. Cette approche diffère radicalement de l’époque où les clients montaient eux-mêmes leurs composants. Le rapport qualifie cela de clé pour différencier NVIDIA des autres semi-conducteurs.

Stockage, bases de données, récupération… La réécriture de tout dans l’ère de l’IA est en marche

La transformation de l’usine d’IA ne concerne pas seulement le matériel de calcul. Le stockage passe d’un « périphérique additionnel » à une « mémoire contextuelle », et la plateforme de données évolue d’un entrepôt de requêtes historiques vers un centre sémantique en temps réel. Bien que les entrepôts de données d’entreprise ou les lacs de données intégrés dans l’analyse…

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler