Le PDG d'Nvidia Jensen Huang sur ce qui vient ensuite pour le boom de l'IA

Avant même que Jensen Huang n’arrive à son entrée en veste en cuir cette année au GTC, Nvidia $NVDA -0,70 % avait déjà commencé à vendre le mythe. La bande sonore de l’avant-show semblait suspectement conçue pour une coronation — des paroles sur des choses incroyables arrivant à l’heure, des légendes en train de se faire, l’avenir qui se présente juste au bon moment ; des chansons même Shazam ne pouvait pas identifier. (La première démo d’IA de la journée aurait très bien pu être la playlist.) La moitié de la salle avait le téléphone levé pour l’entrée de Huang comme si la Silicon Valley avait réservé son propre spectacle en grande salle. Pendant un après-midi, la patinoire des San Jose Sharks appartenait à une autre forme de jeu de pouvoir. Parce que Huang est monté sur scène et a fait ce qu’il fait de mieux : transformer un discours sur un produit en une audience sur l’avenir.

Le fondateur de Nvidia a ouvert le GTC en promettant une visite à travers « chaque couche » de l’IA, puis a passé les heures suivantes à argumenter que l’entreprise ne se contente pas de vendre des puces sur un marché en plein essor. Non. La société veut définir l’ensemble de l’infrastructure physique de l’économie de l’IA : le calcul, le réseau, le stockage, le logiciel, les modèles, les usines, et — parce que la subtilité est clairement hors saison — peut-être même les (encore théoriques) centres de données dans l’espace.

Le discours a lancé des annonces dans toutes les directions, mais le message principal était plus précis. Huang voulait que les investisseurs, clients et rivaux entendent clairement quatre choses : la demande en IA continue de croître suffisamment vite pour justifier des dépenses exorbitantes ; l’inférence est désormais le centre du champ de bataille ; les agents doivent sortir des chatbots pour s’intégrer dans la machinerie quotidienne du travail de bureau ; et la prochaine ruée vers l’or après l’IA numérique pourrait être l’IA physique, où robots, systèmes autonomes et logiciels industriels consomment encore plus de données et d’infrastructures. On ne peut pas écrire Nvidia sans IA.

Huang a commencé là où il commence habituellement quand le marché se demande si la barrière de Nvidia pourrait un jour fuir : le logiciel. Il a passé le début à rappeler que CUDA a 20 ans, que la base installée de Nvidia est « dans tous les clouds » et « dans toutes les entreprises d’informatique ». La meilleure défense de Nvidia reste encore l’écosystème logiciel entourant le silicium, pas les rectangles verts eux-mêmes.

Cette logique a façonné le reste du discours. Huang s’est attardé sur les données structurées, qu’il a qualifiées de « vérité fondamentale » de l’informatique d’entreprise, et a dit que l’IA peut enfin exploiter l’océan d’informations non structurées — PDFs, vidéos, discours, tout le bric-à-brac d’entreprise accumulé pendant des années sans vraiment savoir comment rechercher ou monétiser. Attention, monde ; Nvidia veut aussi une part du marché des bases de données.

Le GTC ne concerne plus seulement un puce plus rapide et meilleure. Le grand discours de cette année portait sur la tentative de Nvidia de devenir l’entreprise qui possède l’économie du travail de l’IA lui-même — les puces, le stockage, le réseau, la couche d’orchestration, le jumeau numérique, la politique des modèles ouverts, le runtime des agents, et tout ce qui viendra après le centre de données lorsque la Terre commencera à se sentir encombrée. Le GTC 2026 était une keynote sur l’inférence, une sur les agents, et une sur l’usine d’IA, avec le matériel servant de preuve plutôt que de scénario.

Eh bien, c’est un gros chiffre

Le plus grand atout de Huang était numérique. Il a marqué le 20e anniversaire de CUDA, l’a qualifié de volant d’inertie derrière l’informatique accélérée, a dit que la demande en calcul a augmenté « d’un million de fois ces dernières années », puis a relevé la mise en disant qu’il voit maintenant au moins 1 000 milliards de dollars de potentiel de revenus de 2025 à 2027, contre 500 milliards de dollars qu’il avait précédemment associé à Blackwell et Rubin jusqu’en 2026. Les actions Nvidia ont clôturé en hausse de 1,6 % lundi, ce qui ressemble à une approbation sans conversion complète.

Ce chiffre — et la façon dont Huang l’a présenté — a peut-être été le principe d’organisation de la keynote. Nvidia voulait que les investisseurs et clients entendent, en public et à volume, que le déploiement est encore en début, qu’il s’élargit encore, et qu’il est encore suffisamment grand pour que les dépenses actuelles ressemblent à un acompte. Ce chiffre a aussi effectué un travail de nettoyage discret. Nvidia a passé des mois à répondre aux questions habituelles qui surgissent lorsqu’une entreprise devient la principale caisse lors d’une frénésie de dépenses en capital : combien de temps cela peut-il durer ? Que se passe-t-il lorsque les hyperscalers se mettent à croire en la réduction des coûts ? Quelle part de la prochaine phase se perd dans des puces sur mesure et des alternatives moins chères ?

La réponse de Huang a été d’élargir la perspective — rendre le marché plus grand et la charge de travail plus complexe. Il a dit « l’inflexion de l’inférence est arrivée », et a construit le cœur du discours autour d’un argument simple : l’IA peut désormais faire du travail productif. Et une fois que cela se produit, la dynamique de la demande change. Former de grands modèles et les admirer n’a jamais été la dernière étape. Tout cela passe en production, où le compteur ne s’arrête jamais.

C’est — c’est ça ! — ce que vous appelez vos revenus, disait-il, transformant un centre de données en une mine d’or et une facture d’électricité en destin. Nvidia était occupée à vendre une réalité tellement améliorée qu’elle pouvait presque être facturée, et la salle était encore pleine de personnes essayant de décider si la démo était transcendante ou simplement un peu plus coûteuse.

Les tokens étaient partout dans le discours — dans la vidéo d’ouverture, dans les graphiques de performance, dans l’argument économique. L’idée, fondamentalement, est que la valeur future de l’IA réside dans la génération continue de résultats utiles, ce qui signifie que l’inférence devient la partie de la pile où le coût, la latence et le débit commencent vraiment à compter. Huang mise sur la dépendance. Il veut que les clients pensent en termes de campus gigawatt, racks intégrés, budgets en mégawatts, et courbes de débit de tokens, pas en serveurs qu’ils peuvent assembler à volonté.

L’inférence occupe le devant de la scène

Peut-être l’une des lignes les plus percutantes du discours était aussi la plus simple : « L’inflexion de l’inférence est arrivée. » Nvidia sait que le monde s’est intéressé à du matériel d’inférence moins cher et plus léger. Très bien. Elle aimerait aussi vendre cela.

Huang a divisé l’inférence en deux étapes — pré-remplissage et décodage — et a présenté un système dans lequel les puces Vera Rubin de Nvidia gèrent le pré-remplissage, tandis que le silicium dérivé de Groq s’occupe du décodage, l’étape qui donne réellement la réponse. Cela compte ; l’inférence est là où le prochain chapitre de Nvidia devient plus complexe. La formation a rendu l’entreprise riche. Servir des centaines de millions d’utilisateurs en temps réel est là où les clients commencent à poser des questions sur le coût, la latence, et s’ils ont vraiment besoin du même silicium pour chaque étape.

La réponse de Huang était classique Nvidia. Ne défendez pas le GPU isolément ; avalez toute la pile. Il a décrit Vera Rubin comme « un saut générationnel » construit autour de sept puces et de cinq systèmes à l’échelle des racks, Nvidia affirmant que la plateforme peut entraîner de grands modèles d’experts mixtes avec un quart des GPU par rapport à Blackwell et offrir jusqu’à 10 fois plus de débit d’inférence par watt à un dixième du coût par token. Il a aussi utilisé le discours pour regarder au-delà de Rubin vers la future plateforme Feynman, car dans le monde de Nvidia, la prochaine génération se tient dans les coulisses avant que la génération actuelle ne termine de faire sa révérence.

Huang ne propose pas seulement une pièce plus rapide, mais une dépendance plus grande. Nvidia a annoncé une conception de référence d’usine d’IA Vera Rubin DSX, des outils de simulation DSX pour planifier les usines d’IA avant leur construction, et un menu plus large de composants de stockage, de réseau et de système destinés à fonctionner comme une machine intégrée verticalement. Le message était clair : cessez de penser en termes de serveurs, pensez en termes de campus. Ou, si vous êtes Nvidia, commencez à envoyer des factures comme un fournisseur d’électricité.

Les agents quittent la scène de démo

Si la présentation hardware visait à maintenir Nvidia au centre de l’inférence, la présentation software visait à s’assurer que l’IA d’entreprise ne devienne pas la fête de quelqu’un d’autre. Huang a dit que « 100 % de Nvidia » utilise désormais Claude Code, Codex, et Cursor ; les gens ne demandent plus à l’IA qui, quoi, quand, où et comment. Ils lui demandent de créer. De faire. Désolé, entreprises de chatbots — l’IA est désormais traitée moins comme une nouveauté conversationnelle et plus comme un système de travail.

Huang a passé la journée à s’assurer que ce système de travail circule dans la pile Nvidia. La société a lancé OpenClaw et NemoClaw pour la communauté OpenClaw — en partenariat avec la société très tendance — a lancé son Agent Toolkit et le runtime OpenShell, et s’est appuyée sur AI-Q, destiné à acheminer les requêtes et réduire les coûts de plus de 50 % grâce à un mélange hybride de modèles de pointe et de modèles ouverts Nvidia.

Il y a une couverture stratégique dissimulée dans toute cette ouverture.

Nvidia a dévoilé la Coalition Nemotron avec Black Forest Labs, Cursor, LangChain, Mistral, Perplexity, Reflection AI, Sarvam, et Thinking Machines Lab, avec le premier projet destiné à soutenir la famille de modèles Nemotron 4 à venir. En lisant entre les lignes, il est clair que Nvidia ne veut pas que l’avenir des logiciels d’IA soit divisé proprement entre quelques grands fournisseurs de modèles fermés et une pile de matériel de base. Elle veut aussi une main dans la couche des modèles ouverts — la pièce qui façonne qui peut construire, ajuster et posséder l’IA en dehors des murs des plus grands laboratoires.

L’extension de l’empire devient plus grande

Et puis, parce que Huang n’a jamais rencontré une métaphore qu’il ne pouvait pas amplifier, le discours s’est étendu du centre de données à presque toutes les industries adjacentes qu’il pouvait trouver.

Huang a déjà élargi l’histoire de Nvidia au-delà des assistants numériques depuis un moment, et le GTC de cette année a poussé ce thème encore plus loin. Nvidia a annoncé un plan directeur pour une usine de données d’IA physique avec Microsoft $MSFT -0,14 % Azure et Nebius, destiné à automatiser la génération, l’augmentation et l’évaluation des données d’entraînement pour la robotique, l’IA de vision, et les véhicules autonomes. Le message est simple : les données du monde réel sont rares, les cas extrêmes sont ennuyeux, et les données synthétiques plus la simulation peuvent transformer le calcul en matière première dont ces systèmes ont besoin.

Huang a aussi présenté GR00T N2, un modèle de base robotique de nouvelle génération basé sur la recherche DreamZero, que l’entreprise affirme plus que doubler le succès par rapport aux principaux modèles VLA sur de nouvelles tâches dans de nouveaux environnements. Les chatbots ont excité Wall Street. L’IA physique pourrait maintenir le binge d’infrastructure pendant des années, car les robots, systèmes industriels et machines autonomes ont besoin non seulement de modèles, mais aussi de données d’entraînement infinies, de simulation, de réseau, de capteurs et de calcul en périphérie.

Huang a même fait monter sur scène Olaf de Disney $DIS +1,66 %, une petite pièce de théâtre sur l’IA physique qui a clarifié le point plus efficacement qu’une autre diapositive d’architecture ne pourrait le faire. Nvidia dit que Disney a entraîné Olaf et ses droïdes BDX +0,85 % avec un simulateur physique accéléré par GPU basé sur le cadre Warp de Nvidia, intégré à Newton, et qu’Olaf fera ses débuts à Disneyland Paris le 29 mars.

Nvidia a aussi veillé à ce que les véhicules autonomes restent à leur place dans la carte de bingo de tout le monde. La société a dit que BYD, Geely, Isuzu et Nissan construisent des véhicules de niveau 4 sur sa plateforme DRIVE Hyperion, tandis qu’Uber $UBER +4,19 % prévoit de déployer des robotaxis alimentés par Nvidia à Los Angeles et San Francisco au premier semestre 2027, avant d’étendre à 28 marchés d’ici 2028. L’autonomie correspond presque trop parfaitement à la vision plus large de Huang : la prochaine étape de l’IA passera par le monde physique, ce qui signifie plus de capteurs, plus de simulation, plus de réseau, plus de calcul en périphérie, et, pratique pour Nvidia, plus de matériel coûteux partout.

Huang a même poussé l’histoire du plus grand et du meilleur un cran plus loin en disant que Nvidia va dans l’espace, avec des systèmes basés sur Vera Rubin destinés aux centres de données orbitaux et aux opérations spatiales autonomes. Certes, cela ressemble un peu à un homme qui a découvert qu’il reste encore quelques secteurs inexplorés. Mais cela ressemble aussi à une entreprise déterminée à faire de « l’infrastructure IA » presque chaque machine coûteuse en vue. Nvidia reste le roi des puces, c’est sûr. Mais Huang ne semble plus particulièrement intéressé par ce titre en soi. Son entreprise essaie de passer du statut de fournisseur de puces à celui d’architecte d’usines, de fournisseur de systèmes d’exploitation, et de collecteur de péages pour un monde où l’IA fait plus de travail et où les centres de données à faible consommation électrique deviennent des moteurs de revenus mesurés en tokens par watt.

À la fin, le discours de Huang semblait plus grand qu’un calendrier de lancement. Il ressemblait à une carte de l’empire. Oui, il y avait DLSS 5 pour le graphisme, de nouvelles intégrations logicielles industrielles, des partenariats pour le télécom en périphérie, et une avalanche de plomberie pour développeurs. Mais la conclusion durable était plus simple et beaucoup plus grande : Nvidia veut que l’IA cesse d’être vue comme une simple catégorie logicielle et commence à être traitée comme un projet d’infrastructure à l’échelle utilitaire, avec le matériel et le logiciel Nvidia intégrés à chaque couche.

C’est un message très Jensen Huang. La partie dérangeante pour les rivaux, c’est qu’pour l’instant, il a encore beaucoup de clients prêts à construire autour.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler