Comprendre en un clin d'œil le discours de Lao Huang à ComputeX : ce n'est pas un lancement de produit, c'est un « appel à la mobilisation pour la révolution industrielle de l'IA »
De l'infrastructure AI, des plateformes de puces, de l'IA d'entreprise, aux Bots et aux jumeaux numériques... Lao Huang a décrit une nouvelle ère d'usine AI (AI Factory) en pleine émergence.
Rédigé par : Zhang Yaqi
Source : Wall Street Journal
Le 19 mai 2025, le fondateur et PDG d'NVIDIA, Jensen Huang, a prononcé un discours principal de deux heures lors de la conférence Computex 2025.
De l'infrastructure AI, des plateformes de puces, de l'IA d'entreprise, aux Bots et aux jumeaux numériques... Lao Huang a décrit une nouvelle ère d'usine AI (AI Factory) qui est en pleine émergence.
Dans le passé, les centres de données servaient des applications traditionnelles ; tandis qu'aujourd'hui, les centres de données AI ne sont plus seulement des « centres de données », mais des usines AI (AI Factory) : une nouvelle usine intelligente qui prend l'électricité comme entrée et produit des « Token ».
« NVIDIA n'est plus seulement une entreprise technologique, nous sommes maintenant une entreprise d'infrastructure AI. »
Il souligne qu'il s'agit de la troisième révolution des infrastructures après l'électricité et Internet : les infrastructures intelligentes.
Lancement de la puce phare : Grace Blackwell GB200 et architecture NVLink
Jensen Huang a présenté le NVLink Spine — un module de interconnexion central pesant 70 livres, avec deux miles de câbles et une bande passante de 130 To/s. Il a déclaré : « Le débit de données de ce système est plus grand que celui de l'ensemble d'Internet ! »
Le GB200 Grace Blackwell super chip utilise un emballage à double cœur et est connecté à 72 GPU, ressemblant davantage à un « super chip virtuel ». Il est construit sur la dernière architecture NVLink Spine, et un seul nœud équivaut aux performances du superordinateur Sierra de 2018.
Jensen Huang a déclaré :
« Ce n'est pas un serveur, c'est une usine d'IA. Vous y entrez de l'énergie, il vous donnera des Tokens. »
De plus, cette conférence de presse a également marqué la mise à niveau du système GB200. NVIDIA prévoit de lancer le GB300 au troisième trimestre, dont les performances d'inférence seront améliorées de 1,5 fois, la mémoire HBM sera augmentée de 1,5 fois, la bande passante réseau sera doublée, tout en maintenant une compatibilité physique avec la génération précédente, permettant un refroidissement liquide à 100%.
NVLink Fusion : écosystème interconnecté de puces ouvert
Le programme NVLink Fusion est sans conteste le plus attrayant.
L'architecture NVLink Fusion permet de connecter sans couture des CPU / ASIC / TPU d'autres fabricants avec des GPU NVIDIA. Cette technologie offre des IP de Chiplet NVLink et d'interface, permettant une « infrastructure semi-personnalisée » de se combiner librement.
En termes simples, les clients peuvent choisir d'utiliser leur CPU avec les puces AI d'NVIDIA, ou d'utiliser le CPU d'NVIDIA avec des accélérateurs AI d'autres fournisseurs.
Selon certaines analyses, NVLink est l'une des technologies clés d'NVIDIA pour assurer sa domination dans les charges de travail d'IA, résolvant le problème de la vitesse de communication entre les GPU et les CPU dans les serveurs d'IA, qui est l'un des principaux obstacles à l'évolutivité et affecte directement les performances de pointe et l'efficacité énergétique. Par rapport à l'interface PCIe standard, il offre une bande passante plus élevée et une latence plus faible, avec un avantage de bande passante pouvant atteindre 14 fois.
NVLink Fusion permet à Fujitsu et Qualcomm d'utiliser cette interface pour leurs propres CPU. La fonctionnalité NVLink est intégrée dans le chipset à côté de l'emballage de calcul. NVIDIA attire également des concepteurs tels que MediaTek, Marvell et Alchip pour des accélérateurs de silicium personnalisés, soutenant d'autres types d'accélérateurs AI personnalisés travaillant en collaboration avec le CPU Grace de NVIDIA.
Huang Renxun a dit avec humour :
« Bien sûr, tu utilises entièrement les meilleurs produits d'Intel, cela me rendrait très heureux. Mais si tu n'utilises qu'un petit peu des produits d'Intel, je serais aussi très content. »
L'ère du supercalcul personnel : DGX Spark et DGX Station
Jensen Huang a déclaré que le DGX Spark, l'ordinateur AI personnel du Project DIGITS mentionné précédemment au CES, est désormais entièrement produit et sera disponible dans les prochaines semaines.
DGX Spark s'adresse aux chercheurs en IA qui souhaitent posséder leur propre superordinateur, chaque entreprise fixera son propre prix. Huang Renxun a déclaré : « Tout le monde pourra en avoir un à Noël. »
« Aujourd'hui, tout le monde peut avoir son propre supercalculateur IA, et... il peut être branché sur une prise de cuisine. »
Refonte de l'IA d'entreprise : du matériel à l'IA agentique
Jensen Huang a également lancé le serveur AI d'entreprise RTX Pro : il prend en charge les charges de travail IT traditionnelles x86, Hypervisor, Windows, etc. Il peut également exécuter des agents AI graphiques (AI Agents), et même faire fonctionner le jeu Crysis.
Jensen Huang a déclaré que l'Agentic AI est le "travailleur numérique" de demain. Les services clients numériques, les chefs de marché numériques, les ingénieurs numériques, etc., feront partie de la main-d'œuvre des entreprises. NVIDIA déploiera un support complet AI Ops et collaborera avec des entreprises telles que CrowdStrike, Red Hat et DataRobot pour promouvoir le déploiement de l'IA en entreprise.
« Nous aurons besoin de nouveaux HR pour gérer ces employés AI. »
Nouvelle architecture de stockage AI : Nvidia AIQ + Nemo + stockage GPU en avant
Jensen Huang a déclaré que l'IA ne se contente plus de lire SQL, elle doit comprendre la sémantique des données non structurées. Les systèmes de stockage futurs intégreront des GPU pour la recherche, le tri, l'intégration et l'indexation.
NVIDIA déploiera également Nemo + NeMo Retriever + IQ, un « cadre de recherche sémantique IA » open-source, et collaborera avec Dell, Hitachi, IBM, NetApp et VAST pour déployer une plateforme d'entreprise.
Bots deviendront la prochaine « industrie de mille milliards de dollars »
Jensen Huang a déclaré qu'il travaillait parallèlement avec l'industrie automobile sur des systèmes de robots, utilisant la plateforme Isaac Groot, qui est alimentée par un nouveau processeur appelé Jetson Thor, conçu spécifiquement pour les applications robotiques, adapté aux véhicules autonomes et aux systèmes homme-machine. Le système d'exploitation Isaac de Nvidia gère tout le traitement des réseaux neuronaux, le traitement des capteurs et les pipelines de données, en utilisant des modèles pré-entraînés développés par une équipe de robots spécialisée pour améliorer les capacités du système.
« À l'ère de l'IA, pour entraîner des Bots... vous devez d'abord utiliser l'IA pour enseigner à l'IA. »
Jensen Huang a également déclaré qu'il appliquait son modèle d'IA aux voitures autonomes, en lançant une flotte à l'échelle mondiale avec Mercedes, utilisant la technologie de conduite autonome de bout en bout de NVIDIA, réalisable dès cette année.
Il pense que les Bots deviendront la prochaine industrie d'une valeur de milliers de milliards de dollars, mais cela nécessitera beaucoup d'efforts. Le département de Bots d'NVIDIA a la capacité de le faire, et cela est uniquement dû à l'évolutivité.
Lancement du moteur AI physique Newton
Jensen Huang a déclaré qu'il avait collaboré avec DeepMind et Disney Research pour développer le moteur physique le plus avancé au monde, Newton, qui sera open source en juillet.
Selon les informations, Newton prend entièrement en charge l'accélération GPU, possède une grande différentiabilité et une capacité d'opération ultra-temps réel, permettant un apprentissage efficace par l'expérience. NVIDIA intègre ce moteur physique dans le simulateur ISAAC de NVIDIA, cette intégration nous permet de « faire vivre » ces Bots de manière réaliste.
Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
Comprendre en un clin d'œil le discours de Lao Huang à ComputeX : ce n'est pas un lancement de produit, c'est un « appel à la mobilisation pour la révolution industrielle de l'IA »
Rédigé par : Zhang Yaqi
Source : Wall Street Journal
Le 19 mai 2025, le fondateur et PDG d'NVIDIA, Jensen Huang, a prononcé un discours principal de deux heures lors de la conférence Computex 2025.
De l'infrastructure AI, des plateformes de puces, de l'IA d'entreprise, aux Bots et aux jumeaux numériques... Lao Huang a décrit une nouvelle ère d'usine AI (AI Factory) qui est en pleine émergence.
Dans le passé, les centres de données servaient des applications traditionnelles ; tandis qu'aujourd'hui, les centres de données AI ne sont plus seulement des « centres de données », mais des usines AI (AI Factory) : une nouvelle usine intelligente qui prend l'électricité comme entrée et produit des « Token ».
« NVIDIA n'est plus seulement une entreprise technologique, nous sommes maintenant une entreprise d'infrastructure AI. »
Il souligne qu'il s'agit de la troisième révolution des infrastructures après l'électricité et Internet : les infrastructures intelligentes.
Lancement de la puce phare : Grace Blackwell GB200 et architecture NVLink
Jensen Huang a présenté le NVLink Spine — un module de interconnexion central pesant 70 livres, avec deux miles de câbles et une bande passante de 130 To/s. Il a déclaré : « Le débit de données de ce système est plus grand que celui de l'ensemble d'Internet ! »
Le GB200 Grace Blackwell super chip utilise un emballage à double cœur et est connecté à 72 GPU, ressemblant davantage à un « super chip virtuel ». Il est construit sur la dernière architecture NVLink Spine, et un seul nœud équivaut aux performances du superordinateur Sierra de 2018.
Jensen Huang a déclaré :
« Ce n'est pas un serveur, c'est une usine d'IA. Vous y entrez de l'énergie, il vous donnera des Tokens. »
De plus, cette conférence de presse a également marqué la mise à niveau du système GB200. NVIDIA prévoit de lancer le GB300 au troisième trimestre, dont les performances d'inférence seront améliorées de 1,5 fois, la mémoire HBM sera augmentée de 1,5 fois, la bande passante réseau sera doublée, tout en maintenant une compatibilité physique avec la génération précédente, permettant un refroidissement liquide à 100%.
NVLink Fusion : écosystème interconnecté de puces ouvert
Le programme NVLink Fusion est sans conteste le plus attrayant.
L'architecture NVLink Fusion permet de connecter sans couture des CPU / ASIC / TPU d'autres fabricants avec des GPU NVIDIA. Cette technologie offre des IP de Chiplet NVLink et d'interface, permettant une « infrastructure semi-personnalisée » de se combiner librement.
En termes simples, les clients peuvent choisir d'utiliser leur CPU avec les puces AI d'NVIDIA, ou d'utiliser le CPU d'NVIDIA avec des accélérateurs AI d'autres fournisseurs.
Selon certaines analyses, NVLink est l'une des technologies clés d'NVIDIA pour assurer sa domination dans les charges de travail d'IA, résolvant le problème de la vitesse de communication entre les GPU et les CPU dans les serveurs d'IA, qui est l'un des principaux obstacles à l'évolutivité et affecte directement les performances de pointe et l'efficacité énergétique. Par rapport à l'interface PCIe standard, il offre une bande passante plus élevée et une latence plus faible, avec un avantage de bande passante pouvant atteindre 14 fois.
NVLink Fusion permet à Fujitsu et Qualcomm d'utiliser cette interface pour leurs propres CPU. La fonctionnalité NVLink est intégrée dans le chipset à côté de l'emballage de calcul. NVIDIA attire également des concepteurs tels que MediaTek, Marvell et Alchip pour des accélérateurs de silicium personnalisés, soutenant d'autres types d'accélérateurs AI personnalisés travaillant en collaboration avec le CPU Grace de NVIDIA.
Huang Renxun a dit avec humour :
« Bien sûr, tu utilises entièrement les meilleurs produits d'Intel, cela me rendrait très heureux. Mais si tu n'utilises qu'un petit peu des produits d'Intel, je serais aussi très content. »
L'ère du supercalcul personnel : DGX Spark et DGX Station
Jensen Huang a déclaré que le DGX Spark, l'ordinateur AI personnel du Project DIGITS mentionné précédemment au CES, est désormais entièrement produit et sera disponible dans les prochaines semaines.
DGX Spark s'adresse aux chercheurs en IA qui souhaitent posséder leur propre superordinateur, chaque entreprise fixera son propre prix. Huang Renxun a déclaré : « Tout le monde pourra en avoir un à Noël. »
« Aujourd'hui, tout le monde peut avoir son propre supercalculateur IA, et... il peut être branché sur une prise de cuisine. »
Refonte de l'IA d'entreprise : du matériel à l'IA agentique
Jensen Huang a également lancé le serveur AI d'entreprise RTX Pro : il prend en charge les charges de travail IT traditionnelles x86, Hypervisor, Windows, etc. Il peut également exécuter des agents AI graphiques (AI Agents), et même faire fonctionner le jeu Crysis.
Jensen Huang a déclaré que l'Agentic AI est le "travailleur numérique" de demain. Les services clients numériques, les chefs de marché numériques, les ingénieurs numériques, etc., feront partie de la main-d'œuvre des entreprises. NVIDIA déploiera un support complet AI Ops et collaborera avec des entreprises telles que CrowdStrike, Red Hat et DataRobot pour promouvoir le déploiement de l'IA en entreprise.
« Nous aurons besoin de nouveaux HR pour gérer ces employés AI. »
Nouvelle architecture de stockage AI : Nvidia AIQ + Nemo + stockage GPU en avant
Jensen Huang a déclaré que l'IA ne se contente plus de lire SQL, elle doit comprendre la sémantique des données non structurées. Les systèmes de stockage futurs intégreront des GPU pour la recherche, le tri, l'intégration et l'indexation.
NVIDIA déploiera également Nemo + NeMo Retriever + IQ, un « cadre de recherche sémantique IA » open-source, et collaborera avec Dell, Hitachi, IBM, NetApp et VAST pour déployer une plateforme d'entreprise.
Bots deviendront la prochaine « industrie de mille milliards de dollars »
Jensen Huang a déclaré qu'il travaillait parallèlement avec l'industrie automobile sur des systèmes de robots, utilisant la plateforme Isaac Groot, qui est alimentée par un nouveau processeur appelé Jetson Thor, conçu spécifiquement pour les applications robotiques, adapté aux véhicules autonomes et aux systèmes homme-machine. Le système d'exploitation Isaac de Nvidia gère tout le traitement des réseaux neuronaux, le traitement des capteurs et les pipelines de données, en utilisant des modèles pré-entraînés développés par une équipe de robots spécialisée pour améliorer les capacités du système.
« À l'ère de l'IA, pour entraîner des Bots... vous devez d'abord utiliser l'IA pour enseigner à l'IA. »
Jensen Huang a également déclaré qu'il appliquait son modèle d'IA aux voitures autonomes, en lançant une flotte à l'échelle mondiale avec Mercedes, utilisant la technologie de conduite autonome de bout en bout de NVIDIA, réalisable dès cette année.
Il pense que les Bots deviendront la prochaine industrie d'une valeur de milliers de milliards de dollars, mais cela nécessitera beaucoup d'efforts. Le département de Bots d'NVIDIA a la capacité de le faire, et cela est uniquement dû à l'évolutivité.
Lancement du moteur AI physique Newton
Jensen Huang a déclaré qu'il avait collaboré avec DeepMind et Disney Research pour développer le moteur physique le plus avancé au monde, Newton, qui sera open source en juillet.
Selon les informations, Newton prend entièrement en charge l'accélération GPU, possède une grande différentiabilité et une capacité d'opération ultra-temps réel, permettant un apprentissage efficace par l'expérience. NVIDIA intègre ce moteur physique dans le simulateur ISAAC de NVIDIA, cette intégration nous permet de « faire vivre » ces Bots de manière réaliste.