Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Au moins 1 billion de dollars de revenus ! Le discours de Jensen Huang fait exploser la GTC, Nvidia reprend le contrôle de la vie et de la mort de l'IA (avec transcription complète de 20 000 caractères)
Article | « Observations de Silicon Valley » Zheng Jun
Le centre SAP de San José, Silicon Valley, est presque entièrement rempli.
Ce lieu, habituellement domicile de l’équipe de hockey NHL San Jose Sharks, s’est transformé aujourd’hui en la « Mecque de l’IA » annuelle. Des développeurs, ingénieurs, acheteurs d’entreprises et investisseurs venus de 190 pays ont envahi chaque siège, tous fixant leur regard sur une silhouette familière : cet homme d’âge moyen en blouson en cuir.
Le premier mot du PDG de Nvidia, Huang Renxun, en montant sur scène a été : « It all starts here. » — Tout commence ici. Pendant plus de deux heures, il a confirmé la portée de cette phrase. En souriant, il a dit que l’événement ressemblait aujourd’hui à un Super Bowl.
Il prévoit que la nouvelle architecture de puces d’accélération IA de Nvidia, Blackwell, et le prochain produit Rubin, généreront d’ici fin 2027 au moins 1 000 milliards de dollars de revenus. Ce chiffre dépasse largement la prévision de 500 milliards de dollars de ventes faite par Huang en octobre 2025, soulignant que la vague d’investissement dans l’infrastructure IA continue de s’accélérer rapidement.
Ordres de grandeur : la redéfinition du récit de la demande
L’impact numérique le plus direct de cette conférence provient du volet commandes. Huang estime qu’à la fin de l’année prochaine, Nvidia recevra pour ses architectures Blackwell et Vera Rubin un total de commandes dépassant 1 000 milliards de dollars. Ce chiffre est le double des 500 milliards anticipés l’an dernier.
Nvidia avait déjà relevé ses prévisions. Le mois dernier, la directrice financière Colette Kress avait laissé entendre lors de la conférence téléphonique sur résultats que les ventes de puces dépasseraient ses attentes précédentes. Aujourd’hui, Huang a quantifié cette confiance en chiffres concrets.
Ce contexte est celui : selon le dernier rapport financier de Nvidia, le chiffre d’affaires du centre de données a atteint 62,3 milliards de dollars, en hausse de 75 % sur un an ; pourtant, le cours de l’action Nvidia n’a pas suivi cette tendance, mais a plutôt reculé d’environ 11 % depuis son sommet historique de 207 dollars en octobre dernier. Le marché financier reste sceptique quant à la capacité de Nvidia à maintenir cette croissance jusqu’en 2027, et l’espace de croissance détermine directement le potentiel de hausse du cours. Le chiffre d’un billion de dollars de commandes répond directement à ces inquiétudes infondées.
Produit phare : la présentation complète de Vera Rubin
Vera Rubin est la star incontestée de cette conférence, même si Huang a attendu une heure et demie avant de la dévoiler officiellement. Ce système, déjà dévoilé lors d’un événement à Washington en fin d’année dernière, a été présenté plus en détail lors du CES 2026 début d’année, puis aujourd’hui, en version complète et officielle. Voici les points clés :
Vera Rubin NVL72, la configuration phare actuelle, comprend 72 GPU reliés via NVLink 6, avec un refroidissement liquide intégral. Huang insiste : « tous les câbles ont disparu » — remplacés par des modules, ce qui ramène le temps d’installation de deux heures à seulement 5 minutes. Le système fonctionne avec un refroidissement à l’eau chaude à 45 degrés. Huang le qualifie de « moteur de l’ère de l’IA ultra-boostée ».
La version Rubin Ultra étend cette capacité à 144 GPU dans un seul rack, utilisant une nouvelle architecture verticale Kyber, avec le calcul en front-end et la connectivité NVLink en back-end. Par rapport à la génération Hopper, la plateforme Vera Rubin peut théoriquement atteindre 7 millions de tokens par seconde en inférence, contre 2 millions pour la combinaison Hopper x86. Huang la décrit comme « le graphique le plus important pour l’avenir des usines IA », et divise la puissance d’inférence en quatre niveaux de service : Free, High, Premium, Ultra, tarifés en tokens/sec — « Token est la nouvelle marchandise de grande ampleur ».
Le CPU Vera Rubin sera vendu séparément, créant une nouvelle source de revenus pour Nvidia sur le marché des CPU. Nvidia prévoit que cette activité deviendra « une contribution de plusieurs milliards de dollars ». La première plateforme Vera Rubin fonctionne déjà sur le cloud Azure de Microsoft, avec des progrès satisfaisants — contrastant avec les premiers taux de rendement problématiques de la génération Blackwell.
Acquisition de Groq : intégration officielle du LPU
Avant Noël dernier, Nvidia a finalisé l’acquisition de Groq pour environ 20 milliards de dollars, intégrant l’équipe fondatrice menée par Jonathan Ross. Aujourd’hui, Huang a annoncé le produit technologique issu de cette acquisition : le Groq 3 LPU (Language Processing Unit).
Le Groq 3 est conçu comme un accélérateur d’inférence pour Vera Rubin, non comme un remplaçant GPU. Sur le plan architectural, la modélisation de grands modèles de langage en inférence comporte deux phases : la précharge (prefill), intensive en calcul, et le décodage (decode), gourmand en bande passante. Les GPU Nvidia excellent dans le préchargement à haut débit, tandis que le LPU de Groq, avec 22 TB/s de bande passante HBM4, est optimisé pour le décodage, étant environ 7 fois plus rapide qu’un GPU équivalent. Les deux fonctionnent en architecture Disaggregated Inference : GPU pour le prefill, LPU pour le decode, orchestrés par le système Dynamo de Nvidia.
Pour cela, Nvidia a lancé un rack dédié, le LPX, pouvant accueillir 256 Groq 3 LPU dans un seul rack, aligné avec le rack NVL72 Vera Rubin, relié par Spectrum-X. Chaque Groq 3 LPU dispose de 500 Mo de mémoire intégrée, fabriquée par Samsung, avec livraison prévue au troisième trimestre. Selon Nvidia, la combinaison Vera Rubin NVL72 + Groq 3 LPX permet d’augmenter par 35 la performance par mégawatt en tokens/sec par rapport à Blackwell.
Les dirigeants de Nvidia indiquent qu’avec cette architecture, la société pourra offrir une inférence à très faible latence, à « plusieurs milliers de tokens par seconde » pour de grands modèles de langage, un segment occupé jusqu’ici par des spécialistes comme Cerebras ou SambaNova.
Nvidia, le fournisseur d’IA : bâtir l’ère des agents IA
Au-delà du hardware, Huang a longuement évoqué la stratégie logicielle de Nvidia. Il a souligné la vague des agents IA (AI Agents), notamment la plateforme open source OpenClaw, qu’il qualifie de projet open source le plus réussi de tous les temps.
Il compare OpenClaw à un système d’exploitation : « C’est comme un OS pour les agents, tout comme Windows a permis l’ordinateur personnel. » Il affirme que « chaque entreprise dans le monde doit avoir une stratégie OpenClaw », la comparant à l’adoption historique de Linux ou HTTP/HTML.
Nvidia a lancé NemoClaw, une pile logicielle de référence open source pour OpenClaw, axée sur la sécurité d’entreprise : protéger les données sensibles lors du déploiement d’agents IA, éviter leur fuite lors de l’exécution autonome. Microsoft Security a annoncé collaborer avec Nvidia pour développer une protection en temps réel basée sur Nemotron et NemoClaw.
De plus, Nvidia positionne ses produits DGX Spark et DGX Station comme plateformes locales pour le développement et le déploiement d’agents IA en entreprise, intégrant NemoClaw en edge.
Feuille de route : de Feynman aux centres de données spatiaux
Côté hardware, Huang a esquissé pour la première fois la nouvelle architecture Feynman, prévue pour 2028. Elle comprendra un GPU entièrement nouveau, un LPU de nouvelle génération (LP40), un CPU baptisé Rosa (en hommage à Rosalind Franklin), ainsi que BlueField-5 DPU, NIC CX10, et la plateforme Kyber avec câblage cuivre ou optique (CPO).
Plus surprenant, Huang a annoncé le développement d’un module Vera Rubin pour l’espace — Space-1 — destiné à déployer des centres de données IA en orbite. Il reconnaît que la radiation est un défi clé, mais que Nvidia travaille déjà dessus. Cela rejoint la stratégie de SpaceX, Google, Amazon, etc., pour des centres de données spatiaux.
Nvidia a aussi dévoilé le design de référence DSX AI Factory, combiné à Omniverse DSX Blueprint, pour planifier, simuler et gérer le cycle de vie complet de grands centres de données IA. Amazon Web Services a annoncé un partenariat élargi, avec le déploiement prévu de plus d’un million de GPU Nvidia, incluant Blackwell, Rubin et Groq 3 LPU, dans ses régions mondiales cette année.
Véhicules autonomes et robots : partenaires en forte expansion
La conduite autonome constitue la troisième ligne directrice de la conférence. Huang a annoncé que Drive AV, logiciel Nvidia, entre dans la phase de déploiement : d’ici 2028, Nvidia supportera une flotte de véhicules autonomes dans 28 villes sur quatre continents, avec Los Angeles et San Francisco comme premières villes en 2027.
Par ailleurs, des constructeurs comme BYD, Geely, Nissan, Hyundai développent des véhicules L4 sur la plateforme Drive Hyperion. Isuzu et Tier IV (Chine) travaillent aussi sur des bus autonomes avec la puce AGX Thor de Nvidia. Huang cite : « L’ère du ChatGPT pour voitures autonomes est arrivée. »
Dans le domaine des robots, Disney a présenté Olaf, le robot de « La Reine des Neiges », avec qui Huang a dialogué. Ce robot, entraîné dans l’environnement de simulation Nvidia, illustre l’application de l’IA physique (Physical AI) dans le divertissement.
Selon Patrick Moorhead, analyste en chef chez Moor Insights & Strategy, Nvidia n’est plus seulement une société de puces, mais une plateforme.
Pendant la première heure et demie, Huang a insisté sur le fait que Nvidia est une plateforme, une infrastructure. Il répète que Nvidia n’est plus une simple société de puces, mais une plateforme écologique, une entreprise d’infrastructure. La conférence montre que la stratégie Nvidia couvre la formation, l’inférence, l’orchestration, la sécurité logicielle, l’IA physique, la conduite autonome, la robotique, et même l’espace.
Plus concrètement, Nvidia construit une barrière défensive à trois niveaux : la pile hardware (GPU + LPU + CPU + DPU + réseau), l’écosystème logiciel (CUDA, NemoClaw, Dynamo, Omniverse), et la mise en œuvre sectorielle (automobile, santé, industrie, divertissement). La partie logiciel devient une différenciation stratégique difficile à copier, notamment face à AMD.
L’expansion massive des partenaires en conduite autonome et l’intégration de la plateforme OpenClaw indiquent que Nvidia ne se limite plus au hardware de centres de données, mais s’étend à l’infrastructure IA plus large. Huang évoque la vision d’une évolution de l’IA, passant d’outils de génération de texte à des systèmes autonomes capables de raisonner, planifier, exécuter — alimentés par des centres de données IA, avec comme indicateur clé la « Token Factory ».
Réaction du marché et des analystes : confirmation de confiance, mais divergences
Pendant l’événement, l’action Nvidia a clôturé en hausse d’environ 1,65 %, passant de 181 à 183 dollars, avec un volume de 217 millions d’actions, supérieur à la moyenne quotidienne. La capitalisation atteint 4,45 trillions de dollars, ce qui montre que cette GTC a renforcé la confiance du marché à court terme.
L’analyste Dan Ives de Wedbush, très positif, qualifie Huang de « parrain de l’IA » et la GTC de « remontée de confiance essentielle pour les investisseurs en tech ». Il réaffirme que « la révolution IA s’accélère, pas ralentit », et que la demande de 1 000 milliards de dollars provient de tous : entreprises, gouvernements, startups IA. Il estime qu’un dollar dépensé en puces Nvidia génère un multiplicateur de 8 à 10 dans le logiciel, la cybersécurité, l’énergie, et les data centers.
L’analyste C.J. Muse de Cantor Fitzgerald, qui avait fixé un objectif de 300 dollars avant la conférence, maintient son avis d’achat, soulignant que cette présentation renforce la position stratégique de Nvidia comme « fournisseur d’infrastructure IA complète », avec une visibilité accrue jusqu’en 2027.
Gene Munster, associé chez Deepwater, reste plus prudent : il voit le vrai défi dans la crainte à long terme d’un ralentissement de la croissance après 2027, en lien avec la question du pic des investissements en IA — une thématique largement discutée sur le marché.
Dans le contexte de la bulle IA des deux dernières années et des investissements massifs dans l’infrastructure, Huang a aujourd’hui donné un signal fort à l’industrie, décrivant une vision d’écosystème IA élargi. Nvidia y occupe une position centrale.
La bulle IA ? L’homme en cuir, lui, pense que tout ne fait que commencer.
【Transcription complète du discours】
Bienvenue au GTC ! Je tiens à rappeler que c’est une conférence technologique. Beaucoup de monde fait la queue dès le matin, c’est un plaisir de voir tous ici. Au GTC, nous explorons la technologie et la plateforme. Nvidia possède trois grandes plateformes : peut-être pensez-vous que nous parlons surtout de CUDA-X, mais le système est une autre plateforme, et aujourd’hui nous avons aussi une nouvelle plateforme appelée AI Factories. Nous discuterons de tout cela, mais le plus important, c’est l’écosystème.
Avant de commencer, je remercie Sarah Go et Alfred Lin, animateurs de l’émission pré-événement, ainsi que Gavin Baker de Sequoia Capital, notre premier investisseur en capital-risque. En tant que premier investisseur institutionnel, ils ont une vision approfondie de la technologie et de l’industrie, avec un vaste écosystème. Je remercie aussi tous les VIP invités que j’ai personnellement sélectionnés, ainsi que toutes les entreprises sponsors présentes. Nvidia est une plateforme, avec la technologie, la plateforme et un écosystème riche. Aujourd’hui, ici, des représentants de l’industrie de 1000 milliards de dollars sont rassemblés, 450 entreprises sponsorisent l’événement, avec 1000 sessions techniques et 2000 intervenants. La conférence couvre chaque couche de l’architecture IA à cinq niveaux, depuis les infrastructures de terrain, électricité, bâtiments, jusqu’aux puces, plateformes, modèles, et enfin toutes les applications qui feront décoller l’industrie.
Tout commence ici, cette année marque le 20e anniversaire de CUDA. Depuis 20 ans, nous développons cette architecture. Une invention révolutionnaire permettant d’écrire des applications multithread en utilisant des instructions scalaires, plus facile à programmer que le SIMD. Récemment, nous avons ajouté des Tiles pour aider les développeurs à programmer Tensor Cores et les mathématiques fondamentales de l’IA moderne. Des milliers d’outils, compilateurs, frameworks, bibliothèques, et des centaines de milliers de projets open source sont intégrés à CUDA. La partie la plus difficile est le volume massif d’installations.
Nous avons passé 20 ans à déployer des centaines de millions de GPU et systèmes de calcul CUDA dans le monde entier, dans tous les cloud et toutes les entreprises, dans presque tous les secteurs. La masse installée de CUDA est le moteur principal de la roue de la croissance. Elle attire les développeurs, qui créent de nouvelles algorithmes comme ceux en deep learning. Ces avancées ouvrent de nouveaux marchés, créent de nouveaux écosystèmes, attirent plus d’entreprises, et ainsi de suite. Cet effet de roue s’accélère : le nombre de téléchargements de nos bibliothèques explose. Cet effet ne se limite pas à la plateforme de calcul, il prolonge la durée de vie des infrastructures.
Avec autant d’applications tournant sur CUDA, nous soutenons chaque étape du cycle de vie IA et chaque plateforme de traitement de données, accélérant la résolution scientifique. La diversité d’applications garantit une très longue durée de vie pour nos GPU. Même ceux sortis il y a six ans, comme Ampere, voient leur prix continuer à augmenter dans le cloud. La forte masse installée, l’effet de roue, la large base de développeurs, et nos mises à jour logicielles constantes réduisent le coût du calcul. L’accélération du calcul augmente la vitesse des applications, et nos mises à jour prolongent la valeur pour l’utilisateur. La masse installée permet à nos nouvelles optimisations de bénéficier à des millions de GPU dans le monde entier. La synergie dynamique étend l’impact de Nvidia, accélère la croissance, et réduit le coût, ce qui constitue la valeur centrale de CUDA.
Mais notre voyage a commencé il y a 25 ans avec GeForce. GeForce est la plus grande campagne marketing de Nvidia, et beaucoup ont grandi avec. Avant que vous ne puissiez vous permettre un GPU, vos parents ont payé pour que vous deveniez client Nvidia, jusqu’à ce que vous deveniez un scientifique informatique ou un développeur. GeForce a créé Nvidia et a permis CUDA. Il y a 20 ans, nous avons inventé le premier accélérateur programmable au monde — le shader pixel, pour rendre l’accélérateur programmable. Cinq ans plus tard, CUDA est né. Notre plus gros investissement, à l’époque, a été de faire de CUDA une partie intégrante de chaque PC via GeForce. Après 20 ans et 13 générations, CUDA est partout. Il y a dix ans, nous avons lancé RTX, une refonte complète pour l’ère moderne du graphisme informatique. GeForce a permis à CUDA de se répandre, et a permis à de nombreux pionniers de découvrir que le GPU est un excellent accélérateur pour le deep learning, déclenchant la grande explosion IA. Il y a dix ans, nous avons intégré le ray tracing hardware, et dès lors, nous avons pensé que l’IA allait transformer radicalement le graphisme. Tout comme GeForce a apporté l’IA au monde, aujourd’hui, l’IA va transformer le graphisme.
Aujourd’hui, je vais présenter la nouvelle génération de technologie graphique : le rendu neuronal, la fusion du graphisme 3D et de l’IA, c’est DLSS 5.0. Nous combinons un contrôle précis du graphisme 3D, des données structurées du monde virtuel, et le calcul probabiliste de l’IA générative. Les données structurées sont parfaitement contrôlées, et combinées à l’IA générative, elles créent un contenu magnifique, époustouflant, et maîtrisé. La fusion de ces deux concepts va continuer à impacter de nombreux secteurs, car les données structurées sont la base d’une IA fiable.
Ensuite, nous explorerons en détail les données structurées. SQL, Spark, Pandas, Velox, Snowflake, Databricks, Amazon EMR, Azure Fabric, Google BigQuery — tous traitent des DataFrames. Ces DataFrames sont de gigantesques tableaux Excel, contenant la vérité unique de l’entreprise. Autrefois, nous avons accéléré le traitement des données structurées pour rendre les entreprises plus efficaces à moindre coût et à fréquence plus élevée. À l’avenir, l’IA utilisera ces bases de données structurées à une vitesse fulgurante. En plus, il existe des bases de données non structurées représentant la majorité des données mondiales : vecteurs, PDF, vidéos, discours. 90 % des données générées chaque année sont non structurées. Jusqu’ici, leur complexité et l’absence d’indexation efficace empêchaient leur recherche et leur interrogation.
Aujourd’hui, Nvidia utilise l’IA pour résoudre ce problème. Grâce à la perception multimodale et à la compréhension, l’IA peut lire un PDF, en comprendre le contenu, et l’intégrer dans une structure plus grande, facilement recherchable. Pour cela, Nvidia a créé deux bibliothèques fondamentales : cuDF pour les DataFrames et données structurées, et cuVS pour le stockage vectoriel et les données IA non structurées. Ces deux plateformes deviendront les plus importantes à l’avenir, intégrées en profondeur dans les réseaux mondiaux de traitement de données complexes.
Aujourd’hui, nous annonçons plusieurs collaborations majeures. IBM, inventeur du langage SQL, utilise cuDF pour accélérer WatsonX. Il y a 60 ans, IBM a lancé System/360, qui a ouvert l’ère de l’informatique moderne, suivi par SQL et les entrepôts de données. Aujourd’hui, IBM et Nvidia accélèrent le moteur SQL de WatsonX.data avec GPU, redéfinissant le traitement des données à l’ère IA. Face à l’incapacité des CPU à gérer rapidement d’immenses jeux de données pour l’IA, les entreprises doivent se transformer. Par exemple, Nestlé doit prendre des milliers de décisions chaque jour, mais ne peut rafraîchir que quelques fois par jour ses données globales. Avec Nvidia GPU, la vitesse est multipliée par 5, et le coût réduit de 83 %.
L’IA accélère le calcul, en cloud comme en local. Dell, leader mondial, intègre cuDF et cuVS dans sa plateforme de données IA. Google Cloud accélère Vertex AI et BigQuery. Avec Snapchat, nous avons réduit leurs coûts de calcul de près de 80 %. Accélérer le calcul, c’est gagner en vitesse, en échelle, et surtout en coût. La loi de Moore, qui promettait un doublement des performances tous les 2-3 ans, s’essouffle. L’accélération du calcul nous permet de franchir cette limite.
Nvidia, en tant que société d’algorithmes, réduit continuellement le coût du calcul grâce à l’optimisation des algorithmes, en élargissant la portée et la vitesse. Nous avons construit une plateforme d’accélération, avec RTX, cuDF, cuVS, et autres bibliothèques, intégrée dans le cloud et chez les OEM. Cette collaboration se répète chez Google Cloud, Snapchat, etc. Nous sommes fiers de notre travail sur JAX, XLA, PyTorch, qui sont aujourd’hui les plateformes les plus performantes pour l’accélération IA. Nos partenaires comme Baseten, CrowdStrike, Puma, Salesforce, sont aussi nos clients et développeurs.
Nous intégrons Nvidia dans leurs produits, et leur apportons le cloud. Nos relations avec les fournisseurs de cloud consistent à leur apporter des clients. La majorité d’entre eux collaborent avec nous, car nous leur fournissons un flux constant d’accélération. Cette année, je suis très enthousiaste : Nvidia va introduire OpenAI dans AWS, ce qui va stimuler la consommation de cloud AWS et augmenter la capacité de calcul d’OpenAI.
Chez AWS, nous accélérons EMR, SageMaker, Bedrock. Nvidia et AWS ont une collaboration profonde, ils sont nos premiers partenaires cloud. Sur Azure, nous avons installé la première super-ordinateur Nvidia A100, qui a permis le partenariat avec OpenAI. Notre collaboration avec Azure est ancienne : elle alimente Azure, Bing, et leur AIFoundry. Avec l’expansion IA mondiale, la coopération avec Azure Regions devient cruciale. Nous proposons la Confidential Computing, qui garantit que l’opérateur ne peut pas voir ou toucher les données ou modèles. Nvidia GPU est le premier GPU au monde à supporter cette technologie, permettant de déployer en toute sécurité des modèles précieux comme OpenAI ou Anthropic dans différents clouds et régions.
En partenariat, Synopsis est un client clé, nous accélérons ses workflows EDA et CAU, déployés sur Azure. Nous sommes aussi le premier fournisseur d’Oracle, leur premier client IA. J’ai expliqué à Oracle le concept de cloud IA, et je suis leur premier client. Depuis, Oracle a décollé. Nous y avons déployé Quark, Cohere, Fireworks, OpenAI, et d’autres partenaires. CoreWeave est le premier cloud IA natif au monde, construit pour héberger des GPU dans l’ère du calcul accéléré. Leur clientèle est excellente, leur croissance rapide.
Je suis aussi très optimiste pour Palantir et Dell. Nous avons créé ensemble une nouvelle plateforme IA : Palantir Ontology. Elle permet un déploiement local complet, même dans des zones isolées (air-gapped). L’IA peut être déployée partout. Sans notre capacité de calcul confidentiel, sans notre système de bout en bout, et sans notre stack d’accélération, cela ne serait pas possible. Ces exemples illustrent notre partenariat avec les grands fournisseurs cloud, présents ici aujourd’hui, que je remercie sincèrement.
Nvidia est une société intégrée verticalement, mais aussi ouverte horizontalement. C’est essentiel : l’accélération IA ne se limite pas aux puces, mais concerne l’application. Si l’on veut que l’ordinateur soit plus rapide, c’est le CPU. Mais il a ses limites. La seule voie vers des performances et un coût faibles, c’est l’accélération spécifique à l’application ou au domaine. Nvidia doit développer des bibliothèques pour chaque secteur.
En tant que société intégrée, nous devons comprendre en profondeur chaque application, chaque domaine, chaque algorithme. Nous devons aussi déployer ces algorithmes dans tous les environnements : data center, cloud, local, edge, robotique. De la puce au système, nous sommes verticalement intégrés. Mais Nvidia est aussi très ouvert. Nous combinons nos logiciels, bibliothèques, et technologies avec celles de nos partenaires, pour les intégrer à toutes les plateformes. C’est cette philosophie que cette conférence illustre parfaitement.
Nous disposons de bibliothèques sectorielles pour répondre aux enjeux clés : finance, santé, industrie, divertissement. En finance, la trading algorithmique évolue d’un ML basé sur l’ingénierie de caractéristiques à une analyse par supercalculateurs, découvrant automatiquement des insights. C’est le moment du deep learning et des Transformers. En santé, c’est aussi le moment ChatGPT. Nous appliquons l’IA physique et la biologie IA à la R&D pharmaceutique, et développons des agents IA pour le service client et le diagnostic.
Dans l’industrie, nous lançons la plus grande extension de l’histoire humaine, avec la construction d’usines IA dans la majorité des secteurs. Des fabricants de puces et de systèmes informatiques sont présents ici. Dans les médias, la diffusion en direct, la traduction, la diffusion de jeux et vidéos sont soutenues par l’IA en temps réel. La majorité du contenu sera améliorée par l’IA. En quantique, 35 entreprises utilisent notre plateforme Holoscan pour construire la prochaine génération de systèmes quantiques hybrides GPU. La grande distribution et la consommation (CPG) exploitent Nvidia pour optimiser leur supply chain, et développent des agents d’achat et de service client, un marché de 35 000 milliards de dollars.
Dans la robotique industrielle, Nvidia est présent depuis dix ans, avec une infrastructure de base pour la reconstruction robotique, en partenariat avec tous les grands fabricants. Lors de cette conférence, 110 robots sont exposés. Le secteur des télécoms, 2 000 milliards de dollars, voit ses stations de base, infrastructure de l’ère précédente, se transformer radicalement. Les futures stations seront des plateformes IA en edge. Notre plateforme Aerial (AIRAN) collabore avec Nokia, T-Mobile, etc.
Tout cela repose sur notre bibliothèque d’algorithmes CUDA-X, la pierre angulaire de Nvidia en tant que société d’algorithmes. Elle permet de résoudre des problèmes dans tous les secteurs, en transformant la méthode des meilleurs informaticiens en bibliothèques. Lors de cette conférence, nous dévoilons de nombreuses bibliothèques et modèles, qui sont notre trésor : elles activent la plateforme, résolvent des problèmes concrets. Par exemple, cuDNN, qui a déclenché la grande explosion IA, cuOPT pour l’optimisation décisionnelle, cuLitho pour la lithographie, cuDSS pour la résolution sparse, Parabricks pour la génomique, et plus de mille autres CUDA-X, qui aident chercheurs et ingénieurs à faire des avancées. Tout ce que vous voyez n’est pas de l’animation, mais une simulation physique, IA physique, et robotique physique, entièrement modélisées. Grâce à la compréhension des algorithmes et à la plateforme, Nvidia, société intégrée et ouverte, déploie sans cesse de nouvelles opportunités.
Aujourd’hui, en plus des grands acteurs traditionnels, de nombreuses startups IA natives émergent, comme OpenAI ou Anthropic. La réinvention du calcul a attiré 150 milliards de dollars d’investissements en capital-risque. Pour la première fois, ces entreprises ont besoin d’une puissance de calcul énorme et de milliards de tokens, qu’elles génèrent ou valorisent. Comme Google, Amazon, Meta lors de l’ère PC, Internet, mobile, nous sommes au début d’une nouvelle plateforme, qui verra naître des entreprises à fort impact.
Les deux dernières années ont été marquées par trois jalons : d’abord, ChatGPT a lancé l’ère de l’IA générative, capable de perception, compréhension, traduction, création. Ensuite, le calcul génératif a changé la façon dont on calcule, passant de la recherche à la génération, modifiant la structure même des ordinateurs. Troisièmement, l’émergence de l’IA de raisonnement, avec les modèles O1 et O3, qui permettent à l’IA de réfléchir, décomposer, vérifier, et faire confiance. Cela augmente considérablement la consommation de tokens, et donc la puissance de calcul. ClaudeCode, le premier agent intelligent, peut lire des fichiers, coder, tester, itérer, révolutionnant le génie logiciel.
Tous nos employés utilisent ClaudeCode, Codex, Cursor, et autres outils Nvidia pour coder. Aujourd’hui, il ne faut plus demander à l’IA ce qu’elle doit faire, mais lui donner du contexte, et elle crée, exécute, construit. L’IA a évolué de la perception à la génération, puis au raisonnement, et peut désormais travailler efficacement. La demande en calcul explose : malgré nos livraisons massives, la demande continue de croître.
L’IA doit penser, agir, lire, et pour cela, elle doit raisonner. Chaque étape de l’IA, chaque token, doit faire appel au raisonnement. La phase d’entraînement est dépassée, nous sommes dans la phase de raisonnement, le tournant est là. La quantité de calcul nécessaire a été multipliée par 10 000. En deux ans, la demande a été multipliée par 10 000, l’usage par 100. La demande de calcul a été multipliée par un million, et cela est partagé par toutes les startups, OpenAI, Anthropic. Plus elles ont de puissance, plus elles génèrent de tokens, plus leur chiffre d’affaires augmente, et plus l’IA devient intelligente.
Nous sommes dans ce cercle vertueux : le tournant du raisonnement est là. L’an dernier, j’ai dit qu’en 2026, la demande et commandes totales pour Blackwell et Rubin atteindraient 500 milliards de dollars. Peut-être que certains ont été impressionnés par ce chiffre record, mais je vous dis aujourd’hui que d’ici 2027, ce chiffre atteindra au moins 1 000 milliards. En réalité, la demande de puissance sera encore plus grande.
Nous avons travaillé dur cette année. 2025 sera l’année du raisonnement Nvidia. Nous voulons que l’IA excelle dans toutes ses phases. L’investissement dans l’infrastructure peut durer longtemps, et Nvidia offre la plateforme la plus durable et la moins coûteuse. Sans aucun doute, Nvidia est la plateforme d’infrastructure IA la moins chère au monde. Tout l’an dernier a été consacré au tournant du raisonnement, qui a lancé cette étape. Les modèles Llama de Meta, LLaMA, et ceux d’OpenAI, ont choisi Nvidia. Les modèles open source avancés sont partout. Nvidia est la seule plateforme capable de faire fonctionner tous les langages et tous les domaines IA, de la biologie à la vision, du graphisme à la voix, de la protéomique à la robotique. Notre architecture, du edge au cloud, est universelle, la plus fiable et la moins coûteuse.
Face à une infrastructure de 10 000 milliards de dollars, il faut assurer performance, coût, et durabilité. Faites confiance à Nvidia : que ce soit dans le cloud, en local, ou partout dans le monde, nous soutenons tout. Nous sommes une plateforme IA opérationnelle. 60 % de notre activité vient des cinq plus grands cloud, dont une partie pour leur IA interne. Les systèmes de recommandation et de recherche migrent vers nos GPU Nvidia, qui offrent un avantage concurrentiel. Grâce à nos collaborations avec les laboratoires IA et à notre écosystème, la puissance se déploie rapidement dans le cloud. 40 % de notre activité concerne le cloud régional, la souveraineté, l’entreprise, l’industrie, la robotique, l’edge, le supercalcul. La diversité de notre impact est notre force, c’est une technologie de base et une plateforme de nouvelle génération.
Notre mission est d’accélérer la technologie. L’année dernière, année du raisonnement, nous avons profondément repensé l’architecture Hopper. Nous avons décidé de la faire évoluer vers un tout nouveau niveau, en séparant le calcul, avec NVLINK-72. La conception, la fabrication, la programmation ont été révolutionnées. Oberon, la nouvelle architecture, est une énorme mise à niveau, et nous continuerons avec la nouvelle Rubin Ultra, en assurant la compatibilité. Oberon utilise la technologie cuivre pour l’expansion verticale, et la communication optique pour l’horizontale, jusqu’à NVLink576. La question est : cuivre ou fibre ? Notre réponse : les deux. Nous lancerons NVLink144 avec Kyber, et relierons le tout par fibre optique pour étendre le cluster NVLink576.
La prochaine génération, Rubin Ultra, est en cours de fabrication. Nous sortirons aussi le nouveau chip LP35, avec la nouvelle architecture révolutionnaire NVFP4, qui apportera une accélération exponentielle. La plateforme Oberon, avec NVLink72, Spectrum-X, et la nouvelle optique CPO, est en production.
Après cela, la nouvelle architecture Feynman sera dévoilée. Elle comprendra un GPU entièrement nouveau, un LPU LP40, et un CPU Rosa, en hommage à Rosalind Franklin. Elle intégrera aussi le DPU BlueField-5, le NIC CX10, et la plateforme Kyber, avec câblage cuivre ou optique. Feynman offrira des solutions d’expansion cuivre et CPO, en parallèle, pour répondre à la demande croissante. La croissance du calcul IA est exponentielle, et la demande de puissance ne cesse d’augmenter.
Nvidia accélère ses architectures chaque année, et est devenue une plateforme d’infrastructure IA complète. Dans les usines IA en construction, beaucoup de systèmes sont sous-optimisés, avec du gaspillage. Beaucoup de composants ne sont pas conçus en synergie. Pour y remédier, nous avons créé Omniverse et DSX, une plateforme de jumeau numérique pour la conception et l’exploitation. Elle permet à tous les partenaires industriels de collaborer virtuellement, pour construire des usines IA de plusieurs gigawatts. Nous disposons d’un système complet de simulation physique : racks, mécanique, thermique, électrique, topologie réseau, intégrés à nos partenaires industriels. La plateforme DSX peut aussi se connecter au réseau électrique réel, pour optimiser la consommation. Dans le centre de calcul, nous utilisons Max-Q pour équilibrer la consommation et la refroidissement, maximisant le Token par watt. Ce projet est immense, et je suis convaincu qu’on peut encore doubler la performance.
Nvidia DSX est un jumeau numérique pour la conception et l’exploitation d’usines IA. Les partenaires peuvent utiliser des API pour la simulation physique, la gestion des données, la coordination électrique, et la maximisation du Token. La conception commence avec des assets de simulation fournis par Nvidia et ses partenaires, gérés par PTC Windchill, puis intégrés dans la plateforme 3DExperience de Dassault. Les entreprises peuvent importer ces données dans leurs outils pour finaliser la conception. La vérification virtuelle utilise Star-CCM+ pour la thermique, Reality pour l’électrique, ETAP pour la simulation électrique, et DSX Air pour la simulation réseau. Une fois la centrale construite, le jumeau numérique devient le gestionnaire : l’agent Phaedrus supervise le refroidissement et l’énergie ; Emerald IA interprète la demande du réseau électrique et ajuste la puissance. Omniverse construit le jumeau du monde, et DSX est la nouvelle plateforme d’usine IA.
Nvidia pense aussi à l’espace. Le chip Thor a passé la certification radiation, et est déployé dans des satellites pour l’imagerie orbitale. Nous envisageons de construire des centres de données en orbite. Nous collaborons avec des partenaires spatiaux pour développer Vera Rubin Space One, une nouvelle machine qui sera le premier centre de données IA dans l’espace. La radiation est un défi, mais Nvidia travaille déjà dessus. Cela rejoint la stratégie de SpaceX, Google, Amazon, pour des centres orbitaux.
Nous avons aussi lancé DSX AI Factory, avec Omniverse DSX Blueprint, pour planifier, simuler, et gérer la vie d’un centre de données IA. AWS a annoncé un partenariat pour déployer plus d’un million de GPU Nvidia, y compris Blackwell, Rubin, Groq 3 LPU, dans ses régions cette année.
Véhicules autonomes et robots : partenaires en forte croissance
La conduite autonome est la troisième ligne directrice. Huang a annoncé que Drive AV, logiciel Nvidia, sera déployé dans 28 villes sur 4 continents d’ici 2028, avec Los Angeles et San Francisco en tête, dès 2027.
Des constructeurs comme BYD, Geely, Nissan, Hyundai développent des véhicules L4 sur la plateforme Drive Hyperion. Isuzu et Tier IV (Chine) travaillent sur des bus autonomes avec la puce AGX Thor. Huang cite : « L’ère du ChatGPT pour voitures autonomes est arrivée. »
Dans la robotique, Disney a présenté Olaf, le robot de « La Reine des Neiges », avec qui Huang a dialog