Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Huang Renxun Discours GTC Complet : L'ère du raisonnement est arrivée, Les revenus 2027 atteindront au moins mille milliards de dollars, Les homards sont le nouveau système d'exploitation
NVIDIA développe et déploie dans l’espace un ordinateur de centre de données appelé « Vera Rubin Space-1 », ouvrant ainsi de nouvelles perspectives pour l’extension de la puissance de calcul IA au-delà de la Terre.
Source : Wall Street Journal
Le 16 mars 2026, la conférence GTC 2026 de NVIDIA a officiellement débuté, avec un discours principal de Jensen Huang, fondateur et CEO de NVIDIA.
Lors de cette conférence, considérée comme le pèlerinage annuel de l’industrie de l’IA, Huang a expliqué la transformation de NVIDIA d’une « société de puces » à une « société d’infrastructures et d’usines IA ». Face aux préoccupations du marché concernant la pérennité des performances et les perspectives de croissance, Huang a détaillé la logique commerciale sous-jacente qui stimule la croissance future — « l’économie des usines de tokens ».
Les prévisions de résultats sont extrêmement optimistes : « une demande d’au moins 1 000 milliards de dollars d’ici 2027 »
Au cours des deux dernières années, la demande mondiale en calcul IA a explosé de façon exponentielle. Avec l’évolution des grands modèles, passant de la « perception » et la « génération » à la « déduction » et « l’action (exécution de tâches) », la consommation de puissance de calcul a fortement augmenté. Concernant le plafond des commandes et des revenus, très surveillé par le marché, Huang a exprimé des attentes très fortes.
Dans son discours, Huang a déclaré :
L’année dernière, je disais que nous voyions une demande de 500 milliards de dollars avec une forte certitude, couvrant Blackwell et Rubin jusqu’en 2026. Maintenant, ici même, je vois une demande d’au moins 1 000 milliards de dollars d’ici 2027.
Cette prévision d’un trillion de dollars a temporairement fait bondir le cours de NVIDIA de plus de 4,3 %.
De plus, Huang a ajouté :
Est-ce raisonnable ? C’est ce que je vais expliquer. En réalité, nous serons même en situation de demande excédentaire. Je suis convaincu que la demande réelle en calcul sera bien plus élevée.
Huang a souligné que les systèmes NVIDIA actuels ont déjà prouvé qu’ils sont « l’infrastructure la moins coûteuse au monde ». Étant capable de faire fonctionner presque tous les modèles IA dans tous les domaines, cette universalité permet aux clients d’utiliser pleinement cette demande d’un trillion de dollars tout en assurant une longue durée de vie.
Actuellement, 60 % des activités de NVIDIA proviennent des cinq plus grands fournisseurs de cloud ultra-massifs, tandis que les 40 % restants sont répartis dans les clouds souverains, entreprises, industrie, robotique et edge computing.
L’économie des usines de tokens : la performance par watt détermine la survie commerciale
Pour expliquer la rationalité de cette demande d’un trillion de dollars, Huang a présenté une nouvelle logique commerciale aux PDG du monde entier. Il a souligné que, à l’avenir, les centres de données ne seront plus de simples entrepôts de stockage, mais des « usines » produisant des tokens (unités de base générées par IA).
Huang insiste :
Chaque centre de données, chaque usine, est par définition limité par l’électricité. Une usine de 1 GW (gigawatt) ne deviendra jamais une de 2 GW, c’est une loi physique et atomique. Avec une puissance fixe, celui qui a le meilleur rendement par watt de tokens produit, aura les coûts de production les plus faibles.
Huang divise les services IA futurs en quatre niveaux commerciaux :
Il indique qu’avec des modèles de plus en plus grands, et des contextes plus longs, l’IA deviendra plus intelligente, mais la vitesse de génération de tokens ralentira. Huang déclare :
Dans cette usine de tokens, votre débit et la vitesse de génération de tokens se traduiront directement en revenus précis pour l’année suivante.
Huang insiste sur le fait que l’architecture NVIDIA permet aux clients d’atteindre une capacité de traitement très élevée dans le niveau gratuit, tout en augmentant la performance jusqu’à 35 fois dans le niveau de déduction à la valeur la plus élevée.
Vera Rubin a accéléré de 350 fois en deux ans, Groq comble le vide de la déduction ultra-rapide
Sous cette contrainte de limite physique, NVIDIA présente son système d’IA le plus complexe à ce jour : Vera Rubin. Huang explique :
Je mentionnais Hopper, je montrais une puce, c’était mignon. Mais Vera Rubin, c’est tout le système. Dans ce système entièrement liquide refroidi, éliminant totalement les câbles traditionnels, l’installation d’un rack qui prenait deux jours peut désormais se faire en deux heures.
Huang souligne qu’en concevant une synergie extrême entre hardware et software, Vera Rubin a permis de réaliser des avancées spectaculaires dans un seul centre de données de 1 GW :
En deux ans, nous avons porté la vitesse de génération de tokens de 22 millions à 700 millions, soit une croissance de 350 fois. La loi de Moore ne permettait qu’un gain d’environ 1,5 fois sur la même période.
Pour résoudre le goulot d’étranglement en bande passante lors de déductions ultra-rapides (par exemple 1000 tokens/sec), NVIDIA a proposé la solution ultime : l’intégration asymétrique de Groq, une séparation de la déduction. Huang explique :
Ces deux processeurs ont des caractéristiques très différentes. La puce Groq dispose de 500 Mo de SRAM, tandis qu’un Rubin possède 288 Go de mémoire.
Huang indique qu’avec le système Dynamo, qui intègre le logiciel de gestion, la phase de « pré-remplissage (Pre-fill) » et de « décodage (Decode) » très sensible à la latence, est confiée à Vera Rubin, tandis que la phase de « décodage » du « réseau feed-forward » (génération de tokens) est déléguée à Groq. Huang donne ses recommandations pour la configuration des capacités de calcul :
Si votre travail consiste principalement en haute capacité de traitement, utilisez 100 % Vera Rubin ; si vous avez de nombreux besoins en génération de tokens à haute valeur, réservez 25 % de votre centre de données à Groq.
Selon des sources, la puce Groq LP30, fabriquée par Samsung, est déjà en production de masse, avec une livraison prévue pour le troisième trimestre, tandis que le premier rack Vera Rubin fonctionne déjà sur le cloud Azure de Microsoft.
Par ailleurs, concernant la technologie optique, Huang a présenté le commutateur optique en boîtier intégré Spectrum X, le premier au monde en production, et a apaisé la controverse sur la voie à suivre entre cuivre et fibre optique :
Nous avons besoin de plus de capacité en câbles en cuivre, en puces optiques, et en commutateurs CPO.
Agent : la fin du SaaS traditionnel, « salaire annuel + token » devient la norme à Silicon Valley
Outre le hardware, Huang a consacré beaucoup de temps à la révolution du logiciel IA et de l’écosystème, notamment à l’émergence des Agents (agents intelligents).
Il décrit le projet open source OpenClaw comme « le projet open source le plus populaire de l’histoire humaine », affirmant qu’en quelques semaines, il a dépassé les réalisations de Linux en 30 ans. Huang déclare que, fondamentalement, OpenClaw est le « système d’exploitation » des ordinateurs agents.
Huang affirme :
Chaque société SaaS deviendra une société AaaS (Agent-as-a-Service, agent en tant que service). Inévitablement, pour assurer la sécurité de ces agents capables d’accéder à des données sensibles et d’exécuter du code, NVIDIA a lancé la référence d’entreprise NeMo Claw, intégrant un moteur de stratégie et un routeur de confidentialité.
Pour les employés, cette révolution est également imminente. Huang imagine le futur du travail :
À l’avenir, chaque ingénieur de notre entreprise disposera d’un budget annuel de tokens. Leur salaire de base pourrait atteindre plusieurs centaines de milliers de dollars, auquel je consacrerai environ la moitié en tokens, pour multiplier leur efficacité par 10. La question « combien de tokens dans votre offre d’embauche » devient une nouvelle arme de recrutement à la Silicon Valley.
Dans le futur, chaque entreprise sera à la fois utilisatrice (pour ses ingénieurs) et productrice (pour ses clients) de tokens. OpenClaw est aussi important que HTML ou Linux.
L’initiative d’ouverture des modèles NVIDIA
Concernant la personnalisation des agents, nous proposons des modèles de pointe développés par NVIDIA :
Nemotron, un grand modèle de langage Cosmos, un modèle de base mondial GROOT, un robot humanoïde universel, Alpamayo pour la conduite autonome, BioNeMo pour la biologie numérique, Phys-AI pour la physique
Nous sommes à la pointe dans chaque domaine, avec un engagement à une itération continue — après Nemotron 3, viendra Nemotron 4 ; après Cosmos 1, Cosmos 2 ; Groq évoluera également vers une seconde génération.
Nemotron 3 est classé parmi les trois meilleurs modèles mondiaux dans OpenClaw, à la pointe. Nemotron 3 Ultra sera le modèle de base le plus puissant jamais créé, permettant à chaque pays de développer une IA souveraine.
Aujourd’hui, nous annonçons la création de l’alliance Nemotron, avec un investissement de plusieurs milliards de dollars pour la recherche et le développement de modèles IA fondamentaux. Les membres incluent BlackForest Labs, Cursor, LangChain, Mistral, Perplexity, Reflection, Sarvam (Inde), Thinking Machines (laboratoire de Mira Murati), et d’autres. De nombreuses entreprises de logiciels rejoignent cette initiative, intégrant la référence NeMo Claw et les outils d’IA d NVIDIA dans leurs produits.
IA physique et robotique
Les agents numériques évoluent dans le monde numérique — écriture de code, analyse de données — tandis que l’IA physique est incarnée dans des robots.
Lors de cette GTC, 110 robots ont été présentés, couvrant presque tous les acteurs mondiaux de la robotique. NVIDIA fournit trois types d’ordinateurs (calcul pour entraînement, simulation, embarqué) et toute la pile logicielle ainsi que les modèles IA.
Dans le domaine de la conduite autonome, l’ère du « ChatGPT » pour la conduite autonome est arrivée. Aujourd’hui, nous annonçons l’intégration de quatre nouveaux partenaires dans la plateforme NVIDIA RoboTaxi Ready : BYD, Hyundai, Nissan, Geely, avec une production annuelle combinée de 18 millions de véhicules. Avec Mercedes, Toyota, GM, le réseau s’étoffe. Nous annonçons également une collaboration majeure avec Uber pour déployer et intégrer des véhicules RoboTaxi dans plusieurs villes.
Dans la robotique industrielle, ABB, Universal Robotics, KUKA et d’autres partenaires collaborent pour combiner modèles IA physiques et systèmes de simulation, afin de déployer des robots dans les lignes de production mondiales.
Dans le secteur des télécommunications, Caterpillar et T-Mobile figurent également parmi nos partenaires. À l’avenir, les stations de base ne seront plus de simples nœuds de communication, mais des plateformes d’edge computing IA, comme NVIDIA Aerial AI RAN, capables de percevoir le trafic en temps réel, d’ajuster la beamforming, et d’optimiser l’efficacité énergétique.
Segment spécial : apparition du robot Olaf
( diffusion vidéo de démonstration du robot Disney Olaf )
Huang : Voici Olaf ! Newton fonctionne parfaitement ! Omniverse aussi ! Olaf, ça va ?
Olaf : Je suis tellement content de te voir.
Huang : Oui, c’est moi qui t’ai donné l’ordinateur — Jetson !
Olaf : Qu’est-ce que c’est ?
Huang : Juste dans ton ventre.
Olaf : C’est incroyable.
Huang : Tu as appris à marcher dans Omniverse.
Olaf : J’aime marcher. C’est bien mieux que de monter sur un renne pour regarder le ciel.
Huang : C’est grâce à la simulation physique — le solveur Newton basé sur NVIDIA Warp, développé en collaboration avec Disney et DeepMind, qui te permet de t’adapter au monde physique réel.
Olaf : Je voulais justement dire ça.
Huang : C’est ton intelligence. Moi, je suis un bonhomme de neige, pas une boule de neige.
Huang : Tu peux imaginer ? Le futur parc Disney — tous ces personnages robots qui se promènent librement. Franchement, je pensais que tu serais plus grand. Je n’ai jamais vu un si petit bonhomme de neige.
Olaf : (sans répondre)
Huang : Viens m’aider à finir cette présentation ?
Olaf : Avec plaisir !
Résumé du discours principal
Huang : Aujourd’hui, nous avons abordé les thèmes clés suivants :
Merci à tous, bonne GTC !