Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Wall Street commente GTC : Dans la définition de Nvidia, la puissance de calcul est le revenu, Token est la nouvelle marchandise de base
Comment la réduction significative du coût du Token stimule-t-elle l’expansion de la demande en IA ?
Le GTC annuel de Nvidia a envoyé un signal clé : la logique commerciale de la puissance de calcul en IA est en train de se restructurer fondamentalement — le Token est devenu une nouvelle marchandise de grande ampleur, et la puissance de calcul équivaut à du revenu.
Lors de cette édition du GTC, la direction de Nvidia a fortement relevé la visibilité des ventes de centres de données, passant de 500 milliards de dollars (couvrant jusqu’en 2026) à plus de 1 000 milliards de dollars (couvrant la période cumulée 2025-2027), tout en précisant que les ventes du CPU Vera indépendant et des solutions de rack LPX seront comptabilisées en supplément. Wall Street voit cet événement comme une forte validation de la continuité du cycle IA de Nvidia.
Selon ChaseTrade, le dernier rapport de JP Morgan indique que ce chiffre signifie qu’il existe un potentiel de hausse d’au moins 50 à 70 milliards de dollars par rapport aux attentes actuelles de Wall Street concernant les revenus des centres de données pour 2026-2027.
Bank of America cite directement la déclaration de la direction de Nvidia — « Le Token est une nouvelle marchandise de grande ampleur, la puissance de calcul équivaut à du revenu » — et souligne que le système Blackwell a réduit le coût par Token jusqu’à 35 fois par rapport à la génération Hopper précédente, et que la série Rubin à venir pourrait encore réduire ce coût de 2 à 35 fois, selon le type de charge de travail et la configuration architecturale.
Dans le cadre narratif de Nvidia, cette courbe de réduction continue du coût du Token constitue la force motrice fondamentale derrière l’expansion à grande échelle de la demande.
Visibilité de la demande doublée, double moteur : clients massifs et marché des entreprises
La direction de Nvidia a révélé que les commandes d’achat à haute confiance pour les systèmes Blackwell et Vera Rubin dépassent 1 000 milliards de dollars, doublant ainsi le chiffre annoncé lors du GTC Data Center de 2025, qui était de 500 milliards. Elle a également indiqué que les commandes supplémentaires et les commandes en retard pour 2027 devraient continuer à s’accumuler au cours des 6 à 9 prochains mois.
La structure de la demande devient diversifiée : environ 60 % proviennent de grands fournisseurs de cloud (dont la consommation interne d’IA migre des charges de travail de recommandation/recherche vers de grands modèles de langage), le reste étant réparti entre des entreprises IA natives dans le cloud utilisant CUDA, partenaires cloud de Nvidia, IA souveraine, ainsi que clients industriels et commerciaux.
Bank of America note que cette nouvelle perspective de 10 000 milliards de dollars est cohérente avec l’ancienne prévision de Wall Street d’environ 9 700 milliards pour ces trois années, validant la logique que la précédente projection de 500 milliards en octobre 2025, qui visait 4 500 milliards, était également fondée.
Il est également notable que la direction de Nvidia a consacré une part importante de son discours à l’accélération des charges de travail traditionnelles en entreprise, soulignant cette demande.
Nvidia a annoncé des collaborations avec IBM (pour accélérer WatsonX), Google Cloud (pour accélérer BigQuery, avec une économie d’environ 76 % sur les coûts pour Snap), Dell (plateforme de données IA), et a lancé deux grandes bibliothèques CUDA-X : cuDF et cuVS.
JP Morgan estime que cette orientation est « fortement sous-estimée par le marché » — sa logique étant que la loi de Moore est en déclin, et que l’accélération spécifique au domaine est la seule voie de substitution viable, ce qui étendrait le marché adressable de Nvidia au-delà des cycles d’entraînement et d’inférence IA.
Intégration du Groq LPU : la nouveauté la plus importante au niveau architectural
JP Morgan qualifie l’intégration des 3 LPU de Groq avec Vera Rubin comme « la nouveauté la plus importante au niveau architectural » lors de ce GTC.
Ce système de déduction déconnecté associe le GPU Rubin (haute capacité, 288 Go HBM4, bande passante de 22 To/s, 50 PFLOPS NVFP4) avec le LPU de Groq (décodeur à faible latence, 500 Mo de SRAM sur puce, 150 To/s de bande passante SRAM, 1,2 PFLOPS FP8) : le pré-remplissage est effectué sur Rubin, la partie décodeur d’attention fonctionne également sur Rubin, tandis que le réseau feedforward / génération de tokens est déchargé vers le LPU de Groq.
Le rack LPX intègre 256 LPU, offrant 128 Go de SRAM agrégé, 40 Po/s de bande passante mémoire et 315 PFLOPS de puissance de calcul en inférence, avec une sortie prévue pour le troisième trimestre 2026.
La direction de Nvidia indique que pour les charges de travail nécessitant une vitesse de token extrêmement élevée (génération de code, calculs d’ingénierie, inférence à long contexte), environ 25 % de la consommation électrique du centre de données sera allouée au LPX, le reste étant dédié à la configuration Vera Rubin NVL72.
Bank of America montre que « le système Rubin associé au rack SRAM LPX peut améliorer l’efficacité des charges de travail à faible latence haut de gamme jusqu’à 35 fois par rapport à la génération précédente ». JP Morgan souligne que cette architecture répond directement à la contradiction fondamentale selon laquelle un seul processeur ne peut pas optimiser simultanément le débit (limité par les FLOPS) et la latence (limité par la bande passante), permettant à Nvidia de concurrencer efficacement sur le marché de l’inférence haut de gamme, traditionnellement dominé par les ASIC.
Progression parallèle des câbles en cuivre et du CPO, aucune voie unique
La direction de Nvidia a répondu frontalement à la rivalité entre câbles en cuivre et optique intégrée (CPO), confirmant le développement simultané des deux voies.
Pour la génération Vera Rubin actuelle, le rack Oberon utilise des câbles en cuivre pour étendre jusqu’à NVL72, et l’extension optique jusqu’à NVL576 ; le commutateur Ethernet optique en boîtier unique Spectrum-6 SPX, développé conjointement avec TSMC, est en production de masse. La direction indique que son efficacité énergétique optique est cinq fois supérieure à celle des transceivers traditionnels, avec une résilience dix fois meilleure.
Pour Rubin Ultra (fin 2027), le rack Kyber utilisera une extension NVLink en cuivre (jusqu’à 144 GPU), tout en proposant une alternative basée sur le CPO pour l’échange NVLink. Feynman (2028) supportera explicitement les deux voies — cuivre et CPO — avec l’intégration du Spectrum-7 (204 T, CPO) pour l’extension horizontale.
Bank of America insiste sur le fait que l’adoption des commutateurs d’extension CPO / d’échange pour extension horizontale sera entièrement optionnelle pour les clients, qui pourront continuer à utiliser le cuivre jusqu’au moment qu’ils jugeront opportun. JP Morgan partage cette vision, anticipant que l’extension cuivre continuera à dominer au moins jusqu’en 2027 dans les configurations NVL72/NVL144, tandis que la part du CPO s’accroîtra progressivement dans les extensions horizontales et les configurations NVL576+.
Vera CPU : une nouvelle source de revenus indépendante de plusieurs milliards de dollars pour l’IA intelligente
La direction de Nvidia a clairement indiqué lors du GTC que l’activité indépendante du CPU Vera « est déjà confirmée comme une activité de plusieurs dizaines de milliards de dollars », et Bank of America souligne que cette source de revenus n’est pas encore intégrée dans les attentes consensuelles du marché, constituant une contribution additionnelle.
Le CPU Vera intègre 88 cœurs ARM Olympus développés en interne, un sous-système mémoire LPDDR5X offrant une bande passante de 1,2 To/s (avec une consommation moitié moindre que celle d’un CPU serveur traditionnel), et se connecte aux GPU via NVLink-C2C à 1,8 To/s (soit sept fois la vitesse de PCIe Gen 6). Le rack de CPU Vera comprend 256 CPU refroidis par liquide, supportant plus de 22 500 environnements CPU simultanés.
La direction insiste sur le fait que le CPU devient un goulot d’étranglement pour l’expansion de l’IA à base d’agents — l’apprentissage par renforcement et les workflows d’agents nécessitent de nombreux environnements CPU pour tester et valider les sorties des modèles GPU. Meta a déjà déployé à grande échelle la génération précédente de CPU Grace, et Vera prendra le relais en 2027.
JP Morgan qualifie cette source de revenus CPU de « haute marge, réplicable » (déployée avec les racks GPU dans les usines IA), et la lie de façon structurelle à la courbe d’adoption de l’IA agentielle que Nvidia cherche à catalyser activement.
Feuille de route produit jusqu’en 2028, le rythme annuel de lancement maintenu
Nvidia réaffirme son rythme annuel de lancement de plateformes : Blackwell (2024) → Blackwell Ultra (2025) → Rubin (2026) → Rubin Ultra (2027) → Feynman (2028).
Rubin Ultra adoptera une configuration GPU à 4 chips, avec 1 To de HBM4e, et introduira le nouveau LPU LP35 (avec pour la première fois la puissance de calcul NVFP4). Le rack Kyber supportera jusqu’à 144 GPU par NVLink (7e génération, 3,6 Tb/s par GPU, bande passante agrégée NVL576 de 1,5 Pb/s).
Les détails de Feynman dépassent les attentes du marché :
Le nouveau GPU sera fabriqué en TSMC A16 (1,6 nm), intégrant le stacking de puces et la mémoire HBM sur mesure ; le nouveau CPU, nommé Rosa (en hommage à Rosalind Franklin), sera conçu pour orchestrer les charges de travail intelligentes multi-GPU, multi-LPU, stockage et réseau ; le nouveau LPU, nommé LP40, sera développé en collaboration avec l’équipe interne de Groq ; il comprendra également un DPU BlueField-5, une supercarte ConnectX-10, NVLink 8 et Spectrum-7 (204 T, CPO).
JP Morgan considère que la plateforme intégrée verticalement de Nvidia (déjà composée de sept puces, cinq systèmes de rack et une pile logicielle) est difficile à copier, et que l’accélération des besoins en inférence, la croissance structurelle du marché adressable grâce à l’accélération des charges de travail traditionnelles, ainsi que l’expansion continue de la base client, soutiennent un cycle de dépenses en capital IA plus durable que ce que le marché anticipe actuellement.