Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Aperçu en 5 minutes du discours de Huang Renxun à GTC : revenus d'un billion de dollars, LPU, puces spatiales, "élever des crevettes" en un clic
Dans la nuit de mardi, heure de Beijing, le PDG de Nvidia, Huang Renxun, a livré une allocution de plus de deux heures et demie durant laquelle il a effectué une véritable “bombardement à la bombe” sur les concepts matériels et logiciels de l’industrie de l’IA.
Pour le marché des capitaux, cette journée a également été riche en récoltes — presque toutes les notions de spéculation anticipées se sont réalisées, et Huang Renxun a également surpris en présentant ses dernières prévisions financières explosives concernant les revenus des puces de calcul.
Reportage complet en direct : Rétrospective intégrale du discours de Huang Renxun sur “l’IA full-stack” : le lancement d’une nouvelle vision de plusieurs billions de dollars
Mot-clé : 1 billion de dollars
Huang Renxun a confirmé lors de son discours que la puce phare de Nvidia aiderait l’entreprise à atteindre 1 billion de dollars de revenus d’ici 2027.
Quant à la portée de cette déclaration favorable, elle dépendra de la compréhension de chaque investisseur. Il avait auparavant indiqué qu’à la fin 2026, les équipements de centres de données généreraient 500 milliards de dollars de ventes. La dernière prévision prolonge cette projection d’une année supplémentaire, doublant également le montant total prévu.
Cette déclaration a été également le moment le plus excitant pour les investisseurs lors de tout le discours. Le cours de l’action Nvidia a connu une hausse maximale de plus de 4 % en séance, pour finalement clôturer à +1,6 %.
Plateforme d’usine AI GPU (X)
Nvidia a souligné que Vera Rubin n’est pas une seule puce, mais une plateforme complète de supercalculateur AI composée de 7 types de puces et de 5 systèmes de rack.
Outre la combinaison bien connue sur le marché des capitaux de Rubin GPU et Vera CPU (rack Vera Rubin NVL72 GPU), la plus grande nouveauté de cette conférence réside dans deux produits CPU.
Le rack Vera CPU intègre 256 Vera CPU dans un seul rack, avec une efficacité de calcul doublée par rapport aux CPU traditionnels, et une vitesse d’exécution augmentée de 50 %.
Le rack Groq 3 LPX est équipé de 256 processeurs LPU, offrant 128 Go de SRAM sur puce et une bande passante d’extension de 640 To/s. Lorsqu’il est combiné avec la plateforme Vera Rubin, le débit de traitement en inférence / rapport puissance est amélioré de 35 fois. Huang Renxun a précisé que la fabrication des puces LPU serait confiée à Samsung, et que le lancement des racks est prévu pour le second semestre de cette année.
Les trois racks mentionnés ci-dessus utilisent tous une architecture de refroidissement liquide.
Le très attendu Spectrum-6 SPX adopte, sans surprise, la technologie d’encapsulation optique (CPO), offrant une efficacité lumineuse cinq fois supérieure et une fiabilité réseau dix fois plus élevée.
Concernant les futurs produits, le RubinUltra intégrera dans le rack Kyber une disposition en insertion verticale, permettant de connecter 144 GPU dans un seul domaine NVLink. La prochaine génération de GPU basée sur l’architecture Feynman utilisera des puces empilées et une technologie HBM sur mesure.
Il est également important de noter que le rack Kyber supportera simultanément les connexions NVL144 et NVL1152 (via une interconnexion optique directe entre racks), ce qui oblige Huang Renxun à demander à tous les fournisseurs de connecteurs de renforcer leur capacité de production.
Selon le site officiel de Nvidia, Kyber sera étendu via une interconnexion optique directe entre racks pour former un supercalculateur NVL1152 entièrement interconnecté à grande échelle, servant de base à la prochaine génération de calculs IA à très grande échelle utilisant l’architecture Feynman. Kyber sera d’abord lancé sous forme de système NVL144 autonome, accompagné de Vera Rubin Ultra, offrant aux clients trois options d’extension de domaine NVLink : NVL72, NVL144 et le modèle phare NVL576.
Puces de données spatiales
Nvidia a également lancé le module Space-1 Vera Rubin, qui déploie une capacité de calcul IA de niveau centre de données sur des satellites et des centres de données orbitaux (ODC), en insistant sur ses applications pour l’inférence en orbite, l’intelligence géospatiale en temps réel et les missions spatiales autonomes.
L’entreprise souligne également que sa gamme de produits — comprenant Jetson Orin, IGX Thor, le GPU RTX PRO 6000 Blackwell, ainsi que le futur module Space-1 — constitue une architecture complète de puissance de calcul allant de l’edge orbital au centre de données IA au sol, jusqu’à l’analyse dans le cloud.
Une seule commande pour “élever des crevettes”
En s’attaquant à l’industrie des “homards”, Nvidia transforme l’infrastructure d’agents IA en une nouvelle voie de croissance.
NemoClaw est positionné comme la couche d’infrastructure de la plateforme d’agents OpenClaw, permettant de déployer des agents IA par une seule commande, tout en intégrant le modèle Nemotron et l’environnement d’exécution OpenShell, complétant ainsi les capacités de sécurité, de confidentialité et de sandboxing. L’objectif est non seulement une déploiement ultra-simple, mais aussi une “élevage sécurisé de crevettes”.
Nvidia insiste sur le fait que NemoClaw peut fonctionner sur des PC RTX, des stations de travail RTX PRO, ainsi que sur des appareils comme DGX Station et DGX Spark, pour soutenir l’évolution vers des “assistants IA toujours en ligne” nécessitant des équipements de calcul dédiés.
L’entreprise a également annoncé l’expansion de son “système de modèles ouverts”, couvrant trois grands axes de l’IA : l’IA agentique (Agentic AI), l’IA physique (Physical AI) et l’IA médicale.
DLSS 5 : le moment GPT dans le domaine de la technologie graphique
Nvidia a également présenté DLSS 5 lors de la conférence GTC, affirmant qu’il s’agit de la plus importante avancée dans le domaine de la graphisme depuis l’introduction du ray tracing en temps réel en 2018.
Huang Renxun a déclaré : « Après 25 ans d’invention du shader programmable par Nvidia, nous redéfinissons à nouveau la graphisme informatique. DLSS 5 est le ‘moment GPT’ dans le domaine graphique. »
Le nouveau système DLSS 5 combine les données graphiques 3D traditionnelles avec un modèle d’IA générative, capable de prédire et de compléter certaines parties de l’image, permettant ainsi aux GPU Nvidia de générer des scènes riches en détails et des personnages très réalistes sans avoir à tout rendre à partir de zéro.
Illustration par Caijing·Plus de contenu utile
(Article source : Caixin)