Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Analyse des résultats financiers d'NVIDIA pour l'exercice 2026 : trois grandes transformations sont en cours !
En tant que géant mondial des puces d’intelligence artificielle (IA), NVIDIA a une fois de plus publié des résultats « supérieurs aux attentes ». Le rapport financier du quatrième trimestre de l’exercice 2026 et les données annuelles de l’ensemble de l’année 2026 pour le secteur des centres de données ont atteint de nouveaux sommets, et les prévisions pour le prochain trimestre ont également dépassé les attentes du marché. En analysant les performances publiées par NVIDIA, on peut constater que trois grandes transformations sont en cours.
Mise à niveau du modèle commercial
Bien que le fondateur et PDG de NVIDIA, Jensen Huang, ait insisté à plusieurs reprises sur le fait que NVIDIA ne vend pas seulement des puces, mais une « usine d’IA », il est difficile de changer l’impression profondément ancrée dans l’esprit du public. Cependant, les derniers résultats confirment le succès de la mise à niveau du modèle commercial de NVIDIA.
Pour l’exercice 2026, NVIDIA a réalisé un chiffre d’affaires annuel de 215,9 milliards de dollars, en hausse de 65 % par rapport à l’année précédente. Selon la norme GAAP, le bénéfice net s’élève à 120,07 milliards de dollars, également en hausse de 65 %. Le bénéfice par action est de 4,9 dollars, en augmentation de 67 %.
En tant que cœur de l’activité de NVIDIA, le secteur des centres de données connaît une croissance forte, avec un revenu de 62,3 milliards de dollars au quatrième trimestre, record historique, en hausse de 75 % par rapport à l’année précédente. Sur l’ensemble de l’année, ce secteur a généré 193,7 milliards de dollars, représentant près de 90 % du chiffre d’affaires de l’entreprise.
L’analyste principal de Shenxin Alliance, Gu Zhengshu, indique que l’activité des centres de données de NVIDIA est en train de se transformer d’une simple composante à un système intégré complet. En guidant les clients de l’achat d’une seule GPU B200 à la mise en place de systèmes en rack GB200 NVL72, le prix moyen des produits est passé d’environ 40 000 dollars à 2 à 3 millions de dollars, réalisant ainsi une mise à niveau du modèle commercial.
« Cette intégration en rack non seulement augmente le plafond des revenus, mais grâce à la technologie NVLink, au CPU Grace et à un logiciel complet, elle lie en profondeur les quatre grands fournisseurs de services cloud — Amazon, Google, Meta et Microsoft — à l’écosystème NVIDIA, compensant ainsi de manière significative la menace potentielle à long terme posée par la recherche interne de puces ASIC à grande échelle », explique Gu Zhengshu.
De plus, en tant que pierre angulaire des centres de données de NVIDIA, le secteur du réseau connaît une explosion sans précédent.
Grâce à l’adoption robuste de NVLink, Spectrum X Ethernet et InfiniBand, le secteur du réseau de NVIDIA affiche une croissance remarquable, avec une demande en expansion horizontale et verticale atteignant des sommets historiques. La croissance en glissement mensuel est à deux chiffres, et le revenu du secteur réseau pour l’exercice 2026 dépasse 31 milliards de dollars. Par rapport à l’acquisition de Mellanox pour renforcer ce secteur en 2021, la croissance a été multipliée par plus de 10.
Un analyste du secteur électronique a déclaré que le secteur du réseau est considéré comme une autre « arme secrète » importante en dehors de l’écosystème CUDA de NVIDIA, et qu’il s’infiltre de manière plus flexible dans la camp adverse. Avec l’augmentation des livraisons de nouveaux châssis, la part du réseau dans le chiffre d’affaires global augmentera également.
Selon Jensen Huang, le réseau est une extension naturelle de la plateforme : « Nous ouvrons tous les composants, permettant aux clients de les combiner, de les gérer à différentes échelles et de les intégrer dans des centres de données sur mesure. » Au quatrième trimestre, NVIDIA a annoncé qu’il fournirait un support NVLink à Amazon AWS pour l’intégration avec ses propres puces.
Investissement total dans l’ère de l’inférence
Le lancement de la plateforme Blackwell, produit phare de NVIDIA, progresse bien, et la prochaine génération, la plateforme Rubin, prévoit une production en série au second semestre 2026. Selon les informations, par rapport à la plateforme Blackwell, le nombre de GPU nécessaires pour entraîner un modèle MoE (expert mixte) est réduit de 75 %, et le coût par token d’inférence est réduit jusqu’à 10 fois, répondant à la demande de faible coût dans l’ère de l’inférence.
Jensen Huang a souligné à plusieurs reprises que l’IA générative a atteint un point d’inflexion, survenu au cours des deux ou trois derniers mois. Bien que l’industrie ait observé cela depuis environ six mois, le monde ne s’en soit réellement éveillé que récemment. La demande en puissance de calcul connaît une croissance exponentielle, « la puissance de calcul, c’est le revenu ».
En tant que « roi » de l’époque de l’entraînement IA, NVIDIA mise également massivement sur l’inférence IA. En décembre dernier, l’entreprise a dépensé 20 milliards de dollars en cash pour acquérir Groq, une technologie d’inférence à faible latence et une équipe d’ingénierie associée. Cette acquisition non exclusive, qui inclut la licence technologique et le transfert de talents, est la plus grande transaction de l’histoire de NVIDIA.
« Cette acquisition a une valeur stratégique extrêmement élevée », déclare Yu Yiran, directeur général de CIC Zhuoshi Consulting. La LPU (unité de traitement du langage) de Groq offre une latence très faible et une haute efficacité dans des scénarios d’inférence spécifiques, comme la génération de texte par de grands modèles de langage. L’acquisition aidera NVIDIA à intégrer différentes voies technologiques, à offrir des solutions d’inférence plus complètes à ses clients et à renforcer sa position en tant que « boutique unique » pour la puissance de calcul IA.
Yu Yiran ajoute que c’est également une démarche nécessaire pour faire face à la concurrence différenciée. Sur le marché de l’inférence, les clients sont plus sensibles aux coûts, à l’efficacité énergétique et à l’optimisation pour des scénarios spécifiques. Grâce à des technologies comme Groq, NVIDIA peut répondre de manière plus flexible avec une gamme de produits variés face à la concurrence de TPU de Google, des puces maison d’Amazon et de divers ASIC.
Selon Jensen Huang, les technologies de Groq seront intégrées dans la nouvelle architecture de NVIDIA pour améliorer encore la performance et le rapport coût-efficacité de l’infrastructure IA. Plus de détails seront probablement dévoilés lors du GTC en mars.
Depuis longtemps, l’industrie pense que le vrai défi pour NVIDIA ne réside pas dans les commandes, mais dans la capacité de TSMC et d’autres fournisseurs clés à suivre la demande. Gu Zhengshu analyse que la capacité de fabrication avancée CoWoS-L de TSMC sera en grave pénurie jusqu’à la mi-2026. Par ailleurs, la fourniture de mémoire HBM4 est devenue une position stratégique, et le rythme de livraison de SK Hynix (qui détient 70 % du marché) et de Samsung déterminera directement la vitesse de lancement initiale de la plateforme Rubin. Récemment, une pénurie de verre de substrat a également gravement affecté la production de PCB pour les serveurs IA.
Lors de cette conférence de résultats, Colette Kress, vice-présidente exécutive et directrice financière de NVIDIA, a précisé que l’entreprise a organisé ses stocks et ses engagements d’approvisionnement pour couvrir les livraisons jusqu’en 2027. Elle prévoit que le chiffre d’affaires annuel de 2026 continuera de croître par rapport au trimestre précédent, dépassant la prévision de 500 milliards de dollars pour les plateformes Blackwell et Rubin annoncée l’an dernier.
TSMC a également augmenté ses dépenses d’investissement, prévoyant un capex de 52 à 56 milliards de dollars en 2026, un record historique. Environ 70 à 80 % de ces investissements seront consacrés à l’expansion des processus avancés, et 10 à 20 % à la technologie d’emballage avancée, afin de garantir la capacité de production de puces IA.
La foi dans les dépenses en IA ne s’est pas « effondrée »
Malgré les inquiétudes répétées des marchés financiers concernant une bulle de l’IA, les principaux fournisseurs de services cloud mondiaux continuent d’investir massivement dans l’infrastructure IA, soutenant ainsi la croissance continue des performances de NVIDIA dans l’ère de l’IA. Selon TrendForce, en 2026, les huit principaux fournisseurs de cloud dépenseront collectivement plus de 710 milliards de dollars, avec un taux de croissance annuel d’environ 61 %, notamment par l’achat continu de GPU NVIDIA et AMD, ainsi que par l’expansion des infrastructures ASIC, afin d’assurer la compatibilité des applications IA et l’efficacité des coûts de construction des centres de données.
NVIDIA approfondit également ses collaborations écologiques, s’approchant d’un accord avec OpenAI, tout en poursuivant ses partenariats avec Anthropic, Meta, et d’autres.
Outre ses clients des super-clouds et des entreprises de pointe en IA, NVIDIA travaille également avec des gouvernements souverains. Colette Kress indique que pour l’exercice 2026, le chiffre d’affaires de l’IA souveraine a plus que doublé, dépassant 30 milliards de dollars, avec des clients principaux au Canada, en France, aux Pays-Bas, à Singapour et au Royaume-Uni. À l’avenir, l’IA souveraine devrait croître en parallèle avec le marché de l’infrastructure IA, chaque pays alignant ses dépenses en IA sur son PIB.
Pour le premier trimestre de l’exercice 2027, NVIDIA prévoit un chiffre d’affaires d’environ 78 milliards de dollars, en hausse de 2 %, surpassant largement la prévision du marché de 72,78 milliards de dollars, ce que les analystes qualifient de « prévision de performance écrasante ».
« La forte performance de l’entreprise, combinée à une réaction modérée du marché boursier, résulte d’une valorisation anticipée et d’un point d’inflexion dans la transaction de fonds à terme », explique Yu Yiran. Sur le marché de l’inférence, la concurrence devient plus ouverte. Google TPU continue de croître rapidement en raison de son rapport qualité-prix et de sa compatibilité ; les stratégies d’auto-développement des puces par les fournisseurs cloud et la diversification des achats ; et les progrès réalisés par certains fabricants de GPU locaux dans des scénarios spécifiques pourraient éroder la part de marché et le pouvoir de fixation des prix de NVIDIA à long terme.
Les clients de NVIDIA adoptent également des stratégies d’approvisionnement plus diversifiées. Le 17 février, une semaine après avoir passé une commande à NVIDIA, Meta a annoncé une commande de 6 gigawatts de capacité de calcul auprès d’AMD.