Analyse des résultats financiers d'NVIDIA pour l'exercice 2026 : trois grandes transformations sont en cours !

robot
Création du résumé en cours

En tant que géant mondial des puces d’intelligence artificielle (IA), NVIDIA a une fois de plus publié des résultats « supérieurs aux attentes ». Le rapport financier du quatrième trimestre de l’exercice 2026 et les données annuelles de l’ensemble de l’année 2026 pour le secteur des centres de données ont atteint de nouveaux sommets, et les prévisions pour le trimestre suivant ont également dépassé les attentes du marché. En analysant les performances publiées par NVIDIA, on peut constater que trois grandes transformations sont en cours.

Mise à niveau du modèle commercial

Bien que le fondateur et PDG de NVIDIA, Jensen Huang, ait souligné à plusieurs reprises que NVIDIA ne vend pas seulement des puces, mais une « usine d’IA », l’impression dominante reste profondément ancrée. Cependant, les derniers résultats confirment le succès de la mise à niveau du modèle commercial de NVIDIA.

Pour l’exercice 2026, NVIDIA a réalisé un chiffre d’affaires annuel de 215,9 milliards de dollars, en hausse de 65 % par rapport à l’année précédente. Selon la norme GAAP, le bénéfice net s’élève à 120,07 milliards de dollars, également en hausse de 65 %. Le bénéfice par action est de 4,9 dollars, en augmentation de 67 %.

En tant que cœur de l’activité de NVIDIA, le secteur des centres de données connaît une croissance forte, avec un revenu de 62,3 milliards de dollars au quatrième trimestre, record historique, en hausse de 75 % par rapport à l’année précédente. Sur l’ensemble de l’année, ce secteur a généré 193,7 milliards de dollars, représentant près de 90 % du chiffre d’affaires total.

L’analyste principal de Shenxin Alliance, Gu Zhengshu, indique que l’activité des centres de données de NVIDIA est en train de se transformer d’une simple composante à un système intégré complet. En guidant les clients de l’achat d’une seule GPU B200 à la mise en place de systèmes en rack GB200 NVL72, le prix moyen des produits est passé d’environ 40 000 dollars à 2 à 3 millions de dollars, marquant une évolution du modèle commercial.

« Cette intégration en rack non seulement augmente le plafond des revenus, mais grâce à la technologie NVLink, au CPU Grace et aux logiciels de la gamme complète, elle lie en profondeur les quatre grands fournisseurs de services cloud — Amazon, Google, Meta et Microsoft — à l’écosystème NVIDIA, compensant ainsi de manière significative la menace potentielle à long terme posée par la recherche interne de puces ASIC à grande échelle », explique Gu Zhengshu.

De plus, en tant que pierre angulaire des centres de données de NVIDIA, le secteur du réseau connaît une explosion sans précédent.

Grâce à l’adoption robuste de NVLink, Spectrum X Ethernet et InfiniBand, l’activité réseau de l’entreprise connaît une croissance remarquable, avec une demande en expansion horizontale et verticale atteignant des sommets historiques. La croissance en pourcentage par rapport au trimestre précédent est à deux chiffres. Le revenu du secteur réseau pour l’exercice 2026 dépasse 31 milliards de dollars ; comparé à l’acquisition de Mellanox pour renforcer cette activité en 2021, la croissance a été multipliée par plus de 10.

Un analyste du secteur électronique a déclaré à notre journaliste que l’activité réseau est considérée comme une autre « arme secrète » importante en dehors de l’écosystème CUDA de NVIDIA, et qu’elle s’infiltre de manière plus flexible dans le camp des concurrents. Avec l’augmentation des livraisons de nouveaux châssis, la part du réseau dans le chiffre d’affaires global augmentera également.

Selon Jensen Huang, le réseau est une extension naturelle de la plateforme : « Nous ouvrons tous les composants pour que les clients puissent les combiner, les gérer à leur guise, et les intégrer dans des centres de données sur mesure. » Au quatrième trimestre, NVIDIA a annoncé qu’il fournirait un support NVLink à Amazon AWS pour une intégration avec ses propres puces.

Investissement massif dans l’ère de l’inférence

En tant que produit phare de NVIDIA, la plateforme basée sur l’architecture Blackwell progresse bien, et la prochaine génération, la plateforme Rubin, prévoit une production en série au second semestre 2026. Selon les informations, par rapport à la plateforme Blackwell, le nombre de GPU nécessaires pour entraîner un modèle MoE (Expert Mixtes) sera réduit de 75 %, et le coût par token d’inférence sera réduit jusqu’à 10 fois, répondant aux besoins d’une inférence à faible coût dans cette nouvelle ère.

Jensen Huang insiste à plusieurs reprises sur le fait que l’IA intelligente a atteint un point d’inflexion, qui s’est produit au cours des deux ou trois derniers mois. Bien que l’industrie ait observé cela depuis environ six mois, le monde ne s’est réellement éveillé que récemment. La demande en puissance de calcul connaît une croissance exponentielle : « La puissance de calcul, c’est le revenu. »

En tant que « roi » de l’époque de l’entraînement IA, NVIDIA mise également lourdement sur l’inférence IA. En décembre dernier, l’entreprise a dépensé 20 milliards de dollars en cash pour acquérir Groq, une technologie d’inférence à faible latence, ainsi que son équipe d’ingénierie. Cette acquisition non exclusive, qui inclut la licence technologique et le transfert de talents, est la plus grande transaction de l’histoire de NVIDIA.

« Cette acquisition a une valeur stratégique extrêmement élevée », déclare Yu Yiran, directeur général de CIC Zhuoshi Consulting. « La LPU (Unité de traitement du langage) de Groq offre une latence très faible et une haute efficacité dans des scénarios d’inférence spécifiques, comme la génération de texte par de grands modèles de langage. L’acquisition aidera NVIDIA à intégrer différentes voies technologiques, à offrir des solutions d’inférence plus complètes à ses clients, et à renforcer sa position en tant que « boutique unique » pour la puissance de calcul IA. »

Yu Yiran ajoute que cette démarche est également une nécessité pour faire face à la concurrence différenciée. Sur le marché de l’inférence, les clients sont plus sensibles aux coûts, à l’efficacité énergétique et à l’optimisation pour des scénarios spécifiques. Grâce à des technologies comme Groq, NVIDIA peut répondre de manière plus flexible avec une gamme de produits variés face à la concurrence de TPU de Google, des puces maison d’Amazon et de divers ASIC.

Selon les dernières « révélations » de Jensen Huang, la technologie Groq sera intégrée dans la nouvelle architecture de NVIDIA, améliorant encore la performance et le rapport coût-efficacité de l’infrastructure IA. Plus de détails seront probablement dévoilés lors du GTC de mars.

Depuis longtemps, l’industrie pense que le véritable défi pour NVIDIA ne réside pas dans les commandes, mais dans la capacité de TSMC et d’autres fournisseurs clés à suivre la demande. Selon Gu Zhengshu, la capacité de fabrication avancée CoWoS-L de TSMC sera en grave pénurie jusqu’à la mi-2026. Par ailleurs, la fourniture de mémoire HBM4 est devenue une position stratégique, la cadence de livraison de SK Hynix (qui détient 70 % du marché) et de Samsung déterminant directement la vitesse de lancement initiale de la plateforme Rubin. Récemment, une pénurie de verre de substrat a également gravement affecté la production de PCB pour les serveurs IA.

Lors de cette conférence sur les résultats, Colette Kress, vice-présidente exécutive et directrice financière de NVIDIA, a précisé que l’entreprise a organisé ses stocks et ses engagements d’approvisionnement pour couvrir les livraisons jusqu’en 2027. Elle prévoit que le chiffre d’affaires annuel de 2026 continuera de croître par rapport au trimestre précédent, dépassant la prévision de 500 milliards de dollars pour les plateformes Blackwell et Rubin annoncée l’an dernier.

TSMC a également augmenté ses dépenses d’investissement, prévoyant un capex de 52 à 56 milliards de dollars en 2026, un record historique. Environ 70 à 80 % de ces investissements seront consacrés à l’expansion des processus avancés, et 10 à 20 % à la technologie d’emballage avancée, afin de garantir la capacité de production de puces IA.

La foi dans les dépenses en IA ne s’est pas « effondrée »

Malgré les inquiétudes répétées des marchés financiers concernant une bulle de l’IA, les fournisseurs mondiaux de services cloud continuent d’investir massivement dans l’infrastructure IA, soutenant ainsi la croissance continue des performances de NVIDIA dans l’ère de l’IA. Selon TrendForce, en 2026, les huit principaux fournisseurs de services cloud dépenseront collectivement plus de 710 milliards de dollars, avec un taux de croissance annuel d’environ 61 %, notamment par l’achat continu de GPU NVIDIA et AMD, ainsi que par l’expansion des infrastructures ASIC, afin d’assurer la compatibilité des applications IA et l’efficacité des coûts de construction des centres de données.

NVIDIA approfondit également ses collaborations écologiques, s’approchant d’un accord avec OpenAI, tout en poursuivant ses partenariats avec Anthropic, Meta, et d’autres.

Outre ses clients des super-clouds et des entreprises de pointe en IA, NVIDIA sert également des gouvernements souverains. Colette Kress indique que pour l’exercice 2026, le chiffre d’affaires de l’IA souveraine de l’entreprise a plus que doublé, dépassant les 30 milliards de dollars, avec des clients principaux au Canada, en France, aux Pays-Bas, à Singapour et au Royaume-Uni. À l’avenir, l’IA souveraine devrait croître en parallèle avec le marché de l’infrastructure IA, chaque pays alignant ses dépenses en IA sur son PIB.

Pour le premier trimestre de l’exercice 2027, NVIDIA prévoit un chiffre d’affaires d’environ 78 milliards de dollars, en hausse de 2 % par rapport à l’année précédente, dépassant largement la prévision du marché de 72,78 milliards de dollars, ce que les analystes qualifient de « prévision écrasante ».

« La performance solide de l’entreprise, combinée à une réaction modérée du marché boursier, résulte d’une anticipation pleinement intégrée et d’un point d’inflexion dans la transaction de fonds à terme », explique Yu Yiran. Sur le marché de l’inférence, la concurrence devient plus ouverte. Google TPU continue de croître rapidement en raison de son rapport qualité-prix et de sa compatibilité ; les fournisseurs de cloud développent leurs propres puces et adoptent des stratégies d’approvisionnement diversifiées ; et des fabricants locaux de GPU progressent dans plusieurs scénarios spécifiques, ce qui pourrait éroder la part de marché et le pouvoir de fixation des prix de NVIDIA à long terme.

Les clients de NVIDIA adoptent également des stratégies d’approvisionnement plus diversifiées. Le 17 février, une semaine seulement après avoir passé commande chez NVIDIA, Meta a annoncé une commande de 6 gigawatts de capacité de calcul auprès d’AMD.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler