“bouts de billions” revenus, la confiance et les défis d'NVIDIA

Cette semaine, aucun chiffre n’a davantage secoué le marché que “1 000 milliards de dollars”.

Dans son discours d’ouverture à la conférence annuelle des développeurs GTC de Nvidia, Huang Renxun a déclaré qu’à la fin 2027, l’architecture de puces d’accélération AI de nouvelle génération Blackwell de Nvidia et le produit de la prochaine génération Rubin, cumulés, devraient générer au moins 1 000 milliards de dollars de revenus, et a précisé que ce chiffre ne comprend pas les ventes des solutions indépendantes Vera CPU et LPX.

De 5 000 milliards à 1 000 milliards, les prévisions de revenus des puces de Nvidia doubleront en l’espace de six mois.

Dans ce bras de fer de marché autour de la “bulle AI”, pourquoi Huang Renxun peut-il donner une estimation largement supérieure aux attentes du marché ? Cet objectif pourra-t-il être atteint ?

Ouvrez l’actualité NetEase pour voir des images captivantes

D’où vient cette assurance

Les prévisions de “revenus en mille milliards” de Huang Renxun reposent sur trois piliers.

1、Une visibilité des commandes extrêmement élevée. Pendant une interview accordée aux médias durant la GTC2026, Huang Renxun a souligné que les prévisions de revenus supérieures à 1 000 milliards de dollars annoncées ce lundi ont une “forte visibilité”. Nvidia s’attend à réaliser, à encaisser et à livrer des activités d’une valeur dépassant 1 000 milliards de dollars, et affirme avoir une “confiance ferme” pour atteindre l’objectif de “plus de 1 000 milliards de dollars”.

Cette appréciation de “forte visibilité” n’est pas sortie de nulle part. Huang Renxun a indiqué que, pour l’instant, la demande la plus essentielle des clients est “d’assurer l’obtention d’un approvisionnement suffisant”, et non le prix. Cela reflète que le marché de la puissance de calcul pour l’IA se trouve encore dans un stade typique de goulot d’étranglement de l’offre : l’offre est bien inférieure à la demande, et les clients s’inquiètent davantage de ne pas pouvoir obtenir les produits que de leur prix.

Omdia a indiqué que le secteur de l’emballage avancé fait face à une crise. Les capacités CoWoS de TSMC passent d’environ 75k tranches de wafers par mois en 2025 à 120 à 130k tranches d’ici la fin 2026, mais cela reste insuffisant pour satisfaire la demande en forte hausse. En conséquence, le délai de livraison s’allonge, les prix augmentent, et la répartition des capacités est encore plus orientée vers les plus gros clients.

Huang Renxun a en outre précisé que les achats à grande échelle provenant des fournisseurs cloud et des entreprises d’IA rendent les commandes, les réservations et les expéditions très prévisibles ; c’est aussi la raison clé pour laquelle il ose porter ce jugement de “forte visibilité”. Du point de vue de l’industrie, des géants technologiques, dont OpenAI, Meta, Microsoft, Google, Amazon, etc., intensifient en continu la construction de centres de données d’IA, ce qui fait croître exponentiellement les besoins en puissance de calcul.

JPMorgan a par ailleurs noté que “1 000 milliards de dollars” signifie qu’il existe au moins 50 à 70 milliards de dollars de potentiel de hausse par rapport aux attentes consensuelles actuelles de Wall Street concernant les revenus des centres de données de 2026 à 2027.

2、L’IA entre dans l’“ère de l’inférence”. Contrairement aux deux dernières années centrées sur la “formation de modèles”, Huang Renxun a insisté à maintes reprises lors de la conférence GTC2026 : l’industrie de l’IA est entrée dans un “tournant de l’inférence”.

On appelle inférence (Inference) les besoins de calcul en temps réel lors de l’utilisation réelle des modèles d’IA. Quand les utilisateurs posent des questions à ChatGPT, utilisent Midjourney pour générer des images, ou demandent aux voitures autonomes de prendre des décisions, ce sont des calculs d’inférence qui soutiennent l’ensemble. À la différence des calculs massifs ponctuels de l’étape d’entraînement, l’inférence est continue : les besoins en calcul augmentent de façon linéaire, voire exponentielle, à mesure que le nombre d’utilisateurs s’étend.

Dans son discours, Huang Renxun a déclaré : “L’entraînement rend le modèle intelligent, mais l’inférence permet à l’IA de passer réellement dans les foyers. Chaque interaction utilisateur requiert de la puissance de calcul, et avec la généralisation des agents IA, les besoins en inférence dépasseront largement ceux liés à l’entraînement.”

Estimation de la taille du marché :

- Marché de l’entraînement : relativement concentré, dominé principalement par quelques grands acteurs technologiques ; la demande suit des cycles de projets et des pics par étapes

- Marché de l’inférence : extrêmement dispersé, allant des API côté cloud aux dispositifs de périphérie (edge), des applications grand public aux solutions d’entreprise ; la demande est continue et connaît une croissance à grande échelle

3、Itération produit + stratégie de “plateformisation”. Les prévisions de 1 000 milliards de dollars révélées par Huang Renxun à la GTC2026 couvrent uniquement les revenus des puces de l’architecture Blackwell et de la prochaine génération Rubin, et ne comprennent ni les nouveaux produits qui seront bientôt lancés, ni les régions et marchés supplémentaires. Cela signifie que la taille globale potentielle de l’activité IA de Nvidia pourrait encore dépasser le périmètre actuel des estimations.

Feuille de route produit :

- Architecture Blackwell (2024-2025) : production à grande échelle déjà lancée ; les puces B200 offrent 4 fois meilleures performances en entraînement que H100, et les performances en inférence progressent jusqu’à 30 fois

- Architecture Rubin (2026-2027) : devrait commencer un déploiement à grande échelle en 2026, avec un saut supplémentaire des performances

- Architecture Feynman (2028 et au-delà) : les architectures de prochaine génération, à plus long terme, sont déjà en R&D

Le plus important est que Nvidia passe de “vendre des puces” à “vendre des usines IA”. Lors de la conférence, Huang Renxun a présenté le système d’exploitation d’inférence open source NVIDIA Dynamo, une maquette (blueprint) de l’usine de données physiques IA, ainsi que des collaborations avec de grands acteurs mondiaux des logiciels industriels, dans le but de construire un écosystème complet d’infrastructure d’IA.

Des analystes indiquent que cette stratégie de plateformisation signifie que les revenus futurs de Nvidia ne se limiteront plus à un seul GPU, mais s’étendront à des systèmes complets de centres de données. Le responsable senior de la recherche chez Wedbush (000021) Dan Ives a ainsi déclaré : Nvidia ne fait pas que progresser sur la vague immense de l’intelligence artificielle ; elle étend désormais aussi son contrôle sur les infrastructures qui soutiennent l’IA.

Cela amplifiera nettement le plafond des revenus. Huang Renxun a affirmé sans détour : “L’objectif de 1 000 milliards de dollars va continuer de gonfler.”

La voie des mille milliards fait face à de multiples défis

Malgré la confiance affichée par Huang Renxun, atteindre des revenus cumulés de 1 000 milliards de dollars (d’ici la fin 2027) reste confronté à de multiples défis.

Tout d’abord, l’urgence de la fenêtre temporelle. D’ici mars 2026 et la fin 2027, il reste moins de deux ans pour que Nvidia atteigne des revenus cumulés de 1 000 milliards de dollars. En tenant compte du délai allant de la commande à la livraison des puces (généralement 6 à 12 mois) et du temps nécessaire aux déploiements à grande échelle, la fenêtre de revenus confirmables est encore plus serrée.

- Chiffre d’affaires de l’exercice 2025 de Nvidia (au 1er janvier 2025) : 130,5 milliards de dollars

- Chiffre d’affaires de l’exercice 2026 de Nvidia (correspondant à février 2025 à janvier 2026) : 215,9 milliards de dollars ; le chiffre d’affaires de l’exercice 2027 atteint environ 3000 à 10k de dollars

- Revenus cumulés sur 2025-2027 : environ 6000-10k de dollars

- Pour atteindre 1 000 milliards de dollars, cela signifie que le chiffre d’affaires annuel en 2027 devra probablement dépasser 500B de dollars

Cela implique que Nvidia doit réaliser une croissance d’environ le double en glissement annuel d’ici 2027 ; pour n’importe quelle entreprise matérielle, ce serait un défi inédit.

Ensuite, la concurrence du marché s’intensifie.

En 2025, AMD a lancé la série MI400, considérée par le secteur comme un défi direct pour Blackwell de Nvidia. Le PDG d’AMD, Lisa Su, a déclaré dans une interview récente : “Notre part de marché dans le secteur de l’IA progresse régulièrement. MI400 affiche un meilleur rapport coût-efficacité que Blackwell sur des charges de travail spécifiques, ce qui est très attirant pour les clients sensibles aux prix.”

La menace la plus importante vient du fait que les gros clients de Nvidia accélèrent le déploiement de leurs puces IA développées en interne :

- TPU v6 de Google : déjà utilisé pour l’entraînement et l’inférence de Gemini2.0, avec des performances proches de Blackwell

- Trainium3/Inferentia3 d’Amazon : déploiement à grande échelle sur AWS ; les coûts sont inférieurs de 30 à 40 % à ceux des solutions de Nvidia

- Maia200 de Microsoft : déploiement complet sur Azure à partir de fin 2025

- Meta MTIA : prévoit de lancer quatre générations de puces IA développées en interne d’ici fin 2027

Un ancien ingénieur puces chez Google a déclaré : “L’efficacité des TPU pour l’entraînement des modèles Transformer a déjà dépassé celle des GPU. Bien que la polyvalence soit inférieure à CUDA, pour les grandes entreprises ayant des charges de travail bien définies, l’économie des puces développées en interne est extrêmement attrayante. L’objectif des fournisseurs cloud est, d’ici 2027, que les puces développées en interne représentent 30 à 40 % de leurs achats de puissance de calcul IA.”

L’analyste de Seaport Research indique : “Nvidia a plus que jamais besoin de fournir des efforts pour conquérir des revenus.”

En outre, la chaîne d’approvisionnement pourrait également rencontrer des goulots d’étranglement. Actuellement, le principal goulot d’étranglement est la capacité d’emballage avancé CoWoS de TSMC. Bien que TSMC accélère l’expansion, l’écart entre l’offre et la demande pour les puces haut de gamme d’IA devrait persister jusqu’à la fin 2026. Si le rythme d’expansion n’est pas conforme aux attentes, Nvidia risque de se retrouver dans une situation gênante : “il y a des commandes, mais pas de livraisons”.

Les troubles au Moyen-Orient se répercutent aussi sur la Corée du Sud, qui possède des capacités de fabrication de stockage. Selon les statistiques 2025 de l’Association coréenne du commerce international, la dépendance de l’importation de l’hélium de la Corée du Sud vis-à-vis du Qatar atteint jusqu’à 64,7 %. Le processus de fabrication des semi-conducteurs dépend fortement de l’hélium pour refroidir les wafers de silicium ; pour l’heure, on pense qu’il n’existe pas de solution de remplacement viable. Le gouvernement sud-coréen a également indiqué que si une interruption de l’approvisionnement se prolonge, cela pourrait entraîner une pénurie d’hélium et une hausse des prix.

À noter que le blocus du détroit d’Ormuz maintient le prix du pétrole mondial à un niveau élevé de 100 dollars le baril, ce qui constitue un coup dur pour les centres de données de calcul à forte consommation d’énergie. Si le coût de l’énergie compense les gains d’efficacité apportés par les puces, les plans d’investissement mondiaux en IA pourraient être contraints de réduire leur envergure.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler