Une bulle énorme déclenchée par NVIDIA est sur le point d'éclater.

Source : interface AGI

Mi-mai, la période de 90 jours de suspension des droits de douane a soudainement intensifié une bataille pour les ressources fondamentales de puissance de calcul.

"Les prix des serveurs fluctuent considérablement, récemment le prix par unité a augmenté de 15%-20%. Avec la suspension des droits de douane, nous prévoyons de reprendre les ventes au prix d'origine." a déclaré un fournisseur de puces d'une région du sud à Huxiu.

Dans le même temps, le côté offre du marché a également rencontré de nouvelles variables. Tiger Sniff a obtenu en exclusivité que la série haut de gamme Hooper d'NVIDIA et la série Blackwell ont fait leur apparition sur le marché national, la première étant apparue vers septembre 2024, tandis que la seconde s'est produite récemment. Un cadre de Huari Smart Computing a déclaré : "Les canaux d'approvisionnement des différents fournisseurs sont tous différents." Et le réseau complexe de la chaîne d'approvisionnement derrière cela reste inexploré.

(Note de Huxiu : À partir du 17 octobre 2023, les autorités de Washington ont progressivement suspendu la vente de puces par NVIDIA à la Chine, y compris les A100, A800, H800, H100, H200 ; récemment, le dernier modèle H20 de la série Hooper pouvant être vendu à la Chine a également été ajouté à la liste des restrictions à l'exportation.)

Parmi eux, la série haut de gamme Hooper d'NVIDIA fait généralement référence au H200, qui est la version améliorée de la puce H100. Le premier est seulement environ deux cent mille plus cher que le second, mais son efficacité est supérieure de 30 %. La série Blackwell appartient également à la gamme haut de gamme d'NVIDIA, avec un B200 dont le prix atteint plus de 3 millions, et qui est actuellement le produit le plus "à circulation restreinte", avec des voies de circulation encore plus secrètes. Ces deux modèles sont utilisés pour le pré-entraînement de grands modèles, et le B200 est encore plus difficile à obtenir.

En remontant dans le temps, en avril 2024, une photo de Jensen Huang avec Ultraman (Sam Altman) et le co-fondateur d'OpenAI Greg Brockman a circulé sur Twitter. Cette photo est liée à un moment clé de la livraison des premiers produits H200 - le PDG de Nvidia, Jensen Huang, a personnellement livré le produit, et OpenAI était l'un des premiers utilisateurs de l'H200.

À peine 5 mois plus tard, des nouvelles de l'approvisionnement en H200 ont été rapportées de l'autre côté de l'océan. Aujourd'hui, des fournisseurs nationaux sont capables de fournir 100 serveurs H200 par semaine. Selon ce fournisseur, avec l'arrêt de la production de H100, la demande du marché se déplace rapidement vers le H200, et actuellement, il y a moins d'une dizaine de fournisseurs maîtrisant l'approvisionnement en H200, ce qui creuse davantage le fossé entre l'offre et la demande.

"Le H200 est actuellement ce qui manque le plus sur le marché, et d'après ce que je sais, une entreprise de cloud recherche récemment des H200 partout." a déclaré un vétéran de l'industrie de la puissance de calcul avec 18 ans d'expérience à Huxiu, précisant qu'ils fournissent des services de puissance de calcul à Baidu, Alibaba, Tencent et ByteDance depuis longtemps.

Dans cette course aux armements en matière de puissance de calcul, la chaîne de transaction est enveloppée de mystère. Un fournisseur de puissance de calcul de premier plan dans le pays a déclaré que la règle de tarification de la puissance de calcul en vigueur dans l'industrie est que le contrat ne mentionne que l'unité de puissance de calcul « P », transformant les transactions de serveurs en transactions abstraites de puissance de calcul. (Note de Huxiu : P est l'unité de calcul de la puissance de calcul) Par exemple, lors des transactions de puissance de calcul entre l'utilisateur et le fournisseur de puissance de calcul, le modèle de la carte ne sera pas directement inscrit dans le contrat, mais sera remplacé par combien de P de puissance de calcul, c'est-à-dire qu'en surface, le modèle de la carte spécifique ne sera pas inscrit.

En profondeur dans la chaîne d'approvisionnement, un réseau de transactions secret refait surface. Des médias ont précédemment rapporté que certains distributeurs chinois se sont procuré des serveurs via des canaux d'approvisionnement spéciaux, réalisant une "introduction en bourse détournée" grâce à une revente et un emballage en plusieurs étapes. De plus, Huxiu a appris que certains distributeurs ont également trouvé d'autres voies, en s'appuyant sur des entreprises tierces pour obtenir des serveurs en intégrant des modules dans leurs produits.

Derrière les turbulences de la chaîne industrielle, le développement de l'industrie de la puissance de calcul en Chine prend également une nouvelle direction.

01 D'où vient la bulle de calcul intelligent ?

À la fin de l'année 2023, le "règlement Nvidia" venu de l'autre côté de l'océan, tel un gros rocher jeté dans un lac paisible, a déclenché une guerre secrète autour des ressources essentielles de puissance de calcul.

Au cours des premiers mois, le marché a présenté un chaos et une agitation primitifs. Sous la tentation des bénéfices rapides, certains individus aux instincts aiguisés ont commencé à prendre des risques. "À l'époque, le marché était envahi par des 'fournisseurs' de divers horizons, y compris des étudiants rentrés de l'étranger et quelques individus bien informés," se souvient un professionnel de l'industrie qui a souhaité rester anonyme. "Leur mode de circulation était relativement simple et brut, bien que les transactions restent secrètes, elles n'avaient pas encore formé la chaîne complexe de sous-traitance qui apparaîtrait plus tard."

Ces premiers "pionniers" ont utilisé l'écart d'information et divers canaux non officiels pour fournir des cartes graphiques haut de gamme NVIDIA sur le marché. Par conséquent, le prix des cartes graphiques a naturellement augmenté. Selon certains rapports médiatiques, parmi eux, certains fournisseurs individuels ont même fixé le prix de la carte graphique NVIDIA A100 à 128 000 RMB, bien au-dessus de son prix de vente conseillé officiel d'environ 10 000 USD. Pire encore, certaines personnes sur les plateformes de médias sociaux ont montré des puces H100, affirmant que leur prix unitaire atteint 250 000 RMB. À l'époque, ces comportements et postures pouvaient être qualifiés de presque ostentatoires.

Sous cette circulation secrète, certains grands fournisseurs de puissance de calcul ont déjà commencé à disposer de canaux de réseau de transactions similaires, et le engouement pour l'intelligence computationnelle qui en résulte a également émergé à la même période. Entre 2022 et 2024, de nombreuses régions se sont précipitées pour construire des centres d'intelligence computationnelle. Des données montrent qu'en 2024 seulement, le nombre de projets de centres d'intelligence computationnelle a dépassé 458.

Cependant, cette frénésie de "spéculation sur les cartes et le calcul intelligent" n'a pas duré longtemps. À la fin de 2024, notamment après l'émergence de grands modèles nationaux comme DeepSeek avec leur rapport qualité-prix élevé, certains fournisseurs de puissance de calcul qui dépendaient uniquement de la "spéculation sur les cartes" ou manquaient de soutien technologique de base ont découvert que leur récit devenait de plus en plus difficile à raconter. La bulle du calcul intelligent montre également des signes de rupture.

Selon des statistiques, au premier trimestre 2025, il y a eu 165 projets de centres de calcul intelligent en Chine continentale, dont 58 % (95 projets) sont encore en état d'approbation ou de préparation, 33 % (54 projets) sont en construction ou sur le point de commencer la production, tandis que seuls 16 projets ont réellement été mis en production ou en phase d'essai, représentant moins de 10 %.

Bien sûr, les signes de rupture de bulle ne se manifestent pas seulement au niveau national. Au cours des six derniers mois, des entreprises comme Meta et Microsoft ont également annoncé la suspension de certains projets de centres de données mondiaux. L'autre face de la bulle est l'inquiétante inefficacité et l'inoccupation.

Des professionnels du secteur ont déclaré à Hu Xiu que "le taux d'activation des centres de calcul intelligent est actuellement inférieur à 50%, et les puces nationales, en raison de leurs lacunes en matière de performance, ne peuvent tout simplement pas être utilisées pour le pré-entraînement. De plus, certains centres de calcul intelligent utilisent des serveurs relativement obsolètes."

Ce phénomène de "carte inutilisable" est qualifié par les professionnels du secteur de "mismatch structurel" - il ne s'agit pas d'un excès absolu de puissance de calcul, mais d'un manque d'offre de puissance de calcul efficace capable de répondre à une demande haut de gamme, tandis qu'une grande quantité de ressources de calcul déjà construites ne peuvent pas être pleinement utilisées en raison de l'écart technologique, d'un écosystème incomplet ou d'une capacité opérationnelle insuffisante.

Cependant, sur le paysage de l'intelligence computationnelle où coexistent agitation et inquiétude, les géants de la technologie affichent des postures totalement différentes.

Selon des rapports, ByteDance prévoit d'investir plus de 12,3 milliards de dollars (environ 89,2 milliards de RMB) dans l'infrastructure AI d'ici 2025, dont un budget de 40 milliards de RMB sera consacré à l'achat de puces AI en Chine, et environ 50 milliards de RMB sont prévus pour l'achat de puces NVIDIA. En réponse à cela, ByteDance a déclaré à Huxiu que l'information était inexacte.

Dans le domaine de l'IA, Alibaba a également investi massivement. Le PDG Wu Yongming a annoncé le 24 février que, au cours des trois prochaines années, Alibaba prévoit d'investir 380 milliards de yuans pour construire des infrastructures d'IA. Ce chiffre dépasse même le total des dix dernières années.

Mais face à des achats massifs, la pression du côté de l'offre se fait également sentir. "Le marché n'arrive pas à fournir les grandes entreprises, de nombreuses sociétés ont signé des contrats mais ne peuvent pas livrer." a déclaré un commercial d'un fournisseur de calcul intelligent à Huxiu.

En comparaison, la bulle de l'intelligence computationnelle mentionnée ci-dessus semble former un contraste frappant avec les investissements massifs des grandes entreprises dans les infrastructures d'IA aujourd'hui : d'un côté, les fournisseurs de puissance de calcul, principalement du marché A-shares, suspendent tous les grands projets d'intelligence computationnelle, tandis que de l'autre, les grandes entreprises investissent activement dans les infrastructures d'IA.

Et la raison derrière cela n'est pas difficile à comprendre. Parce que le moment où le calcul intelligent a brutalement refroidi coïncide avec DeepSeek. Depuis le début de cette année, plus personne n'a évoqué le concept de "guerre des cent modèles" ; DeepSeek a fait éclater la bulle des besoins de formation. Aujourd'hui, il ne reste à la table que les grandes entreprises et quelques sociétés de modèles d'IA.

À ce sujet, Feng Bo, partenaire de Changlei Capital Management, a également déclaré à Huxiu : "Lorsque l'entraînement n'est pas florissant, ceux qui ont vraiment la capacité et les qualifications pour s'entraîner continueront à acheter des cartes d'entraînement, comme Alibaba et ByteDance, tandis que ceux qui n'ont pas la capacité de s'entraîner se disperseront. La puissance de calcul de ces personnes deviendra alors une bulle."

02 La puissance de calcul résiliée

La naissance de toute "bulle" est enracinée dans l'imagination irrationnelle de l'humanité face à la rareté. Ceux qui spéculent sur le Moutai et amassent de la puissance de calcul ne sont pas en soi des amateurs de Moutai ou des consommateurs de puissance de calcul, mais partagent tous une mentalité spéculative.

D'ici fin 2024 et au premier trimestre 2025, plusieurs entreprises telles que Feilixin, Lianhua Holdings et Jinjigufen ont successivement résilié des contrats de location de puissance de calcul d'une valeur de plusieurs centaines de millions de yuans. Dans le même temps, un fournisseur de puissance de calcul a déclaré à Huxiu : "Dans le métier de la location de puissance de calcul, le retour de location est une chose courante."

Ces entreprises qui mettent fin à leurs baux ne sont pas de véritables utilisateurs de puissance de calcul. Avec les secousses provoquées par DeepSeek, la bulle de l'industrie de l'IA se fissure progressivement, de nombreux fournisseurs de puissance de calcul doivent faire face à un problème de surcapacité et cherchent partout une clientèle stable, explorant de nouveaux chemins pour absorber la puissance de calcul.

Huxiu a découvert lors d'une enquête qu'une carte de visite du fondateur d'un fournisseur de puissance de calcul affichait non seulement trois entreprises dans le domaine de l'intelligence de calcul et du cloud computing, mais également une société d'investissement. En approfondissant l'enquête, il a été révélé que les projets financés par cette société d'investissement incluent une entreprise de robots et une entreprise spécialisée dans le développement de grands modèles et de systèmes cloud. Ce fondateur a révélé à Huxiu que "toutes les demandes de puissance de calcul des deux entreprises financées sont satisfaites par leur propre système de fourniture de puissance de calcul ; de plus, les entreprises financées achètent généralement la puissance de calcul fournie par leur propre société à des prix de marché bas."

En réalité, dans l'industrie de l'intelligence computationnelle, des formes de liaison entre l'intelligence computationnelle et l'investissement ne sont pas des cas isolés. Pour de nombreux fournisseurs de puissance de calcul, « c'est actuellement une très bonne façon d'absorber les cartes, mais cela n'a tout simplement pas été mis en avant. », a déclaré Feng Bo à Huxiu.

Cependant, dans l'histoire ci-dessus, il s'agit d'un chemin d'absorption de la puissance de calcul de type "monopolistique", c'est-à-dire que les fournisseurs de puissance de calcul investissent pour verrouiller la demande de puissance de calcul et satisfont directement l'ensemble des besoins en puissance de calcul des projets dans lesquels ils ont investi. Mais ce n'est pas la seule manière.

Feng Bo estime qu'un autre modèle à considérer est celui où "les fournisseurs de puissance de calcul interviennent en tant que LP dans les fonds industriels, construisant un modèle de chaîne de demande de puissance de calcul en boucle fermée."

En termes spécifiques, ce modèle commercial présente des caractéristiques de liaison de capital : le fournisseur de puissance de calcul A, en tant que partenaire limité potentiel (LP), établit une intention de coopération avec le fonds industriel B. Dans la carte d'investissement du fonds B, le fournisseur d'applications AI C est considéré comme une entreprise ciblée, dont le développement commercial présente une demande rigide en ressources de calcul. À ce moment-là, A, par un investissement stratégique dans le fonds B, lie indirectement les besoins futurs en achat de puissance de calcul de l'entreprise C, construisant ainsi un cercle fermé de "investissement en capital - achat de puissance de calcul".

Si la transaction se concrétise, la société A obtiendra un droit de service prioritaire grâce à son statut de LP, devenant ainsi le fournisseur privilégié pour l'achat de puissance de calcul de la société C. Ce modèle crée essentiellement un flux circulaire de fonds - la contribution de la société A au fonds B se reflète finalement par l'achat de puissance de calcul de la société C.

“Ce n'est pas une méthode courante, mais c'est une méthode qui est encore assez utile.” a avoué Feng Bo.

03 La bulle est sur le point d'éclater, et ensuite ?

"Parler de la bulle de l'intelligence computationnelle ne peut pas se limiter à la puissance de calcul, c'est un problème de chaîne industrielle. Pour faire fonctionner la puissance de calcul, il faut relier les points qui ont été déconnectés, et actuellement, cette chaîne industrielle n'est pas encore formée en boucle fermée." Un directeur marketing d'un fournisseur de puissance de calcul ayant des années d'expérience dans l'industrie a souligné de manière pertinente le problème central de l'industrie de l'intelligence computationnelle.

Au début de l'année 2025, une tendance marquante dans le domaine de l'IA est que le terme "pré-entraînement", qui était autrefois sur toutes les lèvres des grandes entreprises d'IA, est progressivement remplacé par "inférence". Que ce soit pour le vaste marché de consommation B2C ou pour les applications d'entreprise B2B qui habilitent des milliers d'industries, la courbe de croissance de la demande d'inférence semble exceptionnellement abrupte.

"Il vaut mieux faire une simple projection," a estimé un analyste du secteur, "en prenant en compte la taille des applications AI dominantes sur le marché actuel, comme Doubao, DeepSeek, etc. Supposons que chaque utilisateur actif génère en moyenne 10 images par jour, la demande en puissance de calcul qui en résulte pourrait facilement atteindre le niveau des millions de P. Cela ne concerne que le scénario de génération d'images. Si l'on superpose des interactions multimodales telles que le texte, la voix, la vidéo, la demande devient encore plus difficile à évaluer."

C'est seulement la demande de raisonnement des utilisateurs C. Pour les utilisateurs B, la demande de raisonnement est encore massive. Un cadre de Huari Zhikuan a déclaré à Tiger Sniff que la construction de centres de calcul intelligent par les fabricants de voitures commence à partir de l'échelle de dizaines de milliers de P, "et parmi nos clients, à part les grands fabricants, ce sont les fabricants de voitures qui ont le plus besoin de puissance de calcul."

Cependant, lorsque l'on relie la demande massive de raisonnement à la bulle de puissance de calcul, l'histoire semble particulièrement absurde. Pourquoi une telle demande de raisonnement génère-t-elle encore une bulle de puissance de calcul ?

Un fournisseur de puissance de calcul a déclaré à Hu Xiu que des besoins en inférence aussi massifs nécessitent que les fournisseurs de services d'intelligence artificielle optimisent la puissance de calcul grâce à des techniques d'ingénierie, telles que la réduction du temps de démarrage, l'augmentation de la capacité de stockage, la réduction des délais d'inférence, l'amélioration du débit et de la précision de l'inférence, etc.

De plus, le problème de déséquilibre entre l'offre et la demande mentionné ci-dessus provient en grande partie des problèmes de puces. À cet égard, des personnes informées de l'industrie ont déclaré à Hu Xiu que l'écart entre certaines cartes nationales et celles de NVIDIA reste assez important, leur développement étant inégal. Même au sein d'une même marque, même en empilant de nombreuses cartes, des faiblesses subsistent, ce qui entraîne l'incapacité d'un cluster unique à effectuer efficacement l'entraînement et l'inférence de l'IA.

Cet effet de "goulot d'étranglement" signifie que même en construisant des grappes de puissance de calcul par empilement massif de puces, si le problème du goulot d'étranglement n'est pas résolu de manière efficace, l'efficacité globale de l'ensemble de la grappe restera limitée, rendant difficile le soutien efficace des tâches d'entraînement complexes et d'inférence à grande échelle des grands modèles d'IA.

En fait, bien que les défis d'ingénierie en matière de puissance de calcul et les goulets d'étranglement des puces soient sévères, de nombreux besoins profonds en puissance de calcul n'ont pas été satisfaits de manière efficace. Leur véritable "point de rupture" apparaît souvent dans l'écosystème d'applications au-dessus de la couche de puissance de calcul, en particulier le grave manque de modèles verticaux de couche L2 (c'est-à-dire spécifiques à des secteurs ou des scénarios particuliers).

Dans l'industrie médicale, il existe un énorme "trou" à combler. L'effet d'aspiration des talents est un problème structurel qui a longtemps été critiqué dans le système de santé national, avec d'excellents médecins concentrés dans les hôpitaux de niveau trois des grandes villes. Mais alors que l'industrie espère que les grands modèles médicaux permettront de faire descendre les ressources médicales de qualité, un défi plus fondamental émerge : comment construire un espace de données médicales de confiance ?

Parce que pour entraîner un grand modèle vertical capable de traiter l'ensemble du parcours de soins, les données sont une condition clé. Mais le problème est qu'il faut des données massives couvrant l'ensemble du parcours de soins, tous les groupes d'âge, tous les sexes et toutes les régions pour former des connaissances dans le grand modèle. Or, dans la réalité, le taux d'ouverture des données médicales est inférieur à 5 %.

Le directeur du département d'information d'un hôpital de premier plan a révélé que parmi les 500 To de données de traitement générées chaque année par son hôpital, moins de 3 % des données structurées et anonymisées peuvent réellement être utilisées pour l'entraînement de l'IA. Plus grave encore, les données sur les maladies rares et chroniques, qui représentent 80 % de la valeur du tableau des maladies, restent longtemps endormies dans des "îlots de données" au sein des différentes institutions médicales en raison de leur sensibilité.

Et de tels points de rupture ne peuvent pas être résolus, la chaîne d'approvisionnement ne peut donc pas former une boucle fermée. La demande de puissance de calcul ne sera naturellement pas satisfaite, et il est évident que cela dépasse déjà de loin le domaine que les fournisseurs d'infrastructures de calcul traditionnels, qui se contentent de fournir "des cartes et de l'électricité", peuvent gérer de manière autonome.

Cependant, il existe maintenant un certain nombre de nouveaux types de fournisseurs de services informatiques intelligents sur le marché qui émergent discrètement. Ces entreprises ne se limitent plus à la simple location de matériel ou de puissance de calcul, et elles peuvent également mettre en place une équipe d’algorithmes professionnels et une équipe d’experts de l’industrie pour participer en profondeur au développement et à l’optimisation des applications d’IA des clients.

Dans le même temps, face à divers problèmes de déséquilibre des ressources et de taux d'utilisation de la puissance de calcul, différentes régions mettent en place diverses politiques de subvention à la puissance de calcul en fonction des besoins industriels locaux. Parmi elles, le "coupon de puissance de calcul" est une forme de subvention qui réduit directement le coût de l'utilisation de la puissance de calcul pour les entreprises. Cependant, pour l'industrie de l'intelligence calculatoire en Chine à ce stade, un simple "médicament d'urgence" politique risque de ne pas inverser fondamentalement la situation.

Aujourd'hui, ce que l'industrie de l'intelligence computationnelle nécessite, c'est un écosystème de type « hématopoïétique ».

Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)