La xAI, évaluée à 230 milliards de dollars, « est morte » le 6 mai

Auteur : Xiaojing, Tencent Technologies

Le 6 mai, selon des médias étrangers, Elon Musk a annoncé sur le réseau social X : « xAI n’existera plus en tant qu’entreprise indépendante, ce sera simplement SpaceXAI, c’est-à-dire le produit d’IA de SpaceX. »

Le même jour, SpaceX/SpaceXAI a signé un accord de location de puissance de calcul avec Anthropic : transférant l’exclusivité de l’utilisation des 220 000 GPU NVIDIA du centre de données Colossus 1, le bien le plus précieux de xAI, à ce concurrent le plus puissant d’OpenAI, Anthropic.

Toujours le même jour, SpaceX a soumis une demande de construction d’une usine de semi-conducteurs appelée « Terafab » au Texas, avec un investissement initial de 55 milliards de dollars, et un coût total de construction pouvant atteindre 119 milliards de dollars une fois achevée.

Une déclaration de décès d’une entreprise d’IA, une transaction livrant des armes à un rival, une annonce de fondation d’une super usine — trois événements en une seule journée, ce qui correspond bien à la personnalité d’Elon Musk.

Mais le « comédien » Musk n’est jamais simplement en train de jouer. Que cherche-t-il réellement à faire ?

Comment xAI est-il mort

En juillet 2023, Musk a annoncé en grande pompe la création de xAI. L’équipe fondatrice comptait 11 personnes, regroupant des talents clés de DeepMind, OpenAI, et Microsoft Research, avec pour mission « comprendre la nature de l’univers ». La motivation était claire : faire face à OpenAI, qui a trahi l’esprit open source. Musk a investi non seulement de l’argent, mais aussi des ressources exclusives : plus de 500 millions de messages en temps réel par jour sur la plateforme X comme données d’entraînement, ainsi que le plus grand cluster d’entraînement IA au monde, Colossus, construit en 122 jours à partir de zéro.

Image : xAI, fondée en 2023, a pour mission officielle « comprendre l’univers ».

xAI n’a jamais manqué d’argent. Elle a levé plus de 42 milliards de dollars, et après sa dernière levée en janvier 2026, sa valorisation a atteint 230 milliards de dollars, avec des investisseurs comme NVIDIA et Cisco. Elle ne manque pas non plus de puissance de calcul.

Selon xAI, d’ici la fin 2025, Colossus I et II auront dépassé ensemble 1 million de GPU équivalents H100.

Ce qui lui manque, c’est du personnel.

À partir de janvier 2026, l’équipe fondatrice a commencé à quitter le navire. Lors de l’annonce de l’acquisition de xAI par SpaceX à la mi-février, la moitié des 11 membres étaient déjà partis. Mi-mars, Musk a déclaré sur X : « xAI n’a pas construit la bonne chose cette fois, nous repartons de la base ». Le 28 mars, les deux derniers fondateurs, Manuel Kroiss, responsable du pré-entraînement, et Ross Nordeen, assistant de longue date de Musk, ont également confirmé leur départ. Ainsi, tous les 11 co-fondateurs ont quitté.

Les personnes recrutées par Musk pour lutter contre OpenAI ont, par leur départ, prononcé la fin de cette confrontation. Grok, en tant que produit, n’est pas sans marché : selon Apptopia, sa part de marché sur mobile aux États-Unis est passée de 1,9 % en janvier 2025 à 17,8 % en janvier 2026, et sa part sur le web mondial est d’environ 3,4 %. Mais sur les marchés des développeurs et des entreprises, il est presque inexistant. Claude Code a généré en 2025 un revenu annuel de 2,5 milliards de dollars, et la version entreprise de ChatGPT compte déjà des millions d’utilisateurs. Grok n’a même pas de produits équivalents dans ces deux domaines.

xAI est morte d’un paradoxe ironique : elle possède presque le plus grand nombre de GPU au monde, mais ne peut pas retenir les personnes capables de faire des modèles.

22 000 GPU loués à Anthropic : arme livrée à un rival

Le 6 mai, selon des médias étrangers, SpaceXAI a signé un accord de coopération en matière de puissance de calcul avec Anthropic. L’information centrale de l’accord est que : Anthropic obtient l’usage exclusif de tous les ressources de calcul du centre de données Colossus 1 (situé à Memphis, Tennessee, équipé de plus de 220 000 GPU NVIDIA, avec une puissance totale de plus de 300 mégawatts). Anthropic utilisera cette puissance pour augmenter la capacité utilisateur de Claude Pro et Claude Max, ainsi que pour étendre la capacité de calcul de Claude Code. MarketWatch, filiale de Morningstar, indique que cette démarche vise à résoudre le problème de limitation de puissance de Claude Code.

Image : Le 6 mai, Anthropic a annoncé avoir conclu un partenariat en puissance de calcul avec SpaceX pour augmenter la capacité de Claude Code et Claude API.

Les deux parties ont également signé une lettre d’intention plus imaginative : co-développer une « puissance de calcul AI orbitale de plusieurs gigawatts ».

L’absurdité de cette transaction apparaît clairement dans la chronologie. Le 28 avril, le procès de Musk contre OpenAI et les autres pour une réclamation de 150 milliards de dollars s’est ouvert devant un tribunal fédéral du Nord de la Californie, après trois semaines de débats. La même semaine, la société de Musk a signé pour confier toute la capacité de ses plus grands actifs d’entraînement IA à son plus grand concurrent, OpenAI. La seule raison pour laquelle Musk a créé xAI était « pour lutter contre OpenAI » — et maintenant, l’héritage de xAI se transforme en une base de puissance de calcul pour aider Anthropic à rattraper et dépasser OpenAI.

Musk a également ajouté une condition dans ses publications : « SpaceX fournira des ressources de calcul à d’autres entreprises d’IA, à condition qu’elles utilisent leurs propres modèles pour bénéficier à l’humanité entière. » C’est presque une citation mot à mot de la déclaration de fondation d’OpenAI en 2015.

Mais derrière cette narration, la logique économique est plus simple. Après la construction de Colossus 1, principalement utilisée pour entraîner Grok, si toute l’équipe qui a créé Grok s’en va, cette installation de plusieurs milliards de dollars devient un gouffre à coûts fixes — électricité, refroidissement, maintenance, amortissement, etc. — qui brûle de l’argent chaque jour. La louer en totalité permettrait de générer immédiatement un flux de trésorerie stable.

Terafab : la véritable intention derrière la construction d’une usine de chips à 55 milliards de dollars

Le troisième événement annoncé le même jour : SpaceX et Tesla ont conjointement soumis une demande de construction d’une installation de fabrication de semi-conducteurs appelée « Terafab » dans le comté de Grimes, Texas. Selon des médias étrangers, l’investissement initial est d’au moins 55 milliards de dollars, avec un coût total pouvant atteindre 119 milliards de dollars une fois achevé.

La logique de Terafab, en louant la capacité à Anthropic, est cohérente avec celle de Colossus.

Acheter des GPU à d’autres dépend de la chaîne d’approvisionnement de NVIDIA, qui comporte des cycles de certification longs, des priorités de production, et un prix non négociable. Se fabriquer ses propres puces, c’est étendre le modèle commercial de « vente de pelles » du marché de la location vers la fabrication.

Terafab vise une approche hybride, plus proche de TSMC (fonderie) combinée à AWS (location de puissance). Musk veut couvrir toute la chaîne de valeur de l’IA, de la fabrication de puces à l’assemblage en clusters, puis à la vente de puissance de calcul aux clients.

« Puissance spatiale » : une simple histoire pour l’IPO ?

Au-delà, l’histoire de la puissance de calcul d’Elon Musk devient encore plus imaginative. Il a déclaré à plusieurs reprises : « La limite énergétique et thermique de la Terre limitera rapidement le développement de la puissance de calcul IA. D’ici deux à trois ans, le coût minimal du calcul pour l’IA générative sera transféré dans l’espace. »

Il y a une plausibilité physique. Dans le vide spatial, la dissipation thermique par radiation est bien plus efficace que par convection dans l’atmosphère terrestre, et l’énergie solaire en orbite n’est pas atténuée par l’atmosphère ni soumise au cycle jour-nuit. SpaceX possède un avantage structurel unique : ses propres fusées permettent d’internaliser les coûts de lancement ; Starlink, avec plus de 6000 satellites en orbite, dispose déjà d’une infrastructure de transmission de données prête.

Cependant, l’entraînement de grands modèles tolère une certaine latence de communication, mais le service d’inférence est extrêmement sensible à la latence. La limite physique de la liaison terre-espace est de 20 à 40 millisecondes, augmentée par le jitter et la mise en file d’attente du réseau, ce qui est un ordre de grandeur plus lent que les centres de données terrestres. En d’autres termes, la puissance de calcul spatiale pourrait supporter la formation, mais ne pourra pas, à court terme, remplacer les clusters d’inférence terrestres.

L’obstacle économique est encore plus critique. Même si SpaceX réduit de moitié le coût d’un kilogramme de lancement, le coût par watt de puissance dans un centre de données spatial restera significativement plus élevé que sur Terre pendant 2 à 3 ans. À moins que le coût de l’électricité et du refroidissement terrestres n’augmente de façon critique, la faisabilité économique de la puissance spatiale ne sera pas assurée.

Mais cette narration a un impact très différent sur les investisseurs en IPO et sur les ingénieurs. La combinaison « société de fusées » + « infrastructure spatiale IA » est pleine d’imagination pour l’avenir. Selon des médias étrangers, SpaceX aurait déjà déposé secrètement une demande d’IPO le 1er avril, sous le nom de code « Project Apex », en engageant 21 banques d’investissement, avec une cotation prévue en juin, une valorisation de 1,75 billion de dollars, et une levée de fonds de 75 milliards de dollars. Avec une valorisation de 1,75 billion, il faut vraiment beaucoup d’imagination et d’histoires pour y parvenir.

En regroupant les trois événements du 6 mai, Musk veut aussi devenir « le vendeur d’eau pour l’IA ».

Les 500 millions de messages en temps réel par jour sur la plateforme X constituent la source de données ; Grok continue de fonctionner, mais a été rétrogradé en « produit » plutôt qu’en « mission » ; la puissance de calcul repose sur le cluster Colossus et la fabrication de puces Terafab ; la communication est assurée par Starlink à l’échelle mondiale ; la capacité de lancement est assurée par Falcon et Starship. De la donnée au modèle, puis aux puces, à la bande passante, au lancement, Musk veut réaliser une intégration verticale complète.

Mais si, dans deux ans, la bulle d’investissement IA éclate, si les dépenses des entreprises en IA se contractent, si la croissance de la demande en puissance de calcul ralentit, alors l’usine de chips à 55 milliards de dollars deviendra un coût irrécupérable, et le centre de données spatial deviendra des débris orbitaux.

Cependant, Musk a aussi de grandes chances de gagner : il mise sur le fait que l’IA ne s’arrêtera jamais.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler