Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Deux milliards de dollars : OpenAI et Nvidia se livrent une « bataille de déduction »
Rédacteur : xiaopi
En décembre 2025, Nvidia a discrètement dépensé 20 milliards de dollars pour acquérir une société de puces AI appelée Groq.
Le 17 avril 2026, OpenAI a annoncé qu’il achèterait pour plus de 20 milliards de dollars de puces auprès d’une autre société de puces AI, Cerebras. Le même jour, Cerebras a officiellement déposé un dossier d’introduction en bourse à la NASDAQ, avec une valorisation cible de 35 milliards de dollars.
Deux transactions, des montants presque identiques. L’une est une acquisition, l’autre un achat. L’une provient du plus grand vendeur mondial de puces AI, l’autre du plus grand acheteur mondial d’AI.
Ce ne sont pas deux événements indépendants, ce sont deux mouvements symétriques dans la même guerre. Le nom du champ de bataille : le raisonnement en IA.
La majorité des gens n’ont pas remarqué cette guerre. Parce qu’il n’y a pas de bruit d’explosion, seulement des annonces financières ligne par ligne, et des discussions techniques circulant dans la communauté des ingénieurs de la Silicon Valley. Mais son impact pourrait être plus profond que n’importe quelle conférence IA des deux dernières années — car elle redistribue le contrôle d’un marché technologique qui deviendra probablement le plus grand de l’histoire.
Qu’est-ce que le raisonnement, pourquoi le mot-clé de 2026 n’est plus “entraînement”
Avant de parler des deux investissements de 200 milliards, il faut comprendre un contexte : le champ de bataille des puces AI est en train de changer de centre de gravité.
L’entraînement et le raisonnement sont les deux phases de consommation de puissance de l’IA. L’entraînement consiste à créer un modèle — alimenter un réseau neuronal avec une quantité massive de données pour lui apprendre une certaine capacité. Ce processus ne se produit généralement qu’une seule fois, ou lors de mises à jour régulières. Le raisonnement consiste à utiliser le modèle — chaque fois qu’un utilisateur pose une question, ChatGPT fournit une réponse, ce qui correspond à une requête de raisonnement.
En 2023, la majorité des dépenses mondiales en puissance de calcul IA étaient consacrées à l’entraînement, le raisonnement étant un rôle secondaire.
Mais ce ratio est en train de s’inverser rapidement.
Selon les données d’études de marché de Deloitte et CES 2026, en 2025, le raisonnement représentait déjà 50 % de toutes les dépenses en puissance de calcul IA ; en 2026, ce pourcentage atteindra deux tiers. Yang Yuanqing, PDG de Lenovo, l’a dit plus franchement lors du CES : la structure des dépenses en IA va passer de “80 % entraînement + 20 % raisonnement” à “20 % entraînement + 80 % raisonnement”.
Ce n’est pas compliqué. L’entraînement est un coût ponctuel, le raisonnement un coût continu. GPT-4 a été entraîné une seule fois, mais doit répondre à des centaines de millions d’utilisateurs chaque jour, chaque conversation étant une requête de raisonnement. Après déploiement à grande échelle, la consommation cumulée du raisonnement dépasse largement celle de l’entraînement.
Que cela signifie-t-il ? Que la part la plus lucrative de l’industrie IA est en train de passer des “puces d’entraînement” aux “puces de raisonnement”. Et ces deux types de puces nécessitent des architectures radicalement différentes.
Le problème de Nvidia : des puces conçues pour l’entraînement, mal adaptées au raisonnement
Les H100 et H200 de Nvidia sont des monstres conçus pour l’entraînement. Leur avantage principal est un débit de calcul extrêmement élevé — l’entraînement nécessite de faire de nombreuses multiplications matricielles sur d’énormes matrices, et les GPU excellent dans ce type de “calcul parallèle multi-noyaux”.
Mais le goulot d’étranglement du raisonnement n’est pas le calcul, c’est la bande passante mémoire.
Lorsque l’utilisateur pose une question, la puce doit transférer l’intégralité des poids du modèle de la mémoire vers l’unité de calcul, avant de pouvoir générer une réponse. Ce processus de “transfert” est la véritable source de latence du raisonnement. Les GPU de Nvidia utilisent une mémoire externe à haute bande passante (HBM), mais ce transfert introduit inévitablement une latence — pour ChatGPT traitant des dizaines de millions de requêtes par seconde, cette latence, multipliée par l’échelle, devient un véritable goulet d’étranglement en termes de performance.
Les ingénieurs d’OpenAI ont remarqué ce problème en optimisant Codex (outil de génération de code), et ont constaté que, peu importe les réglages, la vitesse de réponse était limitée par la limite architecturale des GPU Nvidia.
En d’autres termes, l’avantage de Nvidia dans le domaine du raisonnement n’est pas une question d’effort, mais d’architecture.
La puce WSE-3 de Cerebras adopte une approche totalement différente. Cette puce est si grande qu’elle nécessite une encapsulation au niveau wafer — une surface de 46 255 mm², plus grande que la paume d’une main — intégrant 900 000 cœurs AI et 44 GB de SRAM ultra-rapide sur une seule tranche de silicium. La mémoire est directement adjacente aux cœurs de calcul, ce qui réduit la distance de “transfert” de centimètres à micromètres. Résultat : la vitesse de raisonnement est 15 à 20 fois plus rapide que celle du H100 de Nvidia.
Il faut préciser que Nvidia ne reste pas inactif. Sa dernière architecture Blackwell (B200) offre une performance de raisonnement quatre fois supérieure à celle du H100, et est en déploiement massif. Mais Blackwell vise une cible mobile — Cerebras continue aussi d’itérer, et le marché des puces voit émerger de nombreux concurrents, pas seulement Cerebras.
Les 20 milliards de Nvidia : une reconnaissance derrière la plus grande acquisition de l’histoire
En décembre 2025, Nvidia a annoncé sa plus grande acquisition à ce jour.
Cible : Groq.
Groq est un concurrent direct de Cerebras, spécialisé dans les puces SRAM optimisées pour le raisonnement — il s’appelle LPU (Unité de traitement linguistique), et était à l’époque la puce la plus rapide au monde pour le raisonnement selon des évaluations publiques. Nvidia a dépensé 20 milliards de dollars pour racheter toute la technologie et l’équipe fondatrice de Groq, y compris le fondateur Jonathan Ross et plusieurs ingénieurs de haut niveau issus de l’équipe TPU de Google.
C’est la plus grande acquisition depuis l’achat de Mellanox pour 7 milliards en 2019, triplant presque cette somme.
Selon de nombreux analystes, ce que ce montant transmet derrière lui est plus important que le chiffre lui-même : Nvidia considère qu’elle a un déficit structurel dans le domaine du raisonnement, et que ce déficit vaut 20 milliards de dollars à combler.
Si Nvidia croyait vraiment en l’invincibilité de ses GPU en raisonnement, elle n’aurait pas besoin d’acquérir Groq. En réalité, cette dépense est une commande d’achat technologique d’une valeur de 20 milliards — une reconnaissance que l’architecture SRAM intégrée possède un avantage technologique réel dans le domaine du raisonnement, et que Nvidia ne peut pas couvrir naturellement avec ses produits existants. Elle achète donc à prix d’or une lacune technologique qu’elle ne peut combler seule.
Bien sûr, la narration officielle post-acquisition de Nvidia est différente — “intégration profonde avec Groq, pour offrir une solution de raisonnement plus complète.” En langage technique, cela revient à : “Nous avons reconnu que nos solutions actuelles ne suffisent pas, alors nous achetons celles des autres.”
Les 20 milliards d’OpenAI : acheter des puces n’est qu’une façade, l’investissement stratégique est dans l’actionnariat
Revenons maintenant à OpenAI.
En janvier 2026, OpenAI a signé un accord d’achat de puissance de calcul de 10 milliards de dollars sur trois ans avec Cerebras — la presse a alors insisté sur le fait que “OpenAI diversifie ses fournisseurs de puces”, avec un ton léger.
Mais les détails révélés le 17 avril changent radicalement la nature de cette opération :
Premier point, le montant d’achat est passé de 10 milliards à 20 milliards, doublant la mise.
Deuxième point, OpenAI obtiendra des warrants (droit d’achat d’actions) de Cerebras, qui, avec l’augmentation de l’achat, pourrait lui donner jusqu’à 10 % du capital de Cerebras.
Troisième point, OpenAI va aussi fournir 1 milliard de dollars pour la construction de centres de données pour Cerebras — autrement dit, OpenAI aide Cerebras à construire ses usines.
Ces trois éléments dessinant un tout différent : OpenAI ne se contente pas d’acheter des puces, OpenAI incubent un fournisseur.
Ce schéma a des précédents clairs dans l’histoire technologique. En 2006, Apple a commencé à collaborer avec Samsung pour la fabrication de ses puces A, initialement par des commandes importantes, mais en approfondissant sa participation, elle a fini par développer ses propres puces M, et le contrôle de la chaîne d’approvisionnement a complètement basculé des mains d’Intel et Samsung à Apple. Ce que fait OpenAI est en partie similaire — mais avec une différence importante : Apple a toujours contrôlé la conception de ses puces dès le départ, alors qu’OpenAI reste pour l’instant un acheteur. Une fois que Cerebras sera coté, il continuera à se développer indépendamment, en servant d’autres clients. La fin de cette trajectoire n’est pas forcément qu’OpenAI contrôle totalement Cerebras, mais qu’un écosystème étroit se forme, où les deux parties dépendent l’une de l’autre.
D’un côté, en investissant 20 milliards et en entrant au capital, OpenAI garantit un approvisionnement continu en puissance de raisonnement hors Nvidia ; de l’autre, OpenAI collabore avec Broadcom pour développer ses propres ASIC, dont la production est prévue pour fin 2026. Les deux stratégies visent à une autonomie en puissance de calcul.
L’IPO de Cerebras : qu’est-ce que vous achetez ?
Le 17 avril, Cerebras a officiellement déposé une demande d’introduction en bourse à la NASDAQ, avec une valorisation de 35 milliards de dollars, et prévoit de lever 3 milliards de dollars.
Cette valorisation, qui était de 8,1 milliards en septembre 2025, a été multipliée par plus de quatre. En février dernier, la société a levé une nouvelle ronde de financement, portant sa valorisation à 23 milliards, et la valorisation de 35 milliards lors de l’IPO représente une prime de 52 % par rapport à cette dernière.
Les connaisseurs de l’histoire de Cerebras savent que c’est sa deuxième tentative d’introduction en bourse. La première, en 2024, a été annulée parce que son client principal, G42 (fonds souverain d’Abu Dhabi), représentait entre 83 % et 97 % de ses revenus cette année-là, et que l’autorité de contrôle CFIUS a bloqué le projet pour des raisons de sécurité nationale.
Cette fois, G42 a disparu de la liste des actionnaires, remplacé par OpenAI.
Autrement dit, la dépendance de Cerebras à ses grands clients n’est pas fondamentalement résolue — le nom du client a changé, mais la structure dépendante reste. Les investisseurs doivent juger : ce client est-il meilleur ou pire ? Sur le plan de la crédibilité, OpenAI est clairement supérieur à G42 ; mais d’un point de vue stratégique, OpenAI est aussi un concurrent potentiel, car ses propres ASIC en développement, une fois maturés, pourraient représenter une menace réelle pour Cerebras.
Pour être juste, Cerebras travaille aussi activement à diversifier ses revenus, et le prospectus prévoit d’indiquer d’autres sources de revenus. La dépendance devrait s’atténuer, mais tant que l’ASIC d’OpenAI n’est pas en production, la réponse à cette question reste incertaine.
En achetant des actions Cerebras, vous pariez en réalité sur deux choses : que OpenAI continuera à privilégier Cerebras, et que l’ASIC en développement chez OpenAI ne sera pas prêt trop tôt. Ces deux scénarios ne sont pas garantis.
Mais les raisons d’y croire sont aussi réelles : si le marché du raisonnement continue de croître selon les prévisions, même une petite part de Cerebras dans ce marché pourrait représenter des chiffres d’affaires très importants. La question n’est pas de savoir si Cerebras a une chance, mais si la valorisation de 35 milliards reflète déjà le scénario le plus optimiste.
Deux investissements de 20 milliards, apparaissant symétriquement entre fin 2025 et avril 2026.
L’un, venant du plus grand vendeur mondial de puces AI, achète la technologie d’un concurrent du marché du raisonnement.
L’autre, venant du plus grand acheteur mondial d’AI, incubant une société qui défie Nvidia dans ce domaine.
Les 20 milliards de Nvidia sont une défense — ils comblent à prix d’or une lacune technologique qu’elle ne peut pas combler seule.
Les 20 milliards d’OpenAI sont une offensive — ils financent la construction d’une voie rapide indépendante de Nvidia, tout en obtenant une participation dans cette voie.
Cette guerre n’a pas de coups de feu, mais le flux de capitaux ne ment pas. Ces deux investissements montrent plus clairement que n’importe quelle conférence IA : le contrôle des infrastructures de raisonnement est en train de se disputer. Et ce marché, en 2026, représentera deux tiers de toutes les dépenses en puissance de calcul du secteur.
L’IPO de Cerebras est le signal de cette guerre.