Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
L'IA a simultanément créé une pénurie et un excédent de mémoire
Le 29 mars, Huaqiangbei et le marché de détail américain ont connu en même temps une chute brutale des prix des barrettes de mémoire. Le kit Corsair de 32 Go DDR5-6400 est passé de 490 dollars à 380 dollars, avec une baisse de 22% sur une seule journée. En Chine, les kits DDR5 haute fréquence de 32 Go ont chuté de 800 yuans sur une semaine à peine. Les distributeurs ont paniqué et ont vendu en catastrophe. Un revendeur aurait déclaré : « En une journée, on a perdu plus d’une centaine de yuans. »
Mais si l’on replace ce chiffre sur une chronologie plus longue, l’image est totalement différente : même après la baisse, les prix actuels de la DDR5 sont quatre fois ceux de juillet 2025. Il s’agit d’un précédent précis de déséquilibre offre-demande dans la chaîne de l’IA : la même force a d’abord fabriqué une pénurie, puis une panique de surstock.
Manège : +540% en huit mois, -22% en un mois
En juillet 2025, un kit grand public de 32 Go DDR5-6000 coûtait seulement 77 dollars sur le marché de détail américain. En janvier 2026, le prix de ce même kit a bondi jusqu’à 490 dollars. Sur huit mois, l’augmentation atteint 540%.
La hausse des prix ne s’explique pas par une montée soudaine de la frénésie des consommateurs pour upgrader leurs ordinateurs. D’après les données de TrendForce, au 1er trimestre 2026, le prix des contrats de DRAM a augmenté de 90%-95% d’un trimestre à l’autre, dont la hausse de la DRAM pour PC dépasse 100%, avec le plus fort bond trimestriel enregistré à ce jour. Tout cela est tiré par la demande vorace liée à l’infrastructure de l’IA pour un type de mémoire spécifique.
Puis, le 25 mars, Google a publié un algorithme de compression appelé TurboQuant. Quatre jours après, les prix de la mémoire se sont effondrés.
Où est passée la capacité de production ? Le HBM a mangé tes barrettes mémoire
Pour comprendre cette vague de hausse, il faut d’abord saisir un paramètre technique clé. Le HBM (High Bandwidth Memory, mémoire dédiée pour les puces IA d’NVIDIA) consomme trois fois plus de surface de plaquette par Go que la DDR5 classique. D’après un article de Tom’s Hardware, cela signifie qu’avec la même plaquette, on ne peut produire que le tiers de la capacité en HBM pour la DDR5.
Samsung, SK hynix et Micron, les trois grands fabricants de mémoire, ont fait un choix rationnel face aux marges élevées du HBM : ils ont redirigé jusqu’à 40% de la capacité de plaquettes de procédés avancés vers la production de HBM. D’après les données de TrendForce, au 1er trimestre 2026, la marge bénéficiaire de la DDR5 devrait pour la première fois dépasser celle du HBM3e, ce qui reflète à quel point l’offre en mémoire grand public est comprimée.
Le choix de Micron est le plus radical. En décembre 2025, cette société a annoncé la fermeture de la marque grand public Crucial, exploitée depuis 29 ans, ce qui signifie une sortie totale du marché de la mémoire et du stockage grand public, avec un basculement complet vers les clients entreprises et IA. D’après l’annonce des relations investisseurs de Micron, son chiffre d’affaires total de l’exercice fiscal 2025 s’élève à 37,38 milliards de dollars, et les data centers et les applications IA représentent 56% du chiffre d’affaires total. Le marché grand public n’en vaut pas la peine.
La capacité de production de HBM de SK hynix a déjà été entièrement réservée jusqu’à la fin de 2026. Samsung prévoit d’augmenter sa production mensuelle de HBM de 170 000 plaquettes à 250 000 d’ici la fin de 2026. Les nouvelles usines de plaquettes (Samsung P4L et SK hynix M15X) ne devraient atteindre la production de masse au plus tôt qu’en 2027-2028. Autrement dit, le manque d’offre en DRAM grand public est structurel, et ne pourra pas être comblé en un ou deux trimestres.
Inversion des rapports de force : SK hynix casse le règne du « numéro un » de Samsung vieux de 40 ans
Ce transfert de capacité a aussi redessiné la carte du pouvoir dans l’industrie de la mémoire. D’après les données de TrendForce, au 2e trimestre 2025, SK hynix, grâce à un lien étroit avec NVIDIA, a remporté 62% des parts du marché du HBM, tandis que Samsung n’en a que 17% et Micron 21%.
Plus marquant encore : l’inversion au niveau du chiffre d’affaires. D’après le rapport Q3 2025 de TrendForce, SK hynix a pris la première place pour la première fois, avec 13,75 milliards de dollars de revenus trimestriels DRAM. Samsung arrive juste derrière avec 13,50 milliards de dollars. L’écart est seulement de 250 millions de dollars, mais c’est la première fois en près de 40 ans que Samsung perd la première place sur les revenus de la mémoire. D’après CNBC, le bénéfice opérationnel de SK hynix sur l’année 2025 a également dépassé pour la première fois celui de Samsung.
L’avantage de premier arrivé en HBM a donné à SK hynix suffisamment de leviers, mais cette course n’est pas terminée. Samsung s’efforce de rattraper de toute urgence la cadence de production en série de HBM4. Micron, bien qu’ayant abandonné le marché grand public, affiche dans les domaines entreprises et IA une croissance du chiffre d’affaires (Q3 d’un trimestre à l’autre +53,2%) la plus rapide parmi les trois fabricants.
Comment un algorithme peut ébranler la logique derrière la hausse des prix ?
Le 25 mars, Google a présenté l’algorithme TurboQuant lors de l’ICLR 2026. Cet algorithme accomplit une chose : il compresse le cache KV (cache clé-valeur ; la partie qui consomme le plus de mémoire pendant l’inférence) utilisé lors de l’inférence de grands modèles de langage, en passant de la précision FP16 à 3-bit. L’occupation mémoire est réduite d’au moins 6 fois, tout en atteignant jusqu’à 8 fois d’accélération du calcul d’attention sur les GPU H100. D’après le blog de recherche de Google, lors de cinq tests de référence sur de longs contextes, comme Needle-in-a-Haystack, la perte de précision est nulle.
Le marché a rapidement fait le calcul. Si TurboQuant ou un algorithme similaire était largement adopté par les grandes entreprises d’IA, la demande incrémentale d’IA pour la DRAM se contracterait fortement. Et le récit central qui a soutenu la hausse des prix de la mémoire au cours des six derniers mois, c’est précisément : « l’infrastructure d’IA a consommé trop de capacités de mémoire ».
Quatre jours plus tard, la confiance des canaux s’est effondrée.
Il faut préciser que TurboQuant vise le cache KV côté inférence de l’IA, et non la demande de HBM côté entraînement. La relation offre-demande du HBM ne changera pas à court terme à cause d’un algorithme d’optimisation d’inférence. Mais le marché ne distingue pas toujours clairement ces deux aspects. D’après le rapport de Sina Finance, au début de la période précédant la chute, des acteurs des canaux en Chine, attirés par la hausse des prix, se sont rués sur l’achat de stocks hors du cercle, et des prix élevés ont fait chuter les ventes au détail de plus de 60%. Dans un contexte de tension sur la chaîne de financement, les ventes en cascade ont amplifié la chute.
Une seule chaîne de l’industrie de l’IA a fabriqué à la fois la pénurie de mémoire et la panique de surproduction. La capacité physique de HBM qui comprime la production rend la mémoire grand public en pénurie ; la percée d’efficacité de l’algorithme TurboQuant fait chuter d’un coup les attentes de demande en mémoire IA. Fabriquer la hausse des prix et fabriquer l’effondrement, c’est la même force.