Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Le stockage a été soudainement frappé de plein fouet, mais l'IA n'a pas encore lâché la main pour s'emparer des marchandises.
(Source:中国基金报)
« À ce stade, il est plus important de verrouiller la capacité de production que de parler des prix. »
Auteur : Niu Siro
Un message technique de Google au sujet de « la réduction de l’occupation mémoire à 1/6 de l’original » a fait ressentir à tout le secteur mondial du stockage un véritable « frisson glacé ».
Récemment, Google a lancé l’algorithme de compression TurboQuant. Sans sacrifier la précision des modèles, il réduit les besoins en espace de « cache clé-valeur » (KV Cache), qui consomme le plus de ressources pendant l’inférence, à 1/6, tout en augmentant la vitesse de calcul de l’attention de 8 fois.
Dès que la nouvelle a été diffusée, le marché l’a rapidement interprétée comme « susceptible de peser sur la demande globale de puces de stockage destinée à l’intelligence artificielle », puis l’a fait circuler rapidement jusqu’aux marchés financiers : les actions liées aux puces de stockage ont alors fortement baissé en groupe.
En parallèle, le sujet « chute brutale du prix des barrettes de mémoire » est monté en tête des tendances sur les moteurs de recherche. Le relâchement des prix côté canaux, les perturbations techniques et le repli de la filière se sont entremêlés, poussant le marché à se remettre à demander : ce cycle du stockage a-t-il déjà atteint son point d’inflexion ?
Du côté des canaux : un relâchement local
Cette baisse des prix des barrettes de mémoire, largement discutée, survient davantage sur le marché spot, principalement destinée aux joueurs individuels ayant des besoins d’assemblage autonome.
À l’échelle même du marché, le volume est limité, ce qui rend les fluctuations de prix et le moral de consommation plus sensibles. Les distributeurs doivent à la fois prendre en compte les prix annoncés en amont, et se préoccuper de savoir si les utilisateurs C achètent réellement.
Un responsable d’une boutique spécialisée dans les barrettes de mémoire à Huaqiangbei a indiqué au journaliste qu’à partir du mercredi de la semaine dernière, plusieurs produits mémoire ont commencé à baisser de prix. Le prix de la mémoire 16G est passé d’environ 900 yuans la semaine dernière à environ 700 yuans actuellement ; le prix des 32G a également baissé d’environ 300 yuans.
La chute des prix, et la flambée inverse des cours, donnent effectivement l’illusion qu’« on est au sommet de la tendance ». Selon les professionnels, cela ressemble davantage à une correction temporaire du marché des canaux après une hausse trop rapide, plutôt qu’à un renversement de tendance au niveau industriel.
« Étant donné que la hausse des prix a été trop importante au début, la résistance psychologique des clients des canaux à l’égard des produits de stockage aux prix élevés s’est renforcée progressivement, et les transactions réelles sur le marché deviennent difficiles. Plus important encore : le marché spot côté négoce cherche à récupérer du cash et à réaliser des bénéfices ; côté négoce, il y a eu davantage de cessions sur des barrettes DDR4 de gamme inférieure, ce qui a en outre frappé et freiné le marché des canaux. » a déclaré un analyste du marché.
Et du côté du marché à terme, la situation est tout autre. D’après ce dernier, au premier trimestre de cette année, les prix des contrats pour serveurs et PC NAND, DRAM des fabricants d’origine ont tous augmenté de façon doublée.
Il affirme que, pour l’instant, les produits de stockage ne peuvent pas satisfaire entièrement la demande du marché : le problème de pénurie d’approvisionnement en stockage ne sera pas difficile à soulager à court terme. Par conséquent, le reflux des prix sur le marché des canaux ne modifiera pas la logique globale haussière du secteur du stockage.
« Sans mémoire, pas d’IA »
Presque au même moment, au sommet du marché chinois de la mémoire flash organisé à Shenzhen, MemoryS 2026, l’air était pourtant rempli d’une autre ambiance.
« Tout le monde me demande si on a du stock—et même, tant qu’il y a du stock, on ne demande pas le prix. » a répondu, un sourire amer, un commercial d’un exposant en stockage au journaliste. « Mais maintenant, on ne peut satisfaire qu’environ 30 à 40 % de la demande ; quand on rencontre des commandes avec des volumes trop importants, on doit les refuser. »
Le marché s’inquiète d’un refroidissement de la demande, mais sur le site de la conférence industrielle, on ressent encore un resserrement côté offre. Dans la salle bondée, « combien de temps manquera encore le stock dans l’industrie du stockage ? » figure parmi les sujets les plus brûlants.
Le directeur général du salon de la mémoire flash, Tai Wei, a déclaré : « L’IA n’est pas seulement une tendance à la mode, c’est une révolution de fond. Elle transforme le stockage, qui était un poste de coûts sur une nomenclature (BOM), en ressource stratégique de compétition de l’IA ; et d’un produit cyclique, en force concurrentielle clé de l’économie numérique. »
Ce n’est pas exagéré.
Que ce soit pour l’entraînement des grands modèles, l’inférence, le fine-tuning, ou les applications multimodales, chaque maillon pousse la bande passante et la capacité du stockage à leur maximum. La HBM, d’un produit haut de gamme réservé à une niche, est devenue du jour au lendemain le « pétrole » de l’ère de l’IA ; la mémoire DDR5 haute capacité, de configuration optionnelle, est devenue une configuration standard des serveurs IA ; même les SSD d’entreprise ne se limitent pas à être un support de capacité : ils sont la clé permettant de franchir les goulots de performance dans toute l’architecture de calcul.
Tai Wei explique : pendant l’inférence des grands modèles, il faut sauvegarder les résultats Key Value de chaque couche et de chaque Token afin d’éviter des calculs répétés et de réduire le temps de réponse. Quand le contexte passe de 4K Tokens à 128K Tokens, les besoins en espace du cache KV augmentent de manière exponentielle ; et avec en plus des requêtes à forte concurrence, la demande passe rapidement à un ordre de grandeur supérieur. Seule la HBM ne peut plus absorber tout cela, et de plus en plus de pression se transfère vers les SSD NVMe.
« Et c’est justement pour cette raison que la demande en SSD optimisés pour les charges d’inférence IA croît extrêmement vite : les eSSD deviennent le plus grand marché d’application NAND en 2026. » juge Tai Wei.
« Sans mémoire, pas d’IA. » L’appréciation de Pan Jiancheng, PDG de Phison Electronics, est encore plus directe. Selon lui, l’algorithme de compression lancé par Google ne signifie pas que la demande de stockage va s’effondrer de façon linéaire. Au contraire : la compression implique une baisse du coût côté hôte, une hausse du volume expédié—et cela signifie que les utilisateurs peuvent produire davantage de Tokens, entraînant plus de demande de stockage et d’accès.
Morgan Stanley pense également que, en réduisant fortement le coût de service d’une requête, TurboQuant permet de transférer localement des modèles qui ne pouvaient auparavant fonctionner que sur des clusters coûteux dans le cloud, abaissant efficacement le seuil des déploiements à grande échelle de l’IA. Cela pourrait au final renforcer encore la demande globale.
Le déploiement de capacités attendra ; régler la pénurie est difficile
« Même si, à l’heure actuelle, les fabricants de stockage commencent à accroître leurs nouveaux investissements en dépenses d’équipement et à étendre les capacités, le cycle d’expansion des capacités dans l’industrie du stockage dure de 18 à 24 mois ; au plus tôt, de nouvelles capacités ne seront libérées qu’en 2027. » a indiqué Tai Wei au journaliste. « À court terme, il sera difficile d’atténuer le problème de pénurie d’approvisionnement en stockage. »
Selon lui, en 2026, aucun produit principal de stockage pour l’IA ne peut réaliser un équilibre parfait entre l’offre et la demande à l’échelle mondiale. Le centre de gravité de l’industrie du stockage est déjà passé de « regarder qui est le moins cher » à « regarder qui peut obtenir du stock ».
« À ce stade, verrouiller les capacités est plus important que de discuter des prix. » a déclaré Tai Wei sans détour.
Les dirigeants de la tête de file des contrôleurs de stockage, Everspin (慧荣科技), ont également indiqué que 2026 n’est pas encore la période la plus sombre. En 2027, le déficit offre-demande va s’aggraver : la pénurie liée à la hausse de prix actuelle n’est pas une simple fluctuation cyclique ; il s’agit d’une transformation structurelle entraînée par l’IA. Après tout, l’énorme quantité de données générées par l’entraînement et l’inférence IA crée une demande en stockage sans précédent.
Sous pression, puis en montée
C’est ainsi qu’une division plus réaliste a commencé à apparaître.
Pour les marchés de consommation traditionnels tels que les téléphones et les PC, la hausse des prix du stockage se traduit d’abord par une pression sur les coûts. Certains fabricants de stockage adoptent une approche « meilleur rapport performance-prix », cherchant à obtenir une expérience équivalente plus élevée avec moins de mémoire vive.
Par exemple, Jiangbo Long essaie de pousser l’implémentation de bout en bout de l’IA côté PC et côté embarqué grâce à l’intégration approfondie de la technologie HLC Advanced Cache avec SPU et UFS. Tout en améliorant l’expérience IA, cela réduit la demande en capacité DRAM des terminaux et donc leurs coûts. Phison Electronics a lancé Phison Hybrid AI SSD et la technologie aiDAPTIV+ ; l’entreprise estime qu’elle peut réduire de plus de 50 % l’utilisation de DRAM, tout en garantissant des coûts maîtrisables et une inférence locale sûre.
De l’autre côté, tout le monde « monte ensemble » : les ressources et les capacités sont prioritairement dirigées vers des produits à haute technologie, haute valeur et barrières élevées.
Autrefois, les projecteurs de l’industrie IA se concentraient sur « l’entraînement ». Les grappes de calcul impressionnaient certes en termes de débit, mais la demande était souvent par phases. Aujourd’hui, le centre de gravité du secteur se déplace intégralement vers « l’inférence » : c’est un « puits sans fond », plus fréquent, plus fin et plus proche du flux réel des affaires.
D’après les dernières données de la State Administration for Data (l’Administration nationale des données), en mars de cette année, la consommation quotidienne moyenne de Tokens en Chine a dépassé les 140 mille milliards. Sur près de 2 ans, la croissance a dépassé les mille fois. Aux yeux de Huang Renxun, l’IA de type agents pourrait faire augmenter la consommation de Tokens jusqu’à 1000 fois, créant ainsi ce qu’il appelle un « vide de puissance de calcul ».
Tai Wei le dit franchement : « On peut confirmer une chose : qui parvient à résoudre la consommation d’énergie et la latence liées au “transport de données à l’ère de l’IA”, définira le prochain dix ans. Le stockage entrera dans un super-cycle piloté par l’IA. »
Jang Shiwancheng, vice-président exécutif de Samsung Electronics et responsable de l’équipe de développement de la plate-forme de solutions, a déclaré que le stockage hautes performances n’est plus un choix optionnel : c’est une pierre angulaire essentielle qui détermine l’efficacité des décisions du système et son ampleur. En s’appuyant sur ce jugement, Samsung avance des SSD solides PCIe Gen6 PM1763 et prévoit de lancer des lecteurs EDSFF plus haute densité entre 2026 et 2027 afin d’augmenter la capacité et la bande passante par machine.
Le responsable du département SSD d’entreprise de Yangtze Memory, Tan Hong, a mentionné que la compétition IA est passée d’une phase d’entraînement axée sur « l’accumulation » à une phase d’inférence axée sur « le déploiement ». Le goulot de bande passante du stockage limite fortement actuellement la libération de puissance de calcul : la disponibilité des grappes GPU ne serait qu’environ de 50 %.
Selon lui, la voie pour briser l’impasse passe par la coopération calcul-stockage : côté entraînement, s’appuyer sur des checkpoints stockés sur des eSSD QLC de grande capacité pour améliorer l’efficacité GPU ; côté inférence, utiliser des caches hiérarchisés sur eSSD pour gérer l’état du contexte via le KV Cache. Pour ce type de scénarios, Yangtze Memory a lancé plusieurs nouveaux eSSD d’entreprise Gen5.
Pour les fabricants de stockage, la vraie question n’est pas seulement s’ils peuvent augmenter les prix, mais s’ils peuvent se positionner à un niveau de valeur plus élevé.
De la guerre des prix à la guerre de la valeur, du produit isolé à la solution full-stack, du soutien à la puissance de calcul jusqu’à la « clé de victoire » IA… Dans cette course où l’IA réécrit les règles, de temps en temps, le prix de détail se relâche, mais ce n’est que des ondulations à la surface ; plus en profondeur, les jetons restent rares—et extrêmement chers.
Éditeur : Huang Mei ; Correction : Wang Yue ; Revue : Chen Siyang