Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Google « erreur de suppression » ? La chaîne d’approvisionnement en stockage s’exprime intensément : la demande en IA ne diminue pas, la pénurie structurelle persiste
Demandez à l’IA · Pourquoi l’algorithme de compression de Google n’a pas pu freiner la flambée des besoins de stockage ?
Récemment, Google a lancé l’algorithme de compression TurboQuant, affirmant qu’il réduirait l’occupation des caches critiques des grands modèles d’au moins 6 fois. Cette annonce a un temps semé la panique dans l’industrie du stockage.
Mais lors du sommet MemoryS 2026, plusieurs fabricants de mémoire, dont Samsung Electronics, Yangtze Memory (YMTC), Kioxia, SanDisk, ainsi que des entreprises de cloud computing et de puces, se sont exprimés intensément. Ils estiment que, à mesure que l’IA s’implante plus vite dans la pratique, les besoins en stockage sont encore propulsés vers de nouveaux sommets, et que la pénurie pourrait se prolonger.
Un participant au sommet a déclaré au journaliste de First Financial (YiCai) que, bien que certaines technologies améliorent l’efficacité du traitement des données, la taille globale des applications d’IA s’étend, de sorte que les besoins réels en stockage continuent de croître. « Ces deux jours, j’ai rencontré 20 groupes de personnes. Chacun me demande s’il y a du stock. Les besoins en stockage à l’étape d’inférence augmentent de façon exponentielle. »
« L’IA engloutit rapidement la capacité de production de stockage. » a déclaré Tai Wei, directeur général du marché des mémoires flash chez CFM, au cours de la rencontre. Les données divulguées sur place indiquent que, en 2026, la part des serveurs IA dans l’ensemble des envois de serveurs dépassera 20 %, ce qui fera encore grimper la configuration de stockage.
Il a indiqué que l’inférence IA pousse eSSD à devenir le plus grand marché d’application pour la NAND en 2026. En comparaison, le marché des téléphones reste plutôt terne, mais l’IA côté terminal a le potentiel de devenir un nouveau moteur de croissance. L’automobile, en tant qu’axe d’application important du LPDDR, devient aussi l’un des scénarios clés pour l’implémentation de l’IA.
À mesure que les applications d’intelligence artificielle passent de l’entraînement des modèles à des usages plus fréquents dans la réalité, les entreprises exigent nettement plus en matière de vitesse de lecture des données et de capacité de réponse. « Le stockage haute performance n’est plus un choix facultatif : c’est une base fondamentale qui détermine l’efficacité des décisions et l’ampleur du système. » a déclaré Zhang Shiwan, vice-président exécutif de Samsung Electronics. Samsung prévoit de lancer, entre 2026 et 2027, des lecteurs EDSFF d’une épaisseur de seulement 1T. Ce plan peut augmenter à plusieurs reprises la capacité totale et la bande passante par rack, tout en maximisant l’efficacité de l’exploitation de l’espace.
Tan Hong, responsable du secteur des disques SSD chez Yangtze Memory, a également souligné qu’actuellement, l’« utilisabilité » des grappes GPU n’est « qu’environ 50 % » et que l’efficacité de lecture des données de stockage est devenue un facteur important qui limite la pleine exploitation de la puissance de calcul. Il a déclaré qu’en améliorant l’efficacité de lecture et d’appel des données, on peut réduire le gaspillage de puissance de calcul.
Le PDG CTO (Chief Technical Executive Officer) de Kioxia, Fukuda Koichi, a aussi indiqué que, à mesure que l’intelligence artificielle passe de l’entraînement à l’application réelle, « le stockage devient un goulot d’étranglement clé », et que la croissance des besoins la plus marquée vient des scénarios d’inférence.
En parallèle de la croissance de la demande, les ajustements côté offre aggravent davantage la situation tendue.
Tai Wei a déclaré que, comme les cycles d’expansion de la capacité de stockage durent de 18 à 24 mois, « la pénurie d’approvisionnement ne pourra pas être atténuée à court terme, et les inadéquations structurelles sont devenues une norme ». Les fabricants donnent la priorité à l’orientation de la capacité vers des produits liés à l’IA offrant des marges plus élevées, la capacité des produits grand public étant comprimée ; les stocks dans l’industrie sont tombés à des niveaux relativement bas.
Pan Jiancheng, PDG de Phison Electronics, a donné un jugement plus direct : « Flash continuera d’être en rupture de stock, et il manquera pendant longtemps. »
Les retours du côté système montrent aussi que les ressources se raréfient. Zeng Xiang, expert senior en technologie au noyau de l’Operating System de Tencent Cloud, a déclaré que, à mesure que l’IA augmente et comprime la capacité de production de DRAM, « les ressources mémoire deviennent de plus en plus tendues ».
« Ce n’est pas une simple reprise cyclique : c’est un changement de paradigme sur une longue période. La technologie de stockage passe des micro-innovations à une révolution d’architecture. Des concepts comme CXL, l’informatique unifiée stockage-calcul et l’informatique à proximité de la mémoire accélèrent leur passage à l’usage commercial. » a rappelé Tai Wei. Il a aussi indiqué qu’en dépit de la prospérité, il faut rester lucide : il recommande une expansion de production rationnelle côté offre, une planification anticipée côté demande et une fourniture diversifiée, afin de passer de l’achat passif de stockage à l’optimisation proactive du stockage.
(Les stagiaires, Zhu Lingjie, ont également contribué à cet article)
(Cet article provient de First Financial)
Lectures complémentaires
Un article scientifique fait chuter violemment les actions des puces de stockage : le « moment DeepSeek » de Google arrive ?