CITIC Securities : continue de privilégier la tendance de croissance innovante dans le stockage

L’étude de recherche de Citic Securities affirme que, à l’ère de l’Agent AI, la capacité de stockage est au cœur du dispositif, entraînant l’industrie du stockage vers un changement de paradigme à long cycle. Côté offre et demande, l’inférence IA fait exploser la consommation de Tokens, la KV Cache augmente alors de façon linéaire, et l’explosion de la demande, mal alignée avec les plans d’augmentation des capacités des fabricants d’origine, conduit à une pénurie devenue la norme. On s’attend à ce que la situation de déséquilibre « offre insuffisante » se poursuive jusqu’en 2027, et à ce que la hausse des prix couvre l’ensemble de l’année 2026. D’un point de vue technique, dans un contexte de pénurie extrême de HBM et de DRAM, et de coûts élevés, les fabricants partagent des solutions innovantes de NAND afin de répartir la pression liée aux besoins en capacité de mémoire vive. Nous continuons de voir favorablement la tendance à la croissance des innovations dans le stockage.

Le texte intégral est le suivant

Stockage|Observer les tendances du développement du stockage à partir du sommet sur le marché des mémoires flash

À l’ère de l’Agent AI, la capacité de stockage est au cœur du dispositif, entraînant l’industrie du stockage vers un changement de paradigme à long cycle. Côté offre et demande, l’inférence IA fait exploser la consommation de Tokens, la KV Cache augmente alors de façon linéaire, et l’explosion de la demande, mal alignée avec les plans d’augmentation des capacités des fabricants d’origine, conduit à une pénurie devenue la norme. On s’attend à ce que la situation de déséquilibre « offre insuffisante » se poursuive jusqu’en 2027, et à ce que la hausse des prix couvre l’ensemble de l’année 2026. D’un point de vue technique, dans un contexte de pénurie extrême de HBM et de DRAM, et de coûts élevés, les fabricants partagent des solutions innovantes de NAND afin de répartir la pression liée aux besoins en capacité de mémoire vive. Nous continuons de voir favorablement la tendance à la croissance des innovations dans le stockage.

En 2026, le sommet du marché chinois des mémoires flash se tiendra, en mettant l’accent sur les opportunités d’innovation du stockage à l’ère de l’IA et de mise à niveau de la chaîne industrielle.

Le 27 mars 2026, le CFMS MemoryS 2026, le grand rendez-vous annuel de l’industrie mondiale du stockage, se tiendra à Shenzhen. En tant que sommet de niveau « indicateur de l’orientation du secteur », cet événement a pour thème central « Traverser le cycle, libérer la valeur ». Il mettra fortement l’accent sur l’innovation technologique et la coordination de la chaîne industrielle, attirant des dizaines d’entreprises de premier plan au niveau mondial, notamment Samsung Electronics, Hiii-Mo Technology, Kioxia, Solidigm, Intel, Tencent Cloud, etc. L’événement couvre l’ensemble de la chaîne industrielle, des fabricants de puces de stockage en amont à la conception du contrôleur, en passant par la fabrication de modules, jusqu’aux services cloud en aval. Le sommet, avec ses deux pistes en parallèle — forums de haut niveau et expositions techniques — fait émerger, dans l’évolution, des anticipations de tendances macro-économiques. Il se concentre sur l’explosion de la demande en capacité de stockage due à la hausse spectaculaire de token/KV Cache à l’ère de l’Agent AI. Il mène aussi des discussions de pointe sur les percées techniques des SSD PCIe 5.0/6.0, les innovations en QLC à très grande capacité et d’autres transformations innovantes du stockage sous l’impulsion de l’IA, tout en présentant en même temps plus de 100 produits innovants.

▍ L’inférence IA déclenche une explosion de la demande en stockage : des inadéquations structurelles se normalisent ; on s’attend à ce que le déséquilibre « offre insuffisante » se poursuive au moins jusqu’en 2027, et à ce que la hausse des prix couvre l’ensemble de l’année 2026.

Côté demande : d’après les données du CFM China Flash Market, les expéditions de serveurs en 2026 augmenteront de +15 % en glissement annuel ; la part des serveurs IA dépassera 20 % dans l’ensemble des expéditions de serveurs. Les grands modèles passent de la phase d’entraînement à la phase d’inférence : l’explosion des applications Agent entraîne une hausse spectaculaire de la consommation de Tokens. Lorsque la longueur de séquence passe de 1k à 128k tokens, la KV Cache passe de 0,5 Go à 64 Go (BF/FP16, par requête). Dans les contextes « longs contextes » et « forte concurrence », la demande en stockage grimpe de façon linéaire avec le volume de tokens et le niveau de concurrence. Le CFM prévoit que les capacités HBM en 2025/2026 augmenteront respectivement de +90 %/+35 % ou plus en glissement annuel. En parallèle, la « descente » de la KV Cache vers des niveaux plus bas, combinée à des pénuries d’offre de HDD, provoque un débordement de la demande et fait des eSSD le plus grand débouché des NAND en 2026 (la part passe à 37 %).

Côté offre : le décalage des cycles d’extension des capacités maintient la pénurie et la hausse des prix sur la durée. Les fabricants de stockage adoptent généralement une stratégie visant à stabiliser les prix : la capacité avancée est prioritairement orientée vers des produits de stockage IA à forte marge. D’après le CFM, la part des capacités DRAM relativement plus haut de gamme, incluant HBM/DDR5/LP5X/6, est passée de moins de 50 % en 2024 à 85 %+ en 2026. Les procédés mûrs et les capacités orientées consommation sont continuellement comprimés. Le stock de l’industrie passe de 10~12 semaines en octobre~décembre 2023, à 8~10 semaines en août~octobre 2024, puis à 4 semaines en 2026, tombant en dessous de la ligne de sécurité historique. Les cycles d’extension des capacités de stockage durent de 18 à 24 mois : il est impossible que, au S2 2026 (26H2), on observe un point d’inflexion côté offre. Hii-Mo Technology estime que 2027 sera le « moment le plus sombre » de la pénurie de stockage. À partir du S2 2025 (25H2), les prix du stockage entrent dans une hausse « épique ». Le CFM prévoit que les ASP DRAM et NAND continueront d’augmenter sur l’ensemble de l’année 2026. À l’ère de l’inférence IA, la capacité de stockage est au cœur du dispositif : le stockage connaît une transition de paradigme sur un long cycle. Pour une croissance super-propulsée, ce n’est pas un rebond cyclique.

▍ La chaîne de l’industrie du stockage accélère la reconstruction de la valeur.

Lors du récent GTC, Nvidia a mis l’accent sur les « token factory economics ». L’enjeu central consiste à renforcer la position stratégique du stockage dans l’infrastructure IA, et cela signifie aussi que le plafond de rentabilité de l’industrie du stockage sera durablement ouvert. D’après des données du CFM, l’ASP des produits eSSD atteint déjà plus du double de l’ASP NAND grand public au T1 2026 (26Q1). Pour les fabricants de stockage, l’essentiel consiste à effectuer une mise à niveau des supports et une refonte au niveau de l’architecture système. La présentation de ce forum s’est principalement concentrée sur le marché entreprise. Pour les fournisseurs de solutions de stockage, l’attention du secteur passe de « qui est le moins cher » à « qui peut obtenir des lots ». Dans le même temps, des acteurs de premier plan comme Phison accélèrent la transition vers des « modules sur-mesure à forte valeur ajoutée » alimentés par des contrôleurs développés en interne, et étendent leurs SSD destinés aux entreprises afin de redéfinir la valeur du stockage et de se libérer du modèle reposant sur des stocks à faible coût.

▍ Tendance du stockage IA côté cloud (entreprise) : explosion du QLC à très grande capacité et évolution rapide des interfaces, redessinant le moteur de puissance de calcul.

L’IA accélère son passage de la phase « entraînement » à la phase « inférence ». À l’avenir, la proportion entre serveurs d’inférence et d’entraînement devrait atteindre 10:1 à 50:1. À l’heure actuelle, en raison du goulot d’étranglement de la bande passante de stockage, la disponibilité (taux d’utilisation) des clusters GPU n’est qu’environ de 46 % à 50 %. La mise à niveau de la mémoire vive (VRAM) est la demande centrale. De plus, lors de ce sommet, plusieurs fabricants ont partagé des fonctionnalités de répartition de ressources permettant la collaboration entre calcul et stockage. Le rôle des eSSD passe de « conteneur passif de données » à « moteur de puissance de calcul » au cœur du dispositif, ainsi qu’à « couche mémoire étendue » : côté entraînement, en s’appuyant sur des eSSD QLC à très grande capacité pour stocker les Checkpoints, on peut augmenter fortement l’efficacité de fonctionnement des GPU ; côté inférence, les eSSD assurent, via un cache en couches, la gestion d’un état de contexte massif, des requêtes de bases de données vectorielles et le chargement de modèles fragmentés. Les résultats de tests montrent que, en déchargeant le cache KV vers SSD et en supprimant le calcul de pré-remplissage, le temps de génération du premier token (TTFT) peut être réduit de 41 fois. Le stockage entreprise présente les tendances techniques suivantes :

Face aux besoins de débordement de caches engendrés par des quantités massives de données IA et de KV Cache, le QLC haute densité devient un média clé. Des solutions QLC à très grande capacité, au niveau de centaines de téraoctets (TB), deviennent le choix privilégié. Kioxia (245,76 TB), Dawupuwei (245 TB) et SanDisk (jusqu’à une solution SN670 jusqu’à 256 TB) ont également présenté des produits QLC à très grande capacité dépassant les 200 TB, optimisant considérablement l’efficacité d’espace et le TCO.

Le contrôleur de puce évolue vers la « coopération soft/hard », comblant les lacunes du support. Pour répondre aux lectures/écritures aléatoires fréquentes et aux pressions de bande passante générées par la KV Cache dans les scénarios d’inférence, le contrôleur de puce est en train de s’améliorer activement. Le Ping Tou Ji (Horizon) Zhenyue 510, grâce à la prise en charge native du protocole ZNS et à une coopération au niveau système, aide à la commercialisation à grande échelle du QLC ; les expéditions cumulées dépassent 500 000 unités. JunYun Technology introduit quant à elle un moteur d’accélération KV, ainsi que des techniques de prélecture prédictive, permettant au contrôleur de passer du rôle de « transporteur de données » à celui d’un « ordonnanceur de ressources intelligent » proactif.

Itérations rapides des interfaces et innovation en refroidissement liquide, adaptées à de très grands clusters GPU de 100 000 cartes. Face aux défis liés à l’énorme débit de données et aux fortes émissions de chaleur, pour des clusters de milliers, de dizaines de milliers et allant jusqu’à 100 000 cartes. Samsung a présenté des SSD PCIe 6.0 à 16 canaux PM1763 ; les performances d’entrée/sortie sont améliorées de façon spectaculaire de 2,0 fois. Le contrôleur PCIe Gen6 « Lhotse » de FADU a déjà été gravé (tape-out) ; ses performances de lecture séquentielle atteindront 28,5 GB/s.

▍ Tendance du stockage IA côté terminal (grand public) : accélération de l’IA côté terminal et fusion du calcul et du stockage pour résoudre le goulot d’étranglement de l’occupation mémoire.

Les environnements côté terminal sont extrêmement exigeants en termes de coût BOM matériel, de consommation électrique système et d’occupation de la mémoire DRAM. Ainsi, le fait de transférer la charge d’inférence de la mémoire (DRAM) vers le stockage (NAND), grâce à la « fusion stockage-calcul », à l’orchestration intelligente soft/hardwares et aux technologies de cache avancées, constitue une contribution importante pour surmonter aujourd’hui les goulots d’étranglement du déploiement de grands modèles côté terminal.

AI PC et grands modèles locaux : la technologie hybride Hybrid réduit la pression de hausse explosive des besoins en capacité DRAM. Pour exécuter, côté terminal, des grands modèles à plusieurs dizaines ou centaines de milliards de paramètres, la mémoire représente un défi majeur. JiangboLong a lancé une unité de traitement de stockage dotée de SPU en 5 nm et d’agents de stockage iSA. Lors de la validation de l’optimisation conjointe, on obtient un déploiement local du modèle 397B sur un hôte PC ; dans des scénarios de contexte de 256K, l’occupation DRAM est réduite de près de 40 %. Phison Electronics lance Phison Hybrid AI SSD et la technologie aiDAPTIV+ ; on prévoit une réduction de plus de 50 % de l’utilisation de DRAM, permettant un coût maîtrisable et une inférence locale sécurisée.

Voitures intelligentes et edge computing : vers une architecture de centralisation des ressources et une base de plateforme unifiée. L’intelligence incarnée et la conduite intelligente de haut niveau imposent des exigences de coordination globale sur l’architecture sous-jacente. Xiaopeng Motors indique clairement que, avec la puissance de calcul pouvant aller jusqu’à 2250 TOPS, la bande passante DRAM est devenue le goulot d’étranglement central de la latence d’inférence. L’ère des LPDDR6 pour véhicules arrive, et le stockage embarqué NAND passe d’îlots segmentés à une centralisation des ressources et à une définition logicielle.

Smartphones et AIoT (Internet des objets) : approfondissement de la stratégie « interfaces haute vitesse » et « caches avancés ». Pour répondre aux exigences de vitesse de réaction et d’autonomie des périphériques mobiles et des équipements portables émergents, Hii-Mo Technology prévoit de lancer le nouveau contrôleur UFS 4.1 SM 2755, tout en accélérant sa stratégie sur les marchés AIoT comme les montres et lunettes intelligentes. SanDisk utilise la technologie de cache SmartSLC pour obtenir une exécution à haut débit de UFS 4.1 avec une consommation d’environ seulement 2W. JiangboLong déploie quant à lui la technologie de cache avancé HLC côté embarqué afin de réduire le coût BOM du terminal.

▍ Facteurs de risque :

Risque de morosité de l’économie macro mondiale ; demande en aval inférieure aux attentes ; innovation inférieure aux attentes ; risques liés aux changements de l’environnement industriel international et à l’intensification des frictions commerciales ; avancement de la mise à niveau de la puissance de calcul inférieur aux attentes ; dépenses d’investissement des fournisseurs cloud inférieures aux attentes, etc.

▍ Stratégie d’investissement :

Nous sommes optimistes quant à la tendance de l’industrie du stockage et du calcul, portée par l’augmentation de la capacité de stockage à l’ère de l’Agent AI. Dans la catégorie du calcul proche, la conjoncture est très favorable ; nous sommes optimistes pour la chaîne industrielle HBM et CUBE. Parallèlement, en situation de pénurie de stockage, le secteur principal comme les niches seront touchés par une pénurie généralisée et une hausse des prix : plusieurs fabricants indiquent que l’ampleur de la hausse au T2 2026 (26Q2) reste similaire en variation séquentielle. Nous estimons que le déséquilibre offre-demande défavorable (offre insuffisante) se poursuivra au moins jusqu’à la fin de 2027. Recommandation principale : sociétés de modules de stockage, avec une capacité d’explosion des performances à court terme ; fabricants de stockage et sociétés de conception proches des fabricants d’origine.

(Source : JieMian News)

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler