Comprendre en un seul article le bassin de profit et le paysage industriel des niveaux de stockage IA

null

Auteur : Godot Godot

Le stockage AI peut être divisé en six couches,

  1. SRAM sur puce

  2. HBM

  3. DRAM sur la carte mère

  4. Couche de pooling CXL

  5. SSD de niveau entreprise

  6. NAS et stockage d’objets en nuage

Ce niveau est classé selon l’emplacement du stockage, plus on descend, plus on s’éloigne de l’unité de calcul, et plus la capacité de stockage est grande.

En 2025, ces six couches (SRAM sur puce de la puce de calcul, en excluant la valeur intégrée) représenteront environ 229 milliards de dollars, dont la moitié sera occupée par la DRAM, 15 % par le HBM, et 11 % par le SSD.

Concernant la rentabilité, chaque couche est extrêmement concentrée en oligopoles, les trois premières ayant généralement une part de marché supérieure à 90 %.

On peut diviser ces pools de profit en trois catégories,

  1. Pool à haute marge dans la couche de silicium (HBM, SRAM embarqué, SSD QLC)

  2. Pool émergent à haute marge dans la couche d’interconnexion (CXL)

  3. Pool de rendement composé à grande échelle dans la couche de service (NAS, stockage d’objets en nuage)

Les trois types de pools ont des caractéristiques, des taux de croissance et des barrières à l’entrée différents.

Pourquoi le stockage est-il stratifié ?

Parce que, sur les puces CPU responsables du contrôle et GPU responsables du calcul, il n’y a que des caches temporaires, c’est-à-dire du SRAM sur puce. Cet espace cache est trop petit, il ne peut contenir que quelques paramètres temporaires, pas un grand modèle.

En dehors de ces deux puces, il faut une mémoire externe plus grande pour stocker de grands modèles et le contexte pour l’inférence.

C’est très rapide, mais le déplacement des données entre différents niveaux de stockage entraîne des latences et une consommation d’énergie, ce qui est le problème principal.

Ainsi, trois directions actuelles,

  1. Empiler le HBM, rapprocher la mémoire du GPU pour réduire la distance de déplacement

  2. CXL, pooling de mémoire à l’échelle du rack, partage de capacité

  3. Fusion du calcul et du stockage sur la même puce, intégration stockage-calcul

Ces trois directions détermineront la forme de chaque pool de profit dans les cinq prochaines années.

Voici la stratification spécifique,

L0 SRAM sur puce : le pool de profit exclusif de TSMC

SRAM (Static Random-Access Memory, mémoire statique à accès aléatoire) est le cache interne du CPU/GPU, intégré dans chaque puce, sans transaction séparée.

Le marché des SRAM indépendants ne représente que 1 à 1,7 milliard de dollars, avec Infineon (environ 15 %), Renesas (environ 13 %), ISSI (environ 10 %) comme principaux acteurs, un marché modeste.

Ce pool de profit est détenu par TSMC, chaque génération de puces AI nécessitant plus de wafers pour intégrer davantage de SRAM.

Plus de 70 % des wafers de procédés avancés mondiaux sont en fait détenus par TSMC. La surface de SRAM sur chaque H100, B200, TPU v5, etc., finit par devenir le chiffre d’affaires de TSMC.

L1 HBM : le plus grand pool de profit à l’ère de l’IA

HBM (High Bandwidth Memory, mémoire à haute bande passante) consiste à empiler verticalement la DRAM (Dynamic Random-Access Memory, mémoire vive dynamique) via la technologie TSV (Through-Silicon Via), puis à l’encapsuler avec CoWoS, et à la coller à côté du GPU.

Le HBM détermine presque seul la capacité des accélérateurs AI à exécuter de grands modèles. SK Hynix, Micron, Samsung détiennent presque 100 % de parts de marché.

Au premier trimestre 2026, la répartition du marché est : SK Hynix 57-62 %, Samsung 22 %, Micron 21 %. SK Hynix a obtenu une part importante des achats de NVIDIA et autres, étant le fournisseur dominant actuel.

Lors de la conférence téléphonique sur les résultats du premier trimestre 2026, Micron a indiqué que le TAM (marché total potentiel) du HBM croîtrait à un taux annuel composé d’environ 40 %, passant d’environ 35 milliards de dollars en 2025 à 100 milliards de dollars en 2028, avec une anticipation de deux ans par rapport aux prévisions précédentes.

L’avantage clé du HBM réside dans sa marge bénéficiaire extrêmement élevée. Au premier trimestre 2026, la marge opérationnelle de SK Hynix a atteint un record de 72 %.

Les raisons de cette forte rentabilité,

  1. La fabrication TSV réduit une partie de la capacité traditionnelle de DRAM, maintenant une demande insatisfaite pour le HBM ;

  2. La difficulté à améliorer le taux de réussite de l’encapsulation avancée, Samsung ayant vu sa part passer de 40 % à 22 %, en est une conséquence ;

  3. Les principaux fournisseurs ont adopté une expansion prudente, tout en réalisant au premier trimestre 2026 une augmentation de plus de 60 % du prix moyen de vente (ASP) de la DRAM, ce qui montre une position claire de marché de vendeurs.

Parmi les trois géants, SK Hynix est fortement tiré par le HBM, avec un bénéfice opérationnel annuel de 47,21 trillions de won coréens en 2025, dépassant pour la première fois Samsung Electronics, et au premier trimestre 2026, avec une marge de 72 %, surpassant même TSMC (58,1 %) et NVIDIA (65 %).

Micron a des perspectives de croissance très élevées, la Bank of America (BofA) ayant relevé son objectif de prix à 950 dollars en mai 2026. Samsung, avec la production en masse de HBM4, dispose du plus grand potentiel de reprise de parts.

L2 DRAM sur la carte mère

Ce niveau correspond à ce que l’on appelle communément la mémoire RAM.

La DRAM sur la carte mère comprend DDR5, LPDDR, GDDR, MR-DIMM, etc., et constitue actuellement la partie la plus importante en termes de chiffre d’affaires dans le système de stockage AI, avec une taille de marché globale d’environ 121,83 milliards de dollars en 2025.

Samsung, SK Hynix et Micron détiennent toujours la majorité du marché. Selon les dernières données du quatrième trimestre 2025, Samsung occupe 36,6 %, SK Hynix 32,9 %, Micron 22,9 %.

La capacité de production se tourne désormais vers la HBM, qui offre une marge plus élevée, permettant de maintenir une forte rentabilité et un pouvoir de fixation des prix. La marge de profit d’un seul produit DRAM classique est inférieure à celle du HBM, mais sa taille de marché globale est la plus grande.

L3 Couche de pooling CXL

CXL (Compute Express Link) permet de “pooler” la DRAM d’un seul serveur vers tout un rack.

Après CXL 3.x, toute la mémoire d’un rack pourra être partagée et gérée par plusieurs GPU, avec une allocation à la demande. Cela résout le problème de stockage KV cache, bases de données vectorielles, RAG, qui ne peuvent pas être logés ou déplacés lors de l’inférence AI.

Le marché des modules de mémoire CXL représentait seulement 1,6 milliard de dollars en 2024, et devrait atteindre 23,7 milliards de dollars en 2033. La domination semble toujours détenue par Samsung, SK Hynix et Micron.

Dans cette couche, Astera Labs fabrique des retimers (rééchelonneurs) entre CXL et PCIe, ainsi que des contrôleurs de mémoire intelligents, représentant environ 55 % de ce sous-marché. Son dernier trimestre a généré 308 millions de dollars de revenus, en hausse de 93 % en glissement annuel, avec une marge brute non GAAP de 76,4 %, et un bénéfice net en hausse de 85 %. C’est une rentabilité très élevée.

L4 SSD d’entreprise : le plus grand bénéficiaire de l’ère de l’inférence

Les SSD NVMe d’entreprise sont le principal terrain pour les checkpoints d’entraînement AI, RAG, déchargement KV, et cache de poids de modèles. Les SSD QLC de grande capacité ont déjà éliminé le HDD du lac de données AI.

En 2025, le marché des SSD d’entreprise atteindra environ 26,1 milliards de dollars, avec un CAGR de 24 %, et devrait atteindre 76 milliards de dollars en 2030.

Le paysage est toujours dominé par les trois géants.

Selon le chiffre d’affaires du quatrième trimestre 2025, la part de marché est : Samsung 36,9 %, SK Hynix (incluant Solidigm) 32,9 %, Micron 14,0 %, Kioxia 11,7 %, SanDisk 4,4 %. Les cinq premiers représentent environ 90 %.

La plus grande évolution de cette couche est l’émergence des SSD QLC dans les scénarios d’inférence AI. La filiale de Hynix, Solidigm, et Kioxia ont lancé des produits d’une capacité de 122 To par disque, et le KV cache et l’index RAG pour l’inférence AI migrent de HBM vers SSD.

Du point de vue du pool de profit, les SSD d’entreprise n’atteignent pas la marge extrême du HBM, mais bénéficient des doubles dividendes de la capacité et de l’expansion de l’inférence.

Hynix et Kioxia sont des cibles relativement pures. Samsung et SK Hynix profitent à la fois du HBM, de la DRAM et du NAND, formant des plateformes de stockage AI plus complètes.

L5 NAS et stockage d’objets en nuage : le pool de rendement composé de l’effet de levier des données

NAS et stockage d’objets en nuage constituent la couche la plus externe pour le lac de données AI, les corpus d’entraînement, la sauvegarde, l’archivage, la collaboration inter-équipes. En 2025, le NAS représentera environ 39,6 milliards de dollars (CAGR de 17 %), et le stockage d’objets en nuage environ 9,1 milliards de dollars (CAGR de 16 %).

Les principaux fournisseurs de stockage de fichiers d’entreprise sont NetApp, Dell, HPE, Huawei ; pour les PME, Synology, QNAP. En utilisant la part de marché IaaS, AWS représente environ 31-32 %, Azure 23-24 %, Google Cloud 11-12 %, pour un total d’environ 65-70 %.

Ce niveau tire principalement profit du stockage à long terme, de la sortie de données, et de la fidélisation écologique.

En résumé,

  1. La capacité DRAM est la plus grande mais avec la marge la plus faible, 30-40 % ; celle du HBM n’est qu’un tiers de celle de la DRAM, mais la marge est plus que doublée, dépassant 60 % ; le pool de re-routage CXL est le plus petit, avec une marge supérieure à 76 %. Plus on se rapproche de la puissance de calcul, plus c’est rare et rentable.

  2. La croissance des pools de profit provient principalement de trois sources : HBM (CAGR de 28 %), SSD d’entreprise (CAGR de 24 %), pooling CXL (CAGR de 37 %).

  3. Chaque couche possède ses propres barrières à l’entrée : la technologie pour HBM (TSV, CoWoS, amélioration du taux de réussite), la propriété intellectuelle et la certification pour CXL, le coût de changement pour les services.

4-9,02%
TSM1,7%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épinglé