Comprensión completa en un artículo sobre el nivel de almacenamiento de IA, el pozo de beneficios y la estructura industrial

El almacenamiento con IA puede dividirse en seis capas,

  1. SRAM en chip

  2. HBM

  3. DRAM en la placa base

  4. Capa de pooling CXL

  5. SSD de nivel empresarial

  6. NAS y almacenamiento en la nube de objetos

Esta jerarquía se basa en la ubicación del almacenamiento; cuanto más abajo, más lejos de la unidad de cálculo, y mayor es la capacidad de almacenamiento.

Para 2025, estas seis capas (SRAM en chips de potencia de cálculo, excluyendo el valor embebido) tendrán un mercado total de aproximadamente 229 mil millones de dólares, donde DRAM representa la mitad, HBM el 15% y SSD el 11%.

En cuanto a beneficios, cada capa está extremadamente concentrada en oligopolios, con las tres primeras generalmente con una cuota de mercado superior al 90%.

Estos beneficios se pueden dividir en tres categorías,

  1. Pool de alta rentabilidad en la capa de silicio (HBM, SRAM embebido, SSD QLC)

  2. Nuevos pools de alta rentabilidad en la capa de interconexión (CXL)

  3. Pool de interés compuesto a escala en la capa de servicios (NAS, almacenamiento en la nube de objetos)

Las tres categorías tienen diferentes naturalezas, tasas de crecimiento y barreras de entrada.

¿Por qué se divide en capas el almacenamiento?

Porque en los chips de CPU responsables del control y GPU responsables del cálculo, solo hay caché temporal, es decir, SRAM en chip. Este espacio de caché es demasiado pequeño, solo puede contener parámetros temporales, no puede albergar modelos grandes.

Fuera de estos dos chips, se necesita memoria externa más grande para almacenar modelos grandes y contextos de inferencia.

El acceso a estos datos es muy rápido, pero mover datos entre diferentes niveles de almacenamiento genera latencia y consumo energético, que es el mayor problema.

Por eso, actualmente hay tres enfoques,

  1. Ampliar HBM, colocar la memoria junto a la GPU para acortar la distancia de transferencia

  2. CXL, pooling de memoria a nivel de chasis, compartiendo capacidad

  3. Integrar cálculo y almacenamiento en la misma oblea, almacenamiento y cálculo en un solo paquete

Estos enfoques determinarán la forma de cada pool de beneficios en los próximos cinco años.

A continuación, la división específica por capas,

L0 SRAM en chip: pool de beneficios exclusivo de TSMC

SRAM (Static Random-access Memory, memoria estática de acceso aleatorio) es la caché interna de CPU/GPU, integrada en cada chip, no se negocia por separado.

El mercado de chips SRAM independientes solo alcanza entre 1,000 y 1,700 millones de dólares, con Infineon (~15%), Renesas (~13%) e ISSI (~10%) como principales actores, siendo un mercado pequeño.

Esta parte del pool de beneficios está en TSMC, cada generación de chips de IA requiere comprar más obleas para incluir más SRAM.

Y más del 70% de las obleas de procesos avanzados en el mundo están en manos de TSMC. Cada H100, B200, TPU v5, etc., cuya superficie de SRAM, termina siendo ingreso para TSMC.

L1 HBM: el mayor pool de beneficios en la era de IA

HBM (High Bandwidth Memory, memoria de alto ancho de banda) apila verticalmente DRAM (Dynamic Random-access Memory, memoria dinámica de acceso aleatorio) mediante tecnología TSV (Through Silicon Via), y se encapsula en CoWoS, colocándose junto a la GPU.

HBM decide casi por completo qué tamaño de modelo puede correr un acelerador de IA. SK Hynix, Micron y Samsung tienen cuotas de mercado casi del 100%.

Hasta el primer trimestre de 2026, la distribución de mercado más reciente es: SK Hynix 57-62%, Samsung 22%, Micron 21%. SK Hynix ha obtenido una gran parte de las compras de empresas como NVIDIA, siendo actualmente el proveedor dominante.

En la conferencia de resultados del primer trimestre de 2026, Micron mencionó que el TAM (mercado total potencial) de HBM crecerá a una tasa compuesta anual de aproximadamente 40%, pasando de unos 35 mil millones de dólares en 2025 a 100 mil millones en 2028, adelantando en dos años las predicciones anteriores.

La ventaja principal de HBM radica en su altísima rentabilidad. En el primer trimestre de 2026, SK Hynix alcanzó un margen operativo récord del 72%.

Las razones de estos altos beneficios son,

  1. La fabricación TSV sacrifica parte de la capacidad de DRAM tradicional, manteniendo la oferta de HBM en estado de escasez;

  2. La dificultad en mejorar la tasa de rendimiento de empaquetado avanzado, y la reducción de cuota de mercado de Samsung del 40% al 22%, también influye;

  3. Los principales proveedores están expandiendo con cautela, y en el primer trimestre de 2026 lograron un aumento mensual en el precio medio de venta (ASP) de más del 60%, mostrando una posición clara de vendedor.

Entre los tres gigantes, SK Hynix, impulsada por HBM, alcanzó en 2025 un beneficio operativo anual de 47.21 billones de won coreanos, superando por primera vez a Samsung Electronics, y en el primer trimestre de 2026, con un margen del 72%, incluso superó a TSMC (58.1%) y NVIDIA (65%) en rentabilidad.

Micron tiene expectativas de crecimiento muy altas, y Bank of America (BofA) en mayo de 2026 elevó su precio objetivo a 950 dólares. Samsung, con la producción en masa de HBM4 en marcha, tiene el mayor potencial para recuperar cuota de mercado.

L2 DRAM en placa base

Esta capa corresponde a lo que comúnmente llamamos memoria RAM en la placa.

Incluye productos como DDR5, LPDDR, GDDR, MR-DIMM, siendo actualmente la parte con mayor volumen de ventas en el sistema de almacenamiento de IA, con un mercado global en 2025 de aproximadamente 1218.3 millones de dólares.

Samsung, SK Hynix y Micron siguen dominando la mayor parte del mercado. Según datos de Q4 2025, Samsung lidera con un 36.6% de cuota, seguido por SK Hynix con 32.9% y Micron con 22.9%.

Actualmente, la capacidad se está desplazando hacia HBM, que tiene mayor rentabilidad y poder de fijación de precios. Aunque la rentabilidad de los productos tradicionales de DRAM en placa base no alcanza la de HBM, su tamaño de mercado es mayor.

L3 Capa de pooling CXL

CXL (Compute Express Link) permite “pooling” de DRAM desde una sola placa de servidor a toda la infraestructura del chasis.

Con CXL 3.x, en el futuro, toda la memoria en un rack podrá ser compartida y gestionada por múltiples GPU, distribuyendo recursos según demanda. Resuelve problemas como la incapacidad de alojar KV cache, bases de datos vectoriales y RAG en inferencia de IA.

El mercado de módulos de memoria CXL en 2024 será de solo 1.6 mil millones de dólares, y se estima que en 2033 alcanzará los 23.7 mil millones. Parece que el mercado seguirá dominado por Samsung, SK Hynix y Micron.

En esta capa, Astera Labs fabrica retimers (retemporizadores) entre CXL y PCIe, y controladores inteligentes de memoria, con aproximadamente un 55% de participación en este submercado. En el último trimestre, sus ingresos fueron de 308 millones de dólares, con un crecimiento interanual del 93%, margen bruto no GAAP del 76.4%, y beneficio neto +85%. Es un mercado altamente rentable.

L4 SSD empresarial: el mayor beneficiario en la era de la inferencia

Los SSD NVMe de nivel empresarial son el campo principal para checkpoints de entrenamiento de IA, índices RAG, offload de KV cache y almacenamiento de pesos de modelos. Los SSD QLC de gran capacidad ya desplazaron completamente a los HDD en los lagos de datos de IA.

Para 2025, el mercado de SSD empresariales alcanzará unos 26.1 mil millones de dólares, con una tasa de crecimiento anual compuesta (CAGR) del 24%, y se estima que en 2030 llegará a 76 mil millones.

El mercado sigue dominado por las tres grandes empresas.

Según los ingresos del cuarto trimestre de 2025, la cuota de mercado es: Samsung 36.9%, SK Hynix (incluyendo Solidigm) 32.9%, Micron 14.0%, Kioxia 11.7%, SanDisk 4.4%. Las cinco juntas representan aproximadamente el 90%.

El cambio más importante en esta capa es la explosión de SSD QLC en escenarios de inferencia de IA. La subsidiaria de Hynix, Solidigm, y Kioxia ya ofrecen productos con capacidad de 122 TB por disco, y el KV cache y los índices RAG de inferencia de IA se están desplazando desde HBM hacia SSD.

Desde la perspectiva del pool de beneficios, los SSD empresariales no alcanzan los márgenes tan altos como HBM, pero disfrutan de los beneficios de la expansión de capacidad y la demanda de inferencia.

Hynix y Kioxia son actores relativamente puros en este mercado. Samsung y SK Hynix, por su parte, disfrutan de los beneficios combinados de HBM, DRAM y NAND, formando plataformas de almacenamiento de IA más completas.

L5 NAS y almacenamiento en la nube de objetos: el pool de interés compuesto por la atracción de datos

NAS y almacenamiento en la nube de objetos son la capa más externa para lagos de datos de IA, corpus de entrenamiento, copias de seguridad, colaboración entre equipos. Para 2025, el mercado de NAS será de aproximadamente 39.6 mil millones de dólares (CAGR 17%), y el de almacenamiento en la nube de objetos unos 9.1 mil millones (CAGR 16%).

Los principales proveedores de almacenamiento de archivos empresariales son NetApp, Dell, HPE y Huawei; para pequeñas y medianas empresas, Synology y QNAP. En el almacenamiento en la nube, según la cuota de mercado de IaaS, AWS tiene aproximadamente un 31-32%, Azure 23-24% y Google Cloud 11-12%, sumando entre los tres alrededor del 65-70%.

El beneficio en esta capa proviene principalmente del alojamiento a largo plazo, salida de datos y bloqueo ecológico.

Resumiendo,

  1. La cuota de DRAM es la mayor, pero con el menor margen de beneficio del 30-40%; la de HBM es solo un tercio de la de DRAM, pero con un margen que duplica el 60%+; CXL, con su retemporizador, tiene la cuota más pequeña, pero el margen más alto, superior al 76%. Cuanto más cerca del cálculo, más escaso y lucrativo es.

  2. Los incrementos en beneficios provienen principalmente de tres áreas: HBM (CAGR 28%), SSD empresariales (CAGR 24%) y pooling CXL (CAGR 37%).

  3. Cada capa tiene diferentes barreras de entrada: HBM se apoya en barreras tecnológicas, como TSV, CoWoS y mejoras en rendimiento; CXL en propiedad intelectual y certificaciones, con un único proveedor de retemporizadores; y la capa de servicios en costos de cambio.

4-6,87%
TSM-1,21%
Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Fijado