Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
CFD
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Promociones
Centro de actividades
Únete a actividades y gana recompensas
Referido
20 USDT
Invita amigos y gana por tus referidos
Programa de afiliados
Gana recompensas de comisión exclusivas
Gate Booster
Aumenta tu influencia y gana airdrops
Anuncio
Novedades de plataforma en tiempo real
Gate Blog
Artículos del sector de las criptomonedas
AI
Gate AI
Tu compañero de IA conversacional para todo
Gate AI Bot
Usa Gate AI directamente en tu aplicación social
GateClaw
Gate Blue Lobster, listo para usar
Gate for AI Agent
Infraestructura de IA, Gate MCP, Skills y CLI
Gate Skills Hub
+10 000 habilidades
De la oficina al trading, una biblioteca de habilidades todo en uno para sacar el máximo partido a la IA
GateRouter
Elige inteligentemente entre más de 40 modelos de IA, con 0% de costos adicionales
Comprensión rápida de la reserva de beneficios y la estructura industrial de los niveles de almacenamiento de IA
nulo
Autor: Godot Godot
El almacenamiento de IA se puede dividir en seis capas,
SRAM en chip
HBM
DRAM en placa base
CXL capa de agrupamiento
SSD de nivel empresarial
NAS y almacenamiento en la nube de objetos
Esta jerarquía se clasifica según la ubicación del almacenamiento; cuanto más abajo, más lejos de la unidad de cálculo, y mayor es la capacidad de almacenamiento.
Para 2025, estas seis capas (SRAM en chips de potencia de cálculo, excluyendo el valor embebido) suman aproximadamente 229 mil millones de dólares, de los cuales DRAM representa la mitad, HBM el 15% y SSD el 11%.
En cuanto a beneficios, cada capa está extremadamente concentrada en oligarquías, con las tres primeras generalmente con una cuota de mercado superior al 90%.
Estos beneficios se pueden dividir en tres categorías,
Pool de alta rentabilidad en la capa de chips de silicio (HBM, SRAM embebido, SSD QLC)
Nuevos pools de alta rentabilidad en la capa de interconexión (CXL)
Pool de interés compuesto a escala en la capa de servicios (NAS, almacenamiento en la nube de objetos)
Las tres categorías tienen diferentes naturalezas, tasas de crecimiento y barreras de entrada.
¿Por qué se divide en capas el almacenamiento?
Porque en los chips de CPU responsables del control y en los chips de GPU responsables del cálculo, solo hay caché temporal, es decir, SRAM en chip. Este espacio de caché es demasiado pequeño, solo puede contener parámetros temporales, no puede albergar modelos grandes.
Fuera de estos dos chips, se necesita memoria externa más grande para almacenar modelos grandes y el contexto para inferencias.
Es muy rápido, pero mover datos entre diferentes niveles de almacenamiento genera latencia y consumo de energía, que son los mayores problemas.
Por eso, actualmente hay tres direcciones principales,
Ampliar HBM, colocar la memoria junto a la GPU para acortar la distancia de transferencia
CXL, pooling de memoria a nivel de chasis, compartiendo capacidad
Integrar cálculo y almacenamiento en la misma oblea, almacenamiento y cálculo en un solo paquete
Estas tres direcciones determinarán la forma de cada pool de beneficios en los próximos cinco años.
A continuación, la división específica en capas,
L0 SRAM en chip: pool de beneficios exclusivo de TSMC
SRAM (Static Random-access Memory, memoria estática de acceso aleatorio) es la caché interna de la CPU/GPU, integrada en cada chip, no se negocia por separado.
El mercado de chips SRAM independientes tiene solo entre 1,000 y 1,700 millones de dólares, con Infineon (~15%), Renesas (~13%) e ISSI (~10%) como principales actores, siendo un mercado pequeño.
Esta parte del pool de beneficios se encuentra en TSMC, cada generación de chips de IA requiere más SRAM, por lo que se compran más obleas.
Y más del 70% de las obleas de procesos avanzados en todo el mundo están en manos de TSMC. Cada H100, B200, TPU v5, etc., cuya superficie de SRAM, termina siendo ingresos para TSMC.
L1 HBM: El mayor pool de beneficios en la era de IA
HBM (High Bandwidth Memory, memoria de alto ancho de banda) apila verticalmente la DRAM (Dynamic Random-access Memory, memoria dinámica de acceso aleatorio) mediante tecnología TSV (Through Silicon Via), y se encapsula en CoWoS, colocándose junto a la GPU.
HBM decide casi en solitario qué tamaño de modelo puede correr un acelerador de IA. SK Hynix, Micron y Samsung tienen casi el 100% de cuota de mercado.
Hasta el primer trimestre de 2026, la última distribución de mercado es: SK Hynix 57-62%, Samsung 22%, Micron 21%. SK Hynix ha obtenido una gran parte de las compras de empresas como NVIDIA y otros, siendo actualmente el proveedor dominante.
La llamada TAM (mercado total potencial) de HBM crecerá a una tasa compuesta anual de aproximadamente 40%, pasando de unos 35 mil millones de dólares en 2025 a 100 mil millones en 2028, adelantando en dos años las predicciones anteriores.
La ventaja principal de HBM radica en su altísima rentabilidad. En el primer trimestre de 2026, SK Hynix alcanzó un récord de margen operativo del 72%.
Las razones de estos altos beneficios,
La fabricación TSV sacrifica parte de la capacidad tradicional de DRAM, manteniendo la oferta de HBM en estado de escasez;
La dificultad para mejorar la tasa de rendimiento en el empaquetado avanzado, como la caída del 40% al 22% en cuota de mercado de Samsung, también influye;
Los principales proveedores están expandiendo con cautela, y en el primer trimestre de 2026 lograron un aumento mensual en el precio promedio de venta (ASP) de más del 60%, mostrando una posición clara de vendedor.
Entre los tres gigantes, SK Hynix, impulsada por HBM, alcanzó en 2025 un beneficio operativo anual de 47.21 billones de wones, superando por primera vez a Samsung Electronics, y en el primer trimestre de 2026, con un margen del 72%, incluso superó a TSMC (58.1%) y NVIDIA (65%) en rentabilidad.
Micron tiene expectativas de crecimiento muy altas, y Bank of America (BofA) en mayo de 2026 elevó su precio objetivo a 950 dólares. Samsung, con la producción en masa de HBM4 en marcha, tiene el mayor potencial para recuperar cuota de mercado.
L2 DRAM en placa base
Esta capa corresponde a lo que comúnmente llamamos memoria RAM.
La DRAM en placa base incluye productos como DDR5, LPDDR, GDDR, MR-DIMM, y actualmente representa la parte con mayor volumen de ventas en el sistema de almacenamiento de IA, con un tamaño de mercado global en 2025 de aproximadamente 121.83 mil millones de dólares.
Samsung, SK Hynix y Micron siguen dominando la mayor parte del mercado. Según los datos del cuarto trimestre de 2025, Samsung tiene una cuota del 36.6%, SK Hynix 32.9% y Micron 22.9%.
Actualmente, la capacidad se está desplazando hacia HBM, que tiene mayor rentabilidad y poder de fijación de precios. Aunque la rentabilidad de los productos tradicionales de DRAM en placa base no alcanza la de HBM, su tamaño de mercado es el mayor.
L3 CXL capa de agrupamiento
CXL (Compute Express Link) permite “pooling” de DRAM desde una sola placa base de servidor a toda la infraestructura del chasis.
Con CXL 3.x, en el futuro, toda la memoria en un armario puede ser compartida y gestionada por múltiples GPU, distribuyéndose según demanda. Resuelve problemas como la incapacidad de alojar o mover caché KV y bases de datos vectoriales en inferencias de IA.
El mercado de módulos de memoria CXL en 2024 será de solo 1.6 mil millones de dólares, y se espera que en 2033 alcance los 23.7 mil millones. Parece que el mercado seguirá dominado por Samsung, SK Hynix y Micron.
En esta capa, Astera Labs fabrica retimers (retemporizadores) entre CXL y PCIe, y controladores inteligentes de memoria, con aproximadamente el 55% de participación en este submercado. En el último trimestre, sus ingresos fueron de 308 millones de dólares, con un crecimiento interanual del 93%, un margen bruto no GAAP del 76.4% y un beneficio neto interanual del 85%. Es un negocio altamente rentable.
L4 SSD empresarial: el mayor beneficiario en la era de inferencia
Los SSD NVMe de nivel empresarial son el campo principal para checkpoints de entrenamiento de IA, índices RAG, offload de caché KV y almacenamiento de pesos de modelos. Los SSD QLC de gran capacidad ya desplazaron completamente a los HDD en los lagos de datos de IA.
Para 2025, el mercado de SSD empresariales alcanzará unos 26.1 mil millones de dólares, con una tasa de crecimiento anual compuesta (CAGR) del 24%, y se estima que en 2030 llegará a 76 mil millones.
El panorama, claro, sigue dominado por las tres grandes empresas.
Según los ingresos del cuarto trimestre de 2025, la cuota de mercado es: Samsung 36.9%, SK Hynix (incluyendo Solidigm) 32.9%, Micron 14.0%, Kioxia 11.7%, SanDisk 4.4%. Los cinco principales representan aproximadamente el 90%.
El cambio más importante en esta capa es la explosión de SSD QLC en escenarios de inferencia de IA. La subsidiaria de Hynix, Solidigm, y Kioxia ya ofrecen productos con capacidad de 122 TB por disco, y la caché KV y los índices RAG de inferencia de IA se están desplazando de HBM a SSD.
Desde la perspectiva del pool de beneficios, los SSD empresariales no alcanzan los márgenes extremos de HBM, pero disfrutan de los beneficios de la expansión de capacidad y la demanda de inferencia.
Hynix y Kioxia son actores relativamente puros. Samsung y SK Hynix, por su parte, disfrutan de los beneficios combinados de HBM, DRAM y NAND, siendo plataformas de almacenamiento de IA más completas.
L5 NAS y almacenamiento en la nube de objetos: el interés compuesto de la atracción de datos
NAS y almacenamiento en la nube de objetos son la capa más externa para lagos de datos de IA, corpus de entrenamiento, copias de seguridad, colaboración entre equipos. Para 2025, el NAS alcanzará unos 39.6 mil millones de dólares (CAGR 17%), y el almacenamiento en la nube de objetos unos 9.1 mil millones (CAGR 16%).
Los principales proveedores de almacenamiento de archivos empresariales son NetApp, Dell, HPE y Huawei; para pequeñas y medianas empresas, Synology y QNAP. La participación en el mercado de almacenamiento en la nube de objetos, estimada a partir de IaaS, es aproximadamente: AWS 31-32%, Azure 23-24%, Google Cloud 11-12%, sumando entre los tres alrededor del 65-70%.
El beneficio en esta capa proviene principalmente del alojamiento a largo plazo, salida de datos y bloqueo del ecosistema.
Resumiendo,
La mayor cuota de mercado la tiene DRAM, pero con el menor margen de beneficio del 30-40%; HBM tiene solo un tercio del tamaño de DRAM, pero con un margen que duplica el del 60%+; CXL, con su retemporizador, tiene la menor cuota, pero el margen más alto, superior al 76%. Cuanto más cerca del cálculo, más escaso y más rentable.
Las principales fuentes de incremento en beneficios provienen de tres áreas: HBM (CAGR 28%), SSD empresariales (CAGR 24%) y pooling CXL (CAGR 37%).
Cada capa tiene diferentes barreras de entrada: HBM se apoya en barreras tecnológicas, como TSV, CoWoS y mejoras en rendimiento; CXL en propiedad intelectual y certificaciones, con un único proveedor de retemporizadores; y la capa de servicios en costos de cambio.