La IA no es solo una historia de chips, sino una revolución de la memoria

Las personas suelen carecer de “visión a largo plazo” para ver claramente el presente. Cuando una tendencia ha revelado suficientes datos, la multitud vuelve a dudar porque… el precio ya ha subido mucho.
En los últimos tres años, la capacidad de VRAM en cada GPU de NVIDIA ha aumentado casi 3.6 veces. Pero lo realmente notable no es solo la GPU, sino la cantidad de memoria HBM que la acompaña. En los próximos tres años, se pronostica que la demanda de HBM podría multiplicarse por 5.

Por lo tanto, la pregunta ya no es: “¿Las acciones de memoria han subido mucho?” Sino: “¿Realmente crees que la IA es una revolución a largo plazo?”

Cuando NVIDIA crece, la memoria no puede quedarse fuera
Si se piensa que las acciones de memoria no pueden superar el ciclo, eso implica que:
Las ventas de GPU de NVIDIA no seguirán explotando
La demanda de IA pronto disminuirá
El crecimiento de tokens a nivel mundial es solo un fenómeno temporal
Pero la realidad muestra que la IA sigue expandiéndose exponencialmente. Jensen Huang ha destacado que la demanda de cálculo para IA puede aumentar miles de veces. Si el cómputo aumenta mil veces, entonces la memoria — que alimenta el cómputo — tampoco puede crecer solo en gotas.
La IA consume tres elementos principales:
Cálculo (Compute)
Almacenamiento/Memoria (Memory)
Conexión óptica (Optical Interconnect)
Si crees que el cálculo es una historia de crecimiento a largo plazo, entonces la memoria también lo es por defecto. Estos dos factores no pueden separarse.

El efecto de “absorción” de liquidez por parte de NVIDIA:
El efecto de “agotamiento” de la oferta
Al pasar a la generación Blackwell Ultra y Vera Rubin:
Las nuevas GPU consumen hasta 288GB de HBM3e por tarjeta
Las versiones premium pueden llegar a 384GB – 512GB
La CPU Vera viene con una actualización de la memoria DRAM del sistema a 1.5TB por socket
Eso significa: un armario de alta gama para IA actualmente consume mucha más DRAM que un servidor tradicional.
Más importante aún, NVIDIA utiliza:
Pagos por adelantado en efectivo a gran escala
Contratos “take-or-pay” a largo plazo
=> Bloqueando la mayor parte de la capacidad de HBM premium durante 2–3 años.
Las consecuencias:
Otros hyperscalers como Google o Amazon deben competir por la parte restante de la oferta
Los servidores tradicionales y los electrónicos de consumo se ven presionados por la fuente de DRAM
La industria entra en un estado de escasez estructural, que ya no es solo una escasez cíclica habitual.

¿Dónde están los tres grandes en memoria?
SK Hynix
La capacidad de HBM en 2026 casi se ha agotado
Impulsando las fábricas M15X y Yongin
Pero la producción en gran volumen realmente explotará a finales de 2027–2028
Los pedidos ya superan la capacidad teórica de suministro
Samsung Electronics
Meta de crecimiento de HBM más de 3 veces
Inversión muy grande en P5
La producción de HBM4 depende del rendimiento de la fabricación avanzada y la lógica de 4nm
La capacidad real significativa también tendrá que esperar hasta 2028
Micron Technology
Capex en aumento, superando los 25 mil millones de dólares
HBM4 en producción de alto rendimiento
La mayor parte del suministro en 2026–2027 ya está comprometido por contratos a largo plazo
La súper fábrica en EE. UU. solo contribuirá significativamente a partir de 2028

Barreras físicas: no se puede “abrir la válvula” de inmediato
Hay dos límites rígidos:

  1. El ciclo de construcción de salas limpias: desde el inicio hasta la certificación toma 18–24 meses. No se puede acortar con dinero.
  2. HBM4 consume en wafers 3–4 veces más que el DRAM convencional: HBM4 usa una interfaz de 2048 bits y requiere una lógica base en chips fabricados con procesos avanzados. Esto prolonga el ciclo de producción y aumenta el consumo de wafers.
    => Aunque las empresas aumenten su inversión récord, el crecimiento real de bits sigue limitado por las leyes físicas.

Conclusión: La memoria está en proceso de transformación en acciones de crecimiento
La valoración de NVIDIA refleja una suposición: que la IA es una revolución a largo plazo.
Si aceptamos esa suposición, no se puede negar:
La memoria es el combustible de la IA
HBM es un recurso estratégico
El DRAM de alta gama está siendo reestructurado en la oferta y demanda globales
En esencia, el cálculo y la memoria son dos caras de la misma moneda. O ambas se convierten en un crecimiento a largo plazo, o ambas colapsan.
El mercado puede tener dudas. Pero los datos sobre capacidad, contratos vinculantes y barreras físicas muestran que: este ciclo puede ya no ser un “ciclo” en el sentido tradicional.

NVDA-4,36%
MU-7,22%
AMZN-1,4%
Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Fijado