La IA ha provocado tanto la escasez como el exceso de memoria

robot
Generación de resúmenes en curso

3 月 29 日,华强北和美国零售市场同步经历了一场内存条价格的断崖式下跌。海盗船 32GB DDR5-6400 套条从 490 美元跌至 380 美元,单日跌幅 22%。国内 32GB DDR5 高频套条单周暴跌 800 元,渠道商恐慌性抛售,有经销商说「一天就掉了一百多块」。

Pero cuando se ve en una línea de tiempo más larga, la imagen es completamente diferente: incluso después de la caída, el precio actual de DDR5 sigue siendo cuatro veces el de julio de 2025. Es el resultado de un desajuste preciso entre oferta y demanda en la cadena industrial de la IA: la misma fuerza primero fabricó la escasez y luego fabricó el pánico por el exceso.

Paseo de montaña rusa: +540% en ocho meses, -22% en un mes

En julio de 2025, un kit mainstream de 32GB DDR5-6000 en el mercado minorista de Estados Unidos costaba solo 77 dólares. Para enero de 2026, el precio de ese mismo kit se disparó a 490 dólares. En ocho meses, una subida de 540%.

Subir los precios no se debe a que los consumidores se volvieran locos de repente por actualizar sus computadoras. Según datos de TrendForce, en el primer trimestre de 2026 el precio de los contratos de DRAM subió mes a mes entre 90%-95%; dentro de eso, el aumento de la DRAM para PC superó el 100%, estableciendo los mayores incrementos trimestrales registrados hasta entonces. Lo que impulsa todo esto es la sed de un tipo especial de memoria por parte de la construcción de infraestructura de IA.

Luego, el 25 de marzo, Google lanzó un algoritmo de compresión llamado TurboQuant. Cuatro días después, los precios de la memoria colapsaron.

¿A dónde se fue la capacidad de producción? HBM se ha comido tus módulos de memoria

Para entender esta ronda de alzas, primero hay que entender un parámetro técnico clave. HBM (memoria de alto ancho de banda, memoria dedicada para los chips de IA de NVIDIA) consume tres veces el área de oblea por cada GB que una DDR5 normal. Según lo informado por Tom’s Hardware, esto significa que con la misma oblea se puede producir solo un tercio de la capacidad en HBM frente a DDR5.

Samsung, SK hynix y Micron, los tres grandes fabricantes de memoria, tomaron una elección racional frente a los altos márgenes de HBM: destinaron a la producción de HBM hasta el 40% de la capacidad de obleas de procesos avanzados. Según datos de TrendForce, para el primer trimestre de 2026, se prevé que el margen de ganancia de DDR5 supere por primera vez el de HBM3e, reflejando hasta qué punto el suministro de memoria de consumo se ha visto comprimido.

La decisión de Micron es la más agresiva. En diciembre de 2025, esta empresa anunció el cierre de su marca de consumo Crucial, que llevaba 29 años operando, y se retiró por completo del mercado de memoria y almacenamiento de consumo, pasando totalmente a clientes empresariales y de IA. Según el comunicado de relaciones con inversionistas de Micron, sus ingresos totales del año fiscal 2025 fueron 37.38 mil millones de dólares, y los centros de datos y aplicaciones de IA representaron el 56% de los ingresos totales. El mercado de consumo ya no vale la pena.

La capacidad de HBM de SK hynix ya está totalmente agotada hasta finales de 2026. Samsung planea aumentar la producción mensual de HBM de 170,000 obleas a 250,000 obleas para finales de 2026. Las nuevas fábricas de obleas (Samsung P4L y SK hynix M15X) solo podrán lograr producción en volumen como muy pronto en 2027-2028. En otras palabras, la brecha de suministro de DRAM de consumo es estructural, no algo que se pueda aliviar en uno o dos trimestres.

Vuelco del panorama: SK hynix rompe el dominio de Samsung de 40 años

Esta transferencia de capacidad también reescribió el mapa de poder de la industria de la memoria. Según datos de TrendForce, en el segundo trimestre de 2025, SK hynix se adjudicó el 62% de la cuota del mercado de HBM gracias a su vinculación profunda con NVIDIA; Samsung solo tuvo 17%, y Micron 21%.

Más significativo aún es el vuelco a nivel de ingresos. Según el informe Q3 2025 de TrendForce, SK hynix, con 13,750 millones de dólares de ingresos trimestrales por DRAM, llegó por primera vez al primer puesto; Samsung lo siguió con 13,500 millones de dólares. La diferencia entre ambas fue de solo 250 millones de dólares, pero es la primera vez en casi 40 años que Samsung pierde el lugar #1 en ingresos de memoria. Según CNBC, el beneficio operativo anual de SK hynix en 2025 también superó por primera vez al de Samsung.

La ventaja de salida temprana de HBM le dio a SK hynix suficiente margen, pero esta carrera aún no ha terminado. Samsung está persiguiendo con todas sus fuerzas el cronograma de producción en volumen de HBM4; Micron, aunque se retiró del mercado de consumo, en el ámbito empresarial y de IA su crecimiento de ingresos (Q3 mes a mes +53.2%) es el más rápido entre las tres empresas.

¿Cómo puede un algoritmo sacudir la lógica de las subidas de precios?

El 25 de marzo, Google presentó el algoritmo TurboQuant en ICLR 2026. Este algoritmo hace una cosa: comprime la caché KV (Key-Value cache; la parte que ocupa más memoria durante la inferencia de los grandes modelos de lenguaje) de precisión FP16 a 3-bit, reduciendo el uso de memoria al menos 6 veces, y además logra hasta una aceleración de 8 veces en el cálculo de la atención en GPU H100. Según el blog de investigación de Google, en cinco pruebas de evaluación de contexto largo como Needle-in-a-Haystack, la pérdida de precisión es cero.

El mercado calculó rápidamente. Si TurboQuant o algoritmos similares fueran adoptados ampliamente por las principales empresas de IA, entonces la demanda incremental de DRAM para la inferencia de IA se reduciría considerablemente. Y la narrativa central que había sostenido las alzas de la memoria durante los últimos seis meses y medio era justamente: “La infraestructura de IA consume demasiada capacidad de memoria”.

Cuatro días después, la confianza de los canales se desplomó.

Cabe señalar que TurboQuant se centra en la caché KV en el lado de la inferencia de IA, no en la demanda de HBM en el lado del entrenamiento. La relación entre oferta y demanda de HBM a corto plazo no cambiará debido a un algoritmo de optimización para la inferencia. Pero el mercado no siempre distingue entre estas dos cosas. Según informa Sina Finance, en la etapa previa al desplome, muchos actores en los canales nacionales entraron en masa a acumular inventario “fuera del círculo” debido a las alzas; los precios provocaron que las ventas minoristas cayeran más de 60%, y las ventas en cadena amplificaron la caída en un entorno de tensión de la cadena de capitales.

Una sola cadena industrial de IA, que al mismo tiempo fabrica la escasez de memoria y el pánico por el exceso. La capacidad física de HBM que comprime la producción hace que la memoria de consumo sea insuficiente; el avance en eficiencia del algoritmo TurboQuant hace que las expectativas de demanda de memoria de IA se desplomen. El aumento de precios y el colapso se fabrican con la misma fuerza.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado