¡De 8% a 30%! ¡El gasto en memoria se dispara!

robot
Generación de resúmenes en curso

Invertir en bolsa es cuestión de ver los informes de analistas de Jin Qilin; son autorizados, profesionales, oportunos y completos. ¡Le ayudan a descubrir oportunidades temáticas con potencial!

Observación de la industria de los semiconductores

SemiAnalysis prevé que, para 2026, el gasto en memoria representará aproximadamente el 30% del gasto de capital total de los hipergrandes centros de datos, muy por encima del 8% de 2023; y esta proporción se espera que aumente aún más en 2027. En apenas cuatro años, a medida que los precios de la DRAM se disparan a niveles difícilmente imaginables y la oferta de HBM sigue siendo gravemente insuficiente, el gasto en memoria logrará un aumento de casi cuatro veces en su proporción.

Obviamente, esto está impulsado por la demanda de inteligencia artificial.

SemiAnalysis prevé que, para 2026, el gasto en memoria representará aproximadamente el 30% del gasto de capital total de los hipergrandes centros de datos, superior al 8% de 2023 y 2024. La empresa estima que esta proporción seguirá aumentando en 2027, lo que significa que, en el corto plazo de cuatro años, a medida que los precios de la DRAM se disparen a niveles difícilmente imaginables y la oferta de HBM siga siendo gravemente insuficiente, la proporción del gasto en memoria alcanzará un aumento cercano a cuatro veces.

SemiAnalysis prevé que el precio de la DRAM en 2026 se duplicará con creces, y que el precio de venta promedio también registrará un crecimiento de dos dígitos en 2027. El precio de los contratos de LPDDR5 se ha más que triplicado desde el primer trimestre de 2025; la empresa estima que, en este trimestre, el precio del mercado público podría superar los 10 dólares/GB.

Según los resultados de la investigación de SemiAnalysis, la memoria HBM de apilamiento vertical, que es clave para los aceleradores de IA, seguirá teniendo un déficit de suministro en 2027, mientras que la memoria ya representa una gran parte del gasto de capital incremental previsto para los hipergrandes centros de datos de este año, alrededor de 250B de dólares.

Esto ya se refleja en el precio de los servidores de inteligencia artificial. SemiAnalysis señala que, debido al fuerte impacto del aumento de los costos de memoria, se espera que el precio de los servidores B200 aumente hasta en un 20% para finales de año. Esto coincide con la tendencia de toda la industria: los fabricantes reconocieron en las recientes llamadas de resultados que el costo de los componentes ha aumentado de forma significativa. El director de operaciones de Dell, Jeff Clarke, en la llamada de resultados del tercer trimestre del año fiscal 2025 del pasado noviembre, describió la velocidad del aumento de costos como “sin precedentes”.

Counterpoint Research también predijo por separado que, para finales de 2026, el precio de los módulos DDR5 de 64GB RDIMM podría ser el doble que a principios de 2025. Los servidores de IA construidos sobre la plataforma LPDDR de Nvidia registrarán el mayor aumento de precio, debido a la gran cantidad de memoria necesaria para cada sistema.

SemiAnalysis señala un fenómeno interesante: Nvidia obtiene de los proveedores lo que se conoce como la fijación de precios de “VVP” (Very Very Preferred, extremadamente preferente) para la DRAM, “muy por debajo de los precios que pagan los hipergrandes centros de datos y el mercado en general”. SemiAnalysis cree que esto reduce los costos de servidores de Nvidia y baja el precio de referencia en el conjunto del mercado, ocultando el grave problema de escasez de suministro al que se enfrentan los demás usuarios.

El caso de AMD es todo lo contrario: sus SKU de aceleradores de IA suelen tener un precio unitario más alto, por lo que no puede beneficiarse de los mismos precios preferenciales de proveedores. Actualmente, la venta de aceleradores de IA de AMD está muy por debajo de la de Nvidia, lo que hace que AMD “sea más fácil verse afectada por el aumento de los costos de memoria cuando el volumen de aceleradores de IA es mucho menor que el de Nvidia”. En otras palabras, el volumen de compra de Nvidia en HBM y DRAM tradicional le da una ventaja que los compradores de lotes pequeños no pueden alcanzar.

La conclusión de SemiAnalysis es que, aunque los principales operadores en la nube ya han reflejado en parte el aumento de los precios de la memoria en sus guías de gasto de capital para 2026, las expectativas de Wall Street aún no han reflejado la redefinición de precios de 2027. Samsung, SK Hynix y Micron han trasladado su capacidad hacia HBM y DRAM empresarial de alto margen, lo que ha provocado que la oferta de DDR5 y LPDDR5 tradicionales esté limitada. Además, la fábrica de HBM de Hiroshima de Micron, en la que invierte 9,600 millones de dólares, y los proyectos de ampliación de SK Hynix ubicados en Lichuan y Qingzhou, como mínimo, no podrán entrar en una producción sustancial hasta 2027 o 2028.

		Declaración de Sina: Este mensaje se trata de una reimpresión de un medio asociado de Sina. Sina.com publica este artículo con el fin de difundir más información, y no implica que esté de acuerdo con sus opiniones ni que confirme lo descrito. El contenido del artículo es solo para referencia y no constituye asesoramiento de inversión. Los inversores actúan con base en lo anterior bajo su propio riesgo.

Hay una gran cantidad de información y análisis precisos; todo en la aplicación de finanzas de Sina

Responsable: Lingchen

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado