En los últimos años, el rápido crecimiento de la industria de la inteligencia artificial ha puesto en foco a una empresa que ha ganado atención rápidamente. Esa es Micron Technology. Honestamente, había sido una presencia casi invisible, eclipsada por Nvidia y TSMC, pero la situación está empezando a cambiar drásticamente.



Al remontarnos un poco en la historia, en 2012, Elpida, que era el orgullo de la industria de semiconductores de Japón, quebró. Aunque en su momento contaba con la tecnología de los tres grandes gigantes NEC, Hitachi y Mitsubishi, en menos de 20 años desapareció por completo del mercado de DRAM. La adquisición de esa compañía por parte de Micron ocurrió en ese momento. Posteriormente, Samsung y SK Hynix de Corea dominaron el mercado, desplazando a los competidores uno tras otro. Sin embargo, Micron sobrevivió. Hoy en día, es la única empresa en Estados Unidos capaz de producir en masa chips de memoria avanzados.

¿Por qué ahora se está prestando tanta atención a la cotización de Micron? Porque tiene la respuesta a un problema estructural en el cómputo de IA. La capacidad de cálculo de las GPU ha mejorado exponencialmente, pero en realidad existe un gran cuello de botella. El tiempo que se tarda en esperar por los datos es mayor que el tiempo que lleva el propio cálculo. Este "muro de memoria" no puede resolverse con software, solo con hardware. Y eso es precisamente en lo que Micron ha estado trabajando durante 40 años.

En la fase de inferencia de IA, la carga de cálculo es extremadamente baja y el sistema está completamente limitado por el ancho de banda de memoria. Solo el caché KV de modelos de lenguaje a gran escala requiere decenas de GB de memoria, y incluso con dos GPU A100, la cantidad de solicitudes de usuario que se pueden procesar simultáneamente se limita a unas pocas docenas. La energía consumida al leer datos desde la memoria fuera del chip puede ser de 100 a 200 veces mayor que la energía de procesamiento real. Es decir, la mayor parte de la electricidad en los centros de datos se gasta en transferir datos, no en calcular.

Nvidia fabrica sus GPU H100 y B200 en TSMC, pero la memoria de alta banda ancha (HBM) que integra estas GPU la produce Micron. La GPU es el cerebro, pero la HBM es un canal de datos ultrarrápido conectado estrechamente a ese cerebro. Ambos son componentes imprescindibles, y solo cuando la arquitectura de Nvidia y la tecnología de memoria de Micron se combinan, se puede crear un verdadero acelerador de IA.

La estrategia competitiva de Micron es completamente diferente a la de Nvidia. Nvidia compite en arquitectura y ecosistema, mientras que Micron depende de la mejora continua en tecnología de procesos y empaquetado apilado. La evolución hacia procesos de 1-gamma ha reducido el coste por bit y permite extraer más chips por unidad de área, mejorando así el margen bruto.

El hecho de que la cotización de Micron esté en torno a los 600 dólares y tenga un ratio P/E de 21.44 veces se debe a que su modelo de negocio, diferente al de las empresas tradicionales de memoria, está siendo valorado. Antes, fabricaba memoria DDR estándar, cuyo volumen de producción y precio de venta estaban completamente influenciados por las condiciones del mercado. Ahora, sin embargo, la producción de HBM se realiza bajo pedido, con contratos de suministro a largo plazo e incondicionales con clientes como Nvidia, antes de comenzar la producción, fijando así tanto el precio como la cantidad. Se informa que la capacidad de producción de HBM para 2026 ya está completamente vendida.

En este modelo, los ingresos futuros de Micron ya no son una predicción, sino que se determinan por contratos. Es decir, está evolucionando de una acción cíclica tradicional a un proveedor de infraestructura. La valoración en Wall Street también ha cambiado. Debido a los contratos estables, el múltiplo de valor de la empresa ha aumentado.

En el mercado mundial de DRAM, Samsung, SK Hynix y Micron controlan aproximadamente el 95% del mercado, cada uno con fortalezas distintas. En avances en tecnología de procesos, Micron es la más rápida, a menudo siendo la primera en anunciar la producción en masa de DRAM de alta densidad de próxima generación. En el mercado de HBM, SK Hynix domina con más del 50% de participación. Sin embargo, la HBM de Micron tiene ventajas en eficiencia energética, habiendo demostrado en pruebas que puede reducir el consumo de energía en un 20-30%. En centros de datos con decenas de miles de GPU, esta diferencia impacta directamente en los costos de electricidad y refrigeración.

La entrada de Micron en la cadena de suministro de Nvidia como un competidor tardío se debe a esta estrategia de diferenciación. Aunque su capacidad de producción es la más pequeña del sector, busca abrir mercado mediante una estrategia de valor tecnológico, sin depender del precio.

Un aspecto adicional a destacar es su trabajo en CXL (Compute Express Link). La HBM resuelve los problemas de ancho de banda dentro de una sola GPU, pero cuando los clústeres de IA se expanden a cientos o miles de GPU, surgen nuevos desafíos. La memoria está físicamente fija en los servidores y no puede compartirse entre múltiples máquinas, lo que lleva a tasas de inactividad de memoria del 20-30% en centros de datos a gran escala. CXL busca solucionar esto, agrupando múltiples módulos de memoria en pools independientes y permitiendo su asignación dinámica a los nodos de cálculo necesarios.

Micron ha anunciado módulos de expansión de memoria CXL Tipo 3 basados en procesos DDR5. Aunque diferentes en nivel de producto a la HBM, su uso conjunto permite mantener datos "calientes" en HBM localmente, mientras que los datos "fríos" se descargan en pools de memoria CXL. Esto posibilitará ventanas de contexto extremadamente largas, como las de un millón de tokens.

El mercado de CXL aún está en una fase inicial, sin una base sólida de clientes. Como fabricante especializado en almacenamiento, Micron tiene una gran oportunidad como nuevo participante sin ataduras del pasado en este mercado.

Los bancos de inversión de Wall Street proyectan un precio objetivo en 12 meses entre 400 y 675 dólares, con un promedio alrededor de 500 dólares. Desde el nivel actual, todavía hay potencial de subida. Sin embargo, si la inversión en infraestructura de IA se desacelera o si Samsung vuelve a ingresar en la cadena de suministro de Nvidia con HBM4, la oferta y demanda serán reevaluadas.

La competitividad a largo plazo de Micron dependerá cada vez menos de dominar un solo campo tecnológico y más de reducir errores en múltiples aspectos como el rendimiento de producción, empaquetado y integración de sistemas. La "fortaleza" no es solo una tecnología, sino la capacidad de gestionar todas las restricciones físicas simultáneamente. Acumular esa capacidad requiere décadas de experiencia en fabricación.

El movimiento del precio de Micron no solo refleja su desempeño empresarial, sino también cómo evoluciona la infraestructura en la era de la IA. Aunque en la actualidad hay más información sobre Micron en Gate, comprender el trasfondo técnico permitirá tomar decisiones de inversión más fundamentadas.
Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado