¿"Langosta" le da una gran "extensión de vida" a la "memoria"?

robot
Generación de resúmenes en curso

Con herramientas de inteligencia artificial agentic, representadas por OpenClaw, la lógica de demanda del mercado de memoria está siendo empujada hacia un paradigma completamente nuevo. Según fuentes de ChaseWind Trading, un informe reciente de Morgan Stanley publicado el 18 de marzo señala: La IA pasa de “pensar” a “ejecutar”, lo que hará que DRAM reemplace a HBM como el cuello de botella más difícil de superar en la infraestructura de IA, extendiendo la vida útil de la memoria mucho más allá de lo esperado.

Las investigaciones de canales muestran que para el segundo trimestre de 2026, se espera que los precios de DDR5 en servidores aumenten más del 50% mes a mes, con algunos grandes proveedores de la nube en China ofreciendo precios aún más altos; se estima que los precios contractuales de DDR4 aumentarán entre 40% y 50%, y los precios de SSD empresariales NAND podrían subir al menos un 40%-50%. Morgan Stanley opina que, actualmente, estamos en medio de un ciclo alcista de memoria, y la tensión en el suministro es mayor de lo que se pensaba anteriormente—“Las previsiones de beneficios de Wall Street tendrán que ajustarse a la realidad”.

Estas conclusiones ya se reflejan directamente en los ajustes de precios objetivo: SK Hynix ha revisado sus previsiones de EPS para 2026-2027 en un 24% y un 32% respectivamente, elevando su precio objetivo de 1.1 millones de wones a 1.3 millones de wones, lo que implica un potencial alcista del 43% respecto al precio actual; el precio objetivo de las acciones ordinarias de Samsung Electronics se ha elevado a 251,000 wones, manteniendo ambas acciones la calificación de “mantener”.

El núcleo de la visión de Morgan Stanley es: el mercado está acostumbrado a pensar de manera lineal, pero la expansión de capacidades en la capa de inteligencia artificial está avanzando a una velocidad exponencial—cuando la IA pasa de “generar respuestas” a “completar tareas”, la demanda de memoria se multiplicará, y este cambio apenas está comenzando a acelerarse.

“Realizar tareas” consume más memoria que “pensar”

El punto de partida lógico del informe de Morgan Stanley es una afirmación aparentemente simple pero con profundo significado: “Hacer tareas requiere más DRAM que pensar.”

El modo de trabajo de los grandes modelos de lenguaje (LLM) tradicionales es un proceso lineal dominado por GPU: recibir preguntas, procesar en lote todos los tokens de entrada (fase de prellenado), y luego generar respuestas token por token (fase de decodificación), con la CPU encargada de convertir los resultados en texto. En este proceso, la potencia de cálculo de la GPU es el cuello de botella decisivo, y la DRAM solo necesita colaborar en la lectura y escritura de caché.

La aparición de la IA agentic cambia radicalmente esta lógica. Tomemos OpenClaw como ejemplo: esta asistente de IA de código abierto y autohospedada puede conectarse simultáneamente a más de 50 plataformas de mensajería como WhatsApp, Telegram, Slack, Signal, y cuenta con permisos a nivel de sistema para automatización del navegador, manipulación de archivos, ejecución en línea de comandos, llamadas a API, etc. No se trata solo de “responder preguntas”, sino de “cumplir tareas”—buscar en internet, leer documentos, invocar herramientas externas, ejecutar código, y finalmente producir un conjunto de resultados de acción generados mediante múltiples pasos de colaboración.

El cambio de paradigma en la tecnología clave radica en que: el flujo de trabajo pasa de una inferencia GPU única a una coordinación de múltiples pasos, llamadas a herramientas y orquestación de procesos, donde el tiempo de cálculo en la CPU a menudo supera al de la GPU en la contribución a la latencia total. Al mismo tiempo, múltiples agentes inteligentes deben compartir continuamente contexto, descargar y cargar caché KV (Key-Value Cache), y almacenar y recuperar resultados intermedios—la memoria pasa de ser un componente de potencia de cálculo a convertirse en el cuello de botella principal.

OpenClaw: un lente extremo en la demanda de memoria

Morgan Stanley ha realizado un análisis detallado de la demanda de memoria de OpenClaw, concluyendo que: en este tipo de herramientas de IA, la DRAM domina por completo, mientras que otras restricciones de hardware quedan en segundo plano.

Este sistema tiene dos modos de operación radicalmente diferentes:

Modo de puerta de enlace ligera (llamada remota a APIs externas como Claude o GPT-4): incluso en este modo, el cuello de botella ya no está en la GPU o CPU, sino en el consumo de DRAM por parte del entorno de ejecución Node.js. El uso mínimo en la práctica requiere 2GB de DRAM, y para una operación estable en producción se recomienda 4GB.

Modo de modelo local (cargar y ejecutar directamente en el dispositivo): aquí, la DRAM del sistema y la HBM gráfica se convierten en restricciones duales. Morgan Stanley recomienda una configuración de 32GB de DRAM del sistema; para modelos de 7-8 mil millones de parámetros, se necesitan 8GB adicionales de DRAM gráfica; para modelos de 13 mil millones a 70 mil millones de parámetros, se requieren entre 16 y 24GB; modelos ultra grandes como Llama 3 70B o Qwen 72B necesitan más de 80GB.

El informe destaca que: la insuficiencia de memoria no solo provoca una disminución en el rendimiento, sino que causa fallos directos—JavaScript lanzará errores de “heap out of memory” (desbordamiento del montón), provocando fallos en la instalación y en la ejecución. Este detalle revela profundamente la restricción dura que representa la memoria en escenarios de IA: no es que sea lento, sino que es “mortal”.

El desplazamiento del cuello de botella de cálculo: de HBM a memoria del sistema

Las características de demanda de memoria de OpenClaw ejemplifican una transformación estructural más amplia.

Morgan Stanley señala que el cuello de botella en la potencia de cálculo de IA está en proceso de migración sistémica: de la potencia de cálculo en sí misma hacia el movimiento de datos, de HBM hacia la memoria del sistema (DRAM), y toda la arquitectura de niveles de memoria evoluciona desde un enfoque centrado en HBM hacia una estructura multinivel que combina HBM, DRAM y SSD NVMe NAND.

Uno de los impulsores técnicos de esta transformación es la rápida expansión de la demanda de contexto largo (long context). La caché KV crece linealmente con el número de tokens, y en escenarios de inferencia distribuida (prefill-decode disaggregation) requiere transmisión por red, lo que aumenta significativamente la carga de I/O en la CPU. Operaciones clave como RAG retrieval y gestión de contexto involucran intensas operaciones de memoria I/O.

El respaldo del mercado también es claro. Morgan Stanley indica que tanto Intel como AMD han confirmado que los procesadores de servidores con muchos núcleos ya enfrentan una demanda real y significativa; los ingresos de AMD EPYC en servidores superaron por primera vez el 40% del total de ingresos de CPU para servidores, y las instancias en la nube con EPYC crecieron más del 50% interanual. Nvidia ha lanzado su CPU Vera para ventas independientes y ha llegado a acuerdos plurianuales con Meta, desplegando por primera vez CPUs independientes en escenarios a gran escala para soportar operaciones de agentes inteligentes personales.

Precios acelerados: ciclo en medio, aún hay espacio

Estas transformaciones estructurales ya se reflejan en los precios de manera sustancial.

En DRAM, en el segundo trimestre de 2026, los precios de DDR5 en servidores ya se negociaron a más del 50% de aumento mensual en volumen limitado, con algunos grandes proveedores de la nube en China aceptando estos precios, y otros ofreciendo precios aún más altos. A finales de febrero, el precio contractual de DDR4 de 64GB alcanzó entre 910 y 920 dólares, un aumento de aproximadamente 20% respecto a los 800 dólares promedio del primer trimestre. Se espera que los precios de DDR4 y LPDDR en el segundo trimestre suban al menos entre 40% y 50%. Los precios de HBM3E, que previamente se preveían en descenso del 20-25%, ya muestran en renovaciones de contratos con clientes ASIC un aumento de cifras de un solo dígito en porcentaje.

En NAND, los precios de SSD empresariales en el segundo trimestre se estiman en aumento del 40%-50% mes a mes, y los productos para consumidores podrían subir al menos un 60%, con algunos escenarios en los que los precios de eSSD podrían duplicarse en ese período.

Morgan Stanley mantiene que la tendencia de aceleración de precios interanual continúa, y que actualmente estamos en medio de un ciclo alcista. Una vez que el mercado ajuste las previsiones de beneficios para reflejar las restricciones de capacidad sin precedentes actuales, los activos relacionados tendrán un potencial de recuperación significativo; una posible revisión al alza en los retornos de capital también podría impulsar un rendimiento superior adicional.


Este contenido destacado proviene de ChaseWind Trading.

Para una interpretación más detallada, incluyendo análisis en tiempo real y estudios de primera línea, únase a【**ChaseWind Trading▪ Membresía Anual**】.

Aviso de riesgo y exención de responsabilidad

El mercado tiene riesgos, invierta con precaución. Este artículo no constituye asesoramiento de inversión personal ni considera objetivos, situación financiera o necesidades específicas del usuario. El usuario debe evaluar si las opiniones, puntos de vista o conclusiones aquí expresadas son apropiadas para su situación particular. La inversión se realiza bajo su propia responsabilidad.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado