¡La narrativa del "mercado alcista de IA" vuelve a generar una gran ola! Jensen Huang presenta la visión de un plan maestro de IA por billones de dólares. Nvidia, con su estrategia de un "plan maestro de IA por billones de dólares", zarpa hacia una valoración de mercado de 6 billones de dólares.

El CEO de NVIDIA, Jensen Huang, presentó en la conferencia GTC en la madrugada del 17 de marzo, hora de Beijing, el “plan maestro de ingresos de AI sin precedentes” de NVIDIA en el campo de la infraestructura de potencia de AI. Informó a los inversores globales que, impulsado por la fuerte demanda de GPU con arquitectura Blackwell y la inminente producción en masa de la arquitectura de AI Vera Rubin, sus ingresos futuros en el campo de los chips de inteligencia artificial podrían alcanzar al menos un billón de dólares para 2027, muy por encima del pronóstico de 500 mil millones de dólares en infraestructura de potencia de AI presentado en la última conferencia GTC para 2026.

Los analistas de Goldman Sachs, Wedbush y Morgan Stanley, que ven un futuro prometedor para las acciones de NVIDIA, consideran que, impulsada por un panorama de crecimiento de ingresos más fuerte de lo esperado, la capitalización de mercado de NVIDIA está a punto de superar nuevamente la barrera de 5 billones de dólares, como lo hizo en octubre del año pasado, y hay una gran posibilidad de que alcance un nuevo máximo histórico mucho más alto que el actual.

Para las acciones de NVIDIA, es posible que pronto se establezca un nuevo máximo histórico, lo que impulsaría a la cadena de suministro global de potencia de AI hacia una nueva trayectoria ascendente. Además, el plan de un billón de dólares presentado por NVIDIA es un esfuerzo total para respaldar la narrativa del “mercado alcista de AI”, que se ha convertido en la línea principal del mercado de capitales. Según el precio objetivo promedio de los analistas de Wall Street, esto implica que la capitalización de mercado de NVIDIA superará los 6 billones de dólares en los próximos 12 meses, con la expectativa más optimista de alcanzar hasta 8.8 billones de dólares.

A medida que la escala del modelo, el enlace de inferencia y las cargas de trabajo de AI multimodal/agente impulsan un consumo de potencia exponencial, los gastos de capital de las grandes empresas tecnológicas tienden a concentrarse en la infraestructura de potencia de AI. Los inversores globales continúan anclando la narrativa del “mercado alcista de AI” en torno a NVIDIA, los clústeres de TPU de Google y las iteraciones de nuevos productos de AMD, con expectativas de entrega de clústeres de potencia de AI. Al mismo tiempo, esto significa que temas de inversión relacionados con la electricidad, sistemas de refrigeración líquida, cadenas de suministro de interconexión óptica y otros aspectos estrechamente relacionados con el entrenamiento/inferencia de AI seguirán siendo parte de los sectores de inversión más populares del mercado de valores, incluso ante la incertidumbre en la situación geopolítica de Medio Oriente, continuando al lado de líderes en potencia de AI como NVIDIA, AMD, Broadcom, TSMC y Micron.

En la conferencia anual GTC que se lleva a cabo en San José, California, el CEO Jensen Huang presentó un nuevo procesador central (es decir, CPU de nivel de servidor de centro de datos) y un sistema de infraestructura de potencia de inferencia AI LPU construido sobre la tecnología exclusiva de arquitectura de inferencia AI de Groq. Groq es una startup de chips de AI, de la cual NVIDIA obtuvo la licencia tecnológica por 17 mil millones de dólares en diciembre del año pasado.

Estas acciones son parte del esfuerzo de Huang para consolidar la posición de la compañía en el llamado campo de “computación de inferencia”. La computación de inferencia se refiere al proceso de cálculo masivo para responder a las solicitudes de consulta de usuarios B2B y B2C en todo el mundo; en este campo, el sistema de potencia de GPU de AI de NVIDIA se enfrenta a una competencia más intensa de los procesadores ASIC de AI personalizados desarrollados por empresas como Google (es decir, la ruta tecnológica de ASIC AI liderada por TPU de Google). En los últimos años, los chips de NVIDIA han dominado la etapa de entrenamiento de grandes modelos de AI, lo que ha sido un foco de atención del mercado.

El lado de entrenamiento de AI, que está casi monopolizado por las GPU de NVIDIA, requiere una mayor versatilidad de clúster de potencia de AI y una rápida capacidad de iteración de todo el sistema de potencia, mientras que el lado de inferencia de AI se centra más en el costo por token, la latencia y la eficiencia energética después de que la tecnología de AI de vanguardia se implemente a gran escala.

“La era de la inferencia de inteligencia artificial ha llegado”, declaró Huang en la conferencia GTC. “Y la demanda de inferencia sigue en aumento”, agregó.

Vestido con su icónica chaqueta de cuero negra, Huang habló ante una audiencia en un estadio de hockey sobre hielo con capacidad para más de 18,000 personas. Este evento tecnológico de cuatro días se ha convertido en una de las plataformas de exhibición más grandes para la tecnología de AI en el mundo. “Solo quiero recordarles que este es un evento tecnológico de gran interés público”, les dijo a los asistentes.

La ola de inferencia de AI se acerca, el “plan de potencia de AI” de NVIDIA se eleva a billones de dólares

Si se pudiera resumir el discurso de Huang en esta GTC en una sola frase, el núcleo sería: NVIDIA se está reestructurando de “vender GPUs de AI” a “gigante de chips que vende fábricas de AI”. La presentación oficial comenzó con el token como la unidad básica de la AI moderna, y Huang trasladó la narrativa principal de la industria de “entrenamiento” a “inferencia + AI agentic”, y ajustó las oportunidades de ingresos de la infraestructura de AI de 2025-2027 de 500 mil millones de dólares a al menos un billón de dólares. Esto no es simplemente un ajuste de demanda, sino un mensaje para el mercado de capitales: la competencia de potencia en el futuro ya no se medirá solo por el pico de FLOPS de entrenamiento, sino por quién puede producir tokens al costo más bajo, con el más alto nivel de rendimiento de datos y la mejor latencia de manera continua.

En torno a esta narrativa de expansión de la demanda de potencia de AI, Huang proporcionó una lógica comercial muy clara: el centro de datos ya no es un “centro de almacenamiento”, sino una “fábrica de AI”. Con un presupuesto de electricidad fijo, el indicador más crítico no es el rendimiento pico de un solo chip, sino “tokens por vatio, costo por token, tiempo hasta la primera producción”. Esta es la razón por la que enfatiza repetidamente el “co-diseño extremo” — es decir, optimizar el cálculo, la red, el almacenamiento, el software, la alimentación y la refrigeración como un todo. Las cifras oficiales indican que el Vera Rubin NVL72 puede alcanzar hasta 10 veces el rendimiento de inferencia por vatio en comparación con la plataforma Blackwell, con un costo por token que es solo una décima parte del original, y el número de GPUs necesarias para entrenar modelos de MoE a gran escala también puede reducirse a una cuarta parte de lo que era antes. Esto no es simplemente “iteración de chips”, sino una reescritura de la economía de la infraestructura de AI.

En el último nivel de hardware, el cambio más importante de esta GTC es que NVIDIA ha integrado oficialmente CPU, GPU, LPU, DPU, SuperNIC, chips de intercambio y arquitectura de almacenamiento en un sistema a nivel de plataforma. La plataforma Vera Rubin definida oficialmente incluye Vera CPU, Rubin GPU, NVLink 6 Switch, ConnectX-9 SuperNIC, BlueField-4 DPU, Spectrum-6 switch Ethernet, así como el recientemente integrado NVIDIA Groq 3 LPU; el chasis Vera Rubin NVL72 consta de 72 GPUs Rubin y 36 CPUs Vera, mientras que el chasis Groq 3 LPX está diseñado específicamente para inferencia de baja latencia. Huang innovadoramente descompone la inferencia de AI en dos etapas: prefill a cargo de Vera Rubin y decode a cargo del chip de AI Groq. Esto significa que la respuesta de NVIDIA a la era de la inferencia ya no es “hacer que la GPU haga todo”, sino que separa el alto rendimiento de la baja latencia mediante computación heterogénea.

En el ámbito del software y el ecosistema, Huang también adoptó una postura radical en su discurso. Dynamo 1.0 fue definido por NVIDIA como el sistema operativo de inferencia de la fábrica de AI, y se afirma que puede mejorar el rendimiento de inferencia en hasta 7 veces en comparación con Blackwell; mientras que en la dirección de agentes, NVIDIA lanzó Agent Toolkit, OpenShell y NemoClaw, elevando OpenClaw a una plataforma tipo “sistema operativo de AI personal”, y completando la implementación empresarial con control estratégico, enrutamiento de privacidad y límites de seguridad. Al mismo tiempo, NVIDIA también ha ampliado la familia de modelos de gran escala como Nemotron, Cosmos, Isaac GR00T, Alpaymayo, BioNeMo, Earth-2, y ha preanunciado la hoja de ruta de la arquitectura Feynman: la próxima generación de plataformas introducirá Rosa CPU, LP40 LPU, BlueField-5, CX10 y Kyber, avanzando en la interconexión de cobre y la óptica de empaquetado conjunto hacia la próxima generación de fábricas de AI.

Más allá de esto, GTC 2026 no solo trata sobre centros de datos. NVIDIA también ha llevado “AI física” y “computación espacial” al escenario principal: IGX Thor ha entrado en una fase de disponibilidad general, dirigida a la industria, la medicina, la robótica y la computación en el borde de la órbita; el Open Physical AI Data Factory Blueprint se utiliza para acelerar la generación, mejora y evaluación de datos de robots, AI visual y agentes de conducción autónoma; mientras que el Space-1 Vera Rubin Module extiende la arquitectura Vera Rubin a centros de datos orbitales, con afirmaciones oficiales de que, en comparación con H100, puede proporcionar hasta 25 veces potencia de AI para inferencia espacial. Esto indica que NVIDIA ya ha expandido la “fábrica de AI” desde los centros de datos en la nube hacia un paradigma de infraestructura unificada que abarca nube, borde, terminal, vehículos, robótica e incluso el espacio.

El verdadero tema de GTC 2026, en realidad, no es una simple presentación de nuevos productos como en el pasado, sino que NVIDIA ha integrado GeForce, la infraestructura de potencia de centro de datos, redes, sistemas de potencia de inferencia, plataformas de agentes, robótica y computación espacial en una narrativa unificada — “de proveedor único de GPU a contratista total de infraestructura de AI”. Esta es también la razón por la que lo más digno de atención en esta conferencia no es el parámetro de un chip de AI, sino que NVIDIA está asegurando de manera anticipada la economía de tokens, el proceso de monetización de la inferencia y el poder de negociación de la infraestructura para los próximos años con productos a nivel de sistema.

Se consolida el monopolio en infraestructura de potencia de AI, ¿las acciones de NVIDIA apuntan a un nuevo máximo histórico?

“Antes, los inversores generalmente tenían preocupaciones sobre la sostenibilidad del enorme gasto en infraestructura de AI de las grandes tecnológicas, pero a medida que Huang esbozó un panorama de ingresos de un billón de dólares para 2027, los inversores comenzaron a creer que la demanda de infraestructura de AI de NVIDIA aún tiene una durabilidad a largo plazo”, comentó el analista de Emarketer, Jacob Bourne. “A medida que toda la industria de AI avanza desde la etapa de experimentación temprana hacia la implementación a gran escala, NVIDIA sigue manteniendo su posición de liderazgo en el mercado de potencia de AI”.

Cuando Huang elevó la oportunidad de ingresos de los chips de AI y la infraestructura de NVIDIA a al menos un billón de dólares para 2027 en GTC, el mercado ya no veía a la empresa simplemente como una compañía que sigue vendiendo GPUs más potentes, sino como un imperio de infraestructura que intenta definir la próxima generación de funciones de producción de “fábricas de AI”: pasando de la era de entrenamiento a la de inferencia, de la competencia de un solo chip a la dominación a nivel de racks completos, redes completas y pilas de software, desde Blackwell, Vera Rubin hasta la colaboración tecnológica de Groq para decodificación de baja latencia, NVIDIA está reescribiendo el lenguaje de valoración en términos de rendimiento de tokens, ingresos por vatio y capacidad de monetización de inferencia.

En la conferencia GTC, Huang utilizó el tamaño de la oportunidad de un billón de dólares para demostrar que la demanda sigue en expansión, y al mismo tiempo, presentó un conjunto de plataformas que incluye CPU, GPU, LPU, componentes de red de alto rendimiento, ecosistema de software y cadena de herramientas de agentes, aclarando que la unidad competitiva de NVIDIA ya no es un solo chip AU, sino toda una fábrica de AI.

La afirmación de Huang de que “el punto de inflexión de la inferencia ha llegado” es, en esencia, un anuncio al mercado de capitales: el gasto en capital de AI está lejos de haber alcanzado su punto máximo, y el verdadero despliegue a gran escala apenas está comenzando; y cuando NVIDIA integra CPU, GPU, LPU, redes, software de agentes y la economía de centros de datos en una sola narrativa, lo que se eleva no es solo un nuevo ciclo de productos, sino un superpetrolero que navega nuevamente hacia el espacio imaginario de una capitalización de 5 billones de dólares. El precio objetivo promedio de los analistas de Wall Street compilado por TIPRANKS muestra que los analistas son optimistas sobre que el precio de las acciones de NVIDIA alcanzará los 273 dólares, lo que significa que, en su opinión, el potencial de subida de NVIDIA en los próximos 12 meses es asombroso, alcanzando un 51% impresionante, y el objetivo más optimista es de hasta 360 dólares. El precio objetivo de 273 dólares corresponde a aproximadamente 6.6 billones de dólares para NVIDIA. Hasta el cierre del mercado el lunes, las acciones de NVIDIA se cotizaban a 183.220 dólares, con una capitalización de mercado de aproximadamente 4.45 billones de dólares.

Huang elevó la oportunidad de ingresos de los chips de AI/infrastructure de AI a un billón de dólares para 2027, muy por encima de los 500 mil millones de dólares planteados anteriormente en torno a las arquitecturas Blackwell y Rubin para 2026. Después de la conferencia GTC, el gigante financiero de Wall Street Goldman Sachs comentó que las perspectivas de ingresos de billones de dólares presentadas en la última GTC proporcionaron al mercado un respaldo de demanda de un ciclo más largo, suficiente para aliviar las preocupaciones de los inversores acerca de que el gasto en capital de AI podría alcanzar su punto máximo en 2026. En otras palabras, el equipo de analistas de Goldman Sachs cree que este discurso no fue solo una exhibición de nuevos productos, sino un nuevo anclaje para el techo de pedidos de NVIDIA y la sostenibilidad de su rendimiento en los próximos dos o tres años.

Goldman Sachs enfatizó que NVIDIA no solo presentó otra GPU de AI de rendimiento extremadamente fuerte, sino que ha comercializado formalmente la inferencia de manera única, elevando la infraestructura de potencia de AI de NVIDIA a un nivel central en la próxima fase de la carrera armamentista global de AI. Como se mencionó anteriormente, Huang descompuso la inferencia en prefill y decode: la primera responsabilidad de Vera Rubin y la segunda a cargo de Groq 3 LPX/LPU, lo que significa que NVIDIA está ampliando su papel de “rey del entrenamiento” a “contratista total de infraestructura de potencia de inferencia de AI”. Goldman Sachs subrayó que las cifras oficiales superaron las expectativas del mercado: Vera Rubin + LPX puede lograr hasta 35 veces el rendimiento de inferencia por megavatio, y ofrecer hasta 10 veces las oportunidades de ingresos para modelos de billones de parámetros.

Goldman Sachs declaró que NVIDIA no solo está protegiendo el mercado de entrenamiento, sino que en la era de inferencia, restringida por la electricidad y sensible a la latencia, ha presentado un marco de monetización más fuerte y una respuesta más completa para la computación heterogénea. La razón por la que Goldman Sachs se mantiene más optimista es porque esta GTC cumplió al mismo tiempo con las dos preguntas más importantes para los inversores: primero, si la demanda ha alcanzado su punto máximo, y segundo, si NVIDIA será diluida en su ventaja competitiva por CPUs, ASICs desarrollados internamente u otros chips personalizados en la era de inferencia.

Goldman Sachs afirmó que esta guía prospectiva de un billón de dólares supera ampliamente las expectativas del mercado y confirma que la demanda de los gigantes de la computación en la nube (Hyperscalers) sigue siendo fuerte y duradera. Basándose en un juicio optimista de los posibles catalizadores en los próximos meses, Goldman Sachs reafirmó su calificación de “compra” para NVIDIA y mantuvo un precio objetivo de 250 dólares a 12 meses, enfatizando que los planes de gasto de capital de los superproveedores de la nube y los nuevos modelos basados en las arquitecturas Blackwell y Rubin seguirán consolidando la posición de liderazgo en rendimiento de la compañía.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado