"Mil billones" de ingresos, la confianza y los desafíos de Nvidia

Esta semana, ningún número ha impactado tanto al mercado como “1 billón de dólares”.

En su discurso de apertura en la conferencia anual de desarrolladores GTC de Nvidia, Huang Renxun dijo que, de cara a finales de 2027, la nueva arquitectura de chips aceleradores de IA de la empresa, Blackwell, y el próximo producto Rubin, en conjunto, generarán al menos 1 billón de dólares en ingresos, y dejó claro que esa cifra no incluye las ventas de la solución independiente de Vera CPU ni de bastidores LPX.

De 500 mil millones a 1 billón, las previsiones de ingresos de chips de Nvidia se duplicarán en medio año.

En este juego de “burbujas de IA”, ¿por qué Huang Renxun puede dar una estimación que supera muy por encima de las expectativas del mercado? ¿Y se puede lograr ese objetivo?

Abre NetEase News para ver imágenes destacadas

¿De dónde viene la confianza?

Tras la previsión de “ingresos de un billón” de Huang Renxun hay tres grandes pilares.

1、Visibilidad de pedidos extremadamente alta. Durante las entrevistas con los medios durante GTC2026, Huang Renxun recalcó que la previsión de ingresos de más de 1 billón de dólares anunciada el lunes de esta semana tiene una “visibilidad” muy marcada. Nvidia prevé alcanzar, registrar y entregar negocios con un valor superior a 1 billón de dólares, y expresó con “confianza firme” que tiene “determinación” para lograr el objetivo de “superar 1 billón de dólares”.

Este juicio de “alta visibilidad” no va desencaminado. Huang Renxun señaló que, actualmente, la necesidad más esencial de los clientes es “garantizar que haya suficiente suministro”, más que el precio. Esto refleja que el mercado de capacidad de cómputo de IA todavía se encuentra en la fase típica de un cuello de botella de la oferta: la demanda es muy superior a la oferta; lo que más preocupa a los clientes no es si el precio es alto o bajo, sino no poder conseguir los productos.

Omdia indicó que el sector del empaquetado avanzado atraviesa una crisis. La capacidad de CoWoS de Taiwán Semiconductor Manufacturing Company (TSMC) está ampliándose desde 75.000 obleas al mes en 2025 hasta 120.000-130.000 a finales de 2026, pero aun así no puede satisfacer el crecimiento vertiginoso de la demanda, lo que en última instancia provoca la prolongación de los plazos de entrega, el aumento de precios y una asignación de capacidad más inclinada hacia el mayor cliente.

Huang Renxun también señaló que las compras a gran escala de proveedores de servicios en la nube y empresas de IA convierten los pedidos, las reservas y los envíos de la empresa en algo altamente determinable, y esa es precisamente la razón clave por la que se atreve a emitir un juicio de “alta visibilidad”. Desde la perspectiva del sector, gigantes tecnológicos como OpenAI, Meta, Microsoft, Google y Amazon, entre otros, siguen reforzando de manera continua la construcción de centros de datos de IA, lo que impulsa un crecimiento exponencial de la demanda de capacidad de cómputo.

JPMorgan indicó que “1 billón de dólares” significa, frente a la previsión de consenso actual de Wall Street sobre los ingresos de los centros de datos de 2026 a 2027, que existe al menos un margen alcista de entre 50.000 y 70.000 millones de dólares.

2、La IA entra en la “era de la inferencia”. En comparación con los dos años anteriores, cuyo eje era la “capacitación del modelo”, Huang Renxun enfatizó repetidamente en la conferencia GTC2026 que la industria de la IA ya entró en un “punto de inflexión de la inferencia”.

La llamada inferencia(Inference) se refiere a las necesidades de cómputo en tiempo real del modelo de IA en aplicaciones reales. Cuando los usuarios hacen preguntas a ChatGPT, usan Midjourney para generar imágenes o piden que los automóviles de conducción autónoma tomen decisiones, todo ello está respaldado por el cómputo de inferencia. A diferencia del gran cómputo masivo puntual durante la fase de entrenamiento, la inferencia es continua y la demanda de cómputo crece de forma lineal e incluso de manera exponencial a medida que se expande el tamaño de los usuarios.

En su discurso de apertura, Huang Renxun señaló: “El entrenamiento hace que el modelo sea inteligente, pero la inferencia es lo que permite que la IA llegue a los hogares de miles de millones de personas. Cada interacción del usuario requiere capacidad de cómputo, y con la popularización de los Agentes de IA(IA Agent), la demanda de inferencia superará con creces a la del entrenamiento”.

Estimación del tamaño del mercado:

  • Mercado de entrenamiento: relativamente concentrado, dominado principalmente por unos pocos gigantes tecnológicos; la demanda presenta explosiones por proyecto y por etapas

  • Mercado de inferencia: extremadamente fragmentado; desde APIs en la nube hasta dispositivos en el borde, desde aplicaciones de consumo hasta soluciones empresariales; la demanda es continua y crece de forma escalable

3、Iteración de productos + estrategia de plataforma. La previsión de 1 billón de dólares que Huang Renxun reveló en GTC2026 solo cubre los ingresos de los chips de la arquitectura Blackwell y la próxima generación de la arquitectura Rubin, y no incluye los nuevos productos que se lanzarán próximamente, ni los ingresos de nuevas regiones y mercados. Esto significa que el tamaño potencial del negocio general de IA de Nvidia podría superar aún más el alcance de las estimaciones actuales.

Hoja de ruta de productos:

  • Arquitectura Blackwell(2024-2025): ya en producción a gran escala; el chip B200 tiene un rendimiento de entrenamiento 4 veces el de H100, y el rendimiento de inferencia llega a mejorar hasta 30 veces

  • Arquitectura Rubin(2026-2027): se espera que empiece a desplegarse a gran escala en 2026, y que el rendimiento dé un nuevo salto

- Arquitectura Feynman(2028 y posteriores): para más adelante, la próxima generación de arquitectura ya está en I+D

Lo más importante es que Nvidia se está moviendo de “vender chips” a “vender fábricas de IA”. En la conferencia, Huang Renxun presentó NVIDIA Dynamo, un sistema operativo de inferencia de código abierto, el plano de una “fábrica física de datos de IA” y su colaboración con gigantes globales del software industrial, con el objetivo de construir un ecosistema completo de infraestructura básica de IA.

Los analistas señalan que esta estrategia de plataforma implica que los ingresos futuros de Nvidia ya no se limitarán a un solo GPU, sino que se ampliarán a sistemas completos de centros de datos. El analista senior de Wedbush Research(000021), Dan Ives, comentó que Nvidia no solo avanza impulsada por la gran ola del desarrollo de la inteligencia artificial, sino que además está ampliando su control sobre la infraestructura que sustenta la inteligencia artificial.

Esto ampliará de forma significativa el techo de ingresos. Huang Renxun dejó claro: “El objetivo de 1 billón de dólares seguirá aumentando”.

Múltiples desafíos en el camino hacia el billón

Aunque las declaraciones de Huang Renxun rebosan confianza, lograr ingresos acumulados de 1 billón de dólares(hasta finales de 2027) aún enfrenta múltiples desafíos.

En primer lugar, la urgencia de la ventana temporal. Desde marzo de 2026 hasta finales de 2027, el tiempo para que Nvidia logre ingresos acumulados de 1 billón de dólares es inferior a dos años. Considerando el ciclo desde el pedido hasta la entrega de chips(normalmente 6-12 meses), así como el tiempo para despliegues a gran escala, la ventana real para poder confirmar ingresos es aún más estrecha.

- Ingresos del año fiscal 2025 de Nvidia(hasta enero de 2025): 130,5 mil millones de dólares

  • Ingresos del año fiscal 2026 de Nvidia(correspondiente a febrero de 2025 a enero de 2026): 215,9 mil millones de dólares, los ingresos del año fiscal 2027 alcanzan aproximadamente 3000-4000 mil millones de dólares

- Ingresos acumulados de 3 años 2025-2027: aproximadamente 6000-7000 mil millones de dólares

  • Para llegar a 1 billón de dólares, significa que los ingresos de 2027 en un solo año podrían necesitar superar 5000 mil millones de dólares

Esto implica que Nvidia necesita lograr en 2027 un crecimiento interanual cercano al doble, lo cual supone un desafío sin precedentes para cualquier empresa de hardware.

En segundo lugar, la competencia del mercado se intensifica.

AMD en 2025 lanzó la serie MI400, que en la industria se considera un desafío directo a Blackwell de Nvidia. El CEO de AMD, Su Zixung, dijo en una entrevista reciente: “Nuestra cuota en el mercado de IA está aumentando de forma constante. MI400 ofrece una mejor relación calidad-precio que Blackwell en determinadas cargas de trabajo, lo cual es muy atractivo para los clientes sensibles al precio”.

La amenaza mayor proviene de que los grandes clientes de Nvidia están acelerando el despliegue de sus propios chips de IA:

  • Google TPU v6: ya se ha usado para el entrenamiento y la inferencia de Gemini2.0, con un rendimiento cercano al de Blackwell

  • Amazon Trainium3/Inferentia3: con despliegue a gran escala en AWS, con costes 30-40% inferiores a la solución de Nvidia

- Microsoft Maia200: empieza un despliegue completo en Azure a finales de 2025

- Meta MTIA: planea lanzar cuatro generaciones de chips de IA propios antes de finales de 2027

Un ex ingeniero de chips de Google dijo: “La eficiencia de TPU en el entrenamiento de modelos Transformer ya ha superado a la de GPU. Aunque la versatilidad no es tan buena como CUDA, para grandes compañías con cargas de trabajo claramente definidas, la economía de los chips propios resulta extremadamente atractiva. El objetivo de los proveedores de nube es que, para 2027, los chips propios representen el 30-40% de sus compras de capacidad de cómputo de IA”.

Seaport Research, un analista, señaló: “Nvidia ahora necesita esforzarse más que nunca para conseguir ingresos”.

Además, la cadena de suministro también puede encontrarse con cuellos de botella. Actualmente, el principal cuello de botella es la capacidad de empaquetado avanzado CoWoS de TSMC. Aunque TSMC está acelerando la ampliación de capacidad, se prevé que el desajuste entre oferta y demanda de chips de IA de gama alta continúe hasta finales de 2026. Si el ritmo de ampliación no cumple las expectativas, Nvidia podría enfrentarse a una situación incómoda de “tener pedidos pero no poder entregar”.

La inestabilidad en Oriente Medio se está extendiendo a Corea, que cuenta con capacidad de fabricación de almacenamiento. Según las estadísticas de 2025 de la Asociación de Comercio Internacional de Corea, la dependencia de Corea de las importaciones de helio para Qatar alcanza el 64,7%. El proceso de fabricación de semiconductores depende en gran medida del helio para enfriar las obleas de silicio, y actualmente se considera que no hay una alternativa viable. El gobierno surcoreano también ha dicho que si la interrupción del suministro se prolonga durante mucho tiempo, podría provocar escasez de helio y aumentos de precios.

Cabe destacar que el bloqueo del Estrecho de Ormuz ha mantenido el precio global del petróleo en niveles elevados de 100 dólares/barril, lo que supone un duro golpe para los centros de datos de cómputo de alto consumo energético. Si los costes de energía compensan la mejora de eficiencia aportada por los chips, es posible que los planes de inversión global en IA se vean obligados a recortarse.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado