¡H200 en el mercado chino cuenta atrás para el aumento de volumen! CUDA sostiene la fuerte demanda, el imperio de IA de NVIDIA (NVDA.US) recibe "beneficios incrementales positivos"

APP de Caijing Zhitong ha sabido que el CEO de Nvidia (NVDA.US), Jensen Huang, afirmó que este gigante de los chips está comenzando la producción en masa del H200, un acelerador de entrenamiento y inferencia de IA basado en la arquitectura Hopper lanzada en marzo de 2022, para clientes en el mercado chino. Esto también indica que los esfuerzos de esta compañía estadounidense para volver a ingresar en el crucial mercado de infraestructura de poder de cálculo de IA en China están logrando avances positivos.

Indudablemente, si el H200, que enfrenta un costo adicional del 25% por aranceles del gobierno estadounidense, realmente puede dirigirse a gran escala al mercado chino, en un contexto en el que la cotización actual de Nvidia se mantiene en una tendencia lateral, esto representaría una mejora sustancial para las perspectivas de expansión de los fundamentos de Nvidia. Después de todo, tanto las previsiones trimestrales oficiales como el “Plan maestro de IA superpotente” que se anunció en la conferencia GTC del lunes, con una meta de al menos un billón de dólares hasta 2027, no consideran aún las perspectivas de ingresos en China.

Tras un importante discurso en la conferencia GTC de Nvidia y la presentación de la próxima generación de infraestructura de poder de cálculo de IA, basada en la arquitectura Vera Rubin, el martes en una rueda de prensa, Huang afirmó que Nvidia ha obtenido la autorización del gobierno estadounidense para vender los chips H200 a “muchos grandes clientes en el mercado chino”, y que actualmente están en proceso de “reiniciar nuestra producción a gran escala”. Subrayó que esta perspectiva es completamente diferente a la de hace unas semanas.

“Nuestro suministro de H200 está siendo reiniciado”, dijo Huang durante un evento en la conferencia anual GTC de Nvidia en San José, California. El CEO de la compañía había presentado una serie de nuevos productos en la inauguración de la conferencia y proporcionó a los inversores una actualización de los fundamentos financieros.

En los últimos años, Nvidia ha estado intentando recuperar las ventas de sus chips de IA en China. Debido a las restricciones prolongadas del gobierno estadounidense en las exportaciones de chips a China, este enorme mercado en el que Nvidia dependía casi por completo, ha estado prácticamente cerrado a largo plazo para productos de infraestructura de poder de cálculo de IA.

El H200 bajo la presión de un arancel del 25% del gobierno estadounidense

Desde este año, sin embargo, el gobierno de Trump ha comenzado a permitir que Nvidia y su principal competidor, AMD (AMD.US), vendan en China versiones de menor rendimiento de sus chips de IA, aunque esto todavía requiere la aprobación formal del gobierno estadounidense y enfrenta un arancel adicional del 25%.

El gobierno de EE. UU. permite la exportación del H200 de Nvidia a China bajo ciertas condiciones, imponiendo un arancel del 25% como “condición de intercambio”. Este acuerdo es en realidad un compromiso político que permite la exportación y, al mismo tiempo, genera ingresos. En comparación, productos de arquitectura más avanzada como la serie Blackwell y la serie AMD Instinct MI450 todavía se consideran tecnologías más sensibles en la política estadounidense, por lo que no están incluidos en las licencias de exportación actuales. Esto significa que no se permite su exportación y, por tanto, no están sujetas a estos aranceles.

Es importante señalar que esta política arancelaria para semiconductores dirigida a Nvidia y AMD excluye los chips utilizados en centros de datos en EE. UU., dispositivos de consumo y aplicaciones industriales, por lo que estos aranceles no se aplican a los chips H200/MI325X utilizados directamente en EE. UU.

Actualmente, Nvidia no ha incluido en sus previsiones financieras ninguna perspectiva de ingresos por centros de datos en China. La división de centros de datos, que es la más importante de Nvidia, proporciona la infraestructura de poder de cálculo de IA a nivel global mediante sus GPU basadas en las arquitecturas H100/H200 y Blackwell/Blackwell Ultra.

En una llamada de resultados el mes pasado, la compañía indicó que solo había obtenido una autorización preliminar del gobierno estadounidense para enviar una pequeña cantidad de chips H200 a China. Aunque el rendimiento global del H200 está muy por debajo de los chips Blackwell/Blackwell Ultra utilizados actualmente por Nvidia para entrenar y ejecutar grandes modelos de IA, sigue siendo popular en el mercado chino, restringido por sanciones, gracias a su potente inferencia de IA, el ecosistema CUDA que ha conquistado a desarrolladores en todo el mundo y su facilidad de despliegue.

China, que en el pasado representaba aproximadamente una cuarta parte de los ingresos totales de Nvidia, ahora constituye solo una pequeña parte. Aunque la demanda global de chips de IA de Nvidia sigue siendo muy fuerte, este país asiático sigue siendo el mercado de semiconductores más grande del mundo en volumen, por lo que su prosperidad a largo plazo es crucial para los fundamentos de Nvidia.

Desde diciembre del año pasado, Nvidia obtuvo una autorización verbal del presidente Donald Trump para vender el H200 a algunos clientes chinos, pero hasta ahora no ha confirmado ningún ingreso por ventas de H200 en China bajo esa autorización. Los reguladores de Washington han establecido varias barreras adicionales, ralentizando el proceso de aprobación formal y dificultando la recuperación completa de ventas sin restricciones de sanciones.

Con las recientes declaraciones de Huang de que el H200 está en proceso de “reiniciar nuestra producción a gran escala”, es probable que en breve Nvidia confirme datos de ingresos provenientes del mercado chino para este chip.

Medios informaron anteriormente que los chips H200 enviados a China deben someterse a inspecciones adicionales por parte de EE. UU. y pagar un arancel del 25%. Además, los funcionarios estadounidenses están considerando limitar la cantidad de chips H200 que cada cliente chino puede comprar, a 75,000 unidades, con un máximo de 1 millón de procesadores en total.

La demanda del mercado chino por el H200 probablemente sea muy fuerte; lo que realmente limita las ventas no es la demanda, sino las políticas y aprobaciones del gobierno estadounidense. Recientemente, algunos medios informaron que las empresas tecnológicas chinas, desde 2026, han pedido más de 2 millones de unidades del H200, mientras que las existencias de Nvidia en ese momento eran de solo unas 700,000 unidades.

El mercado chino, una gran oportunidad de crecimiento para Nvidia

El martes, las acciones de Nvidia cerraron en 181,93 dólares, una caída del 0,7% en la sesión de EE. UU., lo que representa una caída acumulada del 2,5% en lo que va del año, superando al índice S&P 500.

Desde una perspectiva de fundamentos, si el H200 realmente puede dirigirse a gran escala al mercado chino, sería una adición significativa para Nvidia, ya que China representaba aproximadamente una cuarta parte de sus ingresos, y ahora solo una pequeña fracción. Además, las previsiones de resultados del trimestre presentadas en febrero no incluyen ninguna expectativa de ingresos por centros de datos en China, y la compañía mantiene una perspectiva de cero ingresos en ese segmento en el corto plazo. Esto significa que, en cuanto las entregas del H200 se normalicen, incluso sin una apertura total, se podría esperar una revisión al alza en las valoraciones actuales de Nvidia y en las expectativas de crecimiento del mercado.

En términos de rendimiento técnico, el H200, en comparación con la serie Blackwell y especialmente con Vera Rubin, que Huang anunció que entrará en producción a finales de año, ya está claramente atrasado en una o incluso dos generaciones. El H200 pertenece a la arquitectura Hopper clásica, con una configuración de 141 GB de HBM3e, 4,8 TB/s de ancho de banda y aproximadamente 4 PFLOPS en FP8; Nvidia ya ha mostrado públicamente que el GB200 NVL72 puede ofrecer hasta 15 veces más rendimiento y oportunidades de ingresos en ciertos escenarios de inferencia en comparación con Hopper H200. Además, Vera Rubin, según declaraciones oficiales, logrará una mejora de 10 veces en rendimiento por vatio y una reducción de 10 veces en el costo por token en comparación con Blackwell. Sin embargo, estos avances no parecen impedir que el H200 satisfaga las necesidades actuales del mercado chino, que está bajo sanciones estadounidenses.

El H200 ofrece casi seis veces el rendimiento del chip H20, lanzado anteriormente específicamente para China, y en la actual ola global de inferencia de IA, las empresas necesitan chips maduros que puedan desplegarse de inmediato, ejecutar inferencias en grandes modelos, con mayor memoria y mayor ancho de banda.

Las GPU de IA de Nvidia, que dominan casi por completo el entrenamiento de IA, requieren clústeres de poder de cálculo más potentes y una rápida capacidad de iteración del sistema completo, mientras que en inferencia, tras la implementación a escala de tecnologías de IA de vanguardia, se valoran más el costo por token, la latencia y la eficiencia energética. “La era de la inferencia de IA ya ha llegado”, afirmó Huang en la conferencia GTC del lunes. “Y la demanda de inferencia sigue creciendo”, añadió.

Por ello, los 141 GB de HBM3e del H200 siguen siendo muy atractivos para despliegues en contextos de largos contextos, grandes lotes, búsquedas mejoradas y despliegues masivos y eficientes en empresas. Además, el ecosistema CUDA, con su fuerte demanda, hace que para el mercado chino siga siendo una “potencia de cálculo de alta gama limitada por condiciones”, y que herramientas como CUDA-X, modelos preentrenados, cadenas de desarrollo y experiencia en operaciones reduzcan significativamente los costos de migración y despliegue para los clientes chinos.

Para los fondos de Wall Street, esto no es una narrativa grandilocuente de “Nvidia remontando en China”, sino una oportunidad adicional de crecimiento potencialmente subestimada en la demanda del mercado chino, además de la sólida infraestructura global de poder de cálculo de IA ya existente.

El CEO de Nvidia, Jensen Huang, mostró en la conferencia GTC de madrugada del 17 de marzo en horario de Beijing, un “plan superpotente e inédito de generación de ingresos por poder de cálculo de IA” en el campo de la infraestructura de IA. Informó a los inversores globales que, impulsado por la fuerte demanda de GPU basadas en la arquitectura Blackwell y la próxima producción en masa del sistema de poder de cálculo basado en Vera Rubin, la futura escala de ingresos en el campo de los chips de IA podría alcanzar al menos 1 billón de dólares para 2027, mucho más allá de los 500 mil millones de dólares previstos en la última GTC para 2026.

A medida que el tamaño de los modelos, las cadenas de inferencia y las cargas de trabajo de IA multimodal o agentic impulsan un consumo de poder de cálculo en expansión exponencial, las principales empresas tecnológicas tienden a concentrar sus inversiones en infraestructura de poder de cálculo de IA. Los inversores globales siguen considerando la narrativa de “bull market de IA” centrada en Nvidia, los clústeres TPU de Google y las nuevas iteraciones de AMD, como una de las historias de inversión más seguras en los mercados mundiales, y también implica que temas de inversión relacionados con energía, sistemas de enfriamiento líquido, cadenas de suministro de interconexión óptica y otros aspectos vinculados al entrenamiento y la inferencia de IA seguirán siendo los más activos, incluso en medio de la incertidumbre geopolítica en Oriente Medio, con Nvidia, AMD, Broadcom, TSMC y Micron a la cabeza.

Para instituciones como Morgan Stanley, Citigroup, Loop Capital y Wedbush, la ola de inversión en infraestructura de IA basada en hardware de poder de cálculo de IA aún no ha terminado y apenas está comenzando. Bajo la influencia de una “tormenta de demanda de poder de cálculo en inferencia de IA” sin precedentes, se espera que la inversión global en infraestructura de IA alcance entre 3 y 4 billones de dólares hasta 2030.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado