Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
H200 ¡Cuenta atrás para el aumento de volumen en el mercado chino! CUDA impulsa una fuerte demanda. NVIDIA(NVDA.US)El imperio AI recibe las "novedades positivas de incremento"
«Superlíder de chips de IA» El director ejecutivo de NVIDIA (NVDA.US), Huang Renxun, dijo que el gigante de chips está iniciando los pasos de producción en masa del acelerador de entrenamiento/inferencia de IA H200 basado en la arquitectura Hopper, lanzado en marzo de 2022, para sus clientes en el mercado chino, lo que también indica que el esfuerzo de esta empresa estadounidense de volver a China —un mercado crucial de infraestructura de cómputo de IA— ha logrado avances positivos.
No hay duda de que, si el H200 realmente lograra fluir hacia el mercado chino en una escala relativamente grande pese al 25% adicional de costos/aranceles del gobierno de EE. UU., ello sería un impulso positivo sustancial para las perspectivas de expansión de los fundamentos de NVIDIA, considerando que la trayectoria de su cotización actual sigue en un periodo de lateralización y fluctuación. Después de todo, ni las orientaciones oficiales de resultados trimestrales de NVIDIA ni el «superplano de IA» de al menos 1 billón de dólares para 2027 que acaba de presentar en la conferencia GTC del lunes contemplan perspectivas de generación de ingresos en el mercado chino.
Después de que Huang Renxun diera un discurso de gran peso en la conferencia GTC de NVIDIA y anunciara con fuerza global a los inversores la próxima generación de infraestructura de cómputo de IA —el sistema de cómputo de IA basado en la arquitectura Vera Rubin—, en una rueda de prensa el martes (hora local) Huang Renxun afirmó que NVIDIA ya obtuvo la autorización del gobierno de EE. UU. para vender chips de IA H200 a «muchos de los grandes clientes del mercado chino» y que actualmente se encuentra en el proceso de «reiniciar nuestra fabricación a gran escala». Señaló que este panorama es totalmente distinto al de solo unas semanas atrás.
«Nuestra cadena de suministro de H200 se está reiniciando», dijo Huang Renxun durante un evento en la conferencia anual GTC de NVIDIA celebrada en San José, California. El director ejecutivo de la compañía de chips, Huang Renxun, el día anterior, en la conferencia GTC, había presentado de forma destacada una serie de nuevos productos en el discurso inaugural y también ofreció a los inversores una actualización de orientación desde la perspectiva de los fundamentos financieros.
En los últimos años, NVIDIA ha estado trabajando para recuperar sus ventas de chips de IA en el mercado chino. Debido a que el gobierno de EE. UU. impone desde hace mucho tiempo restricciones de exportación de chips hacia China, el enorme mercado del que NVIDIA dependía antes en la práctica se ha cerrado sustancialmente durante mucho tiempo para este tipo de infraestructura de cómputo de IA.
H200 bajo el peso de un arancel del 25% impuesto por el gobierno de EE. UU.
No obstante, desde este año, la administración Trump ha empezado a permitir que NVIDIA y su competidor más fuerte, AMD (AMD.US), vendan al mercado chino versiones de menor rendimiento de chips de IA, pero esto aún requiere obtener una licencia formal del gobierno de EE. UU. y también afrontar el arancel del 25% que el gobierno de EE. UU. ha incrementado.
El gobierno de EE. UU. permite exportar H200 de NVIDIA a China bajo condiciones específicas y como «condición de intercambio» fija un costo/arancel del 25%. Este arreglo es en esencia una conciliación de políticas: permite exportar a la vez que se cobra un beneficio con ello. En contraste, productos de gama más alta como chips de IA basados en la arquitectura Blackwell y la serie AMD Instinct MI450, todavía se consideran tecnologías más sensibles a nivel de políticas de EE. UU.; por lo tanto, no se han incluido o no se encuentran dentro del alcance actual de permisos de exportación. Esto significa que en absoluto se permite exportarlos, y por ende no aplica este tipo de política arancelaria.
Hay que tener en cuenta que esta política de aranceles de semiconductores dirigida a NVIDIA y AMD excluye los chips destinados a centros de datos en el territorio de EE. UU., dispositivos de consumo y usos industriales; es decir, que estos aranceles no se aplican a H200/MI325X que se incorporen directamente y se utilicen en los Estados Unidos.
Actualmente, NVIDIA no ha incorporado en sus pronósticos financieros ningún escenario de ingresos de centros de datos del mercado chino. El negocio de centros de datos, que hoy es el área de negocio más central de NVIDIA, es precisamente el que proporciona, para centros de datos a nivel global, una infraestructura de cómputo de IA extraordinariamente potente a través de los GPU de IA H100/H200 y Blackwell/Blackwell Ultra.
En una llamada de resultados del mes pasado, la compañía dijo que en ese momento solo había obtenido una autorización preliminar del gobierno de EE. UU. para enviar al mercado chino una cantidad limitada de chips de IA H200. Aunque el rendimiento integral del H200 es muy inferior al de los chips de IA basados en la arquitectura Blackwell/Blackwell Ultra que NVIDIA utiliza actualmente para entrenar y ejecutar grandes modelos de IA, sigue siendo muy popular en el mercado chino afectado por sanciones debido a su sólida eficiencia en inferencia de IA, al ecosistema CUDA que abarca a desarrolladores de IA en todo el mundo y a su capacidad de implementación conveniente.
China representó en el pasado un cuarto de los ingresos totales de NVIDIA; ahora solo representa una parte muy pequeña. Aunque la demanda de chips de IA de NVIDIA sigue siendo extraordinariamente fuerte en todo el mundo, este país asiático sigue siendo, sin duda, el mayor mercado único de semiconductores a gran escala a nivel global; por eso, es crucial para la prosperidad de los fundamentos a largo plazo de NVIDIA.
Ya en diciembre del año pasado, NVIDIA obtuvo un permiso verbal del presidente de EE. UU., Donald Trump, para vender H200 a ciertos clientes chinos. Sin embargo, hasta ahora, la compañía de chips no ha confirmado ningún ingreso por H200 procedente del mercado chino con base en este tipo de licencias. Los formuladores de reglas de fabricación y aranceles de Washington también han establecido varios obstáculos adicionales, lo que ralentiza el proceso de aprobación formal y reduce la probabilidad de que sea posible recuperar por completo las ventas sin restricciones de sanciones.
A medida que Huang Renxun ha indicado más recientemente que los chips de IA H200 actualmente se encuentran en el proceso de «reiniciar nuestra fabricación a gran escala», quizá en poco tiempo NVIDIA confirme los datos de ingresos por H200 provenientes del mercado chino.
Medios informaron con anterioridad que los chips de IA H200 enviados al mercado chino necesitan someterse a inspecciones adicionales rutinarias por parte de EE. UU. y también se les imponen aranceles de hasta el 25%. Además, funcionarios del gobierno de EE. UU. aún están considerando limitar la cantidad de chips de IA H200 que cada cliente chino puede comprar, a 75,000 unidades, y que el envío total máximo puede llegar a 1 millón de procesadores.
La demanda del mercado chino por chips de IA H200 probablemente sea extremadamente fuerte; el núcleo que realmente limita los acuerdos no es la demanda, sino las políticas y aprobaciones del gobierno de EE. UU. Hace poco, algunos medios informaron que la demanda real de pedidos de chips de IA H200 en la que las compañías tecnológicas chinas se apoyan desde 2026 ya superó los 2 millones de unidades, mientras que el inventario de NVIDIA en ese momento era de apenas unas 700,000 unidades de chips H200.
Mercado chino: un gran impulso positivo incremental para NVIDIA
El martes, la cotización de las acciones de NVIDIA al cierre de la sesión en EE. UU. cayó 0.7%, hasta 181.93 dólares, lo que hizo que la acción acumulara una caída del 2.5% en lo que va del año y quedara por debajo del índice S&P 500.
Desde la perspectiva de las expectativas fundamentales, si el chip de IA H200 realmente pudiera fluir hacia el mercado chino en una escala relativamente grande, sería un impulso positivo incremental sustancial para NVIDIA. Después de todo, China antes representaba aproximadamente una cuarta parte de los ingresos de NVIDIA, pero ahora solo queda una fracción pequeña. Además, en la guía de desempeño sólida para esta temporada que NVIDIA dio en febrero, no se contempló ninguna perspectiva de ingresos para centros de datos en China, y la reciente orientación de la compañía sobre ingresos de centros de datos en China sigue siendo cero. Esto significa que, mientras el envío del H200 comience a normalizarse, incluso si no se libera por completo, constituirá un posible espacio de ajuste al alza a nivel incremental en el modelo de valuación actual de NVIDIA y en las expectativas de crecimiento del mercado.
En términos de rendimiento integral subyacente, el H200 frente al Blackwell de hoy, y especialmente frente a la Vera Rubin que Huang Renxun acaba de anunciar que se producirá en masa hacia fin de año, ya se queda claramente atrás, al menos una generación e incluso dos. El H200 pertenece a la arquitectura clásica Hopper; la especificación de una sola tarjeta es 141GB de HBM3e, un ancho de banda de 4.8TB/s y aproximadamente 4 PFLOPS FP8. En cambio, NVIDIA ha mostrado oficialmente que, en ciertas situaciones de inferencia, el GB200 NVL72 frente al Hopper H200 puede lograr hasta 15 veces de ventaja en rendimiento/oportunidad de ingresos; aún más, según el posicionamiento oficial de Vera Rubin, logra una mejora de 10 veces en rendimiento por vatio y 10 veces menor en costo por token respecto a Blackwell. Pero todo esto parece no impedir que el H200 se ajuste a la demanda real del mercado chino bajo sanciones vigente en la actualidad.
El rendimiento del H200 es aproximadamente 6 veces mayor que el del producto de chips de IA que NVIDIA preparó previamente para el mercado chino: el H20. En la gran ola global de inferencia de IA, lo que las empresas realmente necesitan es un conjunto de chips maduros que se puedan implementar de inmediato, que puedan ejecutar inferencia de grandes modelos, con mayor memoria y mayor ancho de banda.
El lado de entrenamiento de IA, casi monopolizado por los GPU de IA de NVIDIA, necesita una mayor generalidad de los clústeres de cómputo de IA y la capacidad de iteración rápida de todo el ecosistema de cómputo; mientras que en el lado de inferencia, tras una implementación a gran escala de tecnologías de IA de vanguardia, se valoran más el costo por token unitario, la latencia y la eficiencia energética. «La era de la inferencia de IA ya ha llegado», dijo Huang Renxun el lunes en la conferencia GTC. «Y, además, las necesidades de inferencia siguen aumentando», añadió.
Por tanto, los 141GB de HBM3e del H200 siguen siendo muy atractivos para inferencia de IA con contextos largos, batch de mayor escala, recuperación aumentada (retrieval-augmented) y despliegues empresariales a gran escala y con alta eficiencia; además, la motivación de demanda impulsada por el ecosistema CUDA también lo respalda. Para el mercado chino, todo ello sigue siendo «cómputo de alta gama utilizable bajo condiciones restringidas». Al mismo tiempo, CUDA, CUDA-X, la adaptación a modelos existentes, la cadena de herramientas de desarrollo y la experiencia operativa reducen de forma significativa los costos de migración e implementación para los clientes chinos.
Para el capital de instituciones de Wall Street, esto no es la narrativa grandiosa de «NVIDIA se da la vuelta gracias al mercado chino». Es, más bien, que además de la línea principal de infraestructura global de cómputo de IA que ya era muy fuerte, NVIDIA suma una porción de potencial al alza de demanda del mercado chino que podría estar siendo gravemente subestimada.
En la conferencia GTC celebrada en la madrugada del 17 de marzo según hora de Pekín, Huang Renxun mostró la «inédita superproyección grandiosa de monetización de cómputo de IA» de NVIDIA en el campo de la infraestructura de cómputo de IA. Les informó a los inversores globales que, impulsado por una sólida demanda de cómputo de GPU basada en la arquitectura Blackwell y por una demanda aún más explosiva del sistema de cómputo de IA basado en la arquitectura Vera Rubin que está por producirse en masa, el tamaño de los ingresos futuros de NVIDIA en el sector de chips de IA podría alcanzar al menos 1 billón de dólares para 2027, muy por encima del plano de infraestructura de cómputo de IA de 5000 mil millones de dólares para 2026 que se presentó en la última conferencia GTC.
Cuando el consumo de cómputo se expande de forma exponencial impulsado por la escala de modelos, los enlaces de inferencia y las cargas de trabajo de Agentic AI con modalidades múltiples/agents, la línea principal de los gastos de capital de los gigantes tecnológicos se inclina aún más hacia la infraestructura de cómputo de IA. Los inversores globales, asimismo, continuarán fijando el «relato del mercado alcista de IA» en torno a NVIDIA, los clústeres de TPU de Google y la próxima iteración de productos de AMD, así como las expectativas de entrega de clústeres de cómputo de IA, como una de las narrativas de mejores perspectivas de ciclo en el mercado de valores global. Y esto también significa que temas de inversión estrechamente relacionados con el entrenamiento/inferencia de IA —como electricidad, sistemas de enfriamiento por líquido y la cadena de suministro de interconexión óptica— seguirán posicionados entre los segmentos de inversión más candentes del mercado de acciones, mientras que, a la vez, la incertidumbre en el panorama geopolítico de Oriente Medio enfrente a los líderes de cómputo de IA como NVIDIA, AMD y Broadcom, TSMC, Micron, etc.
Según gigantes de Wall Street como Morgan Stanley, Citigroup, Loop Capital y Wedbush, la ola de inversión global en infraestructura de inteligencia artificial, con el hardware de cómputo de IA como núcleo, está lejos de haber terminado; en este momento, solo está en el inicio. Impulsada por una «tormenta de demanda de cómputo en el extremo de inferencia de IA» sin precedentes, el tamaño de esta ronda de inversión global total en infraestructura de IA hasta 2030 podría alcanzar un rango de 3 billones a 4 billones de dólares.