Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
New
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Nvidia entra en el negocio de la "cría de camarones" apostando todo por la era de la inferencia de IA de billones de dólares
Los gigantes mundiales de la computación, como NVIDIA, están transformándose de fabricantes de chips en fábricas de IA, apostando por las oportunidades en el mercado de inferencia de inteligencia artificial. En la conferencia GTC 2026 (GPU Technology Conference) que comenzó el 17 de marzo, NVIDIA elevó significativamente sus expectativas de ingresos para su nueva generación de chips de IA, apuntando a un objetivo de 1 billón de dólares, además de lanzar oficialmente la próxima plataforma de hardware y productos como pilas de software para “criar camarones”.
Los expertos del sector comentan que una señal clara de la GTC de este año es que la era de la inferencia está acelerando su llegada. Al mismo tiempo, la nueva arquitectura de computación de NVIDIA liderará cambios en industrias como la disipación de calor y los materiales de encapsulado.
Incremento en la inferencia de IA
En esta GTC, NVIDIA enfatizó que, en la nueva etapa de los agentes de IA, la inferencia será el núcleo de la competencia en infraestructura de IA. La compañía presentó oficialmente la próxima plataforma de computación Vera Rubin y el chip Groq3 LPU (Unidad de Procesamiento de Lenguaje).
“Antes mencionaba Hopper, y levantaba un chip; pero al hablar de Vera Rubin, la gente piensa en todo el sistema”, estimó Jensen Huang, fundador y CEO de NVIDIA. En los últimos años, la demanda de cálculo ha crecido 1 millón de veces, y se espera que entre 2025 y 2027, este crecimiento genere al menos 1 billón de dólares en ingresos para la compañía.
La plataforma Vera Rubin de NVIDIA, presentada en esta ocasión, incluye 7 chips, 5 sistemas a nivel de bastidor y una supercomputadora para IA basada en agentes, que integra la nueva CPU Vera y la arquitectura de almacenamiento Blue Field-4S TX. Comparada con la plataforma Blackwell de la generación anterior, la nueva plataforma requiere solo una cuarta parte de las GPU para entrenar modelos híbridos grandes, y la capacidad de inferencia por vatio se ha incrementado hasta 10 veces.
En la conferencia, Huang destacó el chip de inferencia Groq 3 LPU, revelando detalles que se reservaron en la presentación de resultados de febrero. Este chip proviene de la adquisición de la tecnología central de Groq por parte de NVIDIA en diciembre pasado, por aproximadamente 20 mil millones de dólares, y está diseñado como coprocesador de inferencia para la GPU Rubin, marcando una estrategia clave en la inferencia de NVIDIA.
Huang afirmó que, en la era de los agentes de IA, la demanda de inferencia se está diversificando rápidamente. Para tareas que requieren una interacción muy alta y tiempos de respuesta ultracortos, las arquitecturas tradicionales de GPU presentan redundancias de rendimiento. Por ello, NVIDIA ha introducido la arquitectura LPU, centrada en la generación de tokens con latencia extremadamente baja, que trabaja en colaboración con las GPU. La Vera Rubin se encarga de la fase de “prellenado” que requiere cálculos masivos, mientras que la LPU maneja la fase de “decodificación” que es muy sensible a la latencia. Bajo esta arquitectura híbrida, la eficiencia en inferencia y consumo energético puede mejorar hasta 35 veces.
“En la era de la inferencia de IA, no solo se trata de alcanzar picos de parámetros, sino de optimizar de manera heterogénea en función de cargas reales, aprovechando cada recurso de cálculo al máximo”, afirmó un responsable de YunTian LiFe. La era de la inferencia requiere cada vez más cálculos heterogéneos, segmentando las características de la carga para que diferentes hardware asuman tareas más adecuadas, elevando así la eficiencia global del sistema. La estrategia de NVIDIA presentada en esta ocasión refleja esta visión. Empresas nacionales de chips de IA como YunTian LiFe también están impulsando innovaciones en arquitecturas de inferencia, como GPNPU, separación PD y almacenamiento en 3D, siguiendo esta misma línea industrial.
Innovación en agentes de IA
OpenClaw, una plataforma de agentes de IA de código abierto, ha generado un gran interés mundial en la “cría de camarones”. En esta GTC, Huang elogió a OpenClaw, calificándola como “el próximo frontera en IA para todos y el proyecto de código abierto de más rápido crecimiento en la historia”, marcando el inicio de la era de creación de agentes inteligentes personales.
NVIDIA planea participar en la “cría de camarones” y anunció la plataforma de software Nemo Claw, compatible con OpenClaw, que permite a los usuarios instalar con un solo comando, mejorando la gestión de seguridad, confiabilidad, escalabilidad y facilidad de uso de los agentes de IA.
Además, en esta conferencia, NVIDIA fortaleció su colaboración con empresas líderes en software industrial como Cadence, Siemens y Synopsys, integrando plataformas como CUDA-X, Omniverse y herramientas aceleradas por GPU en empresas como Honda, Jaguar Land Rover, Samsung, SK Hynix y TSMC, para acelerar el diseño industrial, el desarrollo de ingeniería y los procesos de fabricación.
Huang afirmó: “Una nueva revolución industrial ya está en marcha. La IA física y los agentes de IA autónomos están transformando fundamentalmente el diseño, la ingeniería y la manufactura a nivel global. A través de la colaboración con gigantes del software, proveedores de servicios en la nube y fabricantes de equipos originales, NVIDIA ofrece una plataforma de computación acelerada de pila completa que hace realidad esta visión con una escala y velocidad sin precedentes.”
En el primer día del evento, las acciones de NVIDIA subieron un 1.65%, cerrando en 183.22 dólares por acción; sin embargo, ese mismo día, el índice de la cadena industrial de NVIDIA en A-shares sufrió una corrección, liderada por el concepto de módulos ópticos, con Tianfu Communications cayendo aproximadamente un 10%, Zhongji Xuchuang bajando un 3.33%, y Shenghong Technology, líder en PCB para IA, cayendo alrededor del 3%.
Liderando la nueva infraestructura de computación
NVIDIA continúa liderando la transformación de la cadena industrial de IA. A medida que la arquitectura de IA de NVIDIA se vuelve más compleja y el consumo de energía aumenta, las tecnologías tradicionales de enfriamiento por aire alcanzan sus límites físicos. La nueva cabina Rubin, que utiliza un diseño de enfriamiento líquido al 100%, indica que los componentes de enfriamiento líquido se convertirán en una necesidad clave en la nueva infraestructura de computación.
En esta conferencia, Limin Da, subsidiaria de Lingyi ZhiZao, fue la única proveedora en China continental de la ecosistema Manifold (Distribuidor) de la arquitectura Vera Rubin de NVIDIA. Como componente central del sistema de circulación de enfriamiento líquido, el distribuidor y las conexiones rápidas determinan la eficiencia y estabilidad del sistema de disipación de calor.
Además, la arquitectura Rubin de NVIDIA podría impulsar cambios en los materiales de encapsulado.
“Debido a los requisitos extremos de disipación de calor y transmisión de señal de la arquitectura Rubin, la comercialización de sustratos de vidrio se ha adelantado significativamente”, afirmó Lu Bing, analista de Shenmeng Industry. Bajo una densidad de cálculo extrema, los sustratos orgánicos tradicionales (ABF) enfrentan serios obstáculos físicos.
Las empresas nacionales e internacionales están en un punto clave de transición de la “validación tecnológica” a la “producción en pequeña escala”. Según predicciones de Yole Group y otros, 2026 será el año en que los sustratos de vidrio ingresen a la producción comercial en pequeñas cantidades, y en áreas como HBM (memoria de alta ancho de banda) y empaquetado de chips lógicos, se espera un crecimiento anual compuesto del 33% en la demanda de materiales de vidrio.
Lu Bing señaló que las empresas nacionales, con la cadena de suministro de paneles más completa del mundo y un gran mercado de consumo, pueden aprovechar esta escala para lograr avances en algunos materiales y equipos (como láseres para microperforación), ocupando una posición clave en la cadena de suministro de chips de IA.