Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
New
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Nvidia entra en el negocio de la "cría de camarones" apostando todo por la era de la inferencia de IA de billones de dólares
Los gigantes mundiales de la computación, como NVIDIA, están transformándose de fabricantes de chips a fábricas de IA, apostando por las oportunidades en el mercado de inferencia de inteligencia artificial. En la conferencia GTC de NVIDIA 2026, que comenzó el 17 de marzo, el CEO Jensen Huang elevó significativamente las expectativas de ingresos para la nueva generación de chips de IA, apuntando a un objetivo de 1 billón de dólares, y lanzó oficialmente la próxima plataforma de hardware, además de productos como una pila de software para “criar camarones”.
Los expertos del sector señalan que una señal clara de la GTC de este año es que la era de la inferencia está acelerando su llegada. Además, la nueva arquitectura de computación de NVIDIA liderará cambios en industrias como la disipación de calor y los materiales de encapsulado.
Incremento en la inferencia de IA
En esta GTC, NVIDIA enfatizó que, en la nueva etapa de los agentes de IA, la inferencia será el núcleo de la competencia en infraestructura de IA. La compañía presentó la próxima plataforma de computación Vera Rubin y el chip LPU (Unidad de Procesamiento de Lenguaje).
“Antes mencionaba Hopper, y levantaba un chip; pero al hablar de Vera Rubin, la gente piensa en todo el sistema”, comentó Jensen Huang. Estimó que en los últimos años, la demanda de cálculo ha crecido 1 millón de veces, y prevé que entre 2025 y 2027, este crecimiento aportará al menos 1 billón de dólares en ingresos para la compañía.
La plataforma Vera Rubin de NVIDIA, presentada en esta ocasión, incluye 7 chips, 5 sistemas a nivel de bastidor, y una supercomputadora para IA basada en agentes, que integra la CPU Vera y la arquitectura de almacenamiento Blue Field-4S TX. Comparada con la plataforma Blackwell de la generación anterior, la nueva plataforma requiere solo una cuarta parte de GPUs para entrenar modelos híbridos grandes, y la capacidad de inferencia por vatio se ha multiplicado hasta 10 veces.
En la conferencia, Huang destacó el chip de inferencia Groq 3 LPU, revelando detalles que se reservaron en la presentación de resultados de febrero. Este chip proviene de la adquisición de Groq por NVIDIA en diciembre pasado, por aproximadamente 20 mil millones de dólares, y está diseñado como coprocesador de inferencia para la GPU Rubin, consolidando la estrategia de inferencia de NVIDIA.
Huang afirmó que en la era de los agentes de IA, la demanda de inferencia se está diversificando rápidamente. Para tareas que requieren una interacción muy alta y tiempos de respuesta ultracortos, las arquitecturas tradicionales de GPU presentan redundancias de rendimiento. Por ello, NVIDIA introdujo la arquitectura LPU, centrada en la generación de tokens con latencia mínima, en colaboración con las GPU. La Vera Rubin se encarga de la fase de “prellenado” que requiere cálculos masivos, mientras que la LPU maneja la fase de “decodificación” que es extremadamente sensible a la latencia. En esta arquitectura híbrida, la eficiencia de inferencia y consumo energético puede mejorar hasta 35 veces.
“En la era de la inferencia de IA, no solo se trata de alcanzar picos de parámetros, sino de optimizar de manera heterogénea en función de cargas reales, aprovechando cada recurso de cálculo al máximo”, afirmó un responsable de YunTian LiFei. La tendencia en inferencia es buscar la máxima relación costo-beneficio, con una creciente necesidad de cómputo heterogéneo que divida las cargas de trabajo en función de sus características, asignando cada tarea a la hardware más adecuada para elevar la eficiencia global del sistema. La estrategia de NVIDIA presentada en esta ocasión refleja esta visión. Empresas chinas de chips de IA, como YunTian LiFei, continúan innovando en arquitecturas de inferencia, en áreas como GPNPU, separación PD y almacenamiento 3D apilado, siguiendo la misma dirección industrial.
Innovación en agentes de IA
OpenClaw, una plataforma de agentes de IA de código abierto, ha generado un auge en la “crianza de camarones” a nivel global. En esta GTC, Huang elogió a OpenClaw, calificándola como “el próximo frontera en IA para todos y uno de los proyectos de código abierto de mayor crecimiento en la historia”, marcando el inicio de la era de creación de agentes inteligentes personales.
NVIDIA planea participar en la “crianza de camarones” y anunció la plataforma de software Nemo Claw, compatible con OpenClaw, que permite a los usuarios instalar con un solo comando, mejorando la gestión de seguridad, confiabilidad, escalabilidad y facilidad de uso de los agentes de IA.
Además, en esta conferencia, NVIDIA fortaleció su colaboración con líderes mundiales en software industrial como Cadence, Siemens y Synopsys, integrando plataformas como CUDA-X, Omniverse y herramientas aceleradas por GPU en empresas como Honda, Jaguar Land Rover, Samsung, SK Hynix y TSMC, para acelerar el diseño industrial, el desarrollo de ingeniería y los procesos de fabricación.
Huang afirmó: “Una nueva revolución industrial ya está en marcha. La IA física y los agentes autónomos están transformando fundamentalmente la forma en que se diseña, desarrolla y fabrica en todo el mundo. Gracias a la colaboración con gigantes del software, proveedores de servicios en la nube y fabricantes de equipos originales, NVIDIA ofrece una plataforma de computación acelerada de pila completa que hace realidad esta visión a una escala y velocidad sin precedentes.”
En el primer día del evento, las acciones de NVIDIA subieron un 1.65%, cerrando en 183.22 dólares por acción; sin embargo, el índice de la cadena industrial de NVIDIA en A-shares retrocedió, liderado por conceptos de módulos ópticos, con Tenda Communications bajando aproximadamente un 10%, Zhongji Xuchuang cayendo un 3.33%, y Shenghong Technology, líder en PCB para IA, bajando alrededor de un 3%.
Liderando la infraestructura de computación de próxima generación
NVIDIA continúa liderando la transformación de la cadena industrial de IA. A medida que la arquitectura de IA de NVIDIA se vuelve más compleja y el consumo de energía aumenta, las tecnologías de enfriamiento por aire tradicionales alcanzan sus límites físicos. La nueva cabina Rubin, que utiliza un diseño de enfriamiento líquido al 100%, indica que los componentes de enfriamiento líquido serán esenciales en la infraestructura de computación de próxima generación.
En esta conferencia, Limin Da, subsidiaria de Lingyi ZhiZao, fue la única proveedora en China continental en formar parte del ecosistema Manifold (Distribuidor) de la arquitectura Vera Rubin de NVIDIA. Como componente clave del sistema de circulación de enfriamiento líquido, el distribuidor y sus conectores rápidos determinan la eficiencia y estabilidad del sistema de disipación de calor.
Por otra parte, la arquitectura Rubin de NVIDIA podría impulsar cambios en los materiales de encapsulado.
“Debido a los requisitos extremos de disipación de calor y transmisión de señal de la arquitectura Rubin, la comercialización de sustratos de vidrio se ha adelantado significativamente”, afirmó Lu Bing, analista de Shenmeng Industry. Bajo una densidad de cálculo extrema, los sustratos orgánicos tradicionales (ABF) enfrentan serios obstáculos físicos.
Fabricantes nacionales e internacionales están en un punto clave, pasando de la “verificación técnica” a la “producción en pequeña escala”. Según predicciones de Yole Group y otros, 2026 será el año en que los sustratos de vidrio ingresen a la producción comercial en pequeñas cantidades, y en áreas como HBM (memoria de alta banda ancha) y encapsulado de chips lógicos, se espera un crecimiento anual compuesto del 33% en la demanda de materiales de vidrio.
Lu Bing señaló que las empresas nacionales, con la cadena de suministro de paneles más completa del mundo y un gran mercado de consumo, tienen ventajas de escala. Aprovechando esto, ya han logrado avances en algunos materiales y equipos, como la fabricación de microperforaciones con láser, y están en posición de ocupar un papel clave en la cadena de suministro de chips de IA.