Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
New
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Nvidia entra en el negocio de "cría de camarones", apuesta todo en la era de la inferencia de IA a nivel de billones
Los gigantes mundiales de la computación, Nvidia, están transformándose de un fabricante de chips a una fábrica de IA, apostando por las oportunidades en el mercado de inferencia de inteligencia artificial. En la conferencia GTC de Nvidia 2026 (Conferencia de Tecnología GPU), que comenzó el 17 de marzo, el CEO Jensen Huang elevó significativamente las expectativas de ingresos para la nueva generación de chips de IA, apuntando a un objetivo de 1 billón de dólares, y lanzó oficialmente la próxima plataforma de hardware, además de productos como una pila de software para “criar camarones”.
Los expertos del sector comentan que una señal clara de la GTC de este año es que la era de la inferencia está acelerando su llegada. Además, la nueva arquitectura de computación de Nvidia liderará cambios en industrias como la disipación de calor y los materiales de encapsulado.
Incremento en la inferencia de IA
En esta GTC, Nvidia enfatizó que, en la nueva etapa de los agentes de IA, la inferencia será el núcleo de la competencia en infraestructura de IA. La compañía presentó oficialmente la próxima plataforma de computación Vera Rubin y el chip Groq3LPU (unidad de procesamiento de lenguaje).
“Antes mencionaba Hopper, y levantaba un chip; pero al hablar de Vera Rubin, la gente piensa en todo el sistema”, estima Jensen Huang, fundador y CEO de Nvidia. En los últimos años, la demanda de cálculo ha crecido 1 millón de veces, y se espera que entre 2025 y 2027, este crecimiento genere al menos 1 billón de dólares en ingresos para la compañía.
La plataforma Vera Rubin de Nvidia, presentada en esta ocasión, incluye 7 chips, 5 sistemas a nivel de bastidor, y una supercomputadora para IA basada en agentes, que integra la nueva CPU Vera y la arquitectura de almacenamiento Blue Field-4S TX. Comparada con la plataforma Blackwell de la generación anterior, la nueva plataforma requiere solo una cuarta parte de las GPU para entrenar modelos híbridos grandes, y la capacidad de inferencia por vatio se ha multiplicado hasta 10 veces.
En la conferencia, Huang destacó el chip de inferencia Groq3LPU, revelando detalles del “huevo de pascua” que había reservado en la presentación de resultados de febrero. Este chip proviene de la adquisición en diciembre pasado de Groq por aproximadamente 20 mil millones de dólares, y está diseñado como un “coprocesador de inferencia” para la GPU Rubin, consolidando la estrategia de inferencia de Nvidia.
Huang afirmó que, en la era de los agentes de IA, la demanda de inferencia se está diversificando rápidamente. Para tareas que requieren una interacción muy alta y tiempos de respuesta ultracortos, las arquitecturas tradicionales de GPU presentan redundancias de rendimiento. Por ello, Nvidia ha introducido la arquitectura LPU, centrada en la generación de tokens con “extremo bajo retardo”, que trabaja en colaboración con las GPU. La Vera Rubin se encarga de la fase de “prellenado” que requiere cálculos masivos, mientras que la LPU maneja la fase de “decodificación” que es extremadamente sensible a la latencia. Bajo esta arquitectura híbrida, la capacidad de inferencia y la eficiencia energética del sistema pueden aumentar hasta 35 veces.
“En la era de la inferencia de IA, no solo se trata de alcanzar picos de parámetros, sino de optimizar de manera heterogénea en función de cargas reales, aprovechando cada recurso de cálculo al máximo”, afirmó un responsable de YunTian LiFei. La era de la inferencia busca la máxima relación coste-beneficio, requiriendo cada vez más cálculos heterogéneos, segmentando las cargas de trabajo para que diferentes hardware asuman tareas más adecuadas, elevando así la eficiencia global del sistema. La estrategia de Nvidia presentada en esta ocasión refleja esta visión. Empresas nacionales de chips de IA como YunTian LiFei continúan innovando en arquitecturas de inferencia, como GPNPU, separación PD y almacenamiento en 3D, siguiendo esta misma línea industrial.
Innovación en agentes de IA
OpenClaw, una plataforma de agentes de IA (AI Agent) de código abierto, ha generado una tendencia mundial en la “cría de camarones”. En esta GTC, Huang elogió a OpenClaw, calificándola como “el próximo campo de frontera en IA para todos, y uno de los proyectos de código abierto de mayor crecimiento en la historia”, marcando el inicio de la era de creación de agentes inteligentes personales.
Nvidia planea participar en la “cría de camarones” lanzando la pila de software Nvidia Nemo Claw, compatible con la plataforma de agentes OpenClaw, permitiendo a los usuarios instalarla con un solo comando y mejorando la gestión de seguridad, confiabilidad, escalabilidad y facilidad de uso de los agentes de IA.
En esta conferencia, Nvidia también fortaleció su colaboración con empresas líderes en software industrial como Cadence, Siemens y Synopsys, integrando plataformas como CUDA-X, Omniverse y herramientas de software aceleradas por GPU en empresas como Honda, Jaguar Land Rover, Samsung, SK Hynix y TSMC, para acelerar el diseño industrial, el desarrollo de ingeniería y los procesos de fabricación.
Huang afirmó: “Una nueva revolución industrial ya está en marcha. La IA física y los agentes de IA autónomos están transformando fundamentalmente la forma en que se diseña, desarrolla y fabrica en todo el mundo. A través de la colaboración con gigantes del software, proveedores de servicios en la nube y OEMs en todo el ecosistema global, Nvidia ofrece una plataforma de computación acelerada de pila completa, que permite a diversas industrias convertir esta visión en realidad con una escala y velocidad sin precedentes.”
En el primer día del evento, las acciones de Nvidia subieron un 1.65%, cerrando en 183.22 dólares por acción; sin embargo, ese mismo día, el índice de la cadena industrial de Nvidia en A-shares sufrió una corrección, liderada por el concepto de módulos ópticos, con Tianfu Communications (300394) cayendo aproximadamente un 10%, Zhongji Xuchuang (300308) bajando un 3.33%, y Shenghong Technology (300476), líder en PCB para IA, cayendo alrededor de un 3%.
Liderando la nueva infraestructura de computación
Nvidia continúa liderando la transformación de la cadena industrial de IA. A medida que la arquitectura AI Fab de Nvidia se vuelve más compleja y el consumo de energía aumenta, las tecnologías tradicionales de enfriamiento por aire alcanzan sus límites físicos. La nueva cabina Rubin presentada en esta ocasión utiliza un diseño de enfriamiento líquido al 100%, lo que significa que los componentes clave de enfriamiento líquido se convertirán en una necesidad fundamental para la nueva generación de infraestructura de computación.
En la conferencia, Limin Da, subsidiaria de Lingyi Intelligent Manufacturing (002600), fue la única proveedora en China continental en formar parte del ecosistema de la arquitectura Vera Rubin de Nvidia, mediante su manifold (distribuidor). Como componente central del sistema de circulación de enfriamiento líquido, el distribuidor y las conexiones rápidas determinan directamente la eficiencia y estabilidad del sistema de disipación de calor.
Además, la arquitectura Rubin de Nvidia podría impulsar cambios en los materiales de encapsulado.
“Debido a los requisitos extremos de disipación de calor y transmisión de señal de la arquitectura Rubin, el proceso de comercialización de las placas de vidrio se ha adelantado significativamente”, afirmó Lu Bing, analista de Shenmeng Industry. Bajo la alta densidad de cálculo, las placas de circuito orgánico tradicionales (ABF) enfrentan serios cuellos de botella físicos.
Fabricantes nacionales e internacionales están en un punto clave de transición de “verificación tecnológica” a “producción en pequeña escala”. Según predicciones de Yole Group y otras instituciones, 2026 será el año en que las placas de vidrio ingresen en una fase de producción comercial en pequeñas cantidades, y en los campos de HBM (memoria de alta ancho de banda) y encapsulado de chips lógicos, se espera que la demanda de materiales de vidrio crezca a una tasa compuesta anual del 33%.
Lu Bing señaló que las empresas nacionales, con la cadena de suministro de paneles más completa del mundo y un gran mercado de consumo, tienen ventajas de escala. Aprovechando esta ventaja, ya han logrado avances en algunos materiales y equipos (como equipos de microperforación láser), y ocupan una posición clave en la cadena de suministro de chips de IA.