Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
New
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
CEO de Nvidia Jensen Huang sobre qué viene después del auge de la IA
Jensen Huang subió al escenario del SAP Center el lunes para su discurso principal en GTC y hizo lo que mejor sabe hacer: convertir una presentación de producto en una audiencia sobre el futuro. El fundador y CEO de Nvidia, @NVDA +1.65%, inauguró la conferencia de desarrolladores muy observada prometiendo un recorrido por “cada capa” de la IA, y luego pasó el resto del tiempo argumentando que la compañía no solo vende chips en un mercado en auge. No. La compañía quiere definir toda la infraestructura física de la economía de la IA: el cómputo, la red, el almacenamiento, el software, los modelos, las fábricas y —porque la sutileza claramente está fuera de temporada— quizás incluso los centros de datos orbitales.
El discurso estuvo lleno de anuncios en todas direcciones, pero el mensaje real fue más compacto de lo que parecía el cañón de confeti. Huang quería que inversores, clientes y rivales escucharan claramente cuatro cosas: la demanda de IA sigue creciendo lo suficiente como para justificar gastos indecentes; la inferencia ahora es el centro del campo de batalla; los agentes deben salir de los chatbots y entrar en la maquinaria diaria del trabajo de oficina; y la próxima fiebre del oro después de la IA digital podría ser la IA física, donde robots, sistemas autónomos y software industrial consumen aún más datos e infraestructura.
Eso es un número grande
El mayor logro de Huang fue numérico. Celebró el 20 aniversario de CUDA, lo llamó el volante que impulsa la computación acelerada, dijo que la demanda de computación ha aumentado “un millón de veces en los últimos años” y elevó aún más la apuesta al afirmar que ahora ve al menos 1 billón de dólares en oportunidades de ingresos desde 2025 hasta 2027. Ese fue el principio organizador del discurso: una insistencia pública de que la expansión de la IA todavía está en sus primeras etapas, aún se está ampliando y todavía es lo suficientemente grande como para que el gasto actual, según Nvidia, parezca un pago inicial.
Ese número también hizo un trabajo de limpieza silencioso. Nvidia ha pasado meses enfrentando las preguntas habituales que surgen cuando una compañía se convierte en la principal caja registradora en una fiebre de inversión en capital: ¿Cuánto puede durar esto?, ¿qué pasa cuando los hyperscalers se vuelven religiosos con los costos?, y ¿cuánto de la próxima fase se filtra hacia chips personalizados y alternativas más baratas?
La respuesta de Huang fue ampliar la perspectiva. El token, declaró el video de apertura de GTC, es el bloque de construcción de la nueva era de la IA. El punto de Huang era que el negocio ligado a esos tokens no se detendrá en entrenar modelos gigantes y admirarlos en benchmarks. Se moverá hacia producción, donde el reloj nunca se detiene.
La inferencia toma el centro del escenario
Quizá una de las líneas más agudas del discurso también fue la más simple: “La inflexión de la inferencia ha llegado.” Huang dividió la inferencia en dos etapas — prellenado y decodificación — y propuso un sistema en el que los chips Vera Rubin de Nvidia manejan el prellenado, mientras que el silicio derivado de Groq se encarga de la decodificación, el paso que realmente produce la respuesta. Eso importa porque la inferencia será donde la próxima guerra de Nvidia se vuelva más complicada. El entrenamiento hizo a la compañía rica. Servir a cientos de millones de usuarios en tiempo real es donde los clientes empiezan a hacer preguntas incómodas sobre costos, latencia y si realmente necesitan el mismo silicio en cada paso.
Por eso, la respuesta de Huang fue clásica de Nvidia. No defender solo la GPU en aislamiento, sino abarcar toda la pila. Describió Vera Rubin como “un salto generacional” construido en torno a siete chips y cinco sistemas a escala de rack, con Nvidia afirmando que la plataforma puede entrenar modelos grandes de mezcla de expertos con una cuarta parte de las GPUs en comparación con Blackwell y ofrecer hasta 10 veces más capacidad de inferencia por vatio a una décima parte del costo por token. También usó el discurso para mirar más allá de Rubin hacia la futura plataforma Feynman, porque en Nvidia la próxima generación ya está en las alas antes de que la actual termine su presentación.
Eso fue la señal más profunda desde San José. Huang no estaba promocionando una pieza más rápida, sino una dependencia mayor. Nvidia anunció un diseño de referencia para la fábrica de IA Vera Rubin DSX, herramientas de simulación DSX para planificar fábricas de IA antes de que se construyan, y un menú más amplio de componentes de almacenamiento, red y sistema destinados a operar como una máquina verticalmente integrada. El mensaje fue claro: Deja de pensar en servidores, empieza a pensar en campus. O, si eres Nvidia, empieza a enviar facturas como un servicio público.
Los agentes dejan el escenario de demostración
Si la propuesta de hardware era mantener a Nvidia en el centro de la inferencia, la propuesta de software era asegurarse de que la IA empresarial no se convierta en la fiesta de otra compañía. Huang dijo que “Claude Code y OpenClaw han provocado el punto de inflexión de los agentes,” añadiendo que “los empleados serán potenciados por equipos de agentes de frontera, especializados y construidos a medida que despliegan y gestionan.”
Nvidia combinó esa retórica con su Agent Toolkit, OpenShell runtime y el plan maestro AI-Q — software que, según dice, puede ayudar a las empresas a construir agentes autónomos con límites de políticas y, en el caso de AI-Q, reducir los costos de consulta en más del 50% mediante una mezcla híbrida de frontera y modelos abiertos propios de Nvidia.
Había una cobertura estratégica oculta en toda esa apertura. Nvidia anunció la Coalición Nemotron con Black Forest Labs, Cursor, LangChain, Mistral, Perplexity, Reflection AI, Sarvam y Thinking Machines Lab, con el primer proyecto destinado a sustentar la futura familia de modelos Nemotron 4. Si se lee entre líneas, está bastante claro que Nvidia no quiere que el futuro del software de IA se divida claramente entre unos pocos grandes proveedores de modelos cerrados y una pila de hardware commodity. También quiere tener participación en la capa de modelos abiertos, la pieza que determina quién puede construir, ajustar y poseer la IA fuera de los laboratorios más grandes.
El discurso sobre robots se amplía
Huang ha estado ampliando la historia de Nvidia más allá de los asistentes digitales durante un tiempo, y GTC reforzó aún más ese tema. Nvidia anunció un Plano de Fábrica de Datos de IA Física con Microsoft $MSFT +1.11% Azure y Nebius, destinado a automatizar cómo se generan, aumentan y evalúan los datos de entrenamiento para robótica, agentes de visión IA y vehículos autónomos. La propuesta es sencilla: los datos del mundo real son escasos, los casos extremos son molestos, y los datos sintéticos más simulaciones pueden convertir el cómputo en la materia prima que estos sistemas necesitan.
Huang también presentó el GR00T N2, un modelo de base para robots de próxima generación basado en la investigación DreamZero, que la compañía afirma que más que duplica el éxito en comparación con los principales modelos VLA en nuevas tareas y entornos. Esa parte del discurso puede ser la que envejezca mejor. Los chatbots entusiasmaron a Wall Street. La IA física es la parte que podría mantener la fiebre de infraestructura durante años, porque los robots, sistemas industriales y máquinas autónomas no solo necesitan modelos, sino entrenamiento sin fin, simulación, redes, sensores y cómputo en el borde. Huang incluso llevó la historia un paso más allá y dijo que Nvidia irá al espacio, con futuros sistemas basados en Vera Rubin destinados a centros de datos orbitales y operaciones espaciales autónomas. Claro, eso suena un poco a alguien que ha descubierto que todavía hay sectores sin explorar en la tarjeta de bingo. Pero también suena a una compañía decidida a que “la infraestructura de IA” signifique casi todas las máquinas costosas a la vista.
Al terminar, el discurso pareció más grande que un calendario de lanzamientos. Se parecía a un mapa de imperio. Sí, había DLSS 5 para gráficos, nuevas integraciones de software industrial, alianzas en telecomunicaciones y una avalancha de herramientas para desarrolladores. Pero la conclusión duradera fue más simple y mucho más grande: Nvidia quiere que la IA deje de entenderse solo como una categoría de software y comience a tratarse como un proyecto de infraestructura a escala de utilidad, con hardware y software de Nvidia integrados en cada capa.
Ese es un mensaje muy Jensen Huang — bien presentado y solo ligeramente modesto. La parte inquietante para los rivales es que, por ahora al menos, todavía tiene muchos clientes dispuestos a construir en torno a ello.