CEO de Nvidia Jensen Huang sobre qué sigue para el auge de la IA

Antes de que Jensen Huang llegara a su entrada con chaqueta de cuero en la GTC de este año, Nvidia $NVDA -0.70% ya había comenzado a vender el mito. La banda sonora previa parecía sospechosamente diseñada a medida para una coronación: letras sobre cosas increíbles que llegan a tiempo, leyendas que se hacen, el futuro que aparece justo a tiempo; canciones que incluso Shazam no pudo identificar. (La primera demostración de IA del día podría haber sido la lista de reproducción). La mitad de la sala tenía los teléfonos en alto para la entrada de Huang, como si Silicon Valley hubiera reservado su propio acto en un estadio. Por una tarde, la cancha del San Jose Sharks perteneció a un tipo de juego de poder diferente. Porque Huang salió al escenario y hizo lo que mejor sabe hacer: convertir una presentación de producto en una audiencia sobre el futuro.

El fundador de Nvidia abrió la GTC prometiendo un recorrido por “cada capa” de la IA, y luego pasó las siguientes horas argumentando que la compañía no solo vende chips en un mercado en auge. No. La empresa quiere definir toda la infraestructura física de la economía de la IA: el cómputo, la red, el almacenamiento, el software, los modelos, las fábricas y — porque la sutileza claramente está fuera de temporada — quizás incluso los (aún teóricos) centros de datos en el espacio.

El discurso estuvo lleno de anuncios en todas direcciones, pero el mensaje principal fue más compacto. Huang quería que inversores, clientes y rivales escucharan claramente cuatro cosas: la demanda de IA sigue creciendo lo suficiente como para justificar gastos exorbitantes; la inferencia ahora es el centro del campo de batalla; los agentes deben salir de los chatbots y entrar en la maquinaria diaria del trabajo de oficina; y la próxima fiebre del oro tras la IA digital podría ser la IA física, donde robots, sistemas autónomos y software industrial consumen aún más datos e infraestructura. No se puede deletrear Nvidia sin IA.

Huang empezó donde suele empezar cuando el mercado empieza a preguntarse si la barrera de Nvidia podría algún día tener una fuga: el software. Pasó la primera parte recordando que CUDA tiene 20 años, que la base instalada de Nvidia está “en todas las nubes” y “en todas las empresas de computación”. La mayor protección de Nvidia sigue siendo el ecosistema de software que rodea al silicio, no los rectángulos verdes por sí solos.

Esa lógica dio forma al resto del discurso. Huang se detuvo en los datos estructurados, los llamó la “verdad fundamental” de la computación empresarial, y dijo que la IA finalmente puede aprovechar el océano de información no estructurada — PDFs, videos, voz, toda la basura del ático corporativo que las empresas han acumulado durante años sin saber realmente cómo buscarla o monetizarla. Cuidado, mundo; Nvidia también quiere una parte en la base de datos.

La GTC ya no trata solo de un chip más rápido y mejor. El gran discurso de este año fue sobre el intento de Nvidia de convertirse en la empresa que posee la economía del trabajo de IA en sí misma: los chips, el almacenamiento, la red, la capa de orquestación, el gemelo digital, la política de modelos abiertos, el tiempo de ejecución de agentes y lo que venga después del centro de datos cuando la Tierra comience a sentirse abarrotada. La GTC 2026 fue una conferencia sobre inferencia, agentes y fábricas de IA, con el hardware sirviendo como prueba en lugar de trama.

Bueno, eso es un número grande

La mayor exhibición de Huang fue numérica. Celebró el 20 aniversario de CUDA, lo llamó el volante de inercia de la computación acelerada, dijo que la demanda de computación ha aumentado “un millón de veces en los últimos años”, y elevó la apuesta diciendo que ahora ve al menos 1 billón de dólares en oportunidades de ingresos desde 2025 hasta 2027, frente a los 500 mil millones que había mencionado anteriormente para la demanda de Blackwell y Rubin hasta 2026. Las acciones de Nvidia cerraron con un aumento del 1.6% el lunes, lo que parece una aprobación sin conversión total.

Ese número — y el marco de Huang — quizás fue el principio organizador de la conferencia. Nvidia quería que inversores y clientes escucharan, en público y en volumen, que la expansión todavía está en sus primeras etapas, aún se está ampliando y todavía es lo suficientemente grande como para que el gasto actual parezca un pago inicial. Ese número también hizo un trabajo de limpieza silencioso. Nvidia ha pasado meses enfrentando las preguntas habituales que surgen cuando una empresa se convierte en la principal caja registradora en una fiebre de gasto de capital: ¿Cuánto puede durar esto? ¿Qué pasa cuando los hyperscalers encuentran la religión en los costos? ¿Cuánto de la próxima fase se filtra a chips personalizados y alternativas más baratas?

La respuesta de Huang fue ampliar la perspectiva — hacer el mercado más grande y la carga de trabajo más caótica. Dijo que “la inflexión de la inferencia ha llegado”, y construyó la parte central del discurso en torno a un argumento simple: la IA ahora puede hacer trabajo productivo. Y una vez que eso sucede, la imagen de la demanda cambia. Entrenar modelos gigantes y admirarlos nunca iba a ser la etapa final. Todo eso pasa a producción, donde el contador nunca deja de correr.

Esto — ¡esto! — es tu ingreso, decía, convirtiendo un centro de datos en una menta y una factura de energía en destino. Nvidia estaba ocupada vendiendo una realidad tan mejorada que casi podía facturarse, y la sala seguía llena de personas tratando de decidir si la demostración parecía trascendental o simplemente un poco más cara.

Los tokens estaban en todas partes en el discurso — en el video de apertura, en las gráficas de rendimiento, en el argumento económico. El punto, en esencia, es que el valor futuro de la IA radica en generar salidas útiles de forma continua, lo que significa que la inferencia se convierte en la parte de la pila donde el costo, la latencia y el rendimiento empiezan a importar de verdad. Huang está promoviendo la dependencia. Quiere que los clientes piensen en campus de gigavatios, racks integrados, presupuestos de megavatios y curvas de rendimiento de tokens, no en servidores que puedan mezclar y combinar a voluntad.

La inferencia toma el centro del escenario

Quizá una de las líneas más agudas del discurso fue también la más simple: “La inflexión de la inferencia ha llegado.” Nvidia sabe que el mundo se ha interesado en hardware de inferencia más barato y eficiente. Bien. También le gustaría vender eso.

Huang dividió la inferencia en dos etapas — prellenado y decodificación — y propuso un sistema en el que los chips Vera Rubin de Nvidia manejan el trabajo de prellenado, mientras que el silicio derivado de Groq se encarga de la decodificación, el paso que realmente produce la respuesta. Eso importa; la inferencia es donde el próximo capítulo de Nvidia se vuelve más caótico. El entrenamiento hizo a la compañía rica. Servir a cientos de millones de usuarios en tiempo real es donde los clientes empiezan a hacer preguntas sobre costos, latencia y si realmente necesitan el mismo silicio para cada paso.

La respuesta de Huang fue clásica de Nvidia. No defender solo la GPU en aislamiento; tragar toda la pila. Describió Vera Rubin como “un salto generacional” construido en torno a siete chips y cinco sistemas a escala de rack, con Nvidia afirmando que la plataforma puede entrenar grandes modelos de mezcla de expertos con una cuarta parte del número de GPUs en comparación con Blackwell y ofrecer hasta 10 veces más rendimiento de inferencia por vatio a una décima parte del costo por token. También utilizó el discurso para mirar más allá de Rubin hacia la futura plataforma Feynman, porque en Nvidia, la próxima generación siempre está en las alas antes de que la actual termine su ovación.

Huang no está promoviendo una pieza más rápida tanto como una dependencia mayor. Nvidia anunció un diseño de referencia para la fábrica de IA Vera Rubin DSX, herramientas de simulación DSX para planificar fábricas de IA antes de construirlas, y un menú más amplio de componentes de almacenamiento, red y sistema diseñados para operar como una máquina verticalmente integrada. El mensaje fue claro: deja de pensar en servidores, empieza a pensar en campus. O, si eres Nvidia, empieza a enviar facturas como un servicio público.

Los agentes dejan el escenario de demostración

Si la propuesta de hardware era mantener a Nvidia en el centro de la inferencia, la propuesta de software era asegurarse de que la IA empresarial no se convierta en la fiesta de otra empresa. Huang dijo que “el 100% de Nvidia” ahora usa Claude Code, Codex y Cursor; la gente ya no pregunta quién, qué, cuándo, dónde y cómo a la IA. Ahora le piden que cree. Que haga. Lo siento, empresas de chatbots — la IA ahora se trata menos de una novedad conversacional y más de un sistema laboral.

Huang pasó el día asegurándose de que ese sistema laboral fluya a través de la pila de Nvidia. La compañía lanzó OpenClaw y NemoClaw para la comunidad OpenClaw — en asociación con la empresa demasiado de moda — impulsó su Agent Toolkit y OpenShell runtime, y apostó por AI-Q, que busca enrutar consultas y reducir costos en más del 50% mediante una mezcla híbrida de modelos de frontera y modelos abiertos de Nvidia.

Hay una cobertura estratégica oculta en toda esa apertura.

Nvidia presentó la Coalición Nemotron con Black Forest Labs, Cursor, LangChain, Mistral, Perplexity, Reflection AI, Sarvam y Thinking Machines Lab, con el primer proyecto destinado a sustentar la próxima familia de modelos Nemotron 4. Lee entre líneas, y está bastante claro que Nvidia no quiere que el futuro del software de IA quede dividido entre unos pocos grandes proveedores de modelos cerrados y un montón de hardware de consumo. También quiere una participación en la capa de modelos abiertos — la parte que determina quién puede construir, ajustar y poseer la IA fuera de los laboratorios más grandes.

La propuesta del imperio se hace más grande

Y luego, porque a Huang nunca le ha temblado la metáfora que no pueda ampliar, el discurso se extendió desde el centro de datos a casi todas las industrias adyacentes que pudo encontrar.

Huang ha estado ampliando la historia de Nvidia más allá de los asistentes digitales durante un tiempo, y la GTC de este año llevó ese tema aún más lejos. Nvidia anunció un Plano de Fábrica de Datos de IA Física con Microsoft $MSFT -0.14% Azure y Nebius, destinado a automatizar cómo se generan, aumentan y evalúan los datos de entrenamiento para robótica, agentes de visión IA y vehículos autónomos. La propuesta es sencilla: los datos del mundo real son escasos, los casos extremos son molestos, y los datos sintéticos más la simulación pueden convertir el cómputo en la materia prima que estos sistemas necesitan.

Huang también presentó GR00T N2, un modelo de base para robots de próxima generación basado en la investigación DreamZero, que la compañía afirma que más que duplica el éxito frente a los principales modelos VLA en nuevas tareas y entornos. Los chatbots entusiasmaron a Wall Street. La IA física es la parte que podría mantener la fiebre de infraestructura durante años, porque los robots, sistemas industriales y máquinas autónomas no solo necesitan modelos — necesitan entrenamiento sin fin, simulación, redes, sensores y computación en el borde.

Huang incluso llevó a Olaf, de Disney $DIS +1.66%, al escenario, una pequeña pieza de teatro de IA física que dejó más claro el punto que otra diapositiva de arquitectura. Nvidia dice que Disney ha estado entrenando a Olaf y sus androides BDX +0.85% con un simulador de física acelerado por GPU basado en Warp de Nvidia e integrado en Newton, y que Olaf debutará en Disneyland París el 29 de marzo.

Nvidia también se aseguró de que los vehículos autónomos mantuvieran su lugar en las cartas de todos. La compañía dijo que BYD, Geely, Isuzu y Nissan están construyendo vehículos listos para Nivel 4 en su pila DRIVE Hyperion, mientras que Uber $UBER +4.19% planea lanzar robotaxis impulsados por Nvidia en Los Ángeles y San Francisco en la primera mitad de 2027, y expandirse a 28 mercados para 2028. La autonomía encaja casi demasiado bien en la visión de Huang: la próxima fase de la IA se moverá por el mundo físico, lo que significa más sensores, más simulación, más redes, más computación en el borde y, convenientemente para Nvidia, hardware más caro en todas partes.

Huang incluso llevó la historia de “más grande y mejor” un paso más allá y dijo que Nvidia irá al espacio, con futuros sistemas basados en Vera Rubin destinados a centros de datos orbitales y operaciones espaciales autónomas. Claro, eso suena un poco a alguien que ha descubierto que todavía hay sectores sin tocar. Pero también suena a una empresa decidida a hacer que “infraestructura de IA” signifique casi todas las máquinas caras a la vista. Nvidia sigue siendo el rey de los chips, por supuesto. Pero Huang ya no parece especialmente interesado solo en ese título. Su empresa intenta pasar de ser un proveedor de chips a ser arquitecto de fábricas, proveedor de sistemas operativos y recaudador de peajes en un mundo donde la IA hace más trabajo y los centros de datos con restricciones de energía se convierten en motores de ingresos medidos en tokens por vatio.

Al terminar, la conferencia pareció más grande que un calendario de lanzamientos. Se leía como un mapa del imperio. Sí, había DLSS 5 para gráficos, nuevas alianzas de software industrial, asociaciones en telecomunicaciones y una avalancha de herramientas para desarrolladores. Pero la conclusión duradera fue más simple y mucho más grande: Nvidia quiere que la IA deje de entenderse solo como una categoría de software y comience a tratarse como un proyecto de infraestructura a escala de utilidad, con hardware y software de Nvidia integrados en cada capa.

Ese es un mensaje muy Jensen Huang. La parte inquietante para los rivales es que, por ahora al menos, todavía tiene muchos clientes dispuestos a construir en torno a ello.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado