¡Nvidia lanza 7 chips "bomba atómica" seguidos, cambiando su objetivo de fabricante de chips a fábrica de IA! ¿¿Ha cambiado la estrategia de Huang Renxun?? Industria: Se resume en una frase: "vender estándares"

Periodista******|Yang Hui******

Editor******|Cheng Peng, Dong Xing Sheng, Du Bo, corrección******|Chen Kemin****************

El 16 de marzo, hora local, Jensen Huang, fundador y CEO de Nvidia, volvió a aparecer en el escenario del SAP Center en San José después de un año, vestido con su icónico abrigo de cuero, iniciando su discurso principal de “GTC 2026”.

Aunque antes de comenzar Huang ya advirtió que “esto es una conferencia tecnológica”, a lo largo de toda la presentación, desde robots humanoides hasta conducción inteligente, pasando por el reciente éxito del “Langosta” y los 7 chips “reyes” que presentó, Huang hizo que su discurso pareciera una conferencia de lanzamiento de nuevos productos.

El 17 de marzo, Gao Fei, presidente de Zhiding.com, que asistió en vivo a la conferencia GTC, dijo a los periodistas de “Diario Económico” que, en su opinión, toda la estrategia de Huang se basa en seguir el patrón de “quemar más tokens (la unidad mínima de procesamiento en la entrada de texto en IA)”. Además, expertos del sector resumieron las tres “gran jugadas” de Huang: construir un ecosistema de sistemas, establecer barreras altas para evitar que los rivales “se lleven la parte del pastel”; ofrecer herramientas para “quemar tokens”, introducir simulaciones de gemelos digitales + agentes inteligentes, para facilitar a los usuarios “quemar” más; y optimizar los sistemas para reducir el costo de los tokens y atraer a más usuarios.

Junto con una serie de nuevos productos, Huang afirmó que Nvidia está en proceso de transformarse de una empresa de chips a una fábrica de IA y una infraestructura de IA. Sin embargo, para Chen Jia, investigador independiente en estrategia internacional, Nvidia anteriormente parecía vender solo capacidad de cálculo, pero en realidad siempre ha estado vendiendo un ecosistema de capacidad de cálculo; recientemente, ha estado promoviendo la demanda de capacidad mediante la fusión de grandes modelos generativos con su motor gráfico 3D, lo cual constituye su ventaja competitiva insustituible. Al analizar también su estrategia y productos en robots humanoides y conducción inteligente, se puede ver que Nvidia actualmente prefiere “vender palas” en lugar de “buscar oro” directamente en las minas de datos de IA.

Siguiendo la tendencia de “criar langostas”

Gao Fei comentó a los periodistas que en esta conferencia GTC, dos áreas o productos le dejaron una impresión más profunda: OpenClaw y, en segundo lugar, el LPU (Unidad de Procesamiento de Lenguaje) de Groq.

La tendencia de “criar langostas” que surgió después del Año Nuevo chino también ha llegado a Huang. ¿Cómo ve el líder del mayor proveedor mundial de capacidad de cálculo esta tendencia? En el escenario de GTC, Huang dedicó mucho tiempo a explicar qué es OpenClaw y elogió que ha abierto un nuevo campo en la IA. “OpenClaw es uno de los proyectos de código abierto más populares en la historia de la humanidad, y se logró en solo unas semanas, superando lo que Linux (el sistema operativo) logró en 30 años.”

La comparación con Linux se debe a que, en opinión de Huang, OpenClaw también es un sistema, con recursos gestionados, capaz de gestionar tareas, derivar y llamar a otros sub-agentes inteligentes, y con entradas y salidas. “OpenClaw esencialmente abre el sistema operativo para los ordenadores de agentes inteligentes, y ese es un momento que la industria ha estado esperando: el renacimiento del software.”

Tras estos elogios, Huang propuso una posibilidad aún más emocionante: que el SaaS (Software as a Service, software como servicio) tradicional evolucione completamente a “Agentes como Servicio (AaaS)”. En el funcionamiento empresarial futuro, equipar a cada ingeniero con un “presupuesto anual de tokens” será la nueva norma para impulsar un crecimiento de productividad diez veces mayor.

Por ello, no es difícil entender por qué “criar langostas” ha conmovido a Nvidia, ese “vendedor de palas”. Como dijo un experto del sector, en el estado actual, si los tokens no se “queman”, toda la cadena de IA no puede seguir funcionando; las “langostas” son un excelente “quemador”.

Fuente de la imagen: captura de pantalla de la página oficial de Nvidia

Según información obtenida por “Diario Económico” de Nvidia, la compañía ha lanzado la pila de software NVIDIA NemoClaw?, compatible con la plataforma de agentes OpenClaw. Se sabe que NemoClaw ofrece modelos abiertos y un entorno sandbox aislado, para mejorar la privacidad y seguridad de los datos en agentes autónomos, proporcionando la infraestructura básica para Claw. Además, NemoClaw puede usar cualquier agente programable.

Los ingresos por chips apuntan a billones de dólares

La “demostración en vivo” de chips también es una de las “firmas” de Huang.

Antes del lanzamiento de nuevos productos, Huang reveló en detalle la estructura de la plataforma Vera Rubin. Según explicó, Vera Rubin es una supercomputadora gigante compuesta por 7 chips y 5 tipos de racks. También mencionó que con la llegada de Vera Rubin, el punto de inflexión de la IA agente será alcanzado, desencadenando la mayor ola de construcción de infraestructura en la historia.

En concreto, los 7 chips son: NVIDIA Vera CPU, NVIDIA Rubin GPU, conmutador NVLink 6, NVIDIA ConnectX-9 SuperNIC, NVIDIA BlueField-4 DPU, conmutador Ethernet NVIDIA Spectrum-6 y NVIDIA Groq 3 LPU.

Entre ellos, Vera CPU y Groq 3 LPU llaman especialmente la atención. Nvidia informó que Vera CPU es el primer procesador del mundo diseñado específicamente para la era de la IA basada en agentes y aprendizaje reforzado, con una eficiencia doble que los CPU tradicionales de racks, y una velocidad un 50% mayor. Actualmente, está en producción en masa y se espera que esté disponible para los socios en la segunda mitad del año. Además, Nvidia reveló la lista de principales empresas que desplegarán Vera, incluyendo Alibaba, Lenovo y otras empresas chinas; ByteDance también aparece en la lista de proveedores de servicios en la nube que planean desplegar Vera CPU.

En cuanto a Groq 3 LPU, que impresionó a Gao Fei, es un procesador dedicado a la inferencia de grandes modelos de lenguaje. En la plataforma Vera Rubin, Groq 3 LPU trabajará en conjunto con la GPU. En la industria, se considera que la fase de entrenamiento se basa en la “fuerza bruta” del poder de cálculo, mientras que la inferencia requiere una gestión más fina en costos y velocidad de respuesta. Con la adopción masiva de aplicaciones de IA, la demanda de capacidad de inferencia crecerá exponencialmente, y los proveedores de la nube y fabricantes de hardware deberán replantear la asignación de recursos, con la posible llegada de chips de inferencia personalizados.

Groq es el nuevo socio elegido por Nvidia en este contexto. Fundada en 2016, esta empresa se ha centrado en infraestructura de inferencia de IA. En diciembre de 2025, Nvidia y Groq firmaron un acuerdo de licencia no exclusiva para tecnología de inferencia, incorporando a algunos de sus miembros clave en Nvidia para impulsar la escalabilidad de estas tecnologías.

Fuente de la imagen: captura de pantalla de la página oficial de Nvidia

Además de mejorar la eficiencia del cálculo, el precio es una variable clave que los fabricantes deben considerar en esta etapa.

Según Huang, los chips de capacidad de Nvidia alcanzarán 1 billón de dólares en ingresos para 2027. El año pasado, su previsión para la demanda del mercado de chips en 2026 era de solo 500 mil millones de dólares. Para duplicar esa cifra, la capacidad de Nvidia debe presentarse con una relación calidad-precio más atractiva.

Por ello, Huang propuso un indicador clave: el número de tokens por vatio. En su discurso, enfatizó repetidamente el costo de los tokens y citó cálculos que muestran que Nvidia actualmente lidera en este aspecto a nivel mundial.

Gao Fei afirmó que, en su opinión, toda la estrategia de Huang consiste en seguir el patrón de “quemar más tokens”. Otros expertos señalaron que, en términos simples, Nvidia tiene tres “gran trucos”: construir un ecosistema de sistemas y establecer barreras altas para evitar que los rivales “se lleven la parte del pastel”; ofrecer herramientas para “quemar tokens” y, al mismo tiempo, introducir gemelos digitales y agentes para facilitar a los usuarios “quemar” más; y optimizar los sistemas para reducir el costo de los tokens y atraer a más usuarios.

Continuar vendiendo palas

Otro punto destacado de esta conferencia fue que Huang afirmó que Nvidia está en proceso de transformarse de una empresa de chips a una fábrica de IA y una infraestructura de IA. Además, con la reciente divulgación de productos y colaboraciones en conducción autónoma y robótica, la industria ha iniciado una nueva ola de discusión: ¿ha cambiado ya la estrategia de Nvidia, pasando de ser un proveedor de capacidad de cálculo a un proveedor de soluciones completas?

(Fuente: GTC2026)

Gao Fei comentó que, desde las acciones de Nvidia, no se trata solo de ofrecer soluciones de sistema, sino que el núcleo sigue siendo la eficiencia del cálculo. “Antes, mejorar los chips podía aumentar la capacidad de cálculo, pero ahora, una sola GPU ya no es suficiente; también se necesita la colaboración de redes, almacenamiento, y ahora también la integración de LPU, convirtiéndose en un proyecto de sistema completo.”

También enfatizó que Nvidia no solo proporciona capacidad de cálculo, sino que se adapta a las tendencias del mercado y las demandas de las aplicaciones. “Donde hay una gran demanda en IA, Nvidia realiza optimizaciones profesionales para ese escenario. Por eso, en los últimos años, Nvidia también se ha definido como una empresa de software y algoritmos, y esa es la razón.” afirmó Gao Fei.

El investigador independiente Chen Jia señaló que, en general, el objetivo principal de “GTC 2026” es que Nvidia “presuma músculo”. Según Huang, Nvidia tiene tres plataformas tecnológicas principales: CUDA-X en sentido estricto (desarrollada por Nvidia, un conjunto de herramientas para desarrolladores, bibliotecas aceleradas por GPU y tecnologías empaquetadas como API en la nube); un ecosistema amplio; y un sistema de fábrica de IA en sentido amplio.

“Desde esta perspectiva, Nvidia, bajo Huang, parece estar vendiendo capacidad de cálculo, pero en realidad siempre ha estado vendiendo un ecosistema de capacidad de cálculo. Recientemente, ha estado promoviendo la demanda de capacidad mediante la fusión de grandes modelos generativos con su motor gráfico 3D, lo cual es su mayor fortaleza y su competencia central insustituible. En comparación, los nuevos fabricantes de productos de IA integrados, como ‘Langosta’, son los que realmente venden capacidad de cálculo.” afirmó Chen Jia.

Además, añadió que, si se combina con las estrategias y productos en robots humanoides, conducción autónoma y el sistema Gro de sexta generación con NVLink, se puede ver claramente un mensaje: ante los avances tecnológicos en la cadena de suministro de chips semiconductores y en la industria de IA a nivel global, y la inevitable competencia en capacidad de cálculo entre grandes países, Nvidia prefiere “vender palas” en lugar de “buscar oro” directamente en las minas de datos de IA. “Lo que Nvidia hace ahora, resumido en una frase, es vender estándares.” concluyó Chen Jia.

(Aviso legal: El contenido y los datos de este artículo son solo para referencia, no constituyen asesoramiento de inversión. Verifique antes de usar. Operar bajo su propio riesgo.)

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado