Nvidia presenta varios nuevos productos relacionados con IA en la conferencia GTC

robot
Generación de resúmenes en curso

Según informó Xinhua, el 16 de este mes se inauguró en San José, California, la conferencia anual GTC (Conferencia de Tecnología de GPU) de la estadounidense Nvidia (NVDA.US), que se extenderá durante 4 días. Esta gran empresa de chips presentó varios productos nuevos relacionados con inteligencia artificial (IA), incluidos un stack de software para respaldar a OpenClaw.

El fundador de Nvidia y director ejecutivo, Huang Renxun, anunció en el discurso de apertura de ese día que Nvidia lanzó un stack de software llamado “NemoClaw”, destinado al desarrollo y despliegue del agente OpenClaw. Además, Nvidia presentó la nueva generación de tecnología de renderizado gráfico de IA DLSS5, y afirmó que dicha tecnología puede mejorar aún más la fidelidad de las imágenes y, al mismo tiempo, reducir el consumo de recursos de cómputo.

En cuanto a hardware, Nvidia anunció que lanzará la nueva generación de plataforma informática de IA “Vera. Rubin”, y se espera que el rendimiento por vatio alcance 10 veces el de la generación anterior de sistemas. Con base en la tecnología obtenida previamente de la empresa emergente Grok, Nvidia lanzó el nuevo chip de su tercera generación de unidad de procesamiento de lenguaje (LPU) de Grok, y también mostró un sistema de bastidores compatible capaz de alojar 256 LPU. Huang Renxun dijo que este sistema, en conjunto con la plataforma “Vera. Rubin”, puede aumentar en aproximadamente 35 veces la eficiencia de generación de “tokens” (la unidad básica con la que los grandes modelos de lenguaje procesan información) por vatio.

En el ámbito de la conducción autónoma, Huang Renxun presentó los planes de colaboración de Nvidia con Uber. Dijo que Uber planea, a partir de 2027, desplegar en Los Ángeles y San Francisco una flota de taxis de conducción autónoma impulsados por el software de conducción autónoma de Nvidia, y que tiene previsto ampliar el servicio hasta 2028 a 28 ciudades a escala global.

En los últimos años, los chips GPU de Nvidia se han convertido en una infraestructura clave para la computación de inteligencia artificial en todo el mundo. En su discurso, Huang Renxun dijo que, a medida que las aplicaciones de IA se expanden desde los chatbots hacia agentes inteligentes de IA capaces de ejecutar de forma autónoma, la demanda global de capacidad de cómputo de IA sigue creciendo rápida y sostenidamente. Si las empresas pueden obtener más capacidad de cómputo, pueden generar más “tokens”, con lo que aumentan los ingresos del negocio.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado