Lo más importante de hoy es la conferencia GTC de NVIDIA, prácticamente una historia de la humanidad en versión IA.

robot
Generación de resúmenes en curso

Hoy lo más importante es la conferencia GTC de Nvidia; es, literalmente, una historia de la humanidad versión IA.

Aún no sube Huang Renxun al escenario, pero la información filtrada de antemano ya es suficiente como para escribir un libro.

Wanwan ha reunido tres aspectos destacados, así que vamos, amigos gordos, acompañadme.

1)Los costos de cómputo de IA se reducen a la mitad, directo a “un descuento”

La generación anterior de Blackwell ya era bastante potente, ¿verdad?
Enseguida se anunciará la producción en masa de la próxima generación de chips: Vera Rubin.

¿En qué es fuerte Vera Rubin? En pocas palabras: es barato.

Ejecutar el mismo modelo de IA:
la cantidad de chips se reduce a una cuarta parte, y el costo del cálculo de inferencia baja un 90%.
Baja un 90%, amigos.
AWS, Microsoft y Google, las tres grandes empresas de la nube, se montan directamente en la primera tanda.

2)Groq, que el año pasado se compró por 20.000 millones de dólares, hoy entrega la tarea

Antes, Huang Renxun dijo en una reunión de resultados que Groq se integraría al ecosistema de Nvidia como una arquitectura extensible, como cuando en su momento compraron Mellanox para completar las capacidades de red.

El LPU de Groq y las GPU de Nvidia están en el mismo centro de datos:
las GPU entienden el problema y la LPU se encarga de escupir la respuesta rápidamente.

Con esta división de trabajo entre ambos chips, la latencia en escenarios de Agent se reduce de golpe.

Los agentes de IA hacen el trabajo por las personas; una tarea puede dar vueltas y ajustar modelos decenas de rondas, y en cada ronda se está quemando capacidad de inferencia. Y encima el usuario está ahí esperando: si va más lento, la experiencia se rompe.

La inferencia se hace en dos pasos: primero entender tu pregunta, y luego escupir la respuesta letra por letra.

Las GPU son fuertes en el primer paso, pero en la velocidad y la estabilidad al “escupir” palabras del segundo paso, la LPU de Groq es mejor.

¿20.000 millones son mucho caro?

Piensa en esto: en el futuro, cada empresa ejecutará cientos de agentes, y cada agente ajustará miles de veces modelos al día.

3)Llega OpenClaw de Nvidia, llamado NemoClaw

Es, básicamente, una plataforma de código abierto; las empresas la instalan y pueden desplegar empleados de IA para que sustituyan a las personas en la ejecución de procesos, el manejo de datos y la gestión de proyectos.
Se dice que ya están en conversaciones con Salesforce y Adobe.

Lo interesante está en que NemoClaw no te obliga a usar chips de Nvidia.
Tú mira bien este razonamiento.
Vender chips solo te deja dinero en la capa de hardware; definir las reglas es lo que hace ganar a toda la cadena. Huang Renxun tiene esta cuenta perfectamente clara.

4)Huang Renxun dice que va a mostrar “chips que el mundo nunca ha visto”

Lo más probable es que sea la primera aparición de la arquitectura de la próxima próxima generación: Feynman, con producción en masa en 2028, utilizando el proceso de 1,6 nm más avanzado de TSMC.

Además, hay otro dato poco común que me parece bastante interesante.

Nvidia ha sacado procesadores para portátiles; dos modelos, centrados en los juegos.
Los que venden tarjetas gráficas vienen a arrebatarlle el puesto de “comer CPU” a los procesadores.

Wanwan, siento que en el futuro Huang Renxun va a convertirse en un gran líder de una generación.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado