Lo más importante de hoy es la conferencia GTC de NVIDIA, prácticamente una historia de la humanidad en versión IA.

robot
Generación de resúmenes en curso

Hoy lo más importante es la conferencia GTC de Nvidia; es literalmente una historia de la humanidad en versión IA.

Aún no ha subido al escenario Huang Renxun, pero la cantidad de información filtrada con antelación ya alcanza para escribir un libro entero.

Wanwan organizó tres grandes puntos de interés; venga, amigos gordos, seguidme.

1)El costo de cómputo de la IA se reduce directamente a una décima parte

La generación anterior de Blackwell ya era muy potente, ¿verdad? En seguida anunciarán la producción en masa de la próxima generación de chips, Vera Rubin.

¿En qué es tan potente Vera Rubin? Dicho de forma simple: es barato.

Ejecutar el mismo modelo de IA, la cantidad de chips se reduce a una cuarta parte y el costo de cómputo de inferencia baja en un 90%. Baja en un 90%, amigos. AWS, Microsoft y Google, las tres grandes empresas de nube, se suben directamente a la primera tanda.

2)Groq, comprado el año pasado por 20 mil millones de dólares, hoy entrega la tarea

Antes, Huang Renxun dijo en una reunión de resultados que Groq se integraría como una arquitectura de expansión al ecosistema de Nvidia, igual que cuando se compró Mellanox para complementar las capacidades de red.

El LPU de Groq y la GPU de Nvidia están en el mismo centro de datos: la GPU entiende el problema y el LPU se encarga de escupir las respuestas a gran velocidad.

Con la división del trabajo entre dos tipos de chips y su coordinación, la latencia en escenarios de agentes cae directamente.

El agente de IA hace el trabajo por la gente: una tarea puede pasar por decenas de rondas ajustando modelos; y en cada ronda se está quemando cómputo de inferencia, además de que el usuario está ahí esperando. Si va más lento, la experiencia se viene abajo.

La inferencia se divide en dos pasos: primero entender tu problema y luego, letra por letra, escupir la respuesta.

La GPU es excelente en el primer paso, pero en la velocidad y la estabilidad al escupir las palabras en el segundo paso, el LPU de Groq es más fuerte.

¿200 mil millones es caro?

Piensa en el futuro: en adelante, cada empresa ejecutará varios cientos de agentes, y cada agente ajustará modelos miles de veces al día.

3)Llega el OpenClaw de Nvidia, llamado NemoClaw

Es básicamente una plataforma de código abierto: si la instalan en la empresa, podrán desplegar empleados de IA para que hagan el trabajo en lugar de personas, ejecuten procesos, gestionen datos y conduzcan proyectos. Se dice que ya están hablando con Salesforce y Adobe.

Lo interesante está en que NemoClaw no te exige usar chips de Nvidia. Fíjate en este razonamiento, ¿eh? Vender chips solo gana dinero en la capa del hardware; definir reglas es lo que hace ganar en toda la cadena. Huang Renxun tiene clarísima esa cuenta.

4)Huang Renxun dice que mostrará «un chip que el mundo nunca ha visto»

Lo más probable es que sea la primera aparición, en su versión de abajo, de la arquitectura de la próxima generación: Feynman, con producción en masa en 2028, y el proceso de 1.6 nm más avanzado de TSMC.

Además, hay otro material poco conocido que creo que es bastante interesante.

Nvidia ha sacado procesadores para portátiles, dos modelos, enfocados en juegos. Los que venden tarjetas gráficas vienen a quitarle el plato de comida de la CPU a los de la CPU.

Wanwan, yo siento que Huang Renxun en el futuro va a convertirse en un gran líder de una generación.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado