Lo más importante de hoy es la conferencia GTC de NVIDIA, prácticamente una historia de la humanidad en versión IA.

robot
Generación de resúmenes en curso

Hoy lo más importante es la conferencia GTC de NVIDIA, es literalmente una historia humana en versión IA.

Aún no ha subido Huang Renxun al escenario, pero la información filtrada con antelación ya alcanza para escribir un libro.

Wanwán reunió tres puntos clave para ti; venga, amigos, sígueme.

1)El costo de la computación de IA se reduce directamente a una cuarta parte

La generación anterior de Blackwell ya era bastante potente, ¿verdad?
Enseguida se anunciará la producción en masa del nuevo chip de próxima generación Vera Rubin.

¿En qué es tan potente Vera Rubin?
En pocas palabras: es barato.

Ejecutando el mismo modelo de IA,
la cantidad de chips se reduce a una cuarta parte y el costo de computación de inferencia baja en un 90%.
Baja en un 90%, amigos.
AWS, Microsoft y Google, los tres grandes proveedores de la nube, se suben a la primera tanda.

2)El Groq que el año pasado compraron por 20.000 millones de dólares, hoy entrega la tarea

Antes, Huang Renxun dijo en una reunión sobre resultados que Groq se incorporará al ecosistema de NVIDIA como una arquitectura extensible, como cuando en su momento compraron Mellanox para completar la capacidad de red.

El LPU de Groq y la GPU de NVIDIA están en el mismo centro de datos: la GPU entiende el problema y la LPU se encarga de escupir la respuesta rápidamente.

Al repartirse el trabajo y complementarse ambos tipos de chips, la latencia en escenarios de agentes cae directamente a niveles muy bajos.

Un agente de IA hace el trabajo por ti; una tarea puede ir y venir ajustando el modelo decenas de veces. En cada ronda se está quemando potencia de inferencia, y encima el usuario está ahí esperando: si se pone lento, la experiencia se rompe.

La inferencia tiene dos pasos: primero entiendes tu pregunta y, luego, palabra por palabra, vas “escupiendo” la respuesta.

La GPU se da mejor en el primer paso, pero en la segunda parte, la velocidad y estabilidad al “escupir” palabras, la LPU de Groq es más fuerte.

¿20.000 millones es caro?

Piensa esto: en el futuro, cada empresa hará funcionar cientos de agentes, y cada agente ajustará miles de veces el modelo cada día.

3)Llega OpenClaw en versión NVIDIA, llamado NemoClaw

Es una plataforma de código abierto; las empresas la instalan y pueden desplegar empleados de IA para ejecutar procesos por humanos, manejar datos y gestionar proyectos.
Se dice que ya están en conversaciones con Salesforce y Adobe.

Lo interesante está en que NemoClaw no te obliga a usar chips de NVIDIA.
Míralo bien, ¿qué lógica es esa?
Vender chips gana solo dinero por la capa de hardware; definir las reglas es lo que te hace ganar por toda la cadena. Huang Renxun tiene esta cuenta clarísima.

4)Huang Renxun dice que va a mostrar “un chip que el mundo nunca ha visto”

Probablemente sea el estreno de la primera aparición del diseño para la penúltima generación Feynman, producción en masa en 2028, con el proceso de 1,6 nm más avanzado de TSMC.

Además, hay otro dato menos común que creo que es bastante interesante.

NVIDIA ha sacado procesadores para laptops, dos versiones, enfocadas en juegos.
Los que venden tarjetas gráficas van a venir a disputar el trabajo del mercado de la CPU.

Yo siento que, en el futuro, Huang Renxun va a convertirse en un gran visionario de una era.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado