Aujourd'hui, la chose la plus importante est la conférence GTC de Nvidia, c'est à peu près une version IA de l'histoire de l'humanité.

robot
Création du résumé en cours

Aujourd’hui, la chose la plus importante, c’est la conférence GTC de NVIDIA. C’est presque une histoire de l’humanité version IA.

Jensen Huang n’est même pas encore monté sur scène, mais les informations divulguées en amont suffisent déjà à remplir un livre.

晚晚 a rassemblé trois points clés. Allez, les amis, suivez-moi.

1)Le coût du calcul pour l’IA tombe directement à un dixième

La génération précédente de Blackwell est déjà très impressionnante, n’est-ce pas ?
Justement, la prochaine génération de puces, Vera Rubin, va bientôt entrer en production.

Qu’est-ce qui rend Vera Rubin si forte ? En clair, c’est deux choses : le prix.

En lançant le même modèle d’IA,
le nombre de puces est réduit à un quart, et le coût de calcul de l’inférence chute de 90 %.
Chute de 90 %, les amis.
Les trois grands fournisseurs de cloud, AWS, Microsoft et Google, montent directement dans la première vague.

2)Le Groq acheté l’an dernier pour 20 milliards, et aujourd’hui il rend ses devoirs

Lors d’une réunion sur ses résultats, Jensen Huang avait dit que Groq serait intégré à l’écosystème NVIDIA en tant qu’architecture d’extension, un peu comme à l’époque, lorsqu’ils avaient racheté Mellanox pour compléter les capacités réseau.

Le LPU de Groq et les GPU NVIDIA sont dans le même centre de données :
les GPU comprennent le problème, le LPU produit rapidement la réponse.

Avec cette répartition des tâches entre les deux types de puces, le temps de latence des scénarios d’Agent baisse directement.

Un agent IA fait le travail à la place des humains : une seule mission peut faire des allers-retours et ajuster le modèle des dizaines de fois. À chaque tour, vous brûlez de la puissance de calcul d’inférence, et en plus l’utilisateur attend là. Si c’est un peu plus lent, l’expérience s’effondre.

L’inférence se déroule en deux étapes : d’abord comprendre votre question, puis produire la réponse caractère par caractère.

Les GPU sont forts pour la première étape, mais pour la vitesse et la stabilité de l’affichage des mots à la deuxième étape, le LPU de Groq est plus performant.

20 milliards, c’est cher ?

Pensez-y : à l’avenir, chaque entreprise fera tourner des centaines d’Agents, et chaque Agent ajustera le modèle plusieurs milliers de fois par jour.

3)La version NVIDIA d’OpenClaw est en ligne : NemoClaw

C’est une plateforme open source : les entreprises l’installent et peuvent déployer des employés IA pour faire le travail à la place des humains, exécuter les processus, traiter les données et gérer les projets.
On dit que la solution est déjà en discussion avec Salesforce et Adobe.

Le plus intéressant, c’est que NemoClaw ne vous oblige pas à utiliser les puces de NVIDIA.
Vous voyez où je veux en venir avec cette logique, non ?
Vendre des puces ne rapporte que l’argent du matériel ; pour gagner sur toute la chaîne, il faut fixer les règles. Jensen Huang a parfaitement calculé cette affaire.

4)Jensen Huang dit vouloir présenter « une puce que le monde n’a jamais vue »

Très probablement, ce serait la première apparition de la prochaine génération d’architecture, Feynman, avec une production visée pour 2028, utilisant le procédé le plus avancé de TSMC en 1,6 nm.

Et il y a aussi un sujet un peu moins connu que je trouve plutôt intéressant.

NVIDIA sort des processeurs pour ordinateurs portables : deux modèles, axés sur le jeu.
Les vendeurs de cartes graphiques vont devoir venir grappiller le pain du CPU.

J’ai l’impression que, dans le futur, Jensen Huang va devenir un grand homme d’une époque.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler