Aujourd'hui, la chose la plus importante est la conférence GTC de Nvidia, c'est à peu près une version IA de l'histoire de l'humanité.

robot
Création du résumé en cours

Le plus important aujourd’hui, c’est la conférence GTC d’NVIDIA ; c’est carrément une sorte d’histoire de l’humanité version IA.

Même si Huang Renxun n’est pas encore monté sur scène, les informations divulguées à l’avance suffiraient déjà pour écrire un livre.

Wanwân a regroupé trois temps forts, allez, les potes, suivez-moi.

1)Le coût des capacités de calcul IA divisé par 10 directement

La génération précédente, Blackwell, est déjà très impressionnante, n’est-ce pas ? On va bientôt annoncer la production de masse de la nouvelle puce Vera Rubin.

En quoi Vera Rubin est-elle si forte ? Pour faire simple, il n’y a que deux mots : pas cher.

En faisant tourner le même modèle IA, le nombre de puces est réduit à un quart, et le coût des calculs d’inférence baisse de 90%. Baisse de 90%, les amis. Les trois grands fournisseurs de cloud, AWS, Microsoft et Google, montent directement dans la première vague.

2)Les Groq achetés l’an dernier pour 20 milliards de dollars rendent leur devoir aujourd’hui

Avant cela, Huang Renxun avait dit, lors d’une conférence sur les résultats, que Groq serait intégré à l’écosystème NVIDIA en tant qu’architecture d’extension, comme à l’époque où l’achat de Mellanox permettait de compléter les capacités réseau.

Le LPU de Groq et la GPU d’NVIDIA sont dans le même centre de données : la GPU comprend le problème, le LPU produit rapidement la réponse.

En répartissant le travail entre les deux puces et en les faisant coopérer, la latence dans les scénarios d’Agent chute directement.

Avec un Agent IA qui fait le travail à la place des gens, une tâche peut aller et venir et entraîner des dizaines de cycles d’ajustement de modèle ; à chaque tour, on brûle de la capacité de calcul d’inférence, et en plus l’utilisateur attend là, donc si c’est un peu plus lent, l’expérience s’effondre.

L’inférence se fait en deux étapes : d’abord comprendre votre question, puis “taper” la réponse, caractère par caractère.

Les GPU sont fortes pour la première étape, mais pour la vitesse et la stabilité de “l’écriture” dans la deuxième étape, le LPU de Groq est plus performant.

20 milliards, c’est cher ?

Imaginez : à l’avenir, chaque entreprise fera tourner des centaines d’Agents, et chaque Agent ajustera des modèles des milliers de fois par jour.

3)Lancement de OpenClaw version NVIDIA, baptisé NemoClaw

Il s’agit d’une suite de plateforme open source : les entreprises peuvent l’installer et déployer des employés IA qui effectuent les processus à la place des humains, traitent les données et gèrent les projets. On dit que le produit est déjà en discussion avec Salesforce et Adobe.

Le point intéressant, c’est que NemoClaw ne vous oblige pas à utiliser les puces d’NVIDIA. Mettez-vous ça dans la tête, réfléchissez à cette logique. Vendre des puces ne rapporte que sur la couche matériel ; ce qui rapporte sur toute la chaîne, c’est de définir les règles. Huang Renxun a clairement bien fait ce calcul.

4)Huang Renxun dit qu’il va présenter des puces “que le monde n’a jamais vues”

Très probablement, il s’agit d’une première apparition de la prochaine architecture, Feynman, pour la première fois, avec une production de masse en 2028 et le procédé 1,6 nm le plus avancé de TSMC.

En plus, il y en a une autre, plutôt “cachée”, que je trouve assez intéressante.

NVIDIA sort des processeurs de laptop : deux modèles, axés sur le gaming. Les vendeurs de cartes graphiques vont devoir venir empiéter sur le terrain du CPU.

Moi, je sens que, dans le futur, Huang Renxun va devenir une grande figure de l’époque.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler