Aujourd'hui, la chose la plus importante est la conférence GTC de Nvidia, c'est à peu près une version IA de l'histoire de l'humanité.

robot
Création du résumé en cours

Le plus important aujourd’hui, c’est la conférence GTC d’Nvidia : une véritable histoire de l’humanité version IA.

Jensen Huang n’est même pas encore monté sur scène, et la quantité d’informations divulguée à l’avance est déjà suffisante pour écrire un livre.

Wanwan a regroupé trois temps forts, allez-y les potes, suivez-moi.

1)Le coût de calcul de l’IA réduit directement à un dixième

La génération précédente de Blackwell est déjà très puissante, n’est-ce pas ?
Bientôt, l’annonce de la mise en production de la nouvelle puce de génération Vera Rubin.

En quoi Vera Rubin est-elle si forte ?
En clair, il n’y a que deux mots : pas chère.

Pour faire tourner le même modèle d’IA,
le nombre de puces passe à un quart, et le coût de calcul pour l’inférence baisse de 90 %.
Baisser de 90 %, les amis.
Les trois grands fournisseurs de cloud, AWS, Microsoft et Google, montent directement en première vague.

2)Les 20 milliards de dollars dépensés l’an dernier pour Groq, et aujourd’hui rendre le devoir

Lors d’une réunion sur ses résultats, Jensen Huang avait dit que Groq serait intégré à l’écosystème Nvidia comme une architecture d’extension, un peu comme à l’époque où l’achat de Mellanox avait complété les capacités réseau.

Le LPU de Groq et les GPU Nvidia sont dans le même centre de données :
les GPU comprennent le problème, et le LPU est chargé de recracher rapidement la réponse.

Avec cette répartition des tâches entre les deux types de puces, la latence des scénarios d’Agent chute directement.

Un agent IA fait le travail à votre place : une tâche peut nécessiter d’ajuster le modèle des dizaines de fois, à chaque fois ça brûle des ressources de calcul pour l’inférence, et en plus l’utilisateur attend là, toute la journée. Si c’est un peu plus lent, l’expérience s’effondre.

L’inférence se fait en deux étapes : d’abord comprendre votre question, puis recracher la réponse mot à mot.

Les GPU sont forts pour la première étape, mais pour la vitesse et la stabilité de la “taperie” à la deuxième étape, le LPU de Groq est plus fort.

Les 20 milliards, c’est cher ?

Imaginez : à l’avenir, chaque entreprise va faire tourner des centaines d’Agents, et chaque Agent va ajuster des modèles plusieurs milliers de fois par jour.

3)OpenClaw version Nvidia arrive, appelé NemoClaw

C’est une suite de plateforme open source : les entreprises n’ont qu’à l’installer pour déployer des employés IA afin de faire les tâches à la place des humains, traiter les données, et gérer les projets.
On dit que ça discute déjà avec Salesforce et Adobe.

Ce qui est intéressant, c’est que NemoClaw ne vous oblige pas à utiliser les puces Nvidia.
Réfléchissez à cette logique, vous voyez ?
Vendre des puces ne rapporte que sur la couche matérielle, mais pour gagner sur toute la chaîne, il faut fixer les règles. Jensen Huang a très bien compté cette affaire.

4)Jensen Huang dit qu’il va montrer des puces « que le monde n’a jamais vues »

Il est très probable que la nouvelle architecture de la prochaine génération, Feynman, fasse sa première apparition : mise en production en 2028, avec le procédé 1,6 nm le plus avancé de TSMC.

Et en plus, il y a aussi un “détail” moins connu que je trouve assez intéressant.

Nvidia sort des processeurs pour ordinateurs portables : deux modèles, axés sur le jeu.
Ceux qui vendent des cartes graphiques viennent donc récupérer le marché du CPU…
Autrement dit, ils vont se battre pour la place des processeurs.

Wanwan, j’ai l’impression que, dans le futur, Jensen Huang va devenir un grand homme de sa génération.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler