La chose la plus importante aujourd'hui, c'est la conférence GTC de Nvidia, c'est presque une version IA de l'histoire de l'humanité.

robot
Création du résumé en cours

Aujourd’hui, la chose la plus importante, c’est la conférence GTC de Nvidia, une véritable histoire de l’humanité version IA.

Huang Renxun n’est pas encore monté sur scène, mais déjà les informations leakées suffiraient à écrire un livre.

Ce soir, j’ai résumé trois grands points d’intérêt, allez, les amis, suivez-moi.

1)Le coût de calcul de l’IA réduit d’un dixième

La génération précédente, Blackwell, était déjà très puissante, n’est-ce pas ? La nouvelle génération de puces Vera Rubin va bientôt entrer en production.

En quoi Vera Rubin est-elle impressionnante ? En deux mots : bon marché.

Pour le même modèle d’IA, le nombre de puces est réduit à un quart, le coût de calcul en inférence chute de 90 %. Une réduction de 90 %, mes amis. AWS, Microsoft, Google, les trois grands fournisseurs de cloud, montent directement dans le premier train.

2)Groq, acheté pour 20 milliards de dollars l’année dernière, livre aujourd’hui

Huang Renxun a dit lors de la réunion de résultats que Groq serait intégré dans l’écosystème Nvidia comme une architecture d’extension, tout comme Mellanox a complété la capacité réseau.

Le LPU de Groq, placé dans le même centre de données que le GPU Nvidia, comprend le problème, le GPU comprend la tâche, le LPU est chargé de sortir rapidement la réponse.

La collaboration entre ces deux types de puces réduit la latence dans les scénarios d’agents.

Un agent IA fait le travail à la place des humains, une tâche peut nécessiter plusieurs dizaines de tours de réglage du modèle, chaque tour consommant beaucoup de puissance d’inférence, et l’utilisateur attend là-bas, une expérience plus lente pourrait faire planter tout.

L’inférence se fait en deux étapes : d’abord comprendre votre question, puis sortir la réponse mot par mot.

Le GPU excelle dans la première étape, mais pour la vitesse et la stabilité de la sortie des mots, le LPU de Groq est meilleur.

200 milliards, c’est cher ?

Imaginez que chaque entreprise fasse tourner plusieurs centaines d’agents, chaque agent ajustant le modèle plusieurs milliers de fois par jour.

3)Lancement de la version Nvidia d’OpenClaw, appelée NemoClaw

C’est une plateforme open source, une fois déployée, l’entreprise peut faire fonctionner des employés IA pour automatiser les processus, traiter des données, gérer des projets. On dit qu’ils ont déjà discuté avec Salesforce et Adobe.

Ce qui est intéressant, c’est que NemoClaw ne nécessite pas l’utilisation de puces Nvidia. Regardez cette logique. Vendre des puces ne rapporte que sur le matériel, mais fixer les règles permet de gagner sur toute la chaîne. Huang Renxun a une vision claire de cette stratégie.

4)Huang Renxun dit vouloir présenter une « puce que le monde n’a jamais vue »

Il s’agit probablement de la première apparition de la prochaine architecture Feynman, prévue pour une production de masse en 2028, utilisant la technologie TSMC la plus avancée en 1,6 nm.

Il y a aussi une information peu connue que je trouve intéressante.

Nvidia a lancé des processeurs pour ordinateurs portables, deux modèles, destinés aux jeux. Les vendeurs de cartes graphiques vont devoir concurrencer pour le marché des CPU.

Ce soir, je pense que Huang Renxun deviendra une grande figure de l’histoire.

NVDAX0,81%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épinglé