La chose la plus importante aujourd'hui, c'est la conférence GTC de Nvidia, c'est presque une version IA de l'histoire de l'humanité.

robot
Création du résumé en cours

La chose la plus importante aujourd’hui, c’est la conférence GTC de Nvidia, une véritable histoire de l’humanité version IA.

Huang Renxun n’est pas encore monté sur scène, mais déjà les informations leakées pourraient remplir un livre.

Wanwán a résumé trois grands points d’intérêt, allons-y, amis gros bras, suivez-moi.

1)Le coût de calcul de l’IA réduit d’un dixième

La génération précédente, Blackwell, était déjà très puissante, n’est-ce pas ? La nouvelle génération de puces Vera Rubin va bientôt entrer en production.

En quoi Vera Rubin est-elle impressionnante ? En deux mots : bon marché.

Pour le même modèle d’IA, le nombre de puces est réduit à un quart, le coût de l’inférence chute de 90 %. Une réduction de 90 %, mes amis. AWS, Microsoft, Google, les trois grands fournisseurs de cloud, montent directement dans le premier train.

2)Groq, acheté pour 20 milliards de dollars l’année dernière, livre aujourd’hui

Huang Renxun a dit lors de la réunion de résultats que Groq serait intégré dans l’architecture Nvidia, comme lorsqu’ils ont acquis Mellanox pour renforcer leur capacité réseau.

Le LPU de Groq, placé dans le même centre de données que le GPU Nvidia, le GPU comprend le problème, le LPU est chargé de sortir rapidement la réponse.

La division du travail entre ces deux puces, en mode agent, réduit directement la latence.

Un agent IA fait le travail à la place des humains, une tâche peut nécessiter plusieurs dizaines de tours de réglage du modèle, chaque tour consommant beaucoup de puissance de calcul d’inférence, et l’utilisateur attend là-bas, une expérience plus lente peut faire tout planter.

L’inférence se fait en deux étapes : d’abord comprendre votre question, puis sortir la réponse mot par mot.

Le GPU excelle dans la première étape, mais pour la vitesse et la stabilité de la sortie des mots, le LPU de Groq est meilleur.

200 milliards, c’est cher ?

Imaginez que chaque entreprise fasse tourner plusieurs centaines d’agents, chaque agent ajustant le modèle plusieurs milliers de fois par jour.

3)Lancement de la version Nvidia d’OpenClaw, appelée NemoClaw

C’est une plateforme open source, une fois déployée, l’entreprise peut faire fonctionner des employés IA pour automatiser les processus, traiter des données, gérer des projets. On dit qu’ils ont déjà discuté avec Salesforce et Adobe.

Ce qui est intéressant, c’est que NemoClaw ne nécessite pas l’utilisation de puces Nvidia. Regardez cette logique. Vendre des puces ne rapporte que la couche matérielle, fixer les règles permet de gagner toute la chaîne. Huang Renxun connaît bien cette stratégie.

4)Huang Renxun dit vouloir présenter une « puce que le monde n’a jamais vue »

Il s’agit probablement de la première apparition de l’architecture Feynman de la prochaine génération, prévue pour une production en 2028, avec la technologie TSMC la plus avancée en 1,6 nm.

Il y a aussi une information peu connue que je trouve intéressante.

Nvidia sort un processeur pour ordinateurs portables, deux modèles, axés sur le gaming. Les vendeurs de cartes graphiques vont venir concurrencer ceux des CPU.

Wanwán pense que Huang Renxun pourrait devenir une grande figure dans le futur.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler