J'ai suivi de près la dernière avancée de NVIDIA dans le domaine de l'IA d'entreprise, et cela vaut la peine d'y prêter attention. Ils viennent de lancer Nemotron 3 Super — un modèle de 120 milliards de paramètres spécifiquement conçu pour les workflows d'IA agentique, et le timing en dit long sur la direction où va l'argent réel.



Voici ce qui a attiré mon attention : le problème central qu'ils résolvent est en fait assez spécifique au fonctionnement des systèmes multi-agents en production. Lorsqu'on exécute plusieurs agents d'IA qui doivent coopérer, on atteint rapidement un plafond. Chaque interaction d'agent régénère l'historique complet de la conversation, les sorties d'outils, les chaînes de raisonnement — cela fait exploser l'utilisation de tokens par un facteur 15 par rapport aux chatbots basiques. Cela devient coûteux à l’échelle de l’entreprise. Nemotron 3 Super aborde ce problème avec une fenêtre de contexte de 1 million de tokens, permettant aux agents de conserver l’état complet du workflow sans re-traitement constant.

Les choix architecturaux ici sont plus importants que les spécifications principales. Ils utilisent une conception hybride de type « mixture-of-experts » où seulement 12 milliards de paramètres restent actifs lors de l'inférence, malgré un total de 120 milliards. Les gains d'efficacité se cumulent — combinés à la prédiction multi-token, ils revendiquent une inference 3 fois plus rapide. Sur le matériel Blackwell, on parle d’un gain de vitesse de 4x par rapport à la génération précédente, sans dégradation de la précision.

Ce qui est vraiment révélateur, c’est la liste d’adoption. Perplexity l’a intégré immédiatement. CodeRabbit, Factory et Greptile l’intègrent dans leurs agents de codage IA. Mais la stratégie industrielle plus lourde est encore plus intéressante — Siemens, Dassault Systèmes et Cadence pour la fabrication et l’automatisation de la conception. Palantir et Amdocs pour la cybersécurité et les télécoms. Ce n’est pas de la simple hype ; ce sont des entreprises qui déploient des systèmes d’agents pour des workflows réels.

La disponibilité cloud se déploie chez Google Cloud, Oracle, avec AWS et Azure qui arrivent bientôt. Les fournisseurs d’inférence comme Fireworks AI et DeepInfra le proposent déjà. Cette distribution est importante car elle témoigne de la confiance dans une demande soutenue.

Un point qui m’a marqué : NVIDIA a open-sourcé tout cela avec les poids et plus de 10 trillions de tokens de données d’entraînement. C’est une stratégie — ils ne vendent pas seulement des modèles, ils construisent un écosystème où Blackwell devient le matériel par défaut pour faire tourner une IA agentique de niveau entreprise. Le modèle a dominé le classement d’efficacité de l’Artificial Analysis, ce qui valide leur ingénierie.

Pour les investisseurs qui suivent cela, Nemotron 3 Super concerne moins le modèle en lui-même que la signalisation de NVIDIA sur la direction de l’IA d’entreprise — vers des systèmes d’agents spécialisés nécessitant un calcul sérieux. La vraie question est de savoir si ces déploiements se traduiront par une demande soutenue pour Blackwell jusqu’à la fin 2026. Les premiers signes indiquent que oui.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler