OpenAI publie GPT-5.4 mini et nano, se rapprochant des performances du modèle phare à moindre coût

robot
Création du résumé en cours

OpenAI a lancé mardi ses deux modèles compacts les plus puissants à ce jour, GPT-5.4 mini et GPT-5.4 nano, réduisant considérablement l’écart de performance avec les modèles phares grâce à une latence plus faible et à des coûts inférieurs.

GPT-5.4 mini dépasse largement la précédente génération GPT-5 mini dans les domaines clés tels que la programmation, le raisonnement, la compréhension multimodale et l’appel aux outils, avec une vitesse d’exécution plus de deux fois plus rapide, et se rapproche des performances de GPT-5.4, beaucoup plus volumineux, dans des benchmarks comme SWE-Bench Pro.

GPT-5.4 nano, quant à lui, est positionné comme l’option légère la moins coûteuse et la plus rapide en termes de latence, accessible uniquement via API pour les développeurs, conçue pour des tâches simples de classification de données, d’extraction et de programmation de sous-tâches.

Le lancement de ces deux modèles vise à combler le vide laissé par la difficulté de déployer des grands modèles dans des scénarios d’interaction en temps réel, où une latence trop élevée limite leur application. Cela impacte directement des marchés commerciaux en forte croissance tels que les assistants de programmation, les systèmes d’agents IA et les applications multimodales.

mini pour le grand public, nano via API dédiée

À partir d’aujourd’hui, GPT-5.4 mini sera disponible simultanément via l’API OpenAI, la plateforme Codex et ChatGPT.

Le prix de l’API pour GPT-5.4 mini est de 0,75 USD par million de tokens d’entrée et de 4,50 USD par million de tokens de sortie, supportant l’entrée de texte et d’image, l’appel aux outils, l’appel de fonctions, la recherche web, la recherche de fichiers, la manipulation informatique et l’extension des compétences, avec une fenêtre de contexte pouvant atteindre 400 000 tokens.

Sur la plateforme Codex, GPT-5.4 mini n’utilise que 30 % de la quota GPT-5.4, ce qui réduit le coût pour les tâches de programmation simples à environ un tiers de celui des modèles phares. Codex permet également de déléguer des tâches à des sous-intelligences fonctionnant avec GPT-5.4 mini, ce qui permet d’automatiser les tâches à faible densité de raisonnement avec des modèles moins coûteux.

Sur ChatGPT, les utilisateurs gratuits et Go peuvent utiliser GPT-5.4 mini via le menu “+” en sélectionnant la fonction “Thinking” ; pour les autres utilisateurs payants, lorsque la limite de vitesse d’accès à GPT-5.4 Thinking est atteinte, ce modèle sera activé comme option de rétrogradation automatique.

GPT-5.4 nano, pour l’instant uniquement accessible via API, est tarifé à 0,20 USD par million de tokens d’entrée et 1,25 USD par million de tokens de sortie, étant le modèle le moins cher parmi les deux nouveaux modèles. OpenAI indique que nano est adapté aux scénarios où des sous-intelligences, orchestrées par des modèles de haut niveau, prennent en charge des tâches secondaires.

mini se rapproche du modèle phare, nano le dépasse

D’après les données d’évaluation publiées par OpenAI, GPT-5.4 mini excelle particulièrement dans les tâches de programmation et multimodales.

Sur le benchmark SWE-bench Pro, mini obtient un score de 54,4 %, contre 57,7 % pour GPT-5.4, la différence se réduisant à 3,3 points, bien loin des 45,7 % de GPT-5 mini.

Sur le benchmark de contrôle informatique OSWorld-Verified, mini atteint 72,1 %, se rapprochant de GPT-5.4 à 75,0 %, et surpassant largement GPT-5 mini à 42,0 %.

En termes de capacité d’appel aux outils, GPT-5.4 mini obtient 93,4 % sur le test τ2-bench en télécommunications, une amélioration notable par rapport à 74,1 % pour GPT-5 mini. Lors du test d’intelligence générale GPQA Diamond, mini marque 88,0 %, nano atteint 82,8 %, tous deux dépassant GPT-5 mini à 81,6 %.

Il est également à noter que GPT-5.4 nano performe moins bien que GPT-5 mini sur certaines tâches visuelles, avec un score de 39,0 % sur OSWorld-Verified, inférieur à celui de GPT-5 mini à 42,0 %. Cependant, dans les tâches de programmation et d’appel aux outils, nano montre des améliorations significatives par rapport à ses prédécesseurs.

OpenAI précise que la priorité de conception de nano est la faible latence et le faible coût, plutôt que la performance globale, et que les développeurs doivent choisir en fonction des tâches spécifiques.

Architecture à sous-intelligences, nouvelle norme de conception de produits multi-modèles

Dans ses documents de présentation, OpenAI insiste sur la place des deux nouveaux modèles dans un système hiérarchisé multi-modèles.

Prenons l’exemple de Codex, leur assistant de programmation développé en interne : GPT-5.4 est responsable de la planification, de la coordination et de la décision finale, tandis que GPT-5.4 mini, en tant que sous-intelligence, gère en parallèle des sous-tâches plus fines telles que la recherche dans la base de code, la revue de gros fichiers ou l’assistance à la documentation.

OpenAI indique qu’avec des modèles plus petits plus rapides et plus puissants, il n’est plus nécessaire d’utiliser un seul modèle pour toutes les tâches. Il est possible de construire un système où un grand modèle prend les décisions, tandis que des petits modèles exécutent rapidement de nombreuses tâches. OpenAI affirme :

GPT-5.4 mini est le modèle compact le plus puissant que nous ayons jamais conçu pour ce type de flux de travail.

Cette architecture est particulièrement cruciale pour les travaux à haute concurrence, où la latence de réponse dans des scénarios comme l’assistance à la programmation, l’analyse d’images ou la compréhension en temps réel d’images influence directement l’expérience utilisateur. Le meilleur choix n’est pas toujours le modèle le plus performant, mais celui qui équilibre vitesse, fiabilité des outils et performance des tâches.

Pour les développeurs, la sortie de GPT-5.4 mini et nano signifie que la voie pour réduire considérablement les coûts d’inférence, sans sacrifier le niveau global d’intelligence du système, devient encore plus claire.

Avertissements et clauses de non-responsabilité

Le marché comporte des risques, l’investissement doit être prudent. Cet article ne constitue pas un conseil d’investissement personnel, ni une prise en compte des objectifs, de la situation financière ou des besoins spécifiques de chaque utilisateur. Les utilisateurs doivent juger si les opinions, points de vue ou conclusions présentés ici sont adaptés à leur situation particulière. En investissant sur cette base, ils en assument l’entière responsabilité.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler