Le modèle le plus puissant d'Anthropic dévoilé, une performance qui réalise une « transition générationnelle », surpassant largement Opus !

robot
Création du résumé en cours

Anthropic a connu une erreur de configuration interne qui a accidentellement rendu publiques ses technologies les plus secrètes.

Selon un rapport exclusif de Fortune, un tout nouveau modèle phare nommé “Claude Mythos”, nom de code interne “Capybara”, a terminé son entraînement et est entré en phase de test précoce. Anthropic décrit l’amélioration de ses performances comme un “saut générationnel”, dépassant complètement la version actuelle la plus puissante, Claude Opus 4.6, dans des tests fondamentaux tels que la programmation, le raisonnement académique et la cybersécurité.

Le rapport indique qu’en raison d’une erreur de configuration humaine dans le système de gestion de contenu (CMS) d’Anthropic, près de 3000 documents internes non publiés ont été exposés dans un cache de données accessible au public. Les documents divulgués révèlent que l’entreprise prévoit d’introduire un nouveau niveau de modèle appelé “Capybara”, qui se positionne au-dessus de la série phare actuelle Opus, avec des coûts d’exploitation encore plus élevés.

Cependant, cette performance exceptionnelle s’accompagne de préoccupations de sécurité sans précédent. Les brouillons internes divulgués montrent qu’Anthropic qualifie le nouveau modèle de source de risque majeur dans le domaine de la cybersécurité, estimant que sa capacité d’attaque réseau “dépasse de loin tout autre modèle d’IA actuellement disponible”. Si exploité par des hackers, cela pourrait engendrer des attaques massives, dont la capacité de destruction dépasserait celle des moyens de défense — c’est également la raison principale pour laquelle l’entreprise hésite à le rendre public.

Dépasser Opus : le nouveau niveau “Capybara” bouleverse l’existant

Les brouillons de blogs divulgués montrent que Claude Mythos représente une restructuration de la gamme de produits d’Anthropic.

Actuellement, la matrice de modèles d’Anthropic est divisée en trois niveaux : le plus puissant Opus, le plus équilibré en termes de vitesse et de coût Sonnet, et le plus minimal et rapide Haiku. Les documents divulgués indiquent qu’Anthropic introduit un tout nouveau niveau “Capybara”, qui se positionne au-dessus d’Opus — avec une taille plus grande, un niveau d’intelligence supérieur, mais des coûts d’exploitation également plus élevés.

En termes de performances spécifiques, le brouillon du blog indique que “par rapport à la version la plus puissante précédente, Claude Opus 4.6, Capybara a considérablement amélioré ses scores dans les tests de programmation logicielle, de raisonnement académique et de cybersécurité.” Le document décrit Claude Mythos comme “le modèle d’IA le plus puissant que nous ayons jamais développé, dépassant de loin toutes les versions précédentes”.

Un porte-parole d’Anthropic a confirmé cette direction en réponse à une demande de Fortune, affirmant que l’entreprise “développe un modèle général qui réalise des avancées significatives dans le raisonnement, la programmation et la cybersécurité”, et a souligné que “compte tenu de sa puissance, nous avançons prudemment dans la manière de le publier”.

Un risque de cybersécurité sans précédent : Anthropic lui-même reste vigilant

Accompagnant cette puissance, se trouvent des avertissements de sécurité d’une rare intensité dans les documents divulgués.

Le brouillon du blog divulgué affirme sans détour que le nouveau modèle “dépasse actuellement tout autre modèle d’IA en matière de capacités d’attaque réseau”, et prédit “une vague imminente de modèles, dont la vitesse d’exploitation des vulnérabilités dépassera de loin la capacité de réponse des défenseurs”.

C’est en raison de cette préoccupation qu’Anthropic a classé les agences de défense en cybersécurité comme bénéficiaires prioritaires dans sa stratégie de publication. Le brouillon écrit : “Nous accorderons un accès anticipé aux agences concernées, leur permettant de prendre une longueur d’avance dans la vague imminente d’exploitation des vulnérabilités alimentée par l’IA, en renforçant à l’avance la robustesse de leurs bibliothèques de code.”

Cette préoccupation n’est pas isolée. En février de cette année, OpenAI a publié GPT-5.3-Codex, le qualifiant de premier modèle à atteindre une évaluation de “haute capacité” dans les tâches de cybersécurité, et également le premier directement entraîné pour identifier les vulnérabilités logicielles. Au même moment, Claude Opus 4.6 d’Anthropic a également montré sa capacité à identifier des vulnérabilités inconnues dans les bibliothèques de code de production, l’entreprise reconnaissant que cela appartient à la caractéristique “à double tranchant” d’une arme à double usage.

Erreur de configuration : 3000 fichiers internes exposés par accident

La racine technique de cet incident de fuite réside dans une erreur d’exploitation apparemment basique.

Roy Paz, chercheur senior en sécurité IA chez LayerX Security, et Alexandre Pauwels, chercheur en cybersécurité à l’Université de Cambridge, ont découvert qu’un outil CMS externe utilisé par Anthropic pour publier des blogs officiels avait une défaillance de configuration : ce système paramètre par défaut les actifs numériques téléchargés en tant que public et leur attribue une URL accessible, à moins que l’utilisateur ne les définisse manuellement comme privés. Ce paramètre par défaut a entraîné l’exposition de près de 3000 actifs non publiés — y compris des images, des fichiers PDF et des fichiers audio — dans un cache de données accessible au public.

Anthropic a attribué cet incident à une “erreur humaine” dans sa déclaration, indiquant qu’“un problème avec l’outil CMS externe a conduit à l’accès public au contenu du brouillon” et a qualifié les matériaux divulgués de “brouillons de contenu envisagés pour publication”.

La plateforme X en ébullition : choc et interrogations coexistent

Dès l’annonce de la fuite, la plateforme X a rapidement suscité une vague de discussions, les débats se concentrant sur deux dimensions : le choc technologique et la confiance en matière de sécurité.

Le compte TFTC a souligné l’ironie de l’incident : “Anthropic a prouvé par inadvertance le discours sur la sécurité de l’IA. Une erreur de configuration dans le CMS a conduit à l’exposition de 3000 fichiers non publiés dans un cache accessible au public — y compris des détails sur ‘Claude Mythos’ (nom de code Capybara), que les documents internes d’Anthropic qualifient de ‘modèle d’IA le plus puissant à ce jour’.” Ce commentaire a largement circulé dans le milieu technologique, et de nombreux utilisateurs ont été stupéfaits qu’une entreprise dont la valeur fondamentale est la sécurité de l’IA puisse exposer ses atouts à cause d’une erreur de configuration basique.

Un autre utilisateur, fardeen, a plutôt orienté son attention sur les capacités récentes de Claude, commentant : “Claude peut vraiment maintenant utiliser un ordinateur comme vous — ouvrir des applications, cliquer sur des boutons, remplir des formulaires. Anthropic est en train de retirer progressivement l’humain des processus opérationnels.

L’utilisateur Oliwier Makowski Trusz a quant à lui estimé que la publication de Capybara changeait la donne. Selon les informations divulguées, le nombre de paramètres atteint 10 trillions. L’écart entre Claude et tous les autres modèles vient d’être considérablement élargi.

Avertissement de risque et clause de non-responsabilité

        Le marché comporte des risques, l'investissement doit se faire avec prudence. Cet article ne constitue pas un conseil en investissement personnel, et ne prend pas en compte les objectifs d'investissement, la situation financière ou les besoins particuliers de chaque utilisateur. Les utilisateurs doivent considérer si les opinions, points de vue ou conclusions exprimés dans cet article sont conformes à leur situation spécifique. Investir sur cette base, en assume la responsabilité.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler