Une fuite massive du code source de Claude Code a révélé des dizaines de fonctionnalités cachées d'Anthropic - ForkLog : cryptomonnaies, IA, singularité, avenir

robot
Création du résumé en cours

ии-стартап Anthropic AI# La fuite massive du code source de Claude Code a révélé des dizaines de fonctions cachées d’Anthropic

La startup Anthropic a confirmé la fuite d’une partie du code source de son outil d’IA pour la programmation, Claude Code, rapporte CNBC.

« Aucune donnée confidentielle de clients n’a été divulguée. Une erreur est survenue lors de l’empaquetage de la version. Elle est due à un facteur humain, et non à un piratage. Nous mettons en place des mesures pour que cela ne se reproduise pas », a déclaré un porte-parole de l’entreprise.

Les premières informations concernant le code apparu sur le réseau datent du 31 mars. Le post correspondant sur X a dépassé les 30 millions de vues.

Claude code source code has been leaked via a map file in their npm registry!

Code: https://t.co/jBiMoOzt8G pic.twitter.com/rYo5hbvEj8

— Chaofan Shou (@Fried_rice) March 31, 2026

L’incident pourrait avoir un impact négatif sur la position d’Anthropic, en donnant aux développeurs tiers et aux concurrents l’accès aux algorithmes de l’outil populaire.

Les données publiées dévoilent entièrement l’architecture de Claude Code. En particulier, il est devenu clair comment le service :

  • gère les requêtes adressées aux modèles ;
  • coordonne le travail de plusieurs assistants ;
  • contrôle les accès et les droits ;
  • fonctionne avec l’authentification.

De plus, dans le code, ils ont découvert 44 fonctions cachées qui n’ont pas encore été présentées officiellement. Parmi les trouvailles les plus intéressantes :

  • Kairos — un système de fond constamment actif. Il conserve une « mémoire » et, la nuit, analyse les données accumulées pour les affiner ;
  • Buddy — un animal de compagnie IA au style « Tamagotchi ». D’après le code, son lancement était prévu pour la période du 1er au 7 avril.

Dans le tableau de données figure également Undercover Mode — un mode spécial qui empêche la publication accidentelle, par le réseau neuronal, des noms internes des projets.

Une série de fuites et une concurrence sur le marché

Il s’agit de la deuxième grosse erreur de l’entreprise survenue récemment. Quelques jours auparavant, une description du futur modèle d’IA et d’autres documents avaient été repérés en accès libre.

À l’époque, un porte-parole d’Anthropic avait expliqué que le nouveau modèle constituait un « bond qualitatif » en termes de performance et la « solution la plus puissante à ce jour ». Pour l’instant, il est en phase de test auprès d’un cercle restreint d’utilisateurs.

Dans l’entreprise, ils ont précisé que les informations sur le futur LLM étaient apparues sur le réseau « en raison d’une erreur humaine », et que les documents divulgués étaient des « ébauches précoces de contenu ».

Le lancement de Claude Code auprès du grand public a eu lieu en mai 2025. L’outil aide les développeurs à créer des fonctions, corriger des erreurs et automatiser des tâches.

Au cours de la dernière année, le service est devenu tellement demandé que la concurrence croissante de la part d’Anthropic a contraint OpenAI à fermer le projet Sora afin de concentrer ses ressources sur le développement de solutions similaires.

Rappelons qu’en mars, Anthropic a transformé Claude en agent IA — le bot a reçu la possibilité d’utiliser un ordinateur pour exécuter des tâches.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler