Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Le code source de 510 000 lignes de l'énorme entreprise américaine d'IA divulgué ! Les développeurs copient-ils directement le travail des autres ? Les avocats mettent en garde contre les risques
En raison du fait qu’un employé a, par inadvertance, divulgué le code source de 512 000 lignes de Claude Code, tout le secteur a pu entrevoir l’architecture interne du produit du nouvel acteur majeur de l’intelligence artificielle (IA) Anthropic, ainsi que la feuille de route de ses animaux de compagnie électroniques et de ses assistants IA persistants, révélée en avance.
Le 31 mars, heure locale, à cause d’une erreur lors du pack d’un paquet npm, le code source de Claude Code a été divulgué. En quelques heures, le code divulgué s’est propagé sur GitHub, avec plus de 10 000 étoiles et plus de 20 000 sauvegardes.
À ce sujet, Anthropic a répondu à un journaliste du « Quotidien d’économie de Chine » (ci-après, le journaliste du quotidien) que le problème venait d’une erreur humaine (human error) lors de la publication et de l’empaquetage, et non d’une faille de sécurité.
Des experts indiquent que cette fuite fournit aux développeurs de taille petite et moyenne une opportunité de « copier-coller » pour améliorer les capacités de leurs produits, mais que l’utilisation commerciale de ce code comporte des risques juridiques.
** Le code source de 510 000 lignes de Claude Code « a été open source »**
Le 31 mars, heure locale, Chaofan Shou, chercheur stagiaire chez la société de sécurité Web3 FuzzLand, a révélé sur la plateforme sociale X que le code source de l’outil de programmation IA Claude Code, appartenant à Anthropic, avait été accidentellement divulgué.
D’après sa description, en vérifiant le paquet npm de Claude Code, il a découvert qu’un fichier cli.js.map d’un volume de 57 Mo pointait vers un lien de bucket de stockage, contenant 1 900 fichiers TypeScript, soit un total de plus de 512 000 lignes de code source complet, non obfusqué et non décompilé. Cela signifie que les développeurs peuvent facilement observer, voire reconstituer, la structure interne de Claude Code.
La cause du problème n’est pas complexe : les fichiers source map qui auraient dû être exclus dans la construction de production ont été publiés sur le registre npm, une plateforme publique, à cause d’une lacune dans la configuration .npmignore ou d’un réglage inadéquat du processus de build. En quelques heures, le code correspondant a été téléversé sur GitHub et largement diffusé ; certains développeurs ont même déjà reconstitué intégralement Claude Code à partir du contenu divulgué.
Après que l’affaire a pris de l’ampleur, Anthropic a mis à jour d’urgence le paquet npm et a supprimé les fichiers concernés, tout en retirant aussi les versions antérieures. Mais il était déjà trop tard.
Le journaliste du quotidien a demandé confirmation auprès d’Anthropic. La société a répondu : « Plus tôt aujourd’hui, une publication de Claude Code contenait une partie du code source interne. Cet incident ne concernait ni n’a exposé de données ou identifiants sensibles de clients. Il s’agit d’un problème d’empaquetage lors de la publication dû à une erreur humaine, et non d’une faille de sécurité. Nous mettons en place des mesures pour éviter que ce type de situation ne se reproduise. »
C’est déjà le deuxième incident majeur de fuite survenu en l’espace d’une semaine chez Anthropic. Le 26 mars, la société venait juste de divulguer, en raison d’une erreur de configuration CMS (système de gestion de contenu), des informations du modèle nommé Claude Mythos et environ 3 000 actifs non divulgués. Plus tôt encore, en février 2025 et en décembre 2024, Claude Code avait également connu des fuites du code source et des invites système. Des « maladresses humaines » qui se répètent sans cesse continuent d’éroder la confiance du marché dans ses capacités de sécurité.
« Fuite au niveau production » : animaux de compagnie non publiés et assistants IA persistants révélés en avance
À mesure que les développeurs approfondissaient l’analyse du code divulgué, la structure interne de Claude Code, bien au-delà des attentes du public, devenait peu à peu plus claire. Ce n’est pas un simple outil d’encapsulation d’API : c’est un environnement de développement complet, prêt pour la production.
D’après l’analyse du dépôt GitHub, la base de code divulguée comprend plus de 40 outils de contrôle des autorisations, un moteur de requêtes comptant 46 000 lignes de code, un système de coordination multi-agents, des fonctionnalités de pont d’IDE et des mécanismes de mémoire persistante, etc. Le code révèle aussi 35 indicateurs de fonctionnalités au moment de la compilation et plus de 120 variables d’environnement non divulguées ; via la variable d’environnement USER_TYPE=ant, les employés d’Anthropic peuvent déverrouiller toutes les fonctionnalités internes.
Certains programmeurs indiquent que le contenu divulgué de Claude montre qu’il ne s’agit pas vraiment d’un assistant de programmation IA : c’est plutôt comme un système d’exploitation.
Ce qui attire encore plus l’attention, ce sont plusieurs fonctionnalités expérimentales qui n’ont pas encore été publiées.
** Premièrement : le système d’animal de compagnie terminal appelé BUDDY.**
Le code montre que BUDDY est un système d’accompagnement AI pour un animal de compagnie « Tamagotchi » — un compagnon électronique à la mode dans les années 90. Son mécanisme central combine l’ID utilisateur et un algorithme pseudo-aléatoire pour générer un personnage unique, incluant l’espèce, la rareté, l’apparence et les attributs. Le système prend aussi en charge des paramètres comme les « tirages de cartes » et les variantes brillantes, et le modèle génère automatiquement des « descriptions de l’âme ». À noter, les attributs clés de l’animal ne sont pas stockés : ils sont calculés dynamiquement à partir de l’ID utilisateur, ce qui lui confère une unicité stable et impossible à falsifier.
** Deuxièmement : l’assistant IA persistant nommé KAIROS.**
KAIROS est dissimulé derrière des indicateurs de compilation et n’est pas visible dans les versions publiques. Une fois activé, ce système peut surveiller en continu les comportements de l’utilisateur, enregistrer des informations et exécuter activement des tâches tout en conservant des journaux détaillés des opérations. Associé à un mécanisme backend nommé autoDream, le système peut aussi trier automatiquement la mémoire durant les périodes de faible activité, en convertissant le contenu de conversations à court terme en connaissances structurées de long terme. Cette conception est considérée comme très semblable au processus de consolidation de la mémoire chez l’humain pendant son sommeil.
Un chercheur en IA Agent chez Byte a déclaré que ce qui le frappe le plus, c’est le mode KAIROS : « GitHub Webhook + Cron + MCP Channel + tri/mise en ordre de la mémoire Dream en arrière-plan » — essentiellement, c’est pousser l’agent au-delà du statut d’outil, pour en faire un employé numérique.
En outre, pour empêcher la fuite d’informations internes, Anthropic a également conçu un « mode d’infiltration » (Undercover Mode), limitant les employés à mentionner les codes-noms des modèles internes ou les noms d’outils dans leurs contributions open source. Par ailleurs, son API intègre aussi un mécanisme de “empoisonnement des données” : en injectant des définitions d’outils factices (fake_tools), on perturbe la collecte de données potentielle et le comportement de distillation du modèle, ce qui réduit les performances des modèles des concurrents.
Ces conceptions montrent qu’Anthropic a investi beaucoup d’efforts dans la protection technique et les stratégies de concurrence, mais cette « erreur humaine » a toutefois mis en évidence une faiblesse au niveau de l’exécution du processus.
** Derrière la fête des développeurs : le « copier-coller » pourrait exposer à des risques juridiques **
En tant que produit important en face d’OpenAI, Claude Code est en concurrence de longue date avec des outils comme GitHub Copilot. Même si cette divulgation accidentelle ne constitue pas un open source officiel, beaucoup de développeurs la considèrent comme une occasion rare d’apprentissage.
Hu Yanping, professeur spécial à l’Université de finance et d’économie de Shanghai, a déclaré au journaliste du quotidien que l’impact principal de cette fuite sur l’écosystème IA est de pouvoir aider d’autres équipes d’Agents à améliorer le niveau de leurs produits et aider les développeurs à maîtriser la feuille de route technique. Il a indiqué que certains techniciens analysent, reconstituent, modifient et testent réellement le tout en pleine nuit, jusqu’à tenter un déploiement et une reproduction ; ils ont également mené des études systématiques sur les fichiers divulgués. « Pour les développeurs qui ont des capacités moyennes en matière d’IA Agent, c’est sans aucun doute une opportunité de “copier-coller”, qui permet d’aligner rapidement le niveau produit. Et même en copiant-collant, en modifiant la “tâche” et en optimisant localement, le résultat pourrait être meilleur que certains aspects de la structure de Claude Code. »
Selon Hu Yanping, pour les développeurs de taille petite et moyenne, la fuite de code est certes une aide importante, mais cela ne l’est peut-être pas pour les grandes entreprises. « Parce que, pour les grandes entreprises, soit elles font déjà de l’ingénierie inverse, soit elles sont en train de construire un cadre produit plus systémique. Pour qu’un produit comme Claude Code réussisse, il ne dépend pas seulement de la force du produit isolé, mais aussi de la construction de l’écosystème d’application dans son ensemble : l’écosystème des Skills, celui des développeurs et des partenaires, et la manière d’offrir un service d’IA full-stack pour faire correspondre la grande échelle composée de plusieurs centaines de millions d’appareils et de plusieurs centaines de millions d’utilisateurs. »
Hu Yanping estime que l’attention et les discussions générées par la fuite du code source de Claude Code sont dues au fait qu’Anthropic est l’une des rares entreprises d’IA, à l’échelle mondiale — notamment en To B et pour les capacités de code —, à disposer d’un des deux seuls moyens d’avoir une capacité full-stack ; l’autre est OpenAI. Et en plus, sur ce type de produits, Anthropic est allé plus loin que OpenAI, avec une capacité produit plus forte. « D’après le code divulgué, le système et l’intégration organique de Claude Code incorporent Prompt Engineering, Context Engineering et Harness Engineering — des sujets très discutés dans l’industrie aujourd’hui. En particulier, Harness Engineering et la fonctionnalité permettant de prendre le contrôle de l’ordinateur après mise à niveau ont montré à l’industrie, à travers Claude Code, la direction du développement de l’étape suivante : en tant qu’agent de prise en charge comme système d’exploitation d’application et agent d’intelligence d’action, il devient universel, et deviendra à l’avenir une intelligence numérique universelle différente de l’intelligence générale incarnée. »
Cependant, lors de l’entretien avec le journaliste du quotidien, l’avocat Wu Junling, du cabinet de conseil juridique Grandall, a rappelé que cet incident est davantage approprié pour être qualifié comme une divulgation erronée de source map ayant permis de reconstituer une partie du code source, plutôt que comme une autorisation volontaire du titulaire de droits de publier le code source. Par conséquent, le fait que le code source puisse être obtenu par le public ne signifie pas automatiquement que quiconque dispose d’une autorisation légale pour copier, modifier, intégrer ou exploiter commercialement.
Elle a analysé que, pour les entreprises et les développeurs, s’ils téléchargent le code correspondant puis l’utilisent pour copier, modifier, intégrer dans leurs propres produits, ou s’en servent pour optimiser, entraîner des produits compétitifs similaires, cela peut généralement déclencher des risques composites relevant du droit d’auteur, du secret commercial, voire de la concurrence déloyale. Bien que, une fois que le code source concerné a été largement diffusé, la difficulté pour le titulaire des droits d’invoquer ensuite le secret commercial pour l’ensemble du code source augmente nettement, cela ne signifie pas automatiquement qu’il ne pourra pas continuer à faire valoir des droits concernant les détails non encore divulgués, ou concernant des comportements d’acquisition, de diffusion et d’utilisation initialement inappropriés. Pour les utilisateurs existants d’Anthropic, ses conditions officielles limitent aussi clairement l’utilisation de ses services pour développer des produits concurrents, entraîner des modèles IA concurrents, ainsi que la décompilation, l’ingénierie inverse ou des services de copie ; de ce fait, l’utilisation concernée pourrait aussi s’accompagner d’un risque de violation contractuelle.
Elle a également déclaré qu’en comparaison, le simple fait de “consulter” le code concerné dans un but de recherche ou d’analyse de sécurité comporte généralement un risque plus faible que la réutilisation effective ; mais dès que cela entre dans des étapes de développement, d’exploitation commerciale, etc., le risque juridique augmente de manière significative.
À l’heure actuelle, plusieurs dépôts GitHub hébergeant des codes sources divulgués ont déjà reçu des notifications de suppression fondées sur le « Digital Millennium Copyright Act » et ont été retirés. Cela indique aussi que la bataille juridique autour de cet incident est en cours.
(Source : Quotidien d’économie de Chine)