Je ne plaisante pas, le code source de Claude Code a été divulgué, 500 000 lignes de code ont été exposées

robot
Création du résumé en cours

Pour investir en bourse, regardez les notes d’analyse des analystes de Golden Qilin : faisant autorité, professionnelles, opportunes, complètes — vous aident à découvrir des opportunités de thèmes à fort potentiel !

(Source : iFaner)

Le monde est une immense troupe improvisée.

Cet après-midi, le développeur Chaofan Shou a publié un tweet : il a directement mis en ligne l’archive zip complète du code source d’outils de ligne de commande les plus récents d’Anthropic, Claude Code, dans src.zip.

Ce tweet a rapidement fait l’effet d’une bombe dans la communauté des développeurs ; en quelques heures, le nombre de vues a dépassé 5,3 millions.

La section des commentaires s’est instantanément animée : l’utilisateur @ai_for_success n’a dit qu’une phrase : « Appelez Dario tout de suite ! » (Dario Amodei est le PDG d’Anthropic) ;

Un internaute a immédiatement lâché une vulgarité : « Putain de merde. » Un autre développeur, @realsigridjin, a réagi plus vite : il a déjà sauvegardé le code source divulgué sur GitHub ; le nom du dépôt est instructkr/claude-code, avec la mention « Claude Code Snapshot for Research ».

Autrement dit, même si Anthropic a supprimé en urgence les fichiers d’origine, le code est déjà conservé de façon permanente dans la communauté open source. Cette fuite a un volume impressionnant : près de 2 000 fichiers, plus de 500 000 lignes de code TypeScript — le tout exposé à nu sur Internet.

▲ Ci-joint l’adresse

Mais comment une aussi grande licorne de l’IA, au cœur de l’entreprise, a-t-elle pu fuir son code essentiel ? La réponse, quand on l’entend, fait à la fois rire et pleurer : lorsqu’ils empaquetaient et publiaient sur npm, ils ont oublié de supprimer les fichiers .map.

Or, quand des développeurs du monde entier se ruent sur ce code source, il est difficile de ne pas être saisi d’étonnement, car dans ce code qui ne devait pourtant pas être rendu public, en plus du code source de Claude Code, Anthropic dissimule tout un ensemble de plans d’IA à la fois extrêmement romantiques et terriblement “hardcore” :

Il y a un animal de compagnie cybernétique qui peut t’accompagner pendant que tu écris ton code dans le terminal ; et il y a aussi un assistant IA résident qui, lui, “rêve” tout seul pendant la nuit pour organiser ses souvenirs.

Une catastrophe de relations publiques au niveau épique s’est transformée en une « conférence de lancement sauvage » qui a secoué l’industrie.

Une erreur élémentaire qui a déchiré le secret de Claude Code

Avant de parler de ces futures fonctionnalités qui donnent envie, il faut d’abord regarder à quel point Anthropic est à l’heure actuelle dans l’embarras.

Si vous avez récemment utilisé l’API de Claude, vous avez probablement rencontré un problème étrange : vos quotas d’utilisation chutent à un rythme complètement anormal, comme une baignoire qui fuit. Pour l’instant, l’équipe officielle d’Anthropic est encore en train de diagnostiquer et corriger ce bug qui fait exploser la consommation de tokens.

Comme si cela ne suffisait pas, le bug sur les tokens n’est pas encore réparé, et les sous-vêtements se sont fait enlever aussi.

La .map fautive (Source Map) de cette bourde est familière aux développeurs front-end et Node.js.

Son rôle est de mapper le code de production compressé et obfusqué vers le code source original, afin de faciliter le débogage local. Mais lors de la publication officielle sur des miroirs publics comme npm, supprimer les fichiers .map est une opération de base qui figure à la toute première page de chaque tutoriel pour débutants.

Pourtant, Anthropic — qui a toujours « sécurité » et « prudence » sur toutes les lèvres — a commis une erreur digne d’un stagiaire.

L’architecture divulguée elle-même est déjà assez renversante : la couche outil est composée de plus de quarante modules de fonctionnalités, couvrant la lecture/écriture de fichiers, l’exécution de Bash jusqu’à la génération par un sous-Agent ; un cœur de raisonnement de près de 50 000 lignes, QueryEngine.ts, s’occupe de l’orchestration de la chaîne de pensée ; et il y a aussi le coordinateur de l’orchestration multi-agents, ainsi qu’un module de pont avec l’IDE.

En plus de cela, les développeurs ont extrait du code des fonctionnalités non publiées ; la quantité d’informations est tout simplement ahurissante.

Parmi toutes les fonctionnalités cachées divulguées, le projet portant le code BUDDY est celui dont on parle le plus. L’utilisateur @baanditeagle a posté dans la section des commentaires de l’article original de Chaofan Shou des captures du fonctionnement de BUDDY, ce qui a fait bouillir l’ensemble de la discussion.

Imaginez la scène : vous tapez du code devant un terminal à fond noir et caractères blancs ; soudain, près de la zone de saisie, une bulle de dialogue en style pixel pop. À l’intérieur, vit un animal de compagnie cybernétique qui vous est propre. Sa configuration est extrêmement détaillée :

Cela rappelle, d’une certaine façon, l’époque où Microsoft Office avait ce fichu « Clipy aux grands yeux (Clippy) ». Mais BUDDY peut se dire être sa version ultime en évolution.

Ce qui est intéressant, c’est que, d’après le code source, cette fonctionnalité était initialement prévue pour être “pré-chauffée” sous forme de clin d’œil du 1er avril au 7 avril ; et en mai, elle devait d’abord être testée en interne par les employés d’Anthropic. Mais désormais, tout le monde dans le monde sait à l’avance cette surprise.

Une IA qui fait des rêves, et une équipe d’Anthropic qui n’arrive pas à dormir

Si BUDDY est un clin d’œil romantique pour les ingénieurs, alors la fonctionnalité portant le code KAIROS, elle, révèle complètement les ambitions d’Anthropic sur la voie de l’AGI.

Aujourd’hui, quand nous discutons avec de grands modèles, c’est fondamentalement du « lecture unique puis destruction ». On ferme la page, on ouvre une nouvelle conversation, et tout repart de zéro. KAIROS cherche à casser ce schéma ; il est défini comme « Always-On Claude (Claude toujours en ligne) ».

Ce n’est pas juste une base de mémoire pour longs textes. KAIROS peut conserver une mémoire continue entre différentes sessions, en stockant vos habitudes de travail et le contexte de vos projets dans un répertoire privé. Il a même l’autorisation de lancer des tâches de lui-même.

En outre, le code contient aussi un nouveau mécanisme nommé Nightly Dreaming (rêver la nuit).

Comment comprendre ? Dans les mécanismes physiologiques humains, pendant le sommeil, le « fait de rêver » est une étape clé : le cerveau trie les fragments de mémoire de la journée, élimine les synapses inutiles et consolide les informations importantes.

Anthropic a introduit ce concept biomimétique dans l’IA. Pour empêcher que les journaux de mémoire à long terme ne gonflent à l’infini et ne causent un chaos logique, KAIROS démarre automatiquement, la nuit, le processus de « rêver ». Dans le code, il gère même en détail les problèmes d’horodatage lors du passage à minuit, afin de s’assurer que le processus de rêve ne soit pas interrompu.

Concrètement, dans ce processus, Claude remonte en arrière dans les interactions de la journée, comme le ferait un cerveau humain, en éliminant les informations redondantes, puis en faisant émerger le contenu essentiel sous forme de mémoire à long terme.

Pendant la journée, l’IA vous aide à écrire du code ; pendant que vous dormez la nuit, elle “rêve” toute seule sur les serveurs pour vous comprendre encore mieux. Transformer une problématique d’ingénierie froide et sans vie (compression et récupération de la fenêtre de contexte) en une solution remplie de métaphores vivantes : ce type d’approche produit donne vraiment envie d’y jeter un regard.

En plus de BUDDY et KAIROS, le code source cache encore plus de choses :

On peut dire que, pendant que d’autres grands modèles se concentrent sur les scores et sur l’effet multi-modale, Anthropic a déjà tenté, au niveau même des couches internes du système, de construire discrètement tout un écosystème complet de « main-d’œuvre numérique » : mémoire (KAIROS), capacités de planification (ULTRAPLAN), collaboration en équipe (Coordinator), et même accompagnement émotionnel (BUDDY).

Sans surprise, le personnel d’Anthropic est probablement en train de vivre une nuit sans sommeil. Le bug de consommation de tokens n’a pas encore été résolu ; et voilà qu’une fuite de code source au niveau épique vient encore frapper. C’est une catastrophe pour n’importe quelle entreprise technologique.

Mais cette catastrophe suscite aussi énormément d’émotions.

Dans une industrie de l’IA où l’on voit de plus en plus de promesses en PPT, des annonces de contrats à terme et une concurrence de plus en plus homogène, Anthropic, d’une manière la plus embarrassante et la moins respectable possible, montre au monde à quel point ce qu’ils font réellement est en avance.

Bien sûr, certains voient aussi un problème plus profond. L’utilisateur @QiyangYao a écrit dans la section des commentaires :

Derrière la farce que constitue cet accident d’ingénierie, il y a une faille systémique dans la gestion de la sécurité de cette entreprise d’IA de tout premier plan. Anthropic a dépensé des dizaines de milliards pour étudier un problème ultime : comment rendre l’IA plus semblable à l’humain. Cette fuite a apporté une réponse inattendue : ne vous pressez pas, il faut d’abord rendre les humains plus semblables à l’IA.

Par exemple, apprendre à exécuter automatiquement une checklist de vérification avant la publication.

Infos en masse, analyses précises, le tout dans l’application Sina Finance

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler