L'assistant de codage d'Anthropic avec 510 000 lignes de code source divulgué, comprenant de nombreuses fonctionnalités non publiées

robot
Création du résumé en cours

Les nouveaux géants de l’IA « ouvrent » par surprise le code source de leur assistant de codage Claude Code d’Anthropic, avec 510 000 lignes de code source.

Le 31 mars, heure locale, en raison d’une erreur lors de l’empaquetage npm (gestionnaire de paquets), une partie du code source de l’outil de programmation AI populaire Claude Code, appartenant à Anthropic, a été divulguée, soit environ 512 000 lignes, comprenant 4 756 fichiers source, plus de 40 modules d’outils et plusieurs fonctionnalités non publiées, obligeant l’entreprise à « ouvrir » le code à l’ensemble des développeurs dans le monde. Bien que la société ait réagi rapidement, les développeurs ont déjà largement partagé ces codes dans des communautés comme GitHub.

À ce sujet, Anthropic a répondu : « Cet incident ne concerne ni ne divulgue des données ou des identifiants sensibles de clients. Il s’agit d’un problème de packaging publié causé par une erreur humaine, et non d’une faille de sécurité. Nous mettons en place des mesures pour empêcher que des situations similaires ne se reproduisent. »

D’après les informations publiques, Anthropic a été fondée en 2021 par d’anciens employés d’OpenAI. Ses produits incluent de grands modèles de la série Claude. Depuis sa création, la société a successivement reçu des investissements de géants de la technologie tels qu’Amazon, Google, Nvidia et Salesforce.

Pour une startup comme Anthropic, qui met l’accent sur la « sécurité » et qui cherche activement à entrer en Bourse (IPO), la fuite de code source constitue sans aucun doute un coup majeur : elle permet à ses concurrents et aux développeurs de logiciels de mieux comprendre le processus de développement de ses produits, et elle inquiète les utilisateurs et les investisseurs quant à la sécurité des données d’Anthropic.

Une analyse de médias étrangers indique que les informations divulguées révèlent comment Anthropic résout un défi central auquel sont confrontés les outils d’IA : comment le modèle conserve sa précision lorsqu’il traite des tâches longues ou complexes. Fait surprenant, Claude Code ne dépend pas directement du contenu généré auparavant ; il remet continuellement en question et vérifie ses propres résultats afin d’éviter les problèmes de « hallucinations ».

En outre, même sans interaction de l’utilisateur, Claude Code continue de fonctionner en arrière-plan : il réorganise les informations apprises, établit des liens entre des contenus différents, corrige les contradictions entre le début et la fin, et abandonne des hypothèses erronées. Lorsque l’utilisateur revient, Claude Code est alors capable de produire une compréhension plus claire et plus exacte de la tâche.

Cette fuite montre également qu’Anthropic a déjà tenté d’impliquer l’IA dans le développement de projets open source, mais sans indiquer clairement dans les contributions concernées le contenu généré par l’IA. Par ailleurs, la société explore comment rendre ses outils d’IA plus « addictifs », plus difficiles à abandonner par les utilisateurs. Anthropic envisage de lancer un assistant de garde autonome dont le code est « Kairos », ainsi qu’un « Buddy System (système de partenaires) » doté d’un système complet d’animaux électroniques.

À noter que c’est la deuxième fois qu’Anthropic subit un incident de fuite en moins d’une semaine. Le 26 mars, un développeur a remarqué que la description du modèle d’IA qu’Anthropic s’apprête à lancer et certains documents associés apparaissaient dans un cache de données public.

En février de cette année, Anthropic a finalisé une levée de fonds de 30 milliards de dollars menée par MGX, une société d’investissement technique basée aux Émirats arabes unis ; sa valorisation atteint 380 milliards de dollars. Le 27 mars, selon des médias étrangers, Anthropic discute d’un plan de première introduction en bourse (IPO), avec une entrée en Bourse aux États-Unis au plus tôt en octobre de cette année.

(Источник:澎湃新闻)

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler