AI丨Anthropic fuite massive de plus de 510 000 codes source, fonction de animal de compagnie électronique dévoilée en avance

robot
Création du résumé en cours

Le développeur de Claude, Anthropic, subit un grave incident. Selon des informations, l’outil d’agence de terminaux nouvellement lancé par la société hier, « Claude Code », aurait révélé l’incident de fuite de code source complet le plus important à ce jour, comprenant plus de 510 000 lignes de code TypeScript, plus de 40 modules d’outils, et plusieurs fonctionnalités principales non encore publiées, telles que des « animaux électroniques » et des « rêves », ayant également été téléversées, suscitant l’attention du marché.

Porte-parole : erreur humaine et non faille de sécurité

D’après le rapport, le porte-parole indique que cette fuite ne concerne aucune donnée client sensible ni aucun identifiant, et qu’elle n’a causé aucun dommage. « Il s’agit simplement d’un problème d’empaquetage dû à une erreur humaine, et ce n’est pas une faille de sécurité. Nous mettons en place des mesures pour empêcher que ce type d’incident ne se reproduise. » Anthropic a également retiré immédiatement la version problématique et supprimé l’ancienne version du paquet, mais n’a pas émis de notification officielle de retrait concernant les dépôts miroirs déjà diffusés sur GitHub.

Deux fuites majeures en une semaine

Toutefois, certains estiment que ce « malencontreux » pourrait permettre à d’autres développeurs de logiciels, ainsi qu’aux concurrents d’Anthropic, de comprendre le processus de développement de cet outil de codage. D’après un billet sur un réseau social, accompagné d’un lien vers le code correspondant, depuis sa publication mardi à 4 h du matin, le nombre de vues a déjà dépassé 21 millions. Or, Anthropic a connu deux fuites de données majeures en une semaine. D’après un rapport de Fortune, les descriptions du modèle d’intelligence artificielle (IA) que la société prévoit de lancer, ainsi qu’environ 3 000 documents internes, ont récemment été découverts dans un cache de données accessible publiquement.

Des analystes soulignent que l’incident met en évidence les risques liés à la capacité d’itération rapide des outils d’IA et à l’écosystème open source. Le code source s’est largement diffusé, mais Anthropic n’a pas choisi de l’ouvrir de manière proactive ; elle détient toujours l’intégralité des droits d’auteur. Les développeurs ne peuvent l’utiliser que comme référence à des fins de recherche. S’ils le modifient sans autorisation et le commercialisent, ils pourraient faire face à un retrait ou à des poursuites judiciaires. La « divulgation accidentelle » révélant des détails techniques de Claude Code reflète aussi, dans un contexte de concurrence intense, les défis multiples auxquels l’IA est confrontée en matière de capacités des outils, d’efficacité de développement et de contrôle de la sécurité, tout en faisant monter la pression sur l’impact dans l’industrie et les discussions réglementaires.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler