Les critiques se moquent des affirmations d'Anthropic selon lesquelles les laboratoires d'IA chinois volent ses données

Les critiques moquent des affirmations d’Anthropic selon lesquelles les laboratoires d’IA chinois volent ses données

Jason Nelson

Mar, 24 février 2026 à 07:40 GMT+9 3 min de lecture

Dans cet article :

ANTH.PVT

Anthropic a accusé trois laboratoires d’IA chinois d’extraire des millions de réponses de son chatbot Claude pour entraîner des systèmes concurrents, une démarche que la société affirme violer ses conditions d’utilisation et affaiblir les contrôles à l’exportation américains.

Dans un article publié lundi, Anthropic a déclaré avoir identifié des « campagnes à l’échelle industrielle » par les développeurs d’IA DeepSeek, Moonshot et MiniMax pour extraire les capacités de Claude via la distillation de modèles. La société a allégué que ces laboratoires ont généré plus de 16 millions d’échanges en utilisant environ 24 000 comptes frauduleux.

L’annonce d’Anthropic a suscité scepticisme et moqueries sur X, où les critiques ont remis en question sa position étant donné la façon dont les grands modèles d’IA, y compris Claude, sont entraînés, reflétant le débat plus large sur la propriété intellectuelle, le droit d’auteur et l’usage équitable.

« Vous vous entraînez sur Internet ouvert puis vous appelez ça des ‘attaques de distillation’ quand d’autres apprennent de vous », a écrit Tory Green, co-fondateur de la société d’infrastructure IA IO.Net. « Les laboratoires qui prêchent ‘la recherche ouverte’ pleurent soudainement sur l’accès ouvert. »

« Oh non, pas mon IP privée, comment ose-t-on utiliser cela pour entraîner un modèle d’IA, seul Anthropic a le droit d’utiliser la propriété intellectuelle des autres, non non non, cela ne peut pas durer ! » a écrit un autre utilisateur sur X.

La distillation est une méthode d’entraînement en IA où un modèle plus petit apprend à partir des sorties d’un modèle plus grand.

Dans le contexte de la cybersécurité, cela peut aussi désigner des attaques d’extraction de modèles, où un attaquant utilise un accès légitime pour interroger systématiquement un système et utiliser ses réponses pour entraîner un modèle concurrent.

« Ces campagnes deviennent de plus en plus intenses et sophistiquées », a écrit Anthropic lundi. « La fenêtre d’action est étroite, et la menace dépasse une seule entreprise ou région. La résoudre nécessitera une action rapide et coordonnée entre les acteurs de l’industrie, les décideurs et la communauté mondiale de l’IA. »

« La distillation peut être légitime : les laboratoires d’IA l’utilisent pour créer des modèles plus petits et moins coûteux pour leurs clients », a écrit Anthropic dans un autre post sur X. « Mais les laboratoires étrangers qui distillent illicitement des modèles américains peuvent supprimer des garde-fous, alimentant leurs propres systèmes militaires, de renseignement et de surveillance. »

En juin, Reddit a poursuivi Anthropic, l’accusant d’avoir extrait plus de 100 000 publications et commentaires et d’avoir utilisé ces données pour affiner Claude.

Reddit poursuit Anthropic pour extraction non autorisée de données

L’affaire rejoint des poursuites contre OpenAI, Meta et Google pour l’extraction massive de contenu en ligne sans permission.

« [Il y a] la face publique qui tente de s’intégrer dans la conscience du consommateur avec des revendications de droiture et de respect des limites et de la loi, et la face privée qui ignore toutes les règles qui entravent ses tentatives d’enrichissement », indique la plainte de Reddit.

Suite de l’histoire  

Anthropic a déclaré qu’elle renforçait la détection, resserrait la vérification des comptes, partageait des renseignements avec d’autres laboratoires et autorités, et ajoutait des mesures de sécurité pour limiter les futures tentatives de distillation.

« Mais aucune entreprise ne peut résoudre cela seule », a écrit Anthropic. « Comme nous l’avons mentionné ci-dessus, les attaques de distillation à cette échelle nécessitent une réponse coordonnée dans l’industrie de l’IA, chez les fournisseurs de cloud et parmi les décideurs. »

Conditions et Politique de Confidentialité

Tableau de bord de confidentialité

Plus d’infos

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler