Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Lancement Futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Trading démo
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Les critiques se moquent des affirmations d'Anthropic selon lesquelles les laboratoires d'IA chinois volent ses données
Les critiques moquent des affirmations d’Anthropic selon lesquelles les laboratoires d’IA chinois volent ses données
Jason Nelson
Mar, 24 février 2026 à 07:40 GMT+9 3 min de lecture
Dans cet article :
ANTH.PVT
Anthropic a accusé trois laboratoires d’IA chinois d’extraire des millions de réponses de son chatbot Claude pour entraîner des systèmes concurrents, une démarche que la société affirme violer ses conditions d’utilisation et affaiblir les contrôles à l’exportation américains.
Dans un article publié lundi, Anthropic a déclaré avoir identifié des « campagnes à l’échelle industrielle » par les développeurs d’IA DeepSeek, Moonshot et MiniMax pour extraire les capacités de Claude via la distillation de modèles. La société a allégué que ces laboratoires ont généré plus de 16 millions d’échanges en utilisant environ 24 000 comptes frauduleux.
L’annonce d’Anthropic a suscité scepticisme et moqueries sur X, où les critiques ont remis en question sa position étant donné la façon dont les grands modèles d’IA, y compris Claude, sont entraînés, reflétant le débat plus large sur la propriété intellectuelle, le droit d’auteur et l’usage équitable.
« Vous vous entraînez sur Internet ouvert puis vous appelez ça des ‘attaques de distillation’ quand d’autres apprennent de vous », a écrit Tory Green, co-fondateur de la société d’infrastructure IA IO.Net. « Les laboratoires qui prêchent ‘la recherche ouverte’ pleurent soudainement sur l’accès ouvert. »
« Oh non, pas mon IP privée, comment ose-t-on utiliser cela pour entraîner un modèle d’IA, seul Anthropic a le droit d’utiliser la propriété intellectuelle des autres, non non non, cela ne peut pas durer ! » a écrit un autre utilisateur sur X.
La distillation est une méthode d’entraînement en IA où un modèle plus petit apprend à partir des sorties d’un modèle plus grand.
Dans le contexte de la cybersécurité, cela peut aussi désigner des attaques d’extraction de modèles, où un attaquant utilise un accès légitime pour interroger systématiquement un système et utiliser ses réponses pour entraîner un modèle concurrent.
« Ces campagnes deviennent de plus en plus intenses et sophistiquées », a écrit Anthropic lundi. « La fenêtre d’action est étroite, et la menace dépasse une seule entreprise ou région. La résoudre nécessitera une action rapide et coordonnée entre les acteurs de l’industrie, les décideurs et la communauté mondiale de l’IA. »
« La distillation peut être légitime : les laboratoires d’IA l’utilisent pour créer des modèles plus petits et moins coûteux pour leurs clients », a écrit Anthropic dans un autre post sur X. « Mais les laboratoires étrangers qui distillent illicitement des modèles américains peuvent supprimer des garde-fous, alimentant leurs propres systèmes militaires, de renseignement et de surveillance. »
En juin, Reddit a poursuivi Anthropic, l’accusant d’avoir extrait plus de 100 000 publications et commentaires et d’avoir utilisé ces données pour affiner Claude.
Reddit poursuit Anthropic pour extraction non autorisée de données
L’affaire rejoint des poursuites contre OpenAI, Meta et Google pour l’extraction massive de contenu en ligne sans permission.
« [Il y a] la face publique qui tente de s’intégrer dans la conscience du consommateur avec des revendications de droiture et de respect des limites et de la loi, et la face privée qui ignore toutes les règles qui entravent ses tentatives d’enrichissement », indique la plainte de Reddit.
Anthropic a déclaré qu’elle renforçait la détection, resserrait la vérification des comptes, partageait des renseignements avec d’autres laboratoires et autorités, et ajoutait des mesures de sécurité pour limiter les futures tentatives de distillation.
« Mais aucune entreprise ne peut résoudre cela seule », a écrit Anthropic. « Comme nous l’avons mentionné ci-dessus, les attaques de distillation à cette échelle nécessitent une réponse coordonnée dans l’industrie de l’IA, chez les fournisseurs de cloud et parmi les décideurs. »
Conditions et Politique de Confidentialité
Tableau de bord de confidentialité
Plus d’infos