Elon Musk accuse Anthropic de vol de données d'entraînement IA à « grande échelle » après que l'entreprise soutenue par Amazon a accusé ses rivaux chinois de copie

Elon Musk traite Anthropic de coupable d’avoir volé des données d’entraînement IA à ‘grande échelle’ après que la société soutenue par Amazon accuse ses rivaux chinois de copie

Ananya Gairola

Jeu, 26 février 2026 à 08:30 GMT+9 3 min de lecture

Dans cet article :

ANTH.PVT

AMZN

+1,00%

XAAI.PVT

Lundi, le PDG de xAI, Elon Musk, a intensifié sa querelle après que Amazon.com, Inc. (NASDAQ:AMZN) a soutenu qu’Anthropic accusait des entreprises chinoises comme DeepSeek de copier son modèle Claude.

Anthropic allègue des distillations IA à ‘échelle industrielle’

Anthropic a déclaré que des entreprises d’IA chinoises, y compris DeepSeek, Moonshot AI et MiniMax, avaient orchestré ce qu’elle a décrit comme des attaques de distillation à “échelle industrielle” sur son modèle Claude.

Nous avons identifié des attaques de distillation à l’échelle industrielle sur nos modèles par DeepSeek, Moonshot AI et MiniMax.

Ces laboratoires ont créé plus de 24 000 comptes frauduleux et généré plus de 16 millions d’échanges avec Claude, extrayant ses capacités pour entraîner et améliorer leurs propres modèles.

À ne pas manquer :

**Les publicités indésirables vivent éternellement — ****Découvrez comment cette IA aide les marques du Fortune 1000 à les éviter**
**Cette société de stockage d'énergie a déjà des contrats de 185 millions de dollars — Les actions sont encore disponibles**

Dans un article de blog, la société a allégué que les laboratoires avaient créé plus de 24 000 comptes frauduleux et généré plus de 16 millions d’interactions avec Claude pour extraire ses capacités.

La distillation — une technique IA courante où des modèles plus petits sont formés sur les résultats de modèles plus puissants — est légitime lorsqu’elle est utilisée en interne, a déclaré Anthropic, mais peut être abusée pour reproduire des systèmes avancés “dans une fraction du temps, à une fraction du coût.”

La société a averti que cette activité soulève des risques pour la sécurité nationale, arguant que les modèles distillés peuvent manquer de protections conçues pour prévenir la cybercriminalité ou l’utilisation militaire abusive.

Elle a également déclaré que la distillation à grande échelle renforce le besoin de contrôles d’exportation de puces aux États-Unis.

Ces attaques croissent en intensité et en sophistication. Les traiter nécessitera une action rapide et coordonnée parmi les acteurs de l’industrie, les décideurs politiques et la communauté IA au sens large.

Lire la suite :

Tendance : Possédez les personnages, pas seulement le contenu : À l’intérieur d’une entreprise IP à fort développement avant son introduction en bourse

Musk riposte sur le droit d’auteur et les données d’entraînement

Musk a réagi sur X, disant : “Anthropic est coupable d’avoir volé des données d’entraînement à grande échelle et a dû payer des règlements de plusieurs milliards de dollars pour leur vol. C’est juste un fait.”

Anthropic est coupable d’avoir volé des données d’entraînement à grande échelle et a dû payer des règlements de plusieurs milliards de dollars pour leur vol. C’est juste un fait.

Anthropic n’a pas immédiatement répondu à la demande de commentaires de Benzinga.

L’année dernière, Anthropic a accepté un règlement de 1,5 milliard de dollars dans un litige de droit d’auteur impliquant des livres utilisés pour entraîner ses modèles.

L'histoire continue  

Plus tôt ce mois-ci, Musk a également critiqué Anthropic pour biais allégué et misanthropie après que la société a dévoilé un tour de financement de 30 milliards de dollars qui aurait porté sa valorisation à 380 milliards de dollars.

Voir aussi : 1,5 million d’utilisateurs travaillent déjà au sein de cette plateforme IA — Les investisseurs peuvent encore participer

Le Pentagone se tourne vers xAI alors que Claude fait face à un examen : Rapport

Lundi, un rapport d’Axios a indiqué que l’entreprise IA de Musk, xAI, a conclu un accord permettant à l’armée américaine de déployer son modèle Grok au sein de systèmes classifiés.

Jusqu’à présent, le modèle Claude d’Anthropic a été le seul modèle IA approuvé pour une utilisation dans les systèmes les plus sensibles de l’armée, y compris l’analyse du renseignement, le développement d’armes et les opérations sur le champ de bataille.

Cependant, le Pentagone serait en conflit avec Anthropic concernant les mesures de sécurité et pourrait envisager un fournisseur alternatif.

Amazon montre une tendance de prix négative à court, moyen et long terme, ainsi qu’un classement de momentum faible, selon les classements de stocks de Benzinga’s Edge.

Lire ensuite : Investissez comme l’élite d’Hollywood : Possédez une part dans le luxueux centre de santé comportementale de Valley Wellness

Shutterstock/Joshua Sukoff

À venir : Transformez votre trading avec les idées et outils de marché uniques de Benzinga Edge. Cliquez maintenant pour accéder à des insights uniques qui peuvent vous donner un avantage dans le marché concurrentiel d’aujourd’hui.

Obtenez les dernières analyses boursières de Benzinga :

APPLE (AAPL) : Rapport d'analyse boursière gratuit
TESLA (TSLA) : Rapport d'analyse boursière gratuit

Cet article Elon Musk traite Anthropic de coupable d’avoir volé des données d’entraînement IA à ‘grande échelle’ après que la société soutenue par Amazon accuse ses rivaux chinois de copie est apparu à l’origine sur Benzinga.com

Conditions et politique de confidentialité

Tableau de bord de confidentialité

Plus d’infos

XAI-0,92%
GROK1,36%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler