La Maison-Blanche accuse la Chine de vol de modèles d’IA à « grande échelle industrielle »

La Maison-Blanche a averti le 23 avril 2026 que des entités étrangères, principalement en Chine, mènent des campagnes « à grande échelle industrielle » pour copier des modèles d’intelligence artificielle américains, selon une note de Michael Kratsios, conseiller auprès du Président pour la science et la technologie et directeur du Bureau de la politique en matière de science et de technologie. Les campagnes emploient des dizaines de milliers de comptes-relais et des techniques de jailbreak pour extraire des capacités propriétaires et répliquer les performances des modèles, une méthode connue sous le nom d’attaque par distillation.

Tactiques et Méthodes

Selon l’administration du président Donald Trump, les efforts coordonnés utilisent des « dizaines de milliers de comptes-relais » pour contourner la détection et exploiter des techniques de jailbreak afin d’extraire systématiquement des capacités. Une attaque par distillation est une méthode d’entraînement d’un modèle IA plus petit pour apprendre à partir des sorties d’un modèle plus grand. Kratsios a déclaré sur X (anciennement Twitter): « Les États-Unis disposent de preuves que des entités étrangères, principalement en Chine, lancent des campagnes de distillation à grande échelle industrielle pour voler l’IA américaine. Nous allons prendre des mesures pour protéger l’innovation américaine. »

Précédent Historique

Le sujet suscite une inquiétude croissante parmi les entreprises américaines d’IA. En février 2026, Anthropic a accusé des laboratoires chinois d’IA DeepSeek, Moonshot et MiniMax d’extraire des millions de réponses de Claude—en utilisant environ 24 000 comptes frauduleux—pour entraîner des systèmes concurrents. Les modèles développés via des campagnes de distillation non autorisées peuvent ne pas correspondre aux performances complètes des modèles originaux, mais peuvent sembler comparables sur certains benchmarks à une fraction du coût.

Préoccupations en Matière de Sécurité

L’administration a prévenu que les attaques par distillation pourraient supprimer des garde-fous de sécurité et d’autres contrôles conçus pour maintenir les systèmes d’IA « neutres sur le plan idéologique et en quête de vérité ». L’administration Trump a déclaré que les agences fédérales travailleront avec les entreprises d’IA américaines pour renforcer les protections autour des modèles de pointe, coordonner avec le secteur privé afin d’élaborer des défenses contre les campagnes de distillation à grande échelle, et explorer des moyens de tenir les acteurs étrangers responsables.

Réponse de l’Administration

Même si la note reconnaissait que la distillation licite peut contribuer à créer des modèles open-source et open-weight plus petits et plus efficaces, elle a indiqué que les efforts non autorisés visant à copier des systèmes d’IA américains franchissent la ligne. « Il n’y a rien d’innovant à extraire systématiquement et à copier les innovations de l’industrie américaine », affirme la note.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 12
  • 11
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
ElevatorMeme
· 04-25 04:22
Cette vague de copie « industrielle » sonne vraiment exagérée.
Voir l'originalRépondre0
SlippageAfterTheRain
· 04-24 01:27
S'il y a vraiment une copie à grande échelle, l'empreinte numérique / la traçabilité par empreinte doit être mise en place rapidement, sinon la guerre de paroles ne s'arrêtera pas.
Voir l'originalRépondre0
YieldBonsai
· 04-23 22:51
Cette déclaration de la Maison Blanche semble préparer le terrain pour de futures restrictions à l'exportation et sanctions, en attisant d'abord le débat public.
Voir l'originalRépondre0
DustCollector
· 04-23 22:27
En fin de compte, comment équilibrer open source et closed source ? D'un côté, on veut étendre l'écosystème, de l'autre, on craint le plagiat ou le transfert, c'est assez contradictoire.
Voir l'originalRépondre0
CheckTheBlockchainBefore
· 04-23 16:08
La distillation / imitation du modèle coûte en réalité très peu, le code fermé ne peut pas l'empêcher, cela augmente au maximum la barrière d'entrée.
Voir l'originalRépondre0
GateUser-1bc81bb2
· 04-23 15:58
Je suis plus préoccupé par la chaîne de preuve : s'agit-il spécifiquement de la fuite de poids, de la récupération via API, ou du « miroir » côté données d'entraînement ?
Voir l'originalRépondre0
NoSleepBridge
· 04-23 15:56
Ne vous concentrez pas seulement sur la « copie », de nombreux modèles ont des capacités qui convergent déjà, la pipeline de données et la commercialisation sont en réalité la véritable barrière.
Voir l'originalRépondre0
DustyAlpha
· 04-23 15:53
On dirait que la compétition en intelligence artificielle va directement s'inscrire dans la narration de la sécurité nationale.
Voir l'originalRépondre0
CapitalFlowInATeacup
· 04-23 15:47
Une fois que l'IA entre dans un mode de « course aux armements », l'innovation s'accélère, mais les développeurs ordinaires pourraient se retrouver pris au milieu, ce qui est le plus difficile.
Voir l'originalRépondre0
0xNap
· 04-23 15:43
Ne serait-ce pas une occasion de promouvoir davantage la localisation de la puissance de calcul et des restrictions sur les puces ? La logique est plutôt cohérente.
Voir l'originalRépondre0
Afficher plus
  • Épingler