Anthropic répond officiellement : concernant la reconnaissance du « risque de chaîne d'approvisionnement », elle poursuivra le Département de la Défense des États-Unis

robot
Création du résumé en cours

Selon le rapport de l’APP de JiTong Finance, le ministère américain de la Défense a officiellement informé Anthropic PBC que cette entreprise et ses produits présentent un risque pour la chaîne d’approvisionnement des États-Unis. D’après un haut responsable de la défense, cette mesure a intensifié le différend entre les deux parties dans le domaine de la sécurité de l’intelligence artificielle.

Ce responsable a révélé jeudi : « Le Département de la Guerre (Department of War, abrégé DOW) a officiellement notifié la direction d’Anthropic que cette société et ses produits sont considérés comme un risque pour la chaîne d’approvisionnement, cette décision prenant effet immédiatement. » Il est à noter que le ministre de la Défense, Pete Hegseth, préfère récemment utiliser le terme traditionnel « Département de la Guerre » pour désigner le ministère de la Défense, et c’est la première fois que cette appellation officielle est utilisée dans une communication officielle.

Face à la menace de la liste noire émise par le ministère de la Défense en raison de différends sur la sécurité de l’intelligence artificielle, Anthropic PBC prévoit que cette impasse pourrait évoluer vers un affrontement juridique.

« Nous sommes convaincus que cette action n’a pas de fondement juridique, nous n’avons donc d’autre choix que de nous défendre par voie judiciaire, » a déclaré jeudi le PDG d’Anthropic, Dario Amodei, dans un blog officiel.

Bien que ce responsable ait insisté sur le fait que cette décision « entre en vigueur immédiatement », des sources proches du dossier indiquent que l’armée américaine continue d’utiliser l’outil d’IA Claude d’Anthropic dans ses opérations contre l’Iran. La semaine dernière, lors d’un avertissement adressé à la société, le ministre de la Défense a prévu une période de transition de six mois, durant laquelle l’entreprise doit transférer ses activités d’intelligence artificielle à d’autres fournisseurs.

Malgré cette déclaration de « prise d’effet immédiat », des informateurs précisent que l’armée américaine continue activement d’utiliser l’outil Claude dans ses opérations militaires en Iran. Lors de son avertissement la semaine dernière, Hegseth a évoqué une période de transition de six mois pour transférer les activités d’IA vers d’autres fournisseurs.

Ni Anthropic ni le porte-parole du ministère de la Défense n’ont immédiatement commenté cette série de développements. Il est également important de noter que le responsable de la défense n’a pas précisé quand ou comment le ministère a informé Anthropic de cette reconnaissance de risque.

Précédemment, Anthropic a clairement indiqué qu’elle engagerait des actions juridiques contre toute reconnaissance de risque de la part du ministère de la Défense.

La reconnaissance par le ministère de la Défense d’un risque pour la chaîne d’approvisionnement pourrait perturber la collaboration entre Anthropic et l’armée — cette dernière étant fortement dépendante des logiciels de la société depuis longtemps. Jusqu’à récemment, Anthropic était le seul fournisseur autorisé à faire fonctionner un système d’IA sur la plateforme cloud confidentielle du ministère, et son outil Claude Gov, reconnu pour sa facilité d’utilisation, est devenu une plateforme opérationnelle centrale pour le personnel militaire.

« Cela constitue une capacité technologique de grande valeur stratégique, » a souligné Lauren Kahn, analyste senior au Centre de sécurité et de technologies émergentes de l’Université de Georgetown, dans une interview. « Si cette capacité venait à être retirée de force, cela entraînerait des dommages en chaîne pour l’armée, les entreprises, et tout l’écosystème technologique. »

Le PDG d’Anthropic, Dario Amodei, a mené des négociations de plusieurs semaines avec le vice-ministre de la Défense chargé de la recherche et de l’ingénierie, Emil Michael, pour finaliser un contrat spécifique encadrant l’accès de l’armée américaine à la technologie d’Anthropic. Cependant, ces négociations ont échoué la semaine dernière — la startup ayant insisté pour obtenir des garanties claires que ses technologies d’IA ne seraient pas utilisées pour la surveillance de masse des citoyens américains ou pour déployer des systèmes d’armes autonomes.

Par la suite, le vendredi, le ministre de la Défense, Pete Hegseth, a publié un message sur la plateforme X indiquant qu’Anthropic représentait un « risque pour la chaîne d’approvisionnement ». Il est à noter que ce type de reconnaissance de risque est généralement réservé aux pays ou entités considérés comme adversaires par les États-Unis, et son application à une entreprise technologique est rare.

Il n’est pas encore clair selon quelle loi le ministère de la Défense a classé Anthropic comme menace pour la chaîne d’approvisionnement. Dans une déclaration en réponse à un post de Hegseth sur les réseaux sociaux la semaine dernière, Anthropic a indiqué que cette reconnaissance de risque serait probablement fondée, à terme, sur l’article 3252 de la Loi sur la gestion des forces armées des États-Unis.

« Dès le début, le principe fondamental a toujours été clair — l’armée doit avoir la liberté d’utiliser la technologie à toutes fins légitimes, » a insisté ce responsable jeudi. « Nous n’autoriserons en aucun cas un fournisseur à limiter l’usage légitime de capacités clés, ce qui pourrait compromettre la chaîne de commandement et mettre en danger nos forces. »

Cette reconnaissance intervient à un moment critique, alors que l’armée américaine dépend fortement de l’outil Claude dans ses opérations en Iran — elle traitant efficacement d’énormes volumes de données grâce à une série d’outils d’IA. Selon des sources, le système intelligent Maven, développé par Palantir Technologies Inc., est largement utilisé au Moyen-Orient, et l’outil Claude d’Anthropic est l’un des principaux grands modèles de langage intégrés à ce système. Ces sources soulignent que Claude a montré d’excellentes performances en opération, devenant un soutien clé pour les actions américaines contre l’Iran, et accélérant significativement la mise à niveau de Maven avec l’IA.

Actuellement, la valorisation d’Anthropic atteint environ 380 milliards de dollars. Selon ses performances actuelles, la société pourrait réaliser près de 20 milliards de dollars de revenus annuels — une projection qui indique un doublement de son taux de croissance annuel par rapport à la fin de l’année dernière. Cependant, le conflit croissant avec le ministère de la Défense jette une ombre sur ses perspectives de développement futur.

Il reste à voir quel sera l’impact à long terme de cette reconnaissance de risque sur les ventes d’Anthropic auprès de ses clients d’entreprise, qui constituent depuis longtemps sa principale source de revenus. Fait notable, malgré cette crise, l’entreprise étend discrètement sa présence auprès des utilisateurs ordinaires — son application principale ayant récemment atteint le sommet du classement des téléchargements sur l’App Store d’Apple, témoignant de l’adhésion et du soutien du marché pour les produits technologiques d’Anthropic.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler