Le ministère de la Défense américain a sélectionné 7 entreprises pour l'achat d'IA classée confidentielle… y compris OpenAI et Google, Anthropic étant exclu.

robot
Création du résumé en cours

Le Département de la Défense américain a publié la liste des sept entreprises ayant signé des contrats d’achat d’intelligence artificielle (IA). Parmi elles figurent Amazon Web Services, Google, Microsoft, Nvidia, OpenAI, SpaceX, ainsi que la startup Reflection AI, qui est relativement moins connue, tandis qu’Anthropic a été exclue.

Ce contrat vise à étendre la gamme de services fournis via le portail interne de la Défense “GenAI.mil”. Selon des médias étrangers, cette plateforme, lancée l’année dernière, compte déjà plus de 1,3 million de personnels de la Défense utilisant la plateforme, et a construit des dizaines de milliers d’agents IA. La Défense met l’accent sur cette initiative pour réduire le travail de consolidation des données et accélérer le processus de prise de décision.

Environnement de traitement des informations classifiées de niveau maximal

Les produits IA concernés par ce contrat seront appliqués dans des environnements “Impact Level 6” et “Impact Level 7”. Il s’agit des niveaux de système où la Défense peut stocker des informations classifiées, correspondant en pratique aux exigences de sécurité les plus strictes. Bien que les produits spécifiques ne soient pas divulgués, cette acquisition dépasse clairement le stade expérimental pour entrer dans une phase de “fonctionnement IA confidentiel”.

Les actifs que chaque entreprise pourrait fournir suscitent également beaucoup d’intérêt. Nvidia, bien connue pour ses processeurs graphiques, possède également des outils de développement de réseaux neuronaux et des grands modèles linguistiques open source. En particulier, sa série de modèles basée sur l’architecture “Mamba-Transformer”, qui réduit la consommation de mémoire, est considérée comme susceptible d’être utilisée dans des environnements limités comme la défense.

SpaceX et Reflection AI également sous surveillance… Anthropic exclu

L’inclusion de SpaceX est également notable. Cette année, SpaceX a renforcé sa présence en obtenant la série de modèles linguistiques “Grok” via sa fusion avec xAI Holdings. La société pourrait également étendre sa gamme de modèles spécialisés pour la programmation, ce qui a conduit certains à penser qu’elle pourrait accélérer sa transition d’une entreprise aérospatiale vers un fournisseur d’IA pour la défense.

Reflection AI est le nom le plus inconnu dans cette liste. Fondée en 2024 par des chercheurs issus de Google DeepMind, cette startup n’a pas encore lancé de produits commerciaux, mais a levé 2 milliards de dollars l’année dernière, soit environ 2,95 trillions de wons sud-coréens. Des médias américains ont rapporté que la société préparait le lancement d’un modèle linguistique entraîné sur des centaines de billions de tokens.

En revanche, l’exclusion d’Anthropic était presque prévisible. En février de cette année, le ministre de la Défense, Pete Hegseth, a désigné Anthropic comme une “source de risque dans la chaîne d’approvisionnement”, et cette mesure a été concrétisée en mars. En conséquence, l’utilisation de Claude par la Défense a été interdite, et l’accès des entreprises de défense a été restreint.

Contexte de l’interdiction de Claude — Conflit avec la clause “tous usages légaux”

Le cœur du conflit réside dans les termes du contrat. Le ministre Hegseth a déclaré que, parce qu’Anthropic n’acceptait pas la condition d’utilisation “pour tous usages légaux” imposée par la Défense, une sanction a été décidée. Anthropic craignait que cette formulation ne laisse la place à une utilisation de leurs modèles pour la surveillance de masse nationale ou le développement d’armes autonomes. Finalement, la société a intenté une action en justice en mars contre cette désignation liée aux risques dans la chaîne d’approvisionnement.

Cependant, la situation n’est pas aussi simple. Selon des médias étrangers, malgré l’interdiction, la Défense continuerait d’utiliser le “Claude Mitos Preview” d’Anthropic. Bien que ce modèle ait été adopté par certains autres organismes fédéraux, il n’a pas encore été rendu public. La raison en est sa capacité exceptionnelle à détecter des vulnérabilités de sécurité “zero-day” non identifiées.

Ce contrat d’achat d’IA par le Département de la Défense ne se limite pas à une simple acquisition technologique, mais est aussi perçu comme un signal indiquant quels entreprises d’IA peuvent gagner la confiance dans le cadre de la sécurité nationale. Par ailleurs, le cas d’Anthropic montre que la performance seule ne suffit pas pour entrer sur le marché de la défense ; les clauses contractuelles et l’acceptation des politiques deviennent des variables clés dans la chaîne d’approvisionnement en IA.

Remarque sur TP AI : Utilisation du modèle linguistique de TokenPost.ai pour résumer cet article. Il pourrait omettre des contenus principaux ou déformer la réalité.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler