Anthropic remporte le combat judiciaire précoce concernant la liste noire du Pentagone et l'interdiction de Trump

robot
Création du résumé en cours

Anthropic a remporté une victoire judiciaire clé après qu’un juge fédéral à San Francisco a accordé à la startup d’IA une demande d’injonction préliminaire, bloquant temporairement l’administration Trump d’appliquer des actions qui ont mis l’entreprise sur liste noire et restreint les agences fédérales d’utiliser ses modèles Claude.

Le juge de district des États-Unis Rita Lin a estimé qu’Anthropic avait démontré une probabilité de succès sur des éléments fondamentaux de son affaire, écrivant que les actions du gouvernement semblaient plus punitives que motivées par la sécurité. Reuters a rapporté que Lin a déclaré que punir Anthropic pour avoir attiré l’attention du public sur la position contractuelle du gouvernement semblait constituer une représaille illégale au titre du Premier Amendement.

L’ordre interdit à l’administration, pour l’instant, de mettre en œuvre ou d’appliquer le directive du Président Donald Trump contre Anthropic et de faire avancer l’effort du Pentagone pour traiter l’entreprise comme un risque pour la chaîne d’approvisionnement en matière de sécurité nationale. Reuters a rapporté que la décision est suspendue pendant sept jours pour permettre au gouvernement de faire appel.

Le différend a commencé après qu’Anthropic a refusé de supprimer complètement les restrictions de sécurité de Claude lors des négociations avec le Pentagone. L’entreprise a déclaré qu’elle ne serait pas d’accord pour des utilisations liées à des armes entièrement autonomes sans supervision humaine ou à la surveillance de masse des Américains, même si elle restait ouverte à un travail gouvernemental plus large.

Trump a ensuite décidé fin février d’ordonner aux agences fédérales de cesser d’utiliser la technologie d’Anthropic, tandis que le Secrétaire à la Défense Pete Hegseth a séparément qualifié l’entreprise de risque pour la chaîne d’approvisionnement, une désignation qui pourrait forcer les entrepreneurs de défense à éviter Claude dans le travail militaire. Anthropic a soutenu que c’était la première fois qu’un tel label était utilisé publiquement contre une entreprise américaine de cette manière.

Les enjeux sont élevés car Anthropic est devenu un fournisseur d’IA important pour le gouvernement américain. L’entreprise avait un contrat de 200 millions de dollars avec le Pentagone et avait déjà déployé des modèles dans des réseaux classifiés du Département de la Défense avant que la relation ne se dégrade en raison des conditions d’utilisation.

L’administration Trump s’est appuyée sur des autorités juridiques distinctes pour la liste noire du Pentagone et pour des restrictions d’approvisionnement fédéral plus larges, obligeant Anthropic à les contester dans différents tribunaux. Une affaire distincte liée à la passation de marchés gouvernementaux civils est toujours en cours à Washington.

                    **Divulgation:** Cet article a été édité par Estefano Gomez. Pour plus d'informations sur la façon dont nous créons et examinons le contenu, consultez notre Politique Éditoriale.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler