Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Anthropic obtient une ordonnance préliminaire dans le conflit avec le DOD alors qu'un juge évoque une « représaille en vertu du Premier Amendement »
PDG et co-fondateur d’Anthropic Dario Amodei prend la parole sur scène lors du sommet Dealbook du New York Times 2025 au Jazz at Lincoln Center le 3 décembre 2025 à New York.
Michael M. Santiago | Getty Images
Un juge fédéral de San Francisco a accordé à Anthropic une demande d’injonction provisoire dans le cadre de sa plainte contre l’administration Trump.
La juge Rita Lin a rendu cette décision jeudi, deux jours après l’audience devant le tribunal des avocats de la startup d’intelligence artificielle et du gouvernement américain. Anthropic a poursuivi l’administration pour tenter de faire annuler sa liste noire par le Pentagone et la directive du président Donald Trump interdisant aux agences fédérales d’utiliser ses modèles Claude.
Anthropic a demandé cette injonction pour suspendre ces actions et éviter d’autres dommages financiers et réputationnels pendant que l’affaire suit son cours.
Anthropic a publié la déclaration suivante concernant la décision : « Nous sommes reconnaissants envers le tribunal pour sa rapidité, et heureux qu’il soit d’avis que Anthropic a probablement des chances de succès sur le fond. Bien que cette affaire ait été nécessaire pour protéger Anthropic, nos clients et nos partenaires, notre objectif reste de travailler de manière productive avec le gouvernement pour garantir que tous les Américains bénéficient d’une IA sûre et fiable. »
« Punir Anthropic pour avoir mis en lumière la position contractuelle du gouvernement est une retaliation illégale classique du Premier Amendement », a écrit la juge Lin dans l’ordonnance. Un verdict final dans cette affaire pourrait encore prendre plusieurs mois.
Lors de l’audience de mardi, Lin a interrogé les avocats du gouvernement sur les raisons pour lesquelles Anthropic a été mis sur liste noire. Son langage dans l’ordonnance était encore plus tranchant.
« Rien dans la loi applicable ne soutient l’idée orwellienne qu’une entreprise américaine peut être qualifiée d’adversaire potentiel et de saboteur des États-Unis pour avoir exprimé un désaccord avec le gouvernement », a-t-elle écrit.
La plainte d’Anthropic fait suite à une période dramatique à Washington D.C., entre le Département de la Défense et l’une des entreprises privées les plus précieuses au monde.
Dans un post sur X fin février, le secrétaire à la Défense Pete Hegseth a déclaré qu’Anthropic représentait un risque dans la chaîne d’approvisionnement, ce qui signifie que l’utilisation de la technologie de l’entreprise menace prétendument la sécurité nationale des États-Unis. Le DOD a officiellement notifié Anthropic de cette désignation dans une lettre plus tôt ce mois-ci.
Anthropic est la première entreprise américaine à être publiquement désignée comme un risque dans la chaîne d’approvisionnement, cette désignation étant historiquement réservée aux adversaires étrangers. Ce label oblige les contractants de la défense, comme Amazon, Microsoft et Palantir, à certifier qu’ils n’utilisent pas Claude dans leur travail avec l’armée.
Lire plus de actualités technologiques CNBC
L’administration Trump s’est appuyée sur deux désignations distinctes – 10 U.S.C. § 3252 et 41 U.S.C. § 4713 – pour justifier cette action, qui doivent être contestées dans deux tribunaux séparés. En conséquence, Anthropic a déposé une autre plainte pour un examen formel de la décision du Département de la Défense devant la Cour d’appel des États-Unis à Washington.
Juste avant que Hegseth ne déclare qu’Anthropic représentait un risque dans la chaîne d’approvisionnement, le président Donald Trump a publié un message sur Truth Social ordonnant aux agences fédérales de « cesser immédiatement » toute utilisation de la technologie d’Anthropic. Il a indiqué qu’il y aurait une période de transition de six mois pour des agences comme le DOD.
« NOUS déciderons du destin de notre pays — PAS une entreprise d’IA radicale de gauche, hors de contrôle, dirigée par des personnes qui n’ont aucune idée de ce qu’est le vrai monde », a écrit Trump.
Les actions de l’administration Trump ont surpris de nombreux responsables à Washington, qui admiraient et comptaient sur la technologie d’Anthropic. La société a été la première à déployer ses modèles sur les réseaux classifiés du DOD, et elle a été saluée pour sa capacité à s’intégrer avec des contractants de la défense comme Palantir.
Anthropic a signé un contrat de 200 millions de dollars avec le Pentagone en juillet, mais alors que l’entreprise commençait à négocier le déploiement de Claude sur la plateforme d’IA GenAI.mil du DOD en septembre, les discussions ont stagné.
Le DOD voulait que Anthropic accorde un accès sans restriction à ses modèles pour tous les usages légaux, tandis qu’Anthropic voulait une garantie que sa technologie ne serait pas utilisée pour des armes autonomes complètes ou une surveillance de masse domestique.
Les deux parties n’ont pas réussi à parvenir à un accord, et le différend sera désormais tranché en justice.
« Tout le monde, y compris Anthropic, convient que le Département de la [Défense] est libre d’arrêter d’utiliser Claude et de chercher un fournisseur d’IA plus permissif », a déclaré Lin lors de l’audience mardi. « Je ne vois pas que ce soit ce dont cette affaire parle. La question dans cette affaire est très différente : savoir si le gouvernement a violé la loi. »
regarder maintenant
VIDÉO3:1203:12
Le juge estime que les actions du Pentagone semblent viser à paralyser Anthropic
Closing Bell : Overtime
Choisissez CNBC comme source préférée sur Google et ne manquez jamais un moment de la référence en matière d’actualités économiques.