Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Le juge rejette la tentative du Pentagone de « cripple » Anthropic
Le juge rejette la tentative du Pentagone de “crippler” Anthropic
Il y a 2 jours
PartagerSauvegarder
Kali HaysReporter en technologie
PartagerSauvegarder
Anthropic a remporté un premier round dans son procès contre le Pentagone.
Le juge Rita Lin a statué jeudi en faveur de l’entreprise d’intelligence artificielle (IA) dans une ordonnance constatant que les directives du président Donald Trump et du secrétaire à la Défense des États-Unis, Pete Hegseth, demandant à toutes les agences gouvernementales de cesser immédiatement d’utiliser les outils d’Anthropic ne pouvaient pas être appliquées pour le moment.
Le juge Lin a écrit dans son ordonnance que le gouvernement tentait de “crippler Anthropic” et de “refroidir le débat public” en raison des préoccupations de l’entreprise concernant l’utilisation de sa technologie par le Département de la Défense des États-Unis.
“Cela semble être une représaille classique en vertu du Premier Amendement”, a ajouté le juge.
L’ordonnance signifie que les outils d’Anthropic, comme Claude, continueront d’être utilisés dans le gouvernement et par toute entreprise externe travaillant avec l’armée jusqu’à ce que le procès soit résolu.
Un porte-parole du secrétaire à la Défense a renvoyé la BBC aux publications de jeudi soir sur X d’Emil Michael, le sous-secrétaire à la Défense des États-Unis.
L’une des publications de Michael a qualifié l’ordonnance du juge Lin de “scandale” et a affirmé qu’elle contenait “des dizaines d’erreurs factuelles” sans citer d’erreurs spécifiques.
Une porte-parole d’Anthropic a déclaré que l’entreprise était “ravie” de la décision du tribunal fédéral de Californie, mais que son attention “restait sur le travail productif avec le gouvernement pour s’assurer que tous les Américains bénéficient d’une IA sûre et fiable.”
La Maison Blanche n’a pas répondu à une demande de commentaire.
Anthropic a poursuivi le Département de la Défense et un certain nombre d’autres agences plus tôt ce mois-ci après que Trump a publiquement critiqué l’entreprise et que Hegseth l’a qualifiée de “risque pour la chaîne d’approvisionnement” – la première fois qu’une entreprise américaine reçoit publiquement une telle désignation.
La désignation signifie qu’un outil ou service n’est pas suffisamment sécurisé pour un usage gouvernemental et est historiquement réservé aux entreprises basées dans des pays adverses.
Anthropic a déclaré dans son procès que ses activités avaient été impactées par les actions du gouvernement et que son droit à la liberté d’expression avait été violé.
Le Pentagone a soutenu dans l’affaire qu’il craignait ce qu’Anthropic pourrait faire avec sa technologie, largement utilisée dans les opérations gouvernementales et militaires, en raison de son refus d’accepter de nouveaux termes contractuels. Cela a créé un besoin réel pour l’étiquette de risque pour la chaîne d’approvisionnement.
Le juge Lin a noté dans son ordonnance que Trump et Hegseth, dans leurs déclarations publiques, avaient qualifié Anthropic de “woke” et composé de “fous de gauche”, et non de son manque de sécurité.
“Si cela n’était qu’un simple blocage contractuel, le DoW aurait présumément simplement cessé d’utiliser Claude”, a écrit le juge Lin, faisant référence au Département de la Guerre, un nom secondaire pour le Département de la Défense. “Les actions contestées, cependant, dépassent largement le cadre de ce qui pourrait raisonnablement répondre à un tel intérêt de sécurité nationale.”
Anthropic avait négocié avec le Département de la Défense pendant des mois avant de déposer son procès concernant de nouvelles exigences liées à une expansion prévue de son contrat de 200 millions de dollars.
Le Pentagone voulait que le contrat stipule uniquement qu’il pouvait utiliser les outils d’Anthropic pour “toute utilisation légale”. Anthropic et son PDG Dario Amodei étaient préoccupés par le fait que cela ouvrirait la porte à l’utilisation de ses outils pour la surveillance de masse des Américains et des armes entièrement autonomes.
Le conflit a éclaté au grand jour en février, Hegseth fixant un délai pour qu’Anthropic accepte ses nouveaux termes contractuels. L’entreprise a refusé de le faire.
Intelligence artificielle
Militaire
Donald Trump
Technologie