Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Anthropic obtient le soutien du tribunal pour bloquer l'interdiction de Trump sur l'utilisation de ses outils d'IA
Le bras de fer juridique entre Anthropic et le département de la Défense américain connaît une première avancée.
Le jeudi 26 mars, un juge fédéral de Californie a estimé que les mesures de sanction prises par le gouvernement américain contre la société d’intelligence artificielle Anthropic seraient allées au-delà de ce qui est autorisé, et a ordonné la suspension temporaire des actions concernées.
Le juge de première instance, Rita F. Lin, a fait droit à la demande d’injonction temporaire d’Anthropic. Elle a ordonné de suspendre pendant une semaine les mesures de sanction du gouvernement à l’encontre de la société, en précisant que le tribunal poursuivrait l’examen de l’affaire. La juge a déclaré :
Auparavant, Anthropic soutenait que le département de la Défense et le gouvernement Trump l’avaient classée comme « risque pour la chaîne d’approvisionnement » et avaient ordonné aux organismes publics de cesser d’utiliser sa technologie, en violation des droits de première modification de la société.
Point central du litige : des restrictions d’usage des armes à l’origine de l’opposition
Ce face-à-face qui dure depuis plusieurs mois trouve sa source dans le refus d’Anthropic d’autoriser le département de la Défense à utiliser ses modèles Claude pour des systèmes d’armes létales entièrement autonomes ou pour une surveillance intérieure à grande échelle.
Plus tôt dans le mois, Anthropic a intenté une action en justice. Dans sa plainte, la société affirme que la reconnaissance d’un risque pour la chaîne d’approvisionnement et d’autres mesures de sanction pourraient causer à l’entreprise des pertes de plusieurs centaines de millions, voire de plusieurs dizaines de milliards de dollars. Dans la plainte, la société indique :
Pour l’heure, l’injonction temporaire restera en vigueur pendant une semaine, dans l’attente de l’examen plus approfondi du tribunal.
L’issue de cette affaire ne concerne pas seulement les intérêts commerciaux propres à Anthropic. Elle aura aussi des effets plus larges sur la définition des limites du pouvoir du gouvernement pour acheter des services d’intelligence artificielle, ainsi que sur la question de savoir si les entreprises technologiques peuvent imposer dans les contrats des restrictions d’usage éthique.
De plus, la décision portera un coup direct au plan du gouvernement visant à faire remplacer Claude par des organismes fédéraux. Étant donné que la technologie d’Anthropic est déjà profondément intégrée aux opérations gouvernementales, ce processus de remplacement s’avérait déjà particulièrement difficile.
Le département de la Défense a auparavant utilisé largement Claude dans des opérations militaires, notamment pour des tâches d’analyse liées au choix des cibles et aux frappes de missiles.
La juge remet en cause la logique du gouvernement, et les propos du ministre font l’objet d’un examen
Au cours de l’audience, la juge Lin a manifesté des doutes évidents quant aux arguments du gouvernement.
Elle a interrogé le conseiller juridique du gouvernement, en demandant : si le département de la Défense peut mettre fin directement à sa relation contractuelle avec Anthropic, pourquoi recourir au mécanisme de reconnaissance d’un risque pour la chaîne d’approvisionnement ? Et elle a déclaré sans détour que cela « ressemble à une méthode visant délibérément à faire pression sur Anthropic ».
S’agissant de questions impliquant le secrétaire à la Défense Pete Hegseth, le conseiller du gouvernement a fait valoir que Hegseth, dans un message sur les réseaux sociaux, avait affirmé que tout contractant ayant des activités avec les forces américaines ne devait pas collaborer avec Anthropic, mais que cette déclaration n’avait aucune valeur juridique ; elle ne constituerait donc pas un préjudice irréparable tel que celui invoqué par la société dans sa plainte.
Lorsque Lin a de nouveau interrogé le conseiller du gouvernement sur la raison pour laquelle Hegseth aurait publié une déclaration dépourvue de toute base juridique, ce dernier a déclaré ne pas pouvoir répondre.
Lin a également souligné que la série d’actions menées par le gouvernement contre Anthropic ne semble pas motivée par des considérations précises de sécurité nationale. Lin a écrit dans sa décision :