Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
L'administration Trump fait appel d'une décision qui a bloqué l'action du Pentagone contre Anthropic concernant le litige sur l'IA
SAN FRANCISCO (AP) — L’administration Trump fait appel d’une ordonnance d’une juge qui bloque le gouvernement fédéral d’adopter des mesures punitives contre l’entreprise d’intelligence artificielle Anthropic, après un différend avec le Pentagone au sujet de l’usage militaire de l’IA.
Les avocats du ministère de la Justice ont déposé, jeudi, à San Francisco, un avis indiquant leur intention de faire appel du jugement rendu la semaine dernière par la juge de district américaine Rita Lin. La Cour d’appel du 9e circuit, qui examinera l’ordonnance de Lin, a fixé au 30 avril un délai pour que le ministère de la Justice dépose des documents exposant leurs raisons pour lesquelles la décision devrait être annulée.
La semaine dernière, Lin a déclaré bloquer le Pentagone lorsqu’il qualifie Anthropic de risque pour la chaîne d’approvisionnement. Elle a aussi déclaré bloquer l’application de la directive du président Donald Trump sur les réseaux sociaux, ordonnant à toutes les agences fédérales de cesser d’utiliser Anthropic et son chatbot Claude.
Lin a déclaré que les « mesures punitives “généralisées” » prises contre l’entreprise d’IA par l’administration Trump et le secrétaire à la Défense Pete Hegseth semblaient arbitraires, capricieuses et pourraient « mettre à mal Anthropic », en particulier l’usage par Hegseth d’une autorité militaire rare, auparavant dirigée contre des adversaires étrangers.
34
“Rien dans le texte de la loi qui régit l’affaire ne soutient l’idée orwellienne selon laquelle une entreprise américaine pourrait être qualifiée d’adversaire potentiel et de saboteur des États-Unis pour avoir exprimé son désaccord avec le gouvernement”, a écrit Lin.
Le mois dernier, un haut responsable du Pentagone a qualifié l’ordonnance de Lin de « disgrâce ». Le sous-secrétaire à la Défense américain Emil Michael, directeur des technologies du Pentagone, a déclaré sur les réseaux sociaux qu’elle perturberait la « pleine capacité de Hegseth à mener des opérations militaires avec les partenaires qu’il choisit ».
Lin a maintenu en suspens son ordonnance pendant une semaine, donnant du temps au Pentagone pour porter l’affaire devant la Cour d’appel du 9e circuit. Elle a aussi déclaré que son ordonnance n’oblige pas le Pentagone à utiliser les produits d’Anthropic et ne l’empêche pas de passer à d’autres fournisseurs d’IA.
Anthropic a également déposé une affaire distincte, plus ciblée, qui est toujours en attente devant la cour d’appel fédérale de Washington, D.C. Cette affaire concerne une autre règle que le Pentagone utilise pour tenter de déclarer qu’Anthropic présente un risque pour la chaîne d’approvisionnement.
Trump et Hegseth ont annoncé publiquement leurs actions contre Anthropic le 27 février, après que des négociations autour d’un contrat de défense ont échoué concernant la tentative de l’entreprise d’empêcher le déploiement de sa technologie d’IA dans des armes entièrement autonomes ou dans la surveillance des Américains. Le Pentagone avait fait valoir qu’il devrait pouvoir utiliser Claude de toute façon qu’il juge conforme au droit.
Plusieurs parties tierces avaient déposé des mémoires juridiques en soutien à l’affaire d’Anthropic, notamment Microsoft, des associations professionnelles du secteur, des travailleurs de la tech de rang et les leaders militaires américains à la retraite, ainsi qu’un groupe de théologiens catholiques.