Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Appel d'urgence d'Anthropic : l'« ordre d'interdiction » du Pentagone risque d'entraîner des pertes de plusieurs milliards de dollars cette année
Anthropic poursuit activement par voie judiciaire la contestation de la décision du Département de la Défense des États-Unis de qualifier sa chaîne d’approvisionnement de « risque pour la sécurité nationale ».
Le 12 mars, selon CNBC, la société a déposé une demande auprès de la Cour d’appel fédérale du district de Columbia pour suspendre l’exécution de cette décision en attendant un réexamen judiciaire. Ce litige juridique découle de divergences persistantes concernant la réglementation de l’utilisation militaire des outils d’intelligence artificielle. Le secrétaire à la Défense, Lloyd Austin, a interdit à la Pentagon et à ses contractants d’utiliser les produits d’Anthropic, invoquant le refus de la société de lever ses restrictions sur l’utilisation de ses systèmes d’IA.
Le cœur du différend réside dans le fait qu’Anthropic maintient des restrictions sur l’usage militaire de ses systèmes d’IA, ce qui a conduit Austin à la qualifier de « risque pour la chaîne d’approvisionnement » et à interdire leur utilisation dans le système de défense.
Ce conflit juridique sur les limites de l’application militaire de l’IA évolue en une affaire potentiellement emblématique, susceptible de redéfinir la relation entre les entreprises technologiques et le système de défense américain.
Des centaines de clients interrogés, Anthropic affirme que la liste noire entraînera une perte de plusieurs milliards
Cette demande s’inscrit dans le cadre de la double offensive juridique lancée par Anthropic cette semaine. La société a également intenté une autre action en justice cette semaine devant la cour fédérale de Californie pour contester cette décision de liste noire.
Dans les documents déposés mercredi auprès de la Cour d’appel fédérale du district de Columbia, Anthropic indique que la décision du Département de la Défense concernant la chaîne d’approvisionnement causera à l’entreprise un « préjudice irréparable ». Selon les documents judiciaires d’Anthropic, plus de 100 clients ont déjà contacté la société à ce sujet.
L’avocat d’Anthropic a averti dans le dossier : « Selon l’estimation la plus optimiste d’Anthropic, d’ici 2026, cette action défavorable du gouvernement pourrait entraîner une perte de revenus de plusieurs centaines de millions, voire de plusieurs milliards de dollars. »
Avertissements de risque et clauses de non-responsabilité