Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
J'ai remarqué une tendance intéressante face à l'intégration croissante de l'IA dans le domaine de la défense. Le Pentagone a sérieusement renforcé la pression sur Anthropic, exigeant un accès complet au modèle Claude pour une utilisation militaire. D'après les rapports, le secrétaire à la Défense Pét Hegset a donné à l'entreprise un ultimatum final — accepter les conditions du Pentagone d'ici la fin de la semaine ou perdre ses contrats militaires et devenir un risque pour l'approvisionnement.
Que demande précisément le Pentagone ? Un contrôle total sur la technologie, une utilisation sans restrictions (sauf législation), et la volonté d'appliquer la loi sur la production de défense pour contraindre à la coopération. Sur le plan militaire, cela ressemble à une pression classique de l'État sur une entreprise privée.
Mais ce qui est intéressant, c'est que le CEO d'Anthropic, Dario Amodei, résiste. La société insiste sur des garde-fous, ne veut pas que Claude soit utilisé pour la surveillance de masse, exige un contrôle humain dans les décisions finales concernant la destruction de cibles. Amodei s'inquiète que le modèle puisse halluciner, ce qui, sans intervention humaine, pourrait entraîner des erreurs fatales. C'est logique, honnêtement.
Le contexte est encore plus captivant. Il s'avère que Claude a déjà été utilisé par l'armée américaine — aidant dans des opérations, y compris des frappes contre des cibles. Cela a également provoqué une escalade de la situation.
Pendant qu'Anthropic et le Pentagone négocient, les concurrents ne restent pas inactifs. Le Pentagone étend activement son portefeuille de solutions IA dans le domaine militaire. Il intègre Grok de xAI dans des systèmes militaires, a signé un contrat de plus de 99 millions avec TurbineOne pour des solutions hors ligne de reconnaissance des menaces (drones, positions ennemies), et même un accord de 200 millions avec OpenAI pour le développement de prototypes d'IA pour la sécurité nationale.
Il en résulte qu'Anthropic se trouve dans une position délicate. D'un côté, d'énormes contrats et une influence dans le domaine militaire. De l'autre, le risque de dommages réputationnels et de questions éthiques. La question est de savoir qui cédera en fin de compte — l'État ou l'entreprise qui se présente jusqu'à présent comme un défenseur d'une IA responsable.