Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Sam Altman décortique la stratégie d'OpenAI face aux enjeux de défense américaine en matière d'IA
En mars 2025, Sam Altman, PDG d’OpenAI, a organisé une session publique de questions-réponses sur la plateforme X pour clarifier les circonstances entourant le contrat entre OpenAI et le Département de la Défense américain. Cet échange a généré un engagement massif : 6,6 millions de vues et plus de 7 500 réponses, reflétant l’intérêt croissant de la communauté tech pour les implications des partenariats AI avec le gouvernement américain.
Les négociations préalables et les refus de contrats classifiés
Selon Sam Altman, OpenAI n’avait dialogué que sur des collaborations non classifiées au cours des mois précédents et avait délibérément décliné plusieurs propositions relatives à des domaines classifiés. Ces mêmes opportunités ont par la suite été proposées à Anthropic. Cependant, après que le Département de la Défense américain ait rejeté la collaboration avec Anthropic, les autorités ont brutalement accéléré le déploiement de leurs initiatives classifiées auprès d’OpenAI. Altman a justifié la décision de signer rapidement ce contrat comme une nécessité pour « désamorcer la situation » et a précisé qu’il avait négocié pour obtenir des conditions équivalentes pour tous les autres laboratoires d’IA impliqués.
Anthropic, classification et implications industrie
Lorsqu’interrogé sur son absence de défense publique d’Anthropic, Sam Altman s’est montré direct. Il a qualifié la décision de classer Anthropic comme « risque de chaîne d’approvisionnement » de « catastrophique pour l’industrie, pour le pays et pour Anthropic lui-même ». Selon lui, il s’agit d’« une décision dommageable du Département de la Défense américain » dont il espère le retrait. Néanmoins, Altman a nuancé son soutien en suggérant qu’Anthropic semblait prioritairement préoccupée par l’incorporation de clauses restrictives spécifiques dans le contrat plutôt que par le respect de la législation en vigueur, et qu’elle pourrait rechercher un contrôle opérationnel supérieur au sien.
Les limites éthiques et constitutionnelles d’OpenAI
Interrogé sur les garde-fous éthiques, Sam Altman a affirmé sans détour : « Si on nous demande de faire quelque chose d’inconstitutionnel ou d’illégal, nous nous retirerons. Venez nous rendre visite en prison. » Cette formulation directe illustre le positionnement ferme d’OpenAI sur les limites incontournables de sa collaboration gouvernementale.
Démocratisation versus surveillance : le dilemme de l’IA
Le PDG d’OpenAI a abordé la question épineuse de la surveillance à l’étranger. Il a reconnu son malaise personnel face à la surveillance étrangère menée par les forces armées américaines, affirmant que la « démocratisation » de l’IA demeure son principe directeur, un objectif potentiellement contredit par les applications militaires. Toutefois, il a précisé : « Je ne crois pas que ce soit mon rôle de trancher cette question. » Cette déclaration révèle la tension entre les convictions personnelles d’Altman et les réalités du partenariat stratégique.
La question métapolitique : nationalisation et AGI
En conclusion de ses explications, Sam Altman a soulevé une question « implicitement présente dans de nombreuses interrogations mais jamais directement posée » : que se produirait-il si le gouvernement américain tentait de nationaliser OpenAI ou d’autres projets d’IA majeurs ? Il a révélé qu’il « considère depuis longtemps que le développement d’une AGI devrait peut-être relever d’une initiative gouvernementale », suggérant ainsi que le débat sur le contrôle de l’IA dépasse largement le cadre des partenariats actuels.