Futures
Accédez à des centaines de contrats perpétuels
CFD
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 40 modèles d’IA, avec 0 % de frais supplémentaires
Un haut responsable de la Maison Blanche a dit qu'il fallait « examiner l'IA comme on examine un médicament », le lendemain, la Maison Blanche a dit qu'il avait été sorti de son contexte.
Selon la surveillance Beating, le 4 mai, le New York Times a rapporté que la Maison Blanche discutait de la mise en place d’un mécanisme de contrôle préalable à la publication des modèles d’IA, qui en était encore au stade de « réflexion ». Deux jours plus tard, la situation s’est aggravée : le mercredi, Kevin Hassett, directeur du Conseil économique national de la Maison Blanche, a directement déclaré sur Fox Business que le gouvernement étudiait un décret exécutif, exigeant que les modèles d’IA soient soumis à une révision gouvernementale avant leur lancement, « comme la FDA approuve les médicaments ». La première action de Trump après son entrée en fonction a été d’abroger le décret de Biden sur la sécurité de l’IA, et maintenant il veut mettre en place une pré-approbation plus stricte que celle de Biden. En moins de 24 heures, la Maison Blanche a rapidement tempéré la situation. Un haut responsable a déclaré jeudi que les propos de Hassett avaient été « sortis de leur contexte », et que la Maison Blanche cherchait « un partenariat » avec les entreprises plutôt qu’une « régulation gouvernementale ». La conseillère principale de la Maison Blanche, Susie Wiles, a publié un message pour calmer la situation tard mercredi soir sur X, affirmant que le gouvernement « ne choisit pas les gagnants et les perdants », et que la sécurité doit être assurée par l’innovation plutôt que par des bureaucrates. C’est la quatrième publication qu’elle a faite depuis la création de son compte officiel. Bien que le ton se soit adouci, les actions concrètes n’ont pas cessé. Selon trois personnes proches du dossier, la Maison Blanche discute de faire évaluer à l’avance par les agences de renseignement les modèles avant leur publication, afin de s’assurer que les services de renseignement américains puissent étudier et exploiter ces outils avant que la Russie et la Chine ne découvrent leurs nouvelles capacités. Le vice-ministre de la Défense, Emil Michael, a également exprimé son soutien à une évaluation préalable lors d’une conférence sur l’IA à Washington jeudi, déclarant que Mythos est essentiellement un problème de cybersécurité, « ces modèles finiront par arriver », et que le gouvernement doit mettre en place des mécanismes de réponse appropriés. Le Centre pour la normalisation et l’innovation en IA (CAISI), sous le département du Commerce, a signé en 2024 un accord d’évaluation volontaire avec OpenAI et Anthropic, et cette semaine, il a étendu le champ d’application à Google DeepMind, Microsoft et xAI. Le déclencheur direct de cette volte-face politique est la révélation par Anthropic le mois dernier que Mythos possède une capacité de détection de vulnérabilités si forte qu’elle ne peut pas être rendue publique. Mais la situation de la Maison Blanche est délicate : d’un côté, Trump a signé un décret interdisant aux agences fédérales d’utiliser les produits d’Anthropic, qualifiant ses dirigeants de « lunatiques de gauche » ; de l’autre, plusieurs agences fédérales demandent à accéder à Mythos pour tester leurs propres systèmes. La résistance à la pré-approbation obligatoire est forte dans l’industrie. Daniel Castro, président de la Fondation pour la technologie de l’information et l’innovation, a déclaré : « Si l’approbation peut être bloquée, c’est un gros problème pour n’importe quelle entreprise. Si une entreprise obtient l’approbation et une autre non, la différence d’accès au marché en quelques semaines ou mois peut être énorme. »