Futures
Accédez à des centaines de contrats perpétuels
CFD
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 40 modèles d’IA, avec 0 % de frais supplémentaires
L'administration Trump va examiner les modèles d'IA de Google, Microsoft, xAI avant leur sortie publique
fermer
vidéo
Les marchés commencent tout juste à diverger un peu avec le conflit en Iran, dit Josh Schafer
Le rédacteur en chef de la newsletter Barrons Roundtable, Josh Schafer, analyse le marché boursier et les prix du pétrole face au conflit au Moyen-Orient sur Varney & Co.
L’administration Trump a annoncé mardi avoir conclu de nouveaux accords avec Microsoft, Google DeepMind et xAI d’Elon Musk pour renforcer la collaboration avec les grandes entreprises technologiques dans la recherche sur l’intelligence artificielle (IA) et la sécurité.
Le Centre pour les Normes et l’Innovation en IA (CAISI), qui fait partie de l’Institut National des Normes et de la Technologie du Département du Commerce, travaillera avec les entreprises d’IA sur des évaluations avant déploiement ainsi que sur des recherches ciblées sur les capacités de l’IA de pointe et la sécurité de l’IA.
Les nouveaux accords s’appuient sur des partenariats précédemment annoncés entre le CAISI et ces entreprises, soutenant le partage d’informations, favorisant des améliorations volontaires des produits et assurant une compréhension claire par le gouvernement des capacités de l’IA et de l’état de la compétition internationale en matière d’IA.
« La science de la mesure indépendante et rigoureuse est essentielle pour comprendre l’IA de pointe et ses implications pour la sécurité nationale », a déclaré le directeur du CAISI, Chris Fall. « Ces collaborations accrues avec l’industrie nous aident à développer notre travail dans l’intérêt public à un moment critique. »
COMMENT L’EXPOSITION À L’IA REFAÇONNE LES EMPLOIS DANS LES DOMAINES CRÉATIFS
L’administration Trump a annoncé ces accords sur l’IA via le CAISI avec plusieurs grandes entreprises technologiques. (Win McNamee/Getty Images)
Les développeurs fournissent fréquemment au CAISI des modèles ayant réduit ou supprimé des garde-fous pour évaluer les capacités et risques liés à la sécurité nationale.
Les évaluateurs de diverses agences gouvernementales peuvent participer aux évaluations et fournir régulièrement des retours via le groupe de travail TRAINS, qui rassemble des experts interagences concentrés sur les préoccupations de sécurité nationale liées à l’IA.
Les accords du CAISI soutiennent les tests en environnements classifiés et ont été conçus avec une flexibilité pour répondre aux avancées continues de l’IA.
ZUCKERBERG DIT QUE LES LICENCIEMENTS DE META SONT LIÉS AUX DÉPENSES EN IA, ET NE EXCLUT PAS DE FUTURS LICENCIEMENTS
Microsoft a déclaré que le partenariat avec le CAISI est nécessaire pour instaurer la confiance et la crédibilité dans les systèmes d’IA avancés. (Cesc Maymo / Getty Images)
Natasha Crampton, responsable de l’IA chez Microsoft, a déclaré dans un communiqué que ces accords « feront progresser la science des tests et de l’évaluation de l’IA, notamment par des travaux collaboratifs pour tester les modèles de pointe de Microsoft, évaluer les garde-fous, et aider à atténuer les risques pour la sécurité nationale et la sécurité publique à grande échelle. »
Crampton a ajouté que « des tests rigoureux et continus sont essentiels pour instaurer la confiance dans les systèmes d’IA avancés. »
ELON MUSK DIT AVOIR ÉTÉ UN ‘FOU’ POUR AVOIR FINANCÉ OPENAI : RAPPORT
Google DeepMind, une filiale de Google, a également signé les nouveaux accords avec le CAISI. (Marlena Sloss/Bloomberg via Getty Images)
« Des tests bien conçus nous aident à comprendre si nos systèmes fonctionnent comme prévu et à fournir les bénéfices qu’ils sont censés offrir. Les tests nous aident aussi à anticiper les risques, tels que les cyberattaques pilotées par l’IA et autres usages criminels des systèmes d’IA, qui peuvent émerger une fois que des systèmes avancés sont déployés dans le monde », a expliqué Crampton.
Microsoft a également annoncé un accord similaire avec l’Institut de Sécurité de l’IA du Royaume-Uni (AISI) pour réguler les tests et l’évaluation de l’IA.
OBTENEZ FOX BUSINESS EN CLIQUANT ICI