Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 30 modèles d’IA, avec 0 % de frais supplémentaires
Hugging Face publie en open source ml-intern, un agent de recherche en apprentissage automatique pour la lecture automatisée de papiers, la sélection de données et la formation
Selon la surveillance de Dongcha Beating, Hugging Face a open-sourcé ml-intern, un agent de recherche en apprentissage automatique capable d’accomplir de manière autonome l’ensemble du processus de « lecture d’articles, organisation de jeux de données, lancement d’entraînements GPU, évaluation des résultats et itérations d’amélioration ». Le projet est construit sur leur propre framework smolagents et offre un accès CLI et web, avec le code disponible sur GitHub. La chaîne d’outils de ml-intern est conçue autour de l’écosystème Hugging Face : il récupère des articles sur arXiv et HF Papers et effectue une lecture approfondie le long des chaînes de citation ; il parcourt les jeux de données sur HF Hub, vérifie leur qualité, les reformate, puis les utilise pour l’entraînement ; lorsqu’il n’y a pas de GPU local, il peut appeler HF Jobs pour lancer des tâches d’entraînement dans le cloud, lisant automatiquement les résultats d’évaluation, diagnostiquant les causes d’échec, et relançant après la fin de l’entraînement. Par défaut, il utilise Claude Sonnet 4.5 pour piloter la boucle de décision, avec un maximum de 300 itérations par exécution et une compression automatique du contexte dépassant 170 000 tokens. Hugging Face a fourni trois études de cas dans leur post de lancement. Dans une tâche de raisonnement scientifique, l’agent a identifié les jeux de données OpenScience et NemoTron-CrossThink à partir de la chaîne de citation d’un article de référence, filtré sept variantes parmi ARC, SciQ et MMLU en fonction de leur difficulté, et a effectué 12 cycles de SFT sur Qwen3-1.7B, augmentant le score GPQA de 10 % à 32 % en moins de 10 heures. Dans un scénario médical, l’agent a déterminé que la qualité des jeux de données existants était insuffisante et a écrit de manière autonome un script pour générer 1 100 points de données synthétiques, augmentant le jeu de données par 50 fois pour l’entraînement, surpassant Codex de plus de 60 % sur HealthBench. Dans un scénario mathématique compétitif, l’agent a écrit de manière indépendante un script d’entraînement GRPO et lancé l’entraînement sur un A100 via HF Spaces, observant un effondrement de la récompense et menant des expériences d’ablation pour en étudier la cause.