Futures
Accédez à des centaines de contrats perpétuels
CFD
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 40 modèles d’IA, avec 0 % de frais supplémentaires
Microsoft open-source Phi-Ground : 4 milliards de paramètres, la précision de clics a surpassé Operator et Claude
Selon le suivi Beating, Microsoft a open source la famille de modèles Phi-Ground, spécialement conçue pour résoudre le problème « où cliquer sur cet écran » lors de la manipulation de l’IA. En fournissant une capture d’écran et une instruction, le modèle génère des coordonnées de clic précises. La version open source de 4 milliards de paramètres, combinée à un grand modèle pour la planification des instructions, a dépassé la précision de clic de l’OpenAI Operator et de Claude Computer Use dans le benchmark Showdown, et a remporté la première place dans toutes les cinq évaluations, y compris ScreenSpot-Pro, pour des modèles de moins de 100 milliards de paramètres.
L’équipe a effectué une validation à grande échelle avec plus de 40 millions de données, découvrant que les trois techniques d’entraînement couramment utilisées dans les articles académiques précédents deviennent inefficaces lorsque la quantité de données augmente. La méthode réellement efficace est très simple : traiter les coordonnées comme des nombres ordinaires, par exemple « 523, 417 ». Plusieurs articles précédents ont inventé un vocabulaire spécifique pour les coordonnées, espérant que le modèle parlerait des coordonnées comme des mots, mais lors de l’entraînement à grande échelle, ces nouveaux mots ne s’apprennent pas bien et provoquent même des défaillances du modèle. Un autre point clé est de placer l’instruction textuelle avant l’image lors de l’entrée. Les grands modèles lisent l’information de manière unidirectionnelle : ils lisent d’abord « cliquer sur l’icône de réglage bleu » puis regardent l’image, ce qui leur permet de savoir ce qu’il faut chercher lors du traitement des pixels ; à l’inverse, regarder d’abord l’image ne fait que balayer aveuglément, ce qui réduit considérablement l’efficacité.
L’équipe a également découvert que l’apprentissage par renforcement est utile pour les tâches purement visuelles. La méthode consiste à faire plusieurs prédictions de clics sur la même image, puis à comparer les résultats corrects et incorrects pour entraîner le modèle (cette méthode s’appelle DPO, une forme d’apprentissage par renforcement). Même après un ajustement fin complet du modèle, cette étape peut améliorer significativement la précision. Jusqu’ici, l’apprentissage par renforcement était principalement utilisé pour des tâches linguistiques nécessitant du raisonnement, mais le voir fonctionner dans des tâches de perception purement « regarder une image et cliquer » est une surprise. Pour résoudre le problème des boutons trop petits sur les écrans 4K (un bouton pouvant ne représenter que 0,07 % de la surface de l’écran), l’équipe a réduit proportionnellement la capture d’écran, puis l’a collée sur une grande toile blanche pour simuler un scénario où les éléments sont extrêmement petits sur un écran haute résolution. Cette technique est particulièrement efficace sur des logiciels complexes comme Photoshop.