Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 30 modèles d’IA, avec 0 % de frais supplémentaires
Perplexity révèle la méthode post-formation pour l'agent de recherche, le modèle Qwen3.5 dépasse GPT-5.4 en précision et en coût
Selon la surveillance de Dongcha Beating, l’équipe de recherche Perplexity a publié un article technique détaillant le processus post-formation de son agent de recherche Web. Ce processus est basé sur les modèles open-source Qwen3.5-122B-A10B et Qwen3.5-397B-A17B, utilisant une approche en deux étapes : d’abord, un ajustement supervisé (SFT) est utilisé pour établir les comportements nécessaires au déploiement, tels que le respect des instructions et la cohérence linguistique ; ensuite, l’apprentissage par renforcement de la politique en ligne (RL) optimise la précision de la recherche et l’efficacité de l’utilisation des outils. La phase RL utilise l’algorithme GRPO, avec des données d’entraînement composées de deux parties : d’abord, un ensemble de questions-réponses vérifiables multi-sauts développé en interne, qui construit des questions nécessitant 2 à 4 sauts de raisonnement à partir de requêtes internes initiales et vérifie l’unicité des réponses avec plusieurs solveurs indépendants ; ensuite, des données de dialogue général basées sur des critères d’évaluation (rubric), qui transforment les exigences de déploiement telles que le respect des instructions et les contraintes de format en conditions atomiques vérifiables objectivement pour empêcher la dégradation des comportements établis lors du SFT dans la phase RL. Le cœur de la conception de la récompense est l’agrégation contrôlée : les scores de préférence ne sont pris en compte dans les calculs que lorsque la ligne de base est correcte (c’est-à-dire, la question-réponse est correcte ou tous les critères d’évaluation sont remplis), empêchant ainsi les signaux de préférence élevés de masquer des erreurs factuelles. Des pénalités d’efficacité sont appliquées en utilisant une méthode d’ancrage intra-groupe, où les réponses correctes du même groupe servent de référence pour imposer des pénalités douces sur le nombre excessif d’invocations d’outils et la longueur des générations. L’évaluation montre que le Qwen3.5-397B-SFT-RL post-entraîné fonctionne de manière optimale sur plusieurs benchmarks de recherche. Sur FRAMES, une seule invocation d’outil atteint 57,3 %, dépassant GPT-5.4 de 5,7 points de pourcentage et Sonnet 4.6 de 4,7 points. Avec un budget moyen (4 invocations d’outils), il atteint 73,9 %, avec un coût de 2,0 cents par requête ; dans les mêmes conditions, GPT-5.4 atteint 67,8 % à 8,5 cents, et Sonnet 4.6 atteint 62,4 % à 15,3 cents. Les données de coût sont calculées sur la base des prix API disponibles publiquement de chaque fournisseur, excluant l’optimisation du cache.