Futures
Accédez à des centaines de contrats perpétuels
CFD
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 40 modèles d’IA, avec 0 % de frais supplémentaires
Pourquoi les grands modèles échouent à générer 'Ma Jiaqi' : l'analyse des jetons de MiniMax révèle que près de 5 % des jetons sont oubliés après l'entraînement
Selon la surveillance de Dongcha Beating, MiniMax a publié un blog technique révélant l’enquête sur la cause profonde de l’incapacité de son modèle de grande taille de la série M2 à sortir le nom « Ma Jiaqi ». L’enquête a commencé à partir d’un cas spécifique et a finalement révélé un problème de dégradation systémique affectant tout le vocabulaire. La cause profonde a été identifiée comme le tokenizer (un composant qui segmente le texte en unités pour le traitement par le modèle) fusionnant « Jiaqi » en un token autonome lors de l’entraînement. Lors de la phase de pré-entraînement, le modèle a rencontré une grande quantité de texte Internet et a appris ce token ; cependant, dans les données de dialogue post-entraînement, il y avait moins de 5 échantillons contenant « Jiaqi ». Pendant le post-entraînement, des tokens à haute fréquence comme les marqueurs tool_call et les symboles de code ont continuellement mis à jour l’espace vectoriel environnant, repoussant les tokens à faible fréquence comme « Jiaqi » dans la mauvaise direction. Le modèle « reconnaît » toujours Ma Jiaqi et peut répondre avec précision avec des informations connexes ; il a simplement perdu la capacité de sortir ce token. L’équipe a ensuite effectué une analyse complète d’environ 200 000 tokens dans tout le vocabulaire et a constaté qu’environ 4,9 % des tokens avaient subi une dégradation significative. La dégradation la plus grave a été observée en japonais : 29,7 % des tokens japonais ont montré une dégradation importante, dépassant largement le coréen (3,3 %), le russe (3,7 %), le chinois (3,9 %) et l’anglais (3,5 %). D’autres tokens notoirement dégradés comprenaient des termes de spam SEO Internet comme « serveur privé légendaire » et « avortement indolore », avec des mécanismes identiques à celui de « Jiaqi ». La grave dégradation en japonais a également résolu une vieille énigme. Auparavant, le modèle mélangeait occasionnellement des caractères russes ou coréens dans des dialogues japonais, mais la cause était inconnue. Cette analyse a indiqué qu’après le dérapage des paramètres des tokens japonais, ils sont devenus confus avec des tokens d’autres langues dans l’espace vectoriel, ce qui entraînait une activation incorrecte des tokens japonais (mélange de langues) et repoussait les tokens chinois à faible fréquence adjacents hors de la plage de probabilité normale (oubli de tokens). La solution consiste à construire un jeu de données synthétique couvrant tout le vocabulaire, permettant au modèle de pratiquer chaque token par des tâches de répétition simples. Les résultats ont été immédiats : la proportion de caractères russes mélangés dans les réponses japonaises est passée de 47 % à 1 %, et la stabilité des paramètres de sortie pour tout le vocabulaire (similarité cosinus) est passée d’un minimum de 0,329 à plus de 0,97.