Futures
Accédez à des centaines de contrats perpétuels
CFD
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 40 modèles d’IA, avec 0 % de frais supplémentaires
L'équipe de He Kai-ming ELF : le modèle de diffusion linguistique fonctionne enfin
Selon la surveillance Beating, l’équipe de Hè Kǎimíng du MIT a publié un modèle de diffusion linguistique ELF (Embedded Language Flows). Il n’a pas suivi la voie autoregressive du style GPT « prédire le prochain token », mais a plutôt intégré la génération de texte dans un espace d’embedding continu, ne le convertissant en tokens discrets qu’à la dernière étape.
Les modèles de diffusion sont déjà matures dans la génération d’images, mais leur application au texte reste difficile : l’image est naturellement un signal continu, alors que le langage est composé de tokens discrets. Plusieurs modèles de diffusion continue pour le texte ont été proposés auparavant, soit en introduisant à plusieurs reprises une supervision au niveau des tokens dans la trajectoire de génération, soit en nécessitant un décodeur indépendant supplémentaire. La méthode d’ELF est plus propre : la plupart des étapes ne font que débruiter dans l’espace vectoriel continu, et la discrétisation finale est réalisée par un réseau à poids partagé.
Les résultats expérimentaux sont également percutants. Lors d’une évaluation de génération non conditionnelle avec OpenWebText, ELF-B, avec 105 millions de paramètres, a atteint environ 24,1 en perplexité générative (Gen. PPL) en utilisant 32 étapes d’échantillonnage, surpassant plusieurs modèles de référence en diffusion pour le langage, qu’ils soient discrets ou continus. Plus important encore, ELF-B n’a utilisé qu’environ 45 milliards de tokens d’entraînement, alors que les méthodes comparables dépassent généralement 500 milliards, ce qui représente une réduction d’environ un ordre de grandeur dans le nombre de tokens d’entraînement. Ce résultat indique au moins que la voie de diffusion continue n’est pas bloquée par la « discontinuité du langage » en modélisation, et que les problèmes rencontrés auparavant sont plus probablement liés à l’interface de modélisation et à la conception de l’échantillonnage.