Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
DeepSeek a publié un nouveau article
Dans l’attente impatiente de la nouvelle génération de modèles phares DeepSeek V4, l’équipe DeepSeek a discrètement publié un nouvel article académique.
Cet article a été coécrit par DeepSeek en collaboration avec l’Université de Pékin et l’Université Tsinghua, et il oriente ses recherches vers un maillon clé qui détermine la mise en œuvre pratique des grands modèles — la vitesse d’inférence, fournissant une solution système sous-jacente efficace pour des agents intelligents de plus en plus complexes.
Plus précisément, le nouvel article présente un système d’inférence innovant nommé DualPath, spécialement optimisé pour les performances d’inférence des grands modèles (LLM) sous des charges de travail d’agents.
En introduisant le mécanisme de “lecture à double chemin du KV-Cache (similaire à un cache mémoire)”, la charge du réseau de stockage est réaffectée, augmentant le débit d’inférence hors ligne jusqu’à 1,87 fois et le nombre moyen d’exécutions d’agents en ligne par seconde de 1,96 fois.
L’article mentionne dans l’introduction que les grands modèles évoluent rapidement des robots de conversation à réponse unique et des modèles d’inférence indépendants vers des systèmes d’agents — capables de planifier de manière autonome, d’appeler des outils et de résoudre des tâches pratiques par le biais d’interactions multiples.
Cette transformation du paradigme d’application entraîne une révolution majeure dans la charge de travail d’inférence des grands modèles : passant d’interactions traditionnelles homme-grand modèle à des interactions homme-grand modèle-environnement, avec un nombre d’interactions pouvant atteindre des dizaines, voire des centaines de tours.
(第一财经)