Futures
Accédez à des centaines de contrats perpétuels
CFD
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 40 modèles d’IA, avec 0 % de frais supplémentaires
DeepSeek bibliothèque d'opérateurs GPU open source DeepGEMM mise à jour majeure, ajout de Mega MoE fusionnant les cinq étapes de calcul MoE en un seul kernel
ME News Actualités, le 16 avril (UTC+8), selon le monitoring de Dongcha Beating, DeepSeek a publié aujourd’hui la plus grande mise à jour depuis le lancement open source de DeepGEMM. La bibliothèque d’opérateurs GPU, publiée lors de la « Semaine d’ouverture » en février de l’année dernière, qui se limitait initialement à la multiplication de matrices FP8, a été étendue pour couvrir une bibliothèque complète d’opérateurs essentiels à l’inférence de grands modèles, prenant en charge diverses précisions telles que FP8, FP4, BF16 pour les opérations matricielles, ainsi que des opérateurs spécialisés pour MoE et le scoring d’attention. La nouveauté principale est Mega MoE. L’architecture MoE (experts mixtes) est la base de modèles comme DeepSeek V3, nécessitant lors de l’inférence l’exécution séquentielle de cinq étapes : distribution EP, transformation linéaire de la première couche, activation SwiGLU, transformation linéaire de la seconde couche, fusion EP. La méthode traditionnelle consiste à appeler cinq kernels indépendants successivement, chaque appel devant attendre la fin du précédent, avec des transferts de données en mémoire vidéo. Mega MoE fusionne ces cinq étapes en un seul kernel, permettant à la communication NVLink et au calcul Tensor Core de se faire simultanément, éliminant ainsi les attentes intermédiaires et les transferts de données. Actuellement, seul le combo FP8×FP4 est supporté, nécessitant PyTorch 2.9 ou supérieur. L’équipe indique qu’elle continue d’optimiser cette fonctionnalité, et les données de performance seront publiées ultérieurement. Parmi les autres nouveautés figurent : la multiplication matricielle en précision mixte FP8×FP4, un opérateur de scoring d’attention FP4 supportant des MTP plus grands (Indexer), PDL (démarrage de dépendance programmée, une optimisation de la planification GPU pour réduire la latence de lancement des kernels), une vitesse de compilation JIT plus rapide, ainsi que plusieurs optimisations pour les opérations matricielles MoE. Cette mise à jour a également adapté la disposition des données MoE pour DeepEPv2. La description du PR précise : « Cette publication concerne uniquement le développement de DeepGEMM, et n’est pas liée à la publication de modèles internes. » (Source : BlockBeats)