Futures
Accédez à des centaines de contrats perpétuels
CFD
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 40 modèles d’IA, avec 0 % de frais supplémentaires
Sakana AI s'associe à NVIDIA : faire en sorte que le GPU évite 80 % des calculs inutiles des grands modèles, accélérant l'inférence H100 de 30 %
Selon la surveillance Beating, Sakana AI en collaboration avec NVIDIA a open source un format de données clairsemées appelé TwELL et un noyau d’accélération associé, permettant avec succès au GPU de sauter les calculs inutiles dont le « résultat est proche de zéro » lors de l’exécution de grands modèles. Cette solution, sans perte de précision du modèle, augmente la vitesse d’inférence du H100 jusqu’à 30 %, accélère l’entraînement jusqu’à 24 %, et réduit considérablement la mémoire vidéo maximale.
Les couches feedforward (FFN) des grands modèles consomment la majorité des paramètres et de la puissance de calcul. Mais en réalité, lors de chaque génération de texte, plus de 80 % des neurones sont en « état de sommeil » (valeurs d’activation proches de zéro), sans contribution à la résultat final. Si l’on pouvait sauter ces neurones, cela permettrait d’économiser une énorme puissance de calcul.
Cependant, les GPU modernes sont naturellement spécialisés dans le calcul de matrices denses uniformes. Si l’on utilise des méthodes traditionnelles pour repérer et lire des données dispersées, le coût de recherche et de lecture de ces données annulerait tout gain de puissance de calcul économisé.
Le format TwELL a été conçu précisément pour briser cette contrainte matérielle. Il s’aligne parfaitement avec la logique de parallélisme du GPU : au lieu de rassembler des données non nulles à travers différentes régions comme dans les méthodes traditionnelles, il divise les données en petits blocs (tuiles) que le GPU traite efficacement.
Ainsi, chaque cœur de calcul du GPU peut directement empaqueter localement les données utiles, éliminant complètement le coût de lecture/écriture globales en mémoire vidéo, et s’intégrant parfaitement dans le pipeline d’accélération moderne.
Dans un modèle de 1,5 milliard de paramètres, une simple régularisation légère lors de l’entraînement suffit à réduire la proportion de neurones réellement nécessaires à moins de 2 %, sans dégradation des performances sur sept tâches en aval.
Les données révèlent également une règle : plus le modèle est grand, plus les neurones en sommeil sont nombreux (le pourcentage de non-zéro dans un modèle de 2 milliards de paramètres est inférieur de 38 % à celui d’un modèle de 500 millions).
Cela signifie qu’à l’avenir, en poursuivant la création de modèles encore plus grands, cette optimisation spécifique au matériel sous-jacent libérera des gains de performance encore plus significatifs.