Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Caltech publie le modèle open source True 1-Bit Model Bonsai : 8 milliards de paramètres pour seulement 1,15 Go, atteignant 44 tokens/s sur iPhone
Selon 1M AI News, le laboratoire d’IA PrismML, cofondé par le mathématicien de Caltech Babak Hassibi, est sorti du mode furtif et a publié la série open source de modèles de langage 1-bit Bonsai. Le modèle phare, 1-bit Bonsai 8B, compte 8,2 milliards de paramètres et n’occupe que 1,15 GB de mémoire, soit environ 14 fois plus compact que des modèles comparables sur 16 bits (environ 16 GB). Les poids sont disponibles au téléchargement sous la licence Apache 2.0 sur HuggingFace, avec deux modèles plus petits : 4B (0,5 GB) et 1.7B (0,24 GB). Bonsai 8B est un véritable modèle 1-bit de bout en bout : la couche d’embedding, la couche d’attention, la couche MLP et la tête de sortie représentent toutes des poids n’utilisant que +1 ou -1, sans aucun correctif en haute précision. PrismML affirme que ses capacités d’inférence et de compréhension du langage, sur des benchmarks standard, sont comparables à celles de modèles 16 bits à pleine précision. Les mathématiques de compression de base ont été développées par l’équipe au cours de plusieurs années à Caltech, avec une propriété intellectuelle détenue par Caltech, faisant de PrismML le seul licencié exclusif. Le modèle a été entraîné à l’aide de Google v4 TPU. Les vitesses mesurées incluent 136 tokens/s sur un M4 Pro Mac, 440 tokens/s sur un RTX 4090, et environ 44 tokens/s sur un iPhone 17 Pro Max, tandis que les modèles 8B standard en 16 bits ne peuvent être chargés sur aucun iPhone. La consommation d’énergie est réduite d’environ 4 à 5 fois par rapport aux modèles 16 bits. PrismML note que le matériel existant n’est pas conçu pour l’inférence 1-bit, et que les avantages de vitesse et d’énergie proviennent principalement de la réduction de l’usage mémoire ; si, à l’avenir, un matériel spécifiquement conçu pour des opérations 1-bit (nécessitant uniquement addition et soustraction, sans multiplication) émerge, l’efficacité pourrait s’améliorer d’un ordre de grandeur. PrismML a finalisé 16,25 millions de dollars de financement en SAFE et en seed, avec des investisseurs incluant Khosla Ventures, Cerberus Capital et Caltech. Vinod Khosla, fondateur de Khosla Ventures, a déclaré que « ce n’est pas une simple itération mineure, mais une percée technologique majeure, une percée mathématique, pas juste un autre petit modèle ».