Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Caltech open source le modèle 1-bit Bonsai : 8 milliards de paramètres en seulement 1,15 Go, tournant à 44 tokens/s sur iPhone
D’après la surveillance de 1M AI News, le laboratoire d’IA PrismML, cofondé par le mathématicien Babak Hassibi de Caltech, met fin à sa période d’invisibilité et publie en open source la série de grands modèles de langage Bonsai en 1-bit. Le modèle phare, 1-bit Bonsai 8B, comporte 8,2 milliards de paramètres, avec une empreinte mémoire de seulement 1,15 Go, soit environ 14 fois plus compact que les modèles 16-bit de même catégorie (environ 16 Go). Les poids sont rendus disponibles en téléchargement ouvert sur HuggingFace sous licence Apache 2.0, avec la publication de deux modèles plus petits, 4B (0,5 Go) et 1,7B (0,24 Go).
Bonsai 8B est un vrai modèle 1-bit de bout en bout : les couches d’embedding, d’attention, MLP et la tête de sortie n’utilisent toutes que des poids exprimés par +1 ou -1, sans aucun correctif haute précision. PrismML affirme que ses capacités d’inférence et de compréhension du langage sur des jeux de tests standard sont comparables à celles des modèles 16-bit en précision intégrale. La compression mathématique au cœur du projet a été développée par l’équipe pendant des années à Caltech ; les droits de propriété intellectuelle appartiennent à Caltech, et PrismML est le seul licencié exclusif. Le modèle a été entraîné sur des Google v4 TPU.
Vitesse observée : 136 tokens/s sur un M4 Pro, 440 tokens/s sur un RTX 4090, et environ 44 tokens/s sur un iPhone 17 Pro Max, tandis que le modèle standard 16-bit 8B ne peut être installé sur aucun iPhone. La consommation d’énergie est réduite d’environ 4 à 5 fois par rapport au modèle 16-bit. PrismML indique que le matériel existant n’est pas conçu pour l’inférence 1-bit ; les avantages en vitesse et en consommation d’énergie proviennent principalement de la réduction de l’empreinte mémoire. Si, à l’avenir, un matériel spécifiquement conçu pour le 1-bit apparaît (il suffit d’additionner et de soustraire, sans multiplication), l’efficacité pourra encore être améliorée d’un ordre de grandeur.
PrismML a finalisé un tour de financement SAFE et un tour de démarrage de 16,25 millions de dollars, avec des investisseurs Khosla Ventures, Cerberus Capital et Caltech. Vinod Khosla, fondateur de Khosla Ventures, affirme que « ce n’est pas une petite itération, mais une percée technique majeure, une percée mathématique, pas seulement un autre petit modèle ».