Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Google Gemma 4 officiellement lancé : 4 tailles pour la première fois sous licence Apache 2.0, 31B, troisième plus grande open source au monde
D’après le suivi de 1M AI News, Google a officiellement lancé la famille de modèles open source Gemma 4, comprenant 4 variantes de tailles différentes, toutes sous licence Apache 2.0. Google indique qu’il s’agit d’une réponse aux retours de la communauté. La licence Apache 2.0 signifie que les développeurs peuvent exploiter commercialement, modifier et redistribuer librement, sans contraintes supplémentaires. Clément Delangue, cofondateur et PDG de Hugging Face, qualifie cette initiative de « grand jalon ».
Les 4 modèles sont conçus pour différents scénarios matériels :
Sur le classement texte du platforme d’évaluation anonyme de confrontations de grands modèles, Arena AI, le 31B se classe troisième parmi les modèles open source au niveau mondial, et le 26B se classe sixième. Google affirme que son modèle « dépasse en moyenne l’ampleur (taille) d’un modèle 20 fois plus grand ». Le modèle est construit à partir des mêmes recherches et de la même technologie que Gemini 3.
Les capacités clés couvrent la raisonnement et la planification multi-étapes, l’appel natif de fonctions et la sortie structurée JSON (pour les workflows d’Agent), la génération de code, la compréhension d’images et de vidéos (pour toute la gamme), et un entraînement natif dépassant 140 langues. Les modèles de bord prennent en charge une fenêtre de contexte 128K, et les grands modèles jusqu’à 256K. E2B et E4B, optimisés conjointement avec l’équipe Pixel de Google, Qualcomm et MediaTek, peuvent fonctionner sur des appareils tels que les téléphones, Raspberry Pi, NVIDIA Jetson Orin Nano, etc. Les développeurs Android peuvent construire des applications d’Agent via le prototype AICore Developer Preview, afin de préparer une compatibilité pour le futur Gemini Nano 4.
Côté écosystème, dès le premier jour, la prise en charge s’étend à des frameworks majeurs comme Hugging Face, vLLM, llama.cpp, MLX, Ollama, NVIDIA NIM, LM Studio, Unsloth, etc. Vous pouvez les tester directement dans Google AI Studio (31B et 26B) et AI Edge Gallery (E4B et E2B). Depuis la sortie de la première génération, la série Gemma a été téléchargée plus de 400 millions de fois, et la communauté a dérivé plus de 100 000 variantes.