Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Microsoft et Google annoncent le même jour de nouveaux modèles d'IA : des capacités combinées de reconnaissance vocale, d'imagerie et de fonctionnalités open source locales.
Microsoft et Google ont tous deux annoncé jeudi le lancement de nouveaux modèles d’IA, mais les différences sont nettes : Microsoft déploie un nouveau modèle de base, MAI, qui n’est disponible que via son environnement Azure Foundry et la plateforme MAI Playground, réservée aux États-Unis ; tandis que Google lance un tout nouveau modèle open source, Gemma 4, qui peut être exécuté en local. En outre, Google a modifié la licence de ces nouveaux modèles open source pour passer à Apache 2.0.
Trois modèles MAI « de niveau mondial » développés en interne
Les trois modèles MAI « de niveau mondial » développés en interne par Microsoft comprennent :
Tout d’abord, MAI-Transcribe-1, un modèle « à la pointe » de transcription de la voix vers du texte, capable de comprendre 25 des langues les plus largement utilisées dans le monde. Son taux de transcription par lots est supérieur de 2,5 fois à celui de la solution Azure Fast existante de Microsoft.
Ensuite, MAI-Voice-1, un nouveau modèle de génération de voix : il suffit de 1 seconde pour générer 60 secondes d’audio. De plus, il prend en charge la création de voix personnalisées dans Microsoft Foundry à partir d’exemples de courts enregistrements audio.
Enfin, MAI-Image-2, un modèle texte-image plus rapide. Il est déjà commencé à être déployé dans Copilot, et sera ensuite progressivement appliqué à Bing et à PowerPoint.
Microsoft indique :
Le modèle open source Gemma 4 de Google
Le modèle open source Gemma 4 de Google est distribué sous licence Apache 2.0, plutôt que d’utiliser la licence Gemma personnalisée en vigueur auparavant. Google affirme que ces modèles disposent de capacités avancées de raisonnement, de flux de travail de type agent, de génération de code, ainsi que de capacités de génération visuelle et audio, et qu’ils sont proposés en quatre versions différentes, optimisées pour l’exécution en local, et même capables de tourner sur « des milliards d’appareils Android ».
Google indique :
Parmi eux, les versions Gemma 4 les plus importantes, 26B et 31B, visent à fonctionner sur des GPU grand public et peuvent être utilisées pour alimenter des IDE, des assistants de programmation et des flux de travail de type agent. En revanche, les versions plus légères E2B et E4B mettent davantage l’accent sur les capacités multimodales et le traitement à faible latence, adaptés aux appareils mobiles et aux appareils de l’Internet des objets (y compris le Raspberry Pi). Ces modèles prennent aussi en charge l’exécution entièrement hors ligne.
Les modèles open source Gemma 4 de Google peuvent être téléchargés sur plusieurs plateformes, notamment Hugging Face, Kaggle et Ollama. Google souligne :
Plus d’informations, mises à jour en continu
Avertissement relatif aux risques et clause de non-responsabilité