Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Microsoft lance son trio d'IA développé en interne : une ambition de créer d'ici 2027 de grands modèles avancés de manière autonome
L’entreprise technologique américaine Microsoft a annoncé jeudi le lancement officiel à grande échelle de trois modèles d’IA développés en interne, afin de couvrir un usage commercial plus large, montrant ainsi la volonté de la société de se détacher de sa dépendance à long terme envers son partenaire historique OpenAI.
Plus précisément, les trois modèles MAI-Transcribe-1, MAI-Voice-1 et MAI-Image-2 développés par l’équipe super intelligente en IA de Microsoft, couvrent trois capacités les plus rentables sur le plan commercial au sein de l’IA d’entreprise — la transcription de la voix, la génération de voix et la création d’images.
(Le PDG de Microsoft, Satya Nadella, annonce cette mise à jour, source : X)
Microsoft indique que MAI-Transcribe-1 est le modèle de transcription le plus précis parmi ceux les plus couramment utilisés sur le marché. Lors des tests couvrant toutes les langues, son taux d’erreur moyen s’établit à 3,9 %. Tandis que le taux d’erreur de GPT-Transcribe d’OpenAI est de 4,2 %, et celui de Gemini 3.1 Flash de 4,9 %.
Le modèle de génération vocale MAI-Voice-1 serait capable de générer en moins d’une seconde jusqu’à 60 secondes d’audio sur « un seul GPU », et de maintenir la cohérence de la voix lors de la génération de contenus longs.
Le modèle MAI-Image-2 a été publié pour la première fois le 19 mars et, jeudi, il a aussi été lancé à grande échelle avec les deux autres modèles. À l’heure actuelle, dans le classement « Large Model Arena » pour la génération d’images à partir de texte, ce modèle se classe au troisième rang, derrière les best-sellers de Google Nano Banana 2 et GPT-Image 1.5 d’OpenAI.
En comparaison horizontale des prix, MAI-Image-2 affiche un prix d’entrée pour la saisie de texte de 5 dollars pour chaque 1 million de jetons (tokens), et un prix de sortie d’images à partir de 33 dollars pour chaque 1 million de jetons. Le modèle de génération d’images Gemini 3 Pro de Google est de 120 dollars pour chaque 1 million de jetons, tandis que Gemini 3.1 Flash pour l’image est de 60 dollars pour chaque 1 million de jetons.
Objectif : développer en interne des modèles de pointe
La démarche la plus récente de Microsoft découle d’octobre dernier : à cette époque, la société a restructuré sa coopération avec OpenAI, ce qui a permis à Microsoft de poursuivre, seul ou avec des partenaires tiers, les droits liés à l’intelligence artificielle générale. Auparavant, le protocole permettait certes à Microsoft d’utiliser les droits de propriété intellectuelle d’OpenAI, mais interdisait en même temps de développer des systèmes d’IA concurrents.
Le PDG de l’IA de Microsoft, Mustafa Suleyman, a déclaré publiquement que l’objectif de l’équipe d’ici 2027 est d’« arriver à un niveau réellement à la pointe », en couvrant des modèles capables de répondre ou de générer du texte, des images et de l’audio.
Suleyman explique que la société construit la puissance de calcul nécessaire à l’entraînement de ses modèles, et déploie des puces Nvidia GB200 depuis octobre dernier.
Il dit : « Depuis lors, nous allons augmenter progressivement au cours des quelque 12 à 18 prochains mois, pour atteindre une puissance de calcul à l’échelle de la pointe. »
Cofondateur de Google DeepMind, Suleyman a rejoint Microsoft en 2024, où il est chargé d’intégrer l’IA à ses produits grand public. Après la signature de l’accord entre Microsoft et OpenAI en octobre dernier, Suleyman a pris en novembre dernier, à plein temps, la direction de l’équipe super intelligente en IA de Microsoft. Lors de la restructuration interne du mois dernier, ses responsabilités ont été réduites au développement de modèles : l’ancien dirigeant de Snap, Jacob Andrioluo, a pris en charge les produits d’assistants Copilot de Microsoft destinés aux utilisateurs professionnels et individuels.
Suleyman a déclaré aux médias : « Nous voulons souligner l’importance de faire progresser les capacités IA les plus avancées de notre propre initiative au cours des trois à cinq prochaines années, afin d’accomplir cette mission stratégique de l’autonomie à long terme. » Il a ajouté en même temps que la société continuera également à héberger des modèles développés par d’autres entreprises.
À long terme, l’accès profond de Microsoft aux droits de propriété intellectuelle d’OpenAI expirera en 2032 ; le développement de modèles en interne constitue donc aussi une importante stratégie de couverture contre les risques.
L’activité de modèles développés en interne de Microsoft, qui vient tout juste de démarrer, présente également de nombreuses faiblesses, suffisantes pour montrer que l’équipe de Suleyman aura beaucoup de travail à accomplir au cours de la prochaine année.
Par exemple, MAI-Image-2 ne prend actuellement en charge que le ratio 1:1 ; il ne propose pas d’options horizontales ou verticales, et les fonctions de retouche d’images à partir d’images ou la prise en charge d’images de référence, courantes dans d’autres applications IA, n’existent pas. MAI-Transcribe-1 ne peut pas distinguer les différents interlocuteurs dans une conversation, et ne prend pas en charge le biais de contexte ni la transmission en flux continu (streaming) ; Microsoft indique que ces trois fonctions sont en cours de développement.
(Source : Caixin)