Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Les modèles open source sont en train de rattraper leur retard, mais qu'est-ce qu'ils finissent par dépasser exactement ?
Open source rattrape, mais il faut préciser ce qui est réellement rattrapé
Z.ai publie GLM-5.1, et Modal est pratiquement mis en ligne en même temps via l’hébergement. Deux éléments superposés valent mieux que les considérer séparément.
Le modèle est un MoE de 754B (paramètres actifs de 40B). SWE-Bench Pro affiche 58,4 % ; sur les tâches de codage, c’est à peu près au niveau de GPT-5.4 et d’Opus 4.6 ; il peut tourner en mode autonome pendant 8 heures complètes, et supporter des milliers d’itérations sans s’effondrer. BenchLM est actuellement classé à la 10e place ; KernelBench montre qu’il est 3,6 fois plus rapide que les solutions open source précédentes.
Sur les réseaux sociaux, les réactions divergent : Bindu Reddy affirme que c’est une preuve que l’open source rattrape l’open closed ; Victor Taelin doute que « 500+ tokens/s » soit réaliste en précision FP8, et que le déploiement réel ne fournirait probablement qu’environ 200 tps. Les deux ont partiellement raison : le modèle est vraiment solide, mais les chiffres marketing sont probablement trop optimistes.
Cette fois, par rapport aux publications open source précédentes, il y a quelques différences :
MarkTechPost et Constellation interprètent cela comme un rapprochement de l’écart de « 6 mois » entre open source et closed source. Dans le sens « agents de codage », ce jugement est très probablement vrai. Z.ai utilise une licence MIT, et une nouvelle phase de fine-tuning est déjà en préparation.
Mais ne pas en tirer la conclusion que l’open source triomphe entièrement à contre-courant. Les modèles propriétaires restent nettement en avance sur l’alignement sécurité et l’inférence multimodale. Ce qui est grignoté, c’est surtout la barrière protectrice dans le scénario des agents de codage : les entreprises accordent davantage de valeur aux coûts de déploiement sur ce type de tâches ; elles sont moins sensibles aux différences marginales de capacité.
Plus important que le modèle : l’infrastructure
Modal s’appuie sur un cluster B200. Il déploie GLM-5.1 via SGLang, et dans des scénarios d’interaction, il peut tourner à 30–75 tokens/s. Ces détails d’ingénierie qui semblent ennuyeux sont en réalité ce qui compte vraiment.
Z.ai montre sur VectorDBBench un débit de 21,5k QPS (optimisé après 600 itérations). Une telle performance nécessite l’élasticité « serverless » de Modal pour être livrée de façon stable ; à elle seule, la performance du modèle ne permettrait pas d’atteindre ce niveau.
Cela change aussi notre façon de voir « la publication de modèles » : ce ne sont plus des événements isolés, mais une partie d’une stratégie d’écosystème. La combinaison « modèle open source + infrastructure occidentale » est devenue une couverture contre le verrouillage d’API d’un laboratoire unique.
Concernant les limites de GLM-5.1 : le benchmark de codage atteint 94,6 % d’Opus, mais l’écart en inférence demeure. Un profil de capacités plus « équilibré » est plus pertinent pour des cas d’usage spécifiques.
En regardant vers l’avant : le chiffre d’affaires de Z.ai a augmenté de 131 % en glissement annuel l’an dernier. Si les coûts d’inférence descendent en dessous de $0.50/百万 tokens, l’open source pourrait, en un an, prendre 30–50 % de parts de déploiement dans les agents de codage. Des changements de politique aux États-Unis pourraient provoquer des perturbations, mais le risque actuel semble faible.
Conclusion : ce coup de poing confirme une chose : dans le domaine vertical des agents de codage, les capacités de l’open source sont désormais quasiment à égalité. Les gagnants sont ceux qui construisent d’abord une architecture « indépendante de l’infrastructure », ainsi que les investisseurs qui ont mis en place une plateforme d’hébergement. Anthropic subit une pression sur les prix. Les entreprises qui restent profondément liées à des API closed source paient une prime pour des capacités de plus en plus rapprochées.
Importance : Élevée
Catégorie : Publication de modèle, partenariat, open source
Jugement : pour la compétition des agents de codage, nous sommes encore dans une fenêtre relativement précoce. En profitent en priorité deux types de personnes : (1) les Builder et les intégrateurs qui construisent des workflows indépendants de l’infrastructure ; (2) les investisseurs qui parient sur l’hébergement serverless et les plateformes d’inférence. Pour les traders à court terme, l’avantage est limité, sauf s’ils peuvent saisir le rythme des baisses de prix et des migrations de trafic ; pour les détenteurs à long terme, il faut surveiller si la courbe des coûts descend vraiment en dessous de $0.50/百万 tokens afin de vérifier si les parts peuvent effectivement bondir.