Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
GLM-5.1 permet au modèle open source de s'imposer pour la première fois dans des tâches de projet à long terme
Les modèles open source prennent enfin au sérieux les tâches de longue durée
OpenRouter annonce l’intégration de GLM-5.1, déplaçant le sujet de “quelle est la taille du paramètre” à “combien de temps peut-on continuer à travailler”. GLM-5.1 a été optimisé pour fonctionner 8 heures sur une base de données vectorielle sans supervision, avec plus de 600 itérations, améliorant la performance par 6 fois. Cela change la position des modèles open source : ils ne sont plus seulement des alternatives bon marché, mais pourraient mieux performer dans les flux de travail d’ingénierie — surtout que des modèles propriétaires comme Claude Opus 4.6 s’arrêtent souvent après quelques essais sans évolution supplémentaire. Les hauts responsables de Hugging Face font la promotion, mais leurs tweets mentionnent peu le coût en puissance de calcul.
La réaction reste la même, avec une polarisation :
Quelques points à noter :
La différence entre scores et déploiement réel
Le terme “taux de réussite sur tâches longues” suscite la controverse. La démonstration de Z.ai (par exemple, configurer un bureau Linux soi-même) ne correspond pas aux 63,5 % (69 % optimisé) de Terminal-Bench 2.0 pour GLM-5.1. Il y a un écart entre marketing et mesures concrètes : la promotion doit générer de l’engouement, mais les entreprises veulent des cas vérifiables, comme l’intégration du robot de signalisation de Bella Protocol. VentureBeat et Computerworld ont gonflé les attentes des investisseurs avec l’idée d’une “journée de 8 heures”. La taille du modèle devient moins importante face à la capacité de “produire en continu” — GLM-5.1 a abandonné cet aspect, mais avec des coûts opérationnels plus élevés.
Ce parcours de communication — tweets, relais par des experts, puis médias — oblige les laboratoires fermés à justifier leurs prix élevés. Anthropic pourrait sortir une version “plus rapide” (ex : Claude Opus 4.6 Fast). Le marché regarde surtout la SOTA, mais sous-estime la division du marché causée par des facteurs géopolitiques. GLM-5.1 teste la stratégie d’expansion de l’IA chinoise à l’étranger.
Conclusion : GLM-5.1 a transformé “pouvoir faire tourner en continu pendant plusieurs heures” en un indicateur clé pour les projets d’ingénierie, et l’open source commence à devenir la norme dans certains flux de travail. Les équipes qui investissent dans l’optimisation de l’efficacité et la validation d’architectures hybrides auront un avantage dans la prochaine phase.
Importance : Élevée
Catégorie : Publication de modèles, tendances industrielles, open source
Jugement : Pour les builders qui veulent monter leur propre modèle et faire du tuning, c’est une fenêtre d’opportunité en phase initiale. Ceux qui se concentrent uniquement sur la conversation générale n’y trouveront pas beaucoup d’intérêt. Les équipes qui ne commenceront pas à expérimenter la longue durée et l’optimisation du service risquent de prendre du retard lors de la prochaine vague d’adoption en entreprise.