AntBling Ling-2.6-1T phare de référence open source avec 1 billion de paramètres : 630 millions activés, licence MIT

robot
Création du résumé en cours

Le message du site Coinjie, Ant Bailing (Inclusion AI) a officiellement open-sourcé le modèle phare Ling-2.6-1T, avec un total de 1 billion de paramètres, 63 milliards d’activations (63B) par inférence, utilisant une architecture MOE, une longueur de contexte de 256K, et sous licence MIT. La version Flash de ce modèle (104 milliards de paramètres / 7,4 milliards d’activations) se concentre sur la légèreté et la haute vitesse, tandis que la version 1T vise des scénarios de tâches complexes, avec une nouvelle stratégie d’entraînement « pensée rapide », introduisant une récompense de « suppression de la redondance du processus de contexte » pour compresser les longues chaînes de pensée, réduisant la consommation de tokens. En termes d’évaluation, la certification SWE-Bench atteint 72,2 % (version Flash : 61,2 %), avec d’excellentes performances dans les évaluations AIME 2026, BFCL-V4, TAU2-Bench, IFBench, etc. Ce modèle est compatible avec les principaux cadres d’agents tels que Claude Code, OpenClaw, OpenCode, etc., OpenRouter a déjà lancé une API gratuite, nécessitant au minimum 8 GPU pour le déploiement, supportant SGLang et VLLM.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler