AntBilingi Trillón de parámetros flagship Ling-2.6-1T de código abierto: 1 billón de parámetros activa 63 mil millones, licencia MIT

robot
Generación de resúmenes en curso

Noticias de Jièjiè Wǎng, Ant Bailing (Inclusion AI) ha lanzado oficialmente en código abierto su modelo insignia Ling-2.6-1T, con un peso total de 1 billón de parámetros, activando 63 mil millones (63B) en cada inferencia, utilizando arquitectura MOE, longitud de contexto de 256K y licencia MIT. La versión Flash de este modelo (104 mil millones de parámetros / 7.4 mil millones de activaciones) se enfoca en ser ligera y rápida, mientras que la versión de 1T está orientada a escenarios de tareas complejas, con una nueva estrategia de entrenamiento de «pensamiento rápido», que introduce una recompensa de «supresión de redundancia en el proceso de contexto», comprimiendo cadenas de pensamiento extensas y reduciendo el consumo de tokens. En cuanto a evaluaciones, alcanzó un 72.2% en certificación SWE-Bench (la versión Flash obtuvo un 61.2%), mostrando un rendimiento sobresaliente en evaluaciones como AIME 2026, BFCL-V4, TAU2-Bench, IFBench, entre otras. Este modelo es compatible con marcos principales de agentes como Claude Code, OpenClaw, OpenCode, y OpenRouter ya ofrece una API gratuita en línea, con un despliegue mínimo de 8 tarjetas GPU, soportando SGLang y VLLM.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado