AntBird Ling-2.6-1T de bandeira de bilhões de parâmetros de código aberto: 1 trilhão de parâmetros ativam 63 bilhões, licença MIT

robot
Geração de resumo em curso

Notícias do site Jièjiè, Ant Bailing (Inclusion AI) lança oficialmente o modelo principal de código aberto Ling-2.6-1T, com peso total de 1 trilhão de parâmetros, ativando 63 bilhões (63B) por inferência, usando arquitetura MOE, comprimento de contexto de 256K, sob licença MIT.
A versão Flash do modelo (104 bilhões de parâmetros / 74 milhões de ativações) foca em leveza e alta velocidade, enquanto a versão 1T é voltada para tarefas complexas, com uma nova estratégia de treino de “pensamento rápido”, que introduz uma recompensa de “supressão de redundância no processo de contexto”, comprimindo saídas de cadeias de pensamento longas e reduzindo o consumo de tokens.
Na avaliação, atingiu 72,2% na certificação SWE-Bench (versão Flash com 61,2%), apresentando desempenho excelente em testes como AIME 2026, BFCL-V4, TAU2-Bench, IFBench, entre outros.
O modelo é compatível com frameworks principais como Claude Code, OpenClaw, OpenCode, e a API gratuita do OpenRouter já está online, com implantação mínima de 8 GPUs, suportando SGLang e VLLM.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar