【链文】Notícias de 24 de setembro, a Alibaba Cloud lançou o maior modelo de grande escala até agora, Qwen3-Max, com mais de 1 trilhão de parâmetros e 36 trilhões de tokens para pré-treinamento. A versão de pré-visualização do Qwen3-Max-Instruct ocupa o terceiro lugar no ranking global de textos do LMArena, enquanto a versão oficial melhorou o desempenho em geração de código e tarefas de agentes, com uma pontuação verificada de 69,6 no SWE-Bench e 74,8 no Tau2-Bench. A versão aprimorada de inferência Qwen3-Max-Thinking obteve a pontuação máxima nos testes de raciocínio matemático AIME 25 e HMMT. A API já está aberta e é compatível com o método de chamada da OpenAI.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
17 Curtidas
Recompensa
17
8
Repostar
Compartilhar
Comentário
0/400
FunGibleTom
· 3h atrás
Embora seja 69, é possível superar o hf?
Ver originalResponder0
NightAirdropper
· 3h atrás
Parece estar bem. O bug da versão anterior foi corrigido?
A Alibaba Cloud lançou o modelo Qwen3-Max com k bilhões de parâmetros, cuja performance está entre as melhores do mundo.
【链文】Notícias de 24 de setembro, a Alibaba Cloud lançou o maior modelo de grande escala até agora, Qwen3-Max, com mais de 1 trilhão de parâmetros e 36 trilhões de tokens para pré-treinamento. A versão de pré-visualização do Qwen3-Max-Instruct ocupa o terceiro lugar no ranking global de textos do LMArena, enquanto a versão oficial melhorou o desempenho em geração de código e tarefas de agentes, com uma pontuação verificada de 69,6 no SWE-Bench e 74,8 no Tau2-Bench. A versão aprimorada de inferência Qwen3-Max-Thinking obteve a pontuação máxima nos testes de raciocínio matemático AIME 25 e HMMT. A API já está aberta e é compatível com o método de chamada da OpenAI.