O modelo de 27B parâmetros funciona numa GPU com 16GB de memória, alegando-se que a sua capacidade de inferência é próxima do Claude 4 Opus

robot
Geração de resumo em curso

Notícias ME, mensagem a 1 de abril (UTC+8). Recentemente, foi noticiado que um modelo com uma dimensão de 27B de parâmetros, ao ser executado em quantização de 4 bits num GPU local com 16GB de VRAM, teve um desempenho superior ao do Claude Sonnet 4.5 no benchmark SWE-bench. De acordo com a perspetiva apresentada no artigo, este modelo consegue fornecer capacidades de raciocínio comparáveis às do Claude 4 Opus, mas com necessidades de recursos mais baixas. A versão v2 deste modelo reduziu a redundância do chain-of-thought em 24%, mantendo ao mesmo tempo uma precisão de 96.91% no HumanEval. (Fonte: InFoQ)

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar