bartowski publicou o ficheiro GGUF de quantização IQ4_NL baseado em Gemma-4 26B-A4B-it MoE

robot
Geração do resumo em andamento

Notícias da ME, mensagem de 4 de abril (UTC+8). Recentemente, o utilizador @outsource_ publicou que foi disponibilizado o ficheiro quantizado GGUF IQ4_NL, com base no modelo Google Gemma-4 26B-A4B-it MoE. O modelo tem um total de cerca de 26 mil milhões de parâmetros, com cerca de 4 mil milhões de parâmetros ativados. O ficheiro quantizado foi feito por bartowski, tendo sido revisto e quantizado com a imatrix do llama.cpp. O nome do ficheiro após a quantização é gemma-4-26B-A4B-it-IQ4_NL.gguf, com um tamanho de 14.70 GB. (Fonte: InFoQ)

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar