Google Gemma 4 lançamento oficial: 4 tamanhos pela primeira vez sob licença Apache 2.0, 31B terceiro maior projeto de código aberto global

robot
Geração de resumo em curso

De acordo com o monitoramento da 1M AI News, a Google lançou oficialmente a família de modelos open source Gemma 4, composta por 4 variantes com tamanhos diferentes, todas sob a licença Apache 2.0. A Google afirma que esta é uma resposta ao feedback da comunidade. A Apache 2.0 significa que os programadores podem usar livremente para fins comerciais, modificar e distribuir, sem restrições adicionais. O cofundador e CEO da Hugging Face, Clément Delangue, descreveu esta iniciativa como «um enorme marco».

Os 4 modelos são orientados para diferentes cenários de hardware:

  1. 31B Dense: a qualidade bruta mais alta, indicada para fine-tuning; pesos não quantizados podem ser executados numa única H100 de 80GB, e a versão quantizada suporta GPU’s para utilizadores comuns
  2. 26B MoE (Mixture of Experts / mistura de especialistas): um total de 26B de parâmetros, mas na inferência apenas são ativados 3,8B; o foco é a baixa latência, adequado para cenários de Agent sensíveis à velocidade
  3. E4B e E2B: modelos de edge para dispositivos móveis e IoT; na inferência, ativam aproximadamente 4B e 2B parâmetros, respetivamente, o suficiente para manter a autonomia do dispositivo; suportam nativamente a entrada de áudio (reconhecimento e compreensão de voz), e podem ser executados completamente offline

No ranking de texto da Arena AI, uma plataforma anónima de avaliação em combate de modelos de grande escala, o 31B ocupa o terceiro lugar entre os modelos open source a nível global e o 26B o sexto; a Google afirma que o seu desempenho «ultrapassa modelos com um tamanho 20 vezes maior». O modelo é construído com base nas mesmas linhas de investigação e tecnologias usadas na Gemini 3.

As capacidades centrais abrangem raciocínio e planeamento de múltiplos passos, chamadas nativas de funções e saídas estruturadas em JSON (para fluxos de trabalho de Agents), geração de código, compreensão de imagem e vídeo (em toda a gama) e treino nativo em mais de 140 línguas. Os modelos de edge suportam janelas de contexto de 128K, enquanto os modelos de grande escala suportam até 256K. O E2B e o E4B, otimizados em conjunto com a equipa Pixel da Google, Qualcomm e MediaTek, podem ser executados em dispositivos como telemóveis, Raspberry Pi, NVIDIA Jetson Orin Nano, entre outros. Os programadores Android podem construir aplicações de Agent através do protótipo AICore Developer Preview, preparando a compatibilidade para a futura Gemini Nano 4.

Em termos de ecossistema, logo no primeiro dia há suporte para frameworks populares como Hugging Face, vLLM, llama.cpp, MLX, Ollama, NVIDIA NIM, LM Studio e Unsloth, e é possível experimentar diretamente no Google AI Studio (31B e 26B) e no AI Edge Gallery (E4B e E2B). Desde o lançamento da primeira geração, a série Gemma já foi descarregada mais de 400 milhões de vezes, com mais de 100 mil variantes derivadas na comunidade.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar