Google Gemma 4 officiellement lancé : 4 tailles pour la première fois sous licence Apache 2.0, 31B, troisième plus grande open source au monde

robot
Création du résumé en cours

D’après le suivi de 1M AI News, Google a officiellement lancé la famille de modèles open source Gemma 4, comprenant 4 variantes de tailles différentes, toutes sous licence Apache 2.0. Google indique qu’il s’agit d’une réponse aux retours de la communauté. La licence Apache 2.0 signifie que les développeurs peuvent exploiter commercialement, modifier et redistribuer librement, sans contraintes supplémentaires. Clément Delangue, cofondateur et PDG de Hugging Face, qualifie cette initiative de « grand jalon ».

Les 4 modèles sont conçus pour différents scénarios matériels :

  1. 31B Dense : la qualité la plus élevée à l’origine, adaptée au fine-tuning ; les poids non quantifiés peuvent fonctionner sur un seul H100 de 80GB, tandis que la version quantifiée prend en charge un GPU grand public
  2. 26B MoE (Mixture of Experts / experts spécialisés) : 26B de paramètres au total, mais seulement 3,8B sont activés lors de l’inférence ; axé sur la faible latence, adapté aux scénarios d’Agent sensibles à la vitesse
  3. E4B et E2B : des modèles de bord destinés aux téléphones et aux appareils IoT ; lors de l’inférence, environ 4B et 2B de paramètres sont respectivement activés, ce qui suffit à préserver l’autonomie des appareils ; prise en charge native de l’entrée audio (reconnaissance et compréhension de la parole) ; exécution entièrement hors ligne possible

Sur le classement texte du platforme d’évaluation anonyme de confrontations de grands modèles, Arena AI, le 31B se classe troisième parmi les modèles open source au niveau mondial, et le 26B se classe sixième. Google affirme que son modèle « dépasse en moyenne l’ampleur (taille) d’un modèle 20 fois plus grand ». Le modèle est construit à partir des mêmes recherches et de la même technologie que Gemini 3.

Les capacités clés couvrent la raisonnement et la planification multi-étapes, l’appel natif de fonctions et la sortie structurée JSON (pour les workflows d’Agent), la génération de code, la compréhension d’images et de vidéos (pour toute la gamme), et un entraînement natif dépassant 140 langues. Les modèles de bord prennent en charge une fenêtre de contexte 128K, et les grands modèles jusqu’à 256K. E2B et E4B, optimisés conjointement avec l’équipe Pixel de Google, Qualcomm et MediaTek, peuvent fonctionner sur des appareils tels que les téléphones, Raspberry Pi, NVIDIA Jetson Orin Nano, etc. Les développeurs Android peuvent construire des applications d’Agent via le prototype AICore Developer Preview, afin de préparer une compatibilité pour le futur Gemini Nano 4.

Côté écosystème, dès le premier jour, la prise en charge s’étend à des frameworks majeurs comme Hugging Face, vLLM, llama.cpp, MLX, Ollama, NVIDIA NIM, LM Studio, Unsloth, etc. Vous pouvez les tester directement dans Google AI Studio (31B et 26B) et AI Edge Gallery (E4B et E2B). Depuis la sortie de la première génération, la série Gemma a été téléchargée plus de 400 millions de fois, et la communauté a dérivé plus de 100 000 variantes.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler