Google Gemma 4 официально выпущена: впервые 4 размера под лицензией Apache 2.0, 31B — третья по глобальному открытому исходному коду

robot
Генерация тезисов в процессе

Согласно мониторингу 1M AI News, Google официально выпустила семейство открытых моделей Gemma 4, включающее 4 модели разного размера; все они распространяются по лицензии Apache 2.0. Google заявляет, что это ответ на отзывы сообщества. Лицензия Apache 2.0 означает, что разработчики могут свободно использовать в коммерческих целях, изменять и распространять продукт без дополнительных ограничений. Сооснователь и CEO Hugging Face Клеман Деланж назвал этот шаг «огромной вехой».

4 модели предназначены для различных сценариев аппаратного обеспечения:

  1. 31B Dense: наивысшее исходное качество, подходит для дообучения; некастированные (неквантизированные) веса можно запускать на одной 80GB H100, квантизированная версия поддерживает потребительские GPU
  2. 26B MoE (смесь экспертов): всего 26B параметров, но при инференсе активируются только 3.8B; основной акцент — низкая задержка, подходит для сценариев Agent, где важна скорость
  3. E4B и E2B: пограничные модели, ориентированные на смартфоны и устройства IoT; при инференсе активируется примерно 4B и 2B параметров соответственно, что достаточно для поддержания автономности устройства; нативно поддерживают аудиоввод (распознавание и понимание речи) и могут работать полностью офлайн

На текстовом рейтинге Arena AI — платформы анонимных соревнований для больших моделей — 31B занимает третье место среди моделей с открытым исходным кодом в мире, а 26B — шестое; Google утверждает, что это «превосходит модели по масштабу в 20 раз». Модели построены на тех же исследованиях и технологиях, что и Gemini 3.

Ключевые возможности включают многошаговое рассуждение и планирование, нативный вызов функций и структурированный вывод в JSON (для рабочих процессов Agent), генерацию кода, понимание изображений и видео (во всей линейке), а также нативное обучение более чем 140 языкам. Для пограничных моделей поддерживается контекстное окно 128K, а для больших моделей — до 256K. E2B и E4B совместно оптимизированы с командами Google Pixel, Qualcomm и MediaTek и могут работать на устройствах, включая смартфоны, Raspberry Pi, NVIDIA Jetson Orin Nano; разработчики Android могут создавать Agent-приложения через прототип AICore Developer Preview для подготовки к совместимости с будущим Gemini Nano 4.

В части экосистемы в день запуска уже поддерживаются такие популярные фреймворки, как Hugging Face, vLLM, llama.cpp, MLX, Ollama, NVIDIA NIM, LM Studio, Unsloth и другие; можно напрямую попробовать в Google AI Studio (31B и 26B) и AI Edge Gallery (E4B и E2B). С момента выпуска первого релиза серия Gemma была загружена более 400 миллионов раз, а количество производных вариантов в сообществе — более 100 тысяч.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить