Google Gemma 4 lanzamiento oficial: 4 tamaños por primera vez bajo licencia Apache 2.0, 31B en todo el mundo, tercer proyecto de código abierto

robot
Generación de resúmenes en curso

Según el monitoreo de 1M AI News, Google lanzó oficialmente la familia de modelos de código abierto Gemma 4, que incluye 4 versiones de distintos tamaños, todas bajo la licencia Apache 2.0. Google afirma que esto es una respuesta a los comentarios de la comunidad. Apache 2.0 significa que los desarrolladores pueden usarla libremente para fines comerciales, modificarla y distribuirla, sin restricciones adicionales. Clément Delangue, cofundador y CEO de Hugging Face, calificó esta medida como un «hito enorme».

Los 4 modelos están dirigidos a distintos escenarios de hardware:

  1. 31B Dense: la mejor calidad original, adecuada para fine-tuning; los pesos sin cuantizar pueden ejecutarse en una sola H100 de 80GB, y la versión cuantizada admite GPU de consumo
  2. 26B MoE (mezcla de expertos): un total de 26B parámetros, pero en la inferencia solo se activan 3.8B; enfocado en baja latencia y adecuado para escenarios de Agent sensibles a la velocidad
  3. E4B y E2B: modelos en el borde orientados a dispositivos móviles y de IoT; durante la inferencia se activan aproximadamente 4B y 2B parámetros, respectivamente, suficientes para mantener la autonomía del dispositivo; admiten entrada de audio nativa (reconocimiento y comprensión del habla) y pueden ejecutarse completamente sin conexión

En el ranking de textos de Arena AI, una plataforma anónima de evaluación de enfrentamientos con modelos de gran escala, el 31B ocupa el tercer lugar entre los modelos de código abierto a nivel global, y el 26B el sexto; Google afirma que es un modelo «que supera en 20 veces al volumen del modelo». El modelo se basa en la misma investigación y tecnología con las que se construyó Gemini 3.

Las capacidades principales incluyen razonamiento y planificación de varios pasos, invocación nativa de funciones y salida estructurada en JSON (orientada a flujos de trabajo de Agent), generación de código, comprensión de imágenes y video (toda la gama) y entrenamiento nativo en más de 140 lenguas. Los modelos en el borde admiten una ventana de contexto de 128K; los modelos de gran escala admiten hasta 256K. E2B y E4B, optimizados conjuntamente con los equipos de Google Pixel, Qualcomm y MediaTek, pueden ejecutarse en dispositivos como móviles, Raspberry Pi y NVIDIA Jetson Orin Nano; los desarrolladores de Android pueden construir aplicaciones de Agent mediante el prototipo AICore Developer Preview, preparándolas para lograr compatibilidad futura con Gemini Nano 4.

En cuanto al ecosistema, desde el primer día ya se admite Hugging Face, vLLM, llama.cpp, MLX, Ollama, NVIDIA NIM, LM Studio, Unsloth y otros marcos populares; se pueden probar directamente en Google AI Studio (31B y 26B) y en AI Edge Gallery (E4B y E2B). Desde el lanzamiento de la primera generación, la serie Gemma se ha descargado más de 400 millones de veces, y la comunidad ha generado más de 100.000 variantes.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado