Google Gemma 4 resmi dirilis: 4 ukuran pertama kali dengan lisensi Apache 2.0, 31B sumber terbuka global ketiga

robot
Pembuatan abstrak sedang berlangsung

Berdasarkan pemantauan 1M AI News, Google secara resmi merilis keluarga model open-source Gemma 4, yang mencakup 4 varian ukuran berbeda, semuanya menggunakan lisensi Apache 2.0. Google mengatakan ini merupakan respons terhadap masukan dari komunitas. Apache 2.0 berarti pengembang dapat menggunakan untuk tujuan komersial, memodifikasi, dan mendistribusikan secara bebas, tanpa pembatasan tambahan. Clément Delangue, co-founder sekaligus CEO Hugging Face, menyebut langkah ini sebagai “tonggak besar”.

4 model ini ditujukan untuk skenario perangkat keras yang berbeda:

  1. 31B Dense: kualitas mentah tertinggi, cocok untuk fine-tuning; bobot yang tidak terkuantisasi dapat dijalankan pada satu H100 80GB, versi terkuantisasi mendukung GPU kelas konsumen
  2. 26B MoE (Mixture of Experts / campuran pakar): total parameter 26B, tetapi saat inferensi hanya mengaktifkan 3,8B; unggul untuk latensi rendah, cocok untuk skenario Agent yang sensitif terhadap kecepatan
  3. E4B dan E2B: model edge untuk perangkat ponsel dan IoT; saat inferensi masing-masing mengaktifkan sekitar 4B dan 2B parameter yang cukup untuk menjaga daya tahan baterai perangkat; mendukung input audio secara native (pengenalan dan pemahaman suara), serta dapat berjalan sepenuhnya secara offline

Pada peringkat teks di platform pengujian anonim adu model skala besar Arena AI, 31B berada di peringkat ketiga untuk model open-source global, dan 26B berada di peringkat keenam; Google menyebutnya sebagai “model yang melampaui bobot model lain sebanyak 20 kali”. Model ini dibangun berdasarkan riset dan teknologi yang sama dengan Gemini 3.

Kemampuan inti mencakup penalaran dan perencanaan multi-langkah, pemanggilan fungsi native, dan output JSON terstruktur (untuk workflow Agent), pembuatan kode, pemahaman gambar dan video (untuk seluruh lini), serta pelatihan native dalam lebih dari 140 bahasa. Model edge mendukung jendela konteks 128K, dan model skala besar mendukung hingga 256K. E2B dan E4B dioptimalkan bersama dengan tim Google Pixel, Qualcomm, dan MediaTek, sehingga dapat dijalankan pada perangkat seperti ponsel, Raspberry Pi, dan NVIDIA Jetson Orin Nano; developer Android dapat membangun aplikasi Agent melalui prototipe AICore Developer Preview, untuk menyiapkan kompatibilitas bagi Gemini Nano 4 berikutnya.

Dari sisi ekosistem, pada hari pertama sudah mendukung berbagai framework populer seperti Hugging Face, vLLM, llama.cpp, MLX, Ollama, NVIDIA NIM, LM Studio, Unsloth, dan lain-lain; dapat langsung dicoba di Google AI Studio (31B dan 26B) serta AI Edge Gallery (E4B dan E2B). Sejak rilis generasi pertamanya, seri Gemma telah diunduh lebih dari 400 juta kali, dan turunan dari komunitas mencapai lebih dari 100 ribu varian.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan