MEニュース メッセージ、4月4日(UTC+8)、近日、ユーザー @outsource_ が投稿した内容によると、Google Gemma-4 26B-A4B-it MoE モデルに基づく IQ4_NL 量子化 GGUF ファイルが公開された。該当モデルは合計約260億パラメータで、アクティブ化されるのは約40億パラメータ。量子化ファイルは bartowski が作成し、llama.cpp の imatrix を用いて改訂および量子化が行われた。量子化後のファイル名は gemma-4-26B-A4B-it-IQ4_NL.gguf で、サイズは 14.70 GB。(出典:InFoQ)
bartowski は Gemma-4 26B-A4B-it MoE に基づく IQ4_NL 量子化 GGUF ファイルを公開しました
MEニュース メッセージ、4月4日(UTC+8)、近日、ユーザー @outsource_ が投稿した内容によると、Google Gemma-4 26B-A4B-it MoE モデルに基づく IQ4_NL 量子化 GGUF ファイルが公開された。該当モデルは合計約260億パラメータで、アクティブ化されるのは約40億パラメータ。量子化ファイルは bartowski が作成し、llama.cpp の imatrix を用いて改訂および量子化が行われた。量子化後のファイル名は gemma-4-26B-A4B-it-IQ4_NL.gguf で、サイズは 14.70 GB。(出典:InFoQ)