Googleは、先進的な推論とエージェント型ワークフローに焦点を当てた最新のオープン人工知能モデルファミリーであるGemma 4を導入しました。概要* Googleは、先進的な推論とエージェント型ワークフローに焦点を当てた最新のオープンAIモデルファミリーであるGemma 4を発表。* このモデルは4つのサイズで提供され、エッジデバイス向けのバリアントから高性能なシステムまで幅広く対応し、140以上の言語に対応しています。* Gemma 4は、多段階推論、エージェントツール、オフラインでのコード生成などの機能を導入しており、AI StudioとEdge Galleryから利用できます。Xの4月2日の投稿で、Google DeepMindの最高経営責任者(CEO)であるデミス・ハサビス氏は、先進的な推論とエージェント型ワークフローに焦点を当てた最新のオープン人工知能モデルファミリーであるGemma 4のローンチを発表しました。オープンモデルは、開発者によって変更・適応されるよう設計されており、開発者は特定のユースケースに合わせてシステムをカスタマイズできます。このリリースはGemmaエコシステムの強い普及のさなかに登場しています。最初のバージョンが公開されて以来、開発者は400 million以上のダウンロードを記録し、100,000以上のバリアントを作成したとGoogleは述べています。# 4層のモデルファミリーが多様なハードウェアとユースケースをターゲットハサビス氏は、Gemma 4は4つのサイズで提供され、それぞれ異なるワークロードとハードウェア構成に適しており、専門化されたタスク向けに微調整できると述べました。最大のバージョンである31Bは、「優れた生のパフォーマンス」のために作られた密なモデルで、精度と出力の深さを優先していますが、高性能な計算リソースが必要です。それに並ぶのが26B Mixture of Experts(MoE)モデルで、低遅延のために設計されています。推論時に有効化するパラメータが少ないため、より速い応答と効率の向上が実現されますが、出力品質にはいくつかのトレードオフがあります。より軽量なユースケース向けに、Googleは2Bおよび4Bモデルも導入しました。これらはスマートフォンやコンパクトなシステムのようなエッジデバイス向けに最適化されており、計算負荷を低く抑えながらオンデバイスでの実行を可能にします。## Google Gemma 4で何ができますか?Gemma 4は改善された推論能力を導入し、多段階のロジックや構造化された問題解決を必要とするタスクを扱えるようにしています。また、数学や指示追従に結び付いたベンチマークでもより強いパフォーマンスを示しています。モデルは、ネイティブな関数呼び出し、構造化されたJSON出力、システムレベルの指示を通じてエージェント型ワークフローをサポートします。これらの機能により、開発者はAPI、ツール、外部サービスとやり取りできる自律型システムを構築できます。Gemma 4はさらに、高品質なオフラインでのコード生成を可能にし、ローカルマシンをAIコーディングアシスタントに変えます。もう一つの重要な機能は拡張されたコンテキストウィンドウです。エッジモデルは最大128Kトークンに対応し、一方でより大きいバリアントはこれを256Kトークンまで拡張しており、長いドキュメントやコードベースを単一のプロンプトで処理できます。モデルは140以上の言語にわたって学習されているため、グローバル展開が可能になります。スンダル・ピチャイ氏は発表を再投稿し、「Gemma 4は、1パラメータあたり信じられない量の知能を詰め込んでいます」と述べました。モデルは、スマートフォンやラップトップからGPUや開発者用ワークステーションまで、非常に幅広い種類のハードウェア上で動作するよう設計されており、小型のバリアントは、常時インターネットアクセスなしでローカル実行できるものもあります。開発者は複数のプラットフォームでGemma 4のテストを始められます。高性能なユースケース向けには、31Bおよび26BのMoEモデルがGoogle AI Studioで利用可能で、より小さなE2BおよびE4Bのバリアントは、オンデバイスおよび軽量アプリケーション向けにGoogle AI Edge Gallery経由で利用できます。 開示:この記事は投資助言を表すものではありません。このページで取り上げているコンテンツおよび資料は、教育目的のみに使用するものです。
Googleは、推論およびエージェントタスクにおいて最も高度なオープンAIモデルとしてGemma 4を発表しました
Googleは、先進的な推論とエージェント型ワークフローに焦点を当てた最新のオープン人工知能モデルファミリーであるGemma 4を導入しました。
概要
Xの4月2日の投稿で、Google DeepMindの最高経営責任者(CEO)であるデミス・ハサビス氏は、先進的な推論とエージェント型ワークフローに焦点を当てた最新のオープン人工知能モデルファミリーであるGemma 4のローンチを発表しました。
オープンモデルは、開発者によって変更・適応されるよう設計されており、開発者は特定のユースケースに合わせてシステムをカスタマイズできます。
このリリースはGemmaエコシステムの強い普及のさなかに登場しています。最初のバージョンが公開されて以来、開発者は400 million以上のダウンロードを記録し、100,000以上のバリアントを作成したとGoogleは述べています。
4層のモデルファミリーが多様なハードウェアとユースケースをターゲット
ハサビス氏は、Gemma 4は4つのサイズで提供され、それぞれ異なるワークロードとハードウェア構成に適しており、専門化されたタスク向けに微調整できると述べました。
最大のバージョンである31Bは、「優れた生のパフォーマンス」のために作られた密なモデルで、精度と出力の深さを優先していますが、高性能な計算リソースが必要です。
それに並ぶのが26B Mixture of Experts(MoE)モデルで、低遅延のために設計されています。推論時に有効化するパラメータが少ないため、より速い応答と効率の向上が実現されますが、出力品質にはいくつかのトレードオフがあります。
より軽量なユースケース向けに、Googleは2Bおよび4Bモデルも導入しました。これらはスマートフォンやコンパクトなシステムのようなエッジデバイス向けに最適化されており、計算負荷を低く抑えながらオンデバイスでの実行を可能にします。
Google Gemma 4で何ができますか?
Gemma 4は改善された推論能力を導入し、多段階のロジックや構造化された問題解決を必要とするタスクを扱えるようにしています。また、数学や指示追従に結び付いたベンチマークでもより強いパフォーマンスを示しています。
モデルは、ネイティブな関数呼び出し、構造化されたJSON出力、システムレベルの指示を通じてエージェント型ワークフローをサポートします。これらの機能により、開発者はAPI、ツール、外部サービスとやり取りできる自律型システムを構築できます。Gemma 4はさらに、高品質なオフラインでのコード生成を可能にし、ローカルマシンをAIコーディングアシスタントに変えます。
もう一つの重要な機能は拡張されたコンテキストウィンドウです。エッジモデルは最大128Kトークンに対応し、一方でより大きいバリアントはこれを256Kトークンまで拡張しており、長いドキュメントやコードベースを単一のプロンプトで処理できます。モデルは140以上の言語にわたって学習されているため、グローバル展開が可能になります。
スンダル・ピチャイ氏は発表を再投稿し、「Gemma 4は、1パラメータあたり信じられない量の知能を詰め込んでいます」と述べました。
モデルは、スマートフォンやラップトップからGPUや開発者用ワークステーションまで、非常に幅広い種類のハードウェア上で動作するよう設計されており、小型のバリアントは、常時インターネットアクセスなしでローカル実行できるものもあります。
開発者は複数のプラットフォームでGemma 4のテストを始められます。高性能なユースケース向けには、31Bおよび26BのMoEモデルがGoogle AI Studioで利用可能で、より小さなE2BおよびE4Bのバリアントは、オンデバイスおよび軽量アプリケーション向けにGoogle AI Edge Gallery経由で利用できます。
開示:この記事は投資助言を表すものではありません。このページで取り上げているコンテンツおよび資料は、教育目的のみに使用するものです。