Alphabet Inc.のGoogleは、人工知能モデルの実行方法を改善することを目的とした新しい2つのチップを開発するため、Marvell Technologyと協議していると報じられている。 要約 * GoogleはMarvellと協議して、メモリ処理ユニットと次世代TPUを含む2つのAI向けチップを開発し、モデルの効率を高める。 * この動きは、TPUをNvidiaのGPUの代替として位置付けるGoogleの取り組みの一部であり、同時にIntelおよびBroadcomとの提携を拡大している。 * この動きは、Gemma 4のローンチと並行しており、AIの競争がAI計算の分野で激化する中で、GoogleがAIモデルとハードウェアのスタックを整合させていることを示す。 The Informationによる報告、そして事情を知る関係者の情報によれば、提案されているチップの1つは、GoogleのタンサープロセッシングユニットであるTPUに並行して動作するよう設計されたメモリ処理ユニットである可能性があるという。2つ目のチップは、AIワークロードをより効率的に実行することに特化した新しいTPUになると見込まれている。 この動きは、Googleが自社開発のチップをNvidiaのGPUの代替として位置付けようとする取り組みの一環である。TPUの採用はGoogle Cloudの収益成長に寄与しており、同社はAIインフラへの支出の成果を示そうとしている。 同報告ではさらに、Googleはメモリ重視のチップの設計を来年までに完了させ、その後にテスト用の生産へ移行する計画だと付け加えた。同時に、同社は増大するAIインフラ需要を支えるため、IntelやBroadcomのようなチップメーカーとの提携を拡大している。 AIハードウェアにおける競争の高まり ================================= GoogleがAIアクセラレータの開発を強めるにつれ、高性能コンピューティングにおけるNvidiaの長年の優位に挑む可能性がある。 たとえばNVIDIAは、Groqの技術を組み込んだ設計を含む、自社のAI推論チップのラインナップを進めている。さらに別の大規模な競合の参入は、AIハードウェアにおける競争を激化させ、企業がモデル向けの計算能力をどのように調達するかを変える可能性がある。 投資家は、Googleが4月29日に初の四半期決算を発表する際に、さらなる明確化を求める可能性が高い。決算リリースでは、クラウドの業績、広告の動向、そして今後の四半期に同社がAIおよび半導体にどれほど積極的に投資する計画かについての兆しが示されると見込まれている。 AIモデルの進展がハードウェア推進を後押し --------------------------------------- Googleによる最新のチップ協議は、同社がAIモデルの能力を拡大し続けている中で行われている。今月初め、同社は高度な推論とエージェント型ワークフロー向けに設計された新しいオープンモデルファミリーであるGemma 4を導入した。 Gemma 4は4つのサイズで提供され、マルチステップの論理や構造化された問題解決をより効果的に扱えるよう設計されている。また、数学や指示追従タスクに関連するベンチマークで改善された結果も示している。 このモデルには、ネイティブの関数呼び出し、構造化されたJSON出力、システムレベルの指示といった機能が含まれており、開発者がAPIや外部ツールに接続できる自律型システムを構築できるようになる。さらに、オフラインでコードを生成できるため、ローカルのマシンを強力なAIコーディング支援者へと変えられる。 モデルのアップグレードとチップ開発計画を合わせることで、AI分野での競争が激化する中、Googleがソフトウェアとハードウェアのスタックをどのように整合させているのかが示されている。
Googleは、Nvidiaとの競争が激化する中、Marvellを通じてAIチップ・エコシステムを拡大しようとしている
Alphabet Inc.のGoogleは、人工知能モデルの実行方法を改善することを目的とした新しい2つのチップを開発するため、Marvell Technologyと協議していると報じられている。
要約
The Informationによる報告、そして事情を知る関係者の情報によれば、提案されているチップの1つは、GoogleのタンサープロセッシングユニットであるTPUに並行して動作するよう設計されたメモリ処理ユニットである可能性があるという。2つ目のチップは、AIワークロードをより効率的に実行することに特化した新しいTPUになると見込まれている。
この動きは、Googleが自社開発のチップをNvidiaのGPUの代替として位置付けようとする取り組みの一環である。TPUの採用はGoogle Cloudの収益成長に寄与しており、同社はAIインフラへの支出の成果を示そうとしている。
同報告ではさらに、Googleはメモリ重視のチップの設計を来年までに完了させ、その後にテスト用の生産へ移行する計画だと付け加えた。同時に、同社は増大するAIインフラ需要を支えるため、IntelやBroadcomのようなチップメーカーとの提携を拡大している。
AIハードウェアにおける競争の高まり
GoogleがAIアクセラレータの開発を強めるにつれ、高性能コンピューティングにおけるNvidiaの長年の優位に挑む可能性がある。
たとえばNVIDIAは、Groqの技術を組み込んだ設計を含む、自社のAI推論チップのラインナップを進めている。さらに別の大規模な競合の参入は、AIハードウェアにおける競争を激化させ、企業がモデル向けの計算能力をどのように調達するかを変える可能性がある。
投資家は、Googleが4月29日に初の四半期決算を発表する際に、さらなる明確化を求める可能性が高い。決算リリースでは、クラウドの業績、広告の動向、そして今後の四半期に同社がAIおよび半導体にどれほど積極的に投資する計画かについての兆しが示されると見込まれている。
AIモデルの進展がハードウェア推進を後押し
Googleによる最新のチップ協議は、同社がAIモデルの能力を拡大し続けている中で行われている。今月初め、同社は高度な推論とエージェント型ワークフロー向けに設計された新しいオープンモデルファミリーであるGemma 4を導入した。
Gemma 4は4つのサイズで提供され、マルチステップの論理や構造化された問題解決をより効果的に扱えるよう設計されている。また、数学や指示追従タスクに関連するベンチマークで改善された結果も示している。
このモデルには、ネイティブの関数呼び出し、構造化されたJSON出力、システムレベルの指示といった機能が含まれており、開発者がAPIや外部ツールに接続できる自律型システムを構築できるようになる。さらに、オフラインでコードを生成できるため、ローカルのマシンを強力なAIコーディング支援者へと変えられる。
モデルのアップグレードとチップ開発計画を合わせることで、AI分野での競争が激化する中、Googleがソフトウェアとハードウェアのスタックをどのように整合させているのかが示されている。