Google、Geminiのローカル展開拡張…企業AIインフラの「コントロール権vsパフォーマンス」矛盾は解消できるか

robot
概要作成中

html

超越生成型AI,能夠自行執行任務的「代理型AI」時代已然來臨,企業基礎設施的設計標準也正在迅速改變。特別是監管行業、政府機構以及對數據主權有強烈要求的企業,正要求一種「AI就緒型」基礎設施,使其能夠在內部環境中運行最新的AI模型,同時又無需將敏感數據傳送至外部。

より高度な生成型AIを超え、自らタスクを実行できる「エージェントAI」時代が到来しつつあり、企業のインフラ設計基準も急速に変化しています。特に規制産業、政府機関、データ主権に強いこだわりを持つ企業は、最新のAIモデルを内部環境で稼働させつつ、敏感なデータを外部に送信することなく運用できる「AI対応型」インフラを求めています。

為了滿足此類需求,Google正在擴展其基礎設施策略,使企業能在本地端環境中也能運用自家的AI模型與雲端技術。Google網路與安全部門副總裁兼總經理Muninder Sambi在最近的Google Cloud Next活動中表示:「企業一直以來都面臨著要嘛遵守主權與法規,要嘛放棄這些原則轉向雲端的選擇。Google分散式雲端正是將Gemini和Google的AI能力帶入本地端環境的解決方案」。

Googleは、これらのニーズに応えるため、インフラ戦略を拡大し、企業がローカル環境でも自社のAIモデルとクラウド技術を活用できるようにしています。Google Cloud Nextの最近のイベントで、ネットワーク・セキュリティ担当副社長兼ゼネラルマネージャーのMuninder Sambiは、「企業はこれまで、主権や規制を遵守するか、あるいはこれらの原則を放棄してクラウドに移行するかの選択を迫られてきました。Googleの分散型クラウドは、GeminiとGoogleのAI能力をローカル環境に持ち込むソリューションです」と述べました。

Gemini攜手NVIDIA、Dell,擴展至內部網路

Google與NVIDIA($NVDA)及Dell Technologies($DELL)合作,支援在與公共網路隔離的「氣隙」環境以及連網型本地端環境中,都能運行基於Gemini的模型。特別是Gemini Flash模型,現已支援基於NVIDIA Blackwell B200及B300 GPU的本地端部署。對企業而言,這意味著可以在數據不外流的情況下,運行「主權型AI」工作負載。

Googleは、NVIDIA($NVDA)やDell Technologies($DELL)と協力し、公共ネットワークから隔離された「エアギャップ」環境や、インターネット接続可能なローカル環境においても、Geminiをベースとしたモデルの運用をサポートしています。特に、Gemini Flashモデルは、NVIDIA Blackwell B200およびB300 GPUを用いたローカル展開を既にサポートしています。これにより、企業はデータを外に流出させることなく、「主権型AI」ワークロードを運用できることを意味します。

Sambi副總裁強調,這不僅僅是提供一個「AI工廠」,而是提供一個能讓企業建立自身AI生產體系的「AI引擎」。對於使用雲端有困難的金融、醫療、國防及公共部門而言,這無疑是一項值得關注的變革。

Sambi副社長は、「これは単なる『AI工場』の提供ではなく、企業が自らのAI生産システムを構築できる『AIエンジン』を提供するものです」と強調しています。クラウド利用に難しさを抱える金融、医療、防衛、公共部門にとって、これは間違いなく注目すべき変革です。

Kubernetes崛起為AI時代的實質作業系統

隨著本地端AI基礎設施的擴張,Kubernetes的角色也日益重要。Google Kubernetes及Google Compute Engine部門的資深產品總監Drew Bradstock評價道,Kubernetes如今正扮演著涵蓋訓練、推論乃至強化學習等AI任務的「作業系統」角色。

ローカルAIインフラの拡大に伴い、Kubernetesの役割もますます重要になっています。Google KubernetesとGoogle Compute Engineのシニアプロダクトディレクター、Drew Bradstockは、「Kubernetesは今や、トレーニング、推論、さらには強化学習などのAIタスクを包括する『オペレーティングシステム』の役割を果たしています」と評価しています。

他解釋說,在大型語言模型普及初期,Kubernetes是否能成為AI的核心控制層尚不明確,但隨著開源生態系統迅速朝對AI友善的方向演進,它已成為在混合雲環境中運行代理的基礎。在企業欲跨多種環境部署AI服務的背景下,Kubernetes的標準化效益再次凸顯。

彼は、初期の大規模言語モデルの普及段階では、KubernetesがAIのコア制御層となるかどうかは不明確だったと述べています。しかし、オープンソースエコシステムがAIに優しい方向へ急速に進化する中で、Kubernetesはハイブリッドクラウド環境でエージェントを運用する基盤となっています。企業が複数の環境にまたがってAIサービスを展開したい背景において、Kubernetesの標準化のメリットが再び浮き彫りになっています。

現在,使用者也不僅限於人類

代理型AI的擴散不僅改變了基礎設施的運作方式,也正在改變產品設計的哲學。Bradstock總監指出,開發者體驗的中心現在不一定非得是人類。隨著AI代理大幅取代程式碼撰寫與營運工作,文件、介面乃至工具本身,都開始被重新設計為「便於AI代理閱讀和使用的結構」。

彼は、「新しいDevOpsはClaudeやGeminiを使って仕事を処理している」と述べ、ユーザー環境やドキュメント、各種ツールも「スキル」を中心に再構築されつつあると指摘しています。これは、将来的に企業のソフトウェアが人間向けのUIを超え、AIエージェントが直接呼び出して実行できる構造へと進化する可能性を示唆しています。

他表示:「新的DevOps正利用Claude和Gemini來處理工作」,並指出用戶環境、文件及各類工具都正圍繞著「技能」為中心進行重組。這暗示了未來企業用軟體可能超越為人類設計的UI,發展成能讓AI代理直接呼叫並執行的結構。

核心目標:同時達成「維持控制權」與「確保效能」

此次變革的核心在於,企業不再願意在數據控制權與AI效能之間只能二選一。AI就緒型基礎設施如今已不僅是單純的伺服器擴充,而是轉變為一個將數據主權、GPU運算資源、模型部署、治理及編排整合為一的綜合性設計課題。

この変革の核心は、企業がデータのコントロールとAIのパフォーマンスの間で二者択一を強いられることがなくなる点にあります。AI対応型インフラはもはや単なるサーバーの拡張ではなく、データ主権、GPU計算リソース、モデル展開、ガバナンス、オーケストレーションを一体化した総合的な設計課題へと変貌しています。

從市場角度來看,Google這項策略顯示雲端企業正再次深入耕耘本地端與混合雲領域。隨著企業導入AI的進程正式啟動,勝負關鍵已不僅僅在於模型本身的效能,而是轉向能否在確保安全與靈活性的前提下,將其部署於實際運作環境中。

市場の観点から見ると、Googleのこの戦略は、クラウド企業が再びローカルおよびハイブリッドクラウド領域に深く関わり始めていることを示しています。企業のAI導入が本格化する中で、勝負の鍵はモデルの性能だけでなく、安全性と柔軟性を確保しつつ、実運用環境に展開できるかどうかに移っています。

TP AI注意事項 本文是使用基於TokenPost.ai的語言模型所進行的摘要。文中可能遺漏主要內容或與事實有所出入。

TP AI注意事項:本記事はTokenPost.aiの言語モデルを用いて作成された要約です。主要内容の抜粋や事実と異なる可能性があります。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン