Google, extension du déploiement local de Gemini… La contradiction entre « contrôle » et « performance » dans l'infrastructure AI d'entreprise peut-elle être résolue

robot
Création du résumé en cours

html

Au-delà de l’IA générative, l’ère de l’« IA agent » capable d’exécuter des tâches de manière autonome est déjà là, et les normes de conception des infrastructures d’entreprise changent rapidement. En particulier dans les secteurs réglementés, les organismes gouvernementaux et les entreprises ayant une forte exigence de souveraineté des données, on demande une infrastructure « prête pour l’IA » permettant de faire fonctionner les modèles d’IA les plus récents en environnement interne, sans avoir à transmettre des données sensibles à l’extérieur.

Pour répondre à ces besoins, Google étend sa stratégie d’infrastructure pour permettre aux entreprises d’utiliser leurs propres modèles d’IA et technologies cloud en environnement local. Muninder Sambi, vice-président et directeur général du département Réseaux et Sécurité de Google, a déclaré lors du récent événement Google Cloud Next : « Les entreprises ont toujours dû choisir entre respecter la souveraineté et la réglementation ou abandonner ces principes pour passer au cloud. Le cloud distribué de Google est la solution qui apporte Gemini et les capacités d’IA de Google dans l’environnement local. »

Gemini en partenariat avec NVIDIA, Dell, étendu au réseau interne

Google collabore avec NVIDIA ($NVDA) et Dell Technologies ($DELL) pour supporter l’exécution de modèles basés sur Gemini dans des environnements isolés du réseau public, tels que les environnements « air-gapped » ou connectés en local. En particulier, le modèle Gemini Flash, qui supporte désormais le déploiement local basé sur les GPU NVIDIA Blackwell B200 et B300. Pour les entreprises, cela signifie pouvoir exécuter des charges de travail « IA souveraine » sans fuite de données.

Sambi insiste sur le fait que ce n’est pas simplement une « usine d’IA », mais une « moteur d’IA » permettant aux entreprises de construire leur propre système de production d’IA. Pour les secteurs comme la finance, la santé, la défense ou le secteur public, où l’utilisation du cloud peut poser problème, cela représente une transformation importante à suivre.

Kubernetes, le système d’exploitation pratique de l’ère de l’IA

Avec l’expansion des infrastructures d’IA en local, le rôle de Kubernetes devient de plus en plus crucial. Drew Bradstock, directeur senior des produits pour Kubernetes et Google Compute Engine, a déclaré que Kubernetes joue désormais le rôle de « système d’exploitation » pour les tâches d’IA, couvrant l’entraînement, l’inférence et même l’apprentissage par renforcement.

Il explique qu’au début de la popularisation des grands modèles de langage, il n’était pas clair si Kubernetes pourrait devenir le noyau de contrôle de l’IA, mais avec l’évolution rapide de l’écosystème open source vers une meilleure compatibilité avec l’IA, il est devenu la base pour faire fonctionner des agents dans des environnements hybrides. Dans un contexte où les entreprises déploient des services d’IA sur plusieurs environnements, l’avantage de la standardisation de Kubernetes est à nouveau évident.

Désormais, l’utilisateur ne se limite plus à l’humain

La diffusion de l’IA agent change non seulement la façon dont les infrastructures fonctionnent, mais aussi la philosophie de la conception des produits. Bradstock souligne que le centre de l’expérience développeur ne doit pas forcément être l’humain. Avec la montée en puissance des agents d’IA remplaçant largement la programmation et l’exploitation, les documents, interfaces et même outils sont en train d’être redessinés pour devenir des « structures faciles à lire et à utiliser par l’IA ».

Il déclare : « La nouvelle DevOps utilise Claude et Gemini pour gérer le travail », et indique que l’environnement utilisateur, la documentation et divers outils sont en train d’être réorganisés autour de la « compétence ». Cela suggère qu’à l’avenir, les logiciels d’entreprise pourraient dépasser la conception d’interfaces utilisateur pour les humains, pour évoluer vers des structures que l’IA peut appeler et exécuter directement.

Objectif central : concilier « maintien du contrôle » et « performance assurée »

Le cœur de cette transformation est que les entreprises ne veulent plus devoir choisir entre le contrôle des données et la performance de l’IA. L’infrastructure d’IA prête pour l’IA n’est plus simplement une extension de serveurs, mais une conception intégrée qui combine souveraineté des données, ressources GPU, déploiement de modèles, gouvernance et orchestration.

Du point de vue du marché, cette stratégie de Google montre que le secteur du cloud continue d’investir dans l’infrastructure locale et hybride. Alors que l’adoption de l’IA par les entreprises commence réellement, la clé du succès ne réside plus uniquement dans la performance du modèle, mais dans la capacité à le déployer dans un environnement opérationnel tout en garantissant sécurité et flexibilité.

TP AI Notes : Cet article est un résumé généré par un modèle linguistique basé sur TokenPost.ai. Il peut omettre des détails importants ou comporter des inexactitudes.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler