L'hégémonie de l'IA passe du modèle à « l'infrastructure d'agents »… La démarche phare de Google Cloud

robot
Création du résumé en cours

Des analyses ont indiqué que la priorité de Google Cloud dans la compétition en intelligence artificielle n’est plus la « performance du modèle », mais se tourne vers la « couche de contrôle » et l’infrastructure de données. Avec la généralisation accélérée de l’IA d’entreprise, l’évaluation de l’industrie estime que la véritable victoire ou défaite dépendra probablement de l’« infrastructure d’IA intelligible » permettant aux agents de lire, connecter et exécuter des données.

Lors de l’analyse du congrès Google Cloud Next 2026, le principal analyste de Cube Research, John Friel, a diagnostiqué que Google vise à devenir le système d’exploitation d’entreprise pour l’agent intelligent. Il pense que la maîtrise du « plan de contrôle » connectant données et divers systèmes déterminera l’avantage sur le marché. Ce niveau, semblable à un réseau neuronal, est responsable de relier diverses applications internes et flux de données de l’entreprise.

Sur le terrain, la vitesse d’introduction de l’IA s’est considérablement accélérée. Certains entreprises évaluent même que, dans la rédaction de code, la part des machines dépasse désormais celle des humains. Cependant, toutes les organisations n’avancent pas à la même vitesse. Beaucoup n’ont pas encore déterminé dans quels domaines prioriser l’application de l’IA pour maximiser l’impact. Cette situation souligne davantage l’importance d’une infrastructure d’IA intelligible conçue conjointement pour les données, la sécurité, la gouvernance et l’environnement d’exécution.

L’essentiel est la « donnée contextuelle »… Plus importante que l’information précise, c’est « l’information la plus appropriée »

Google Cloud considère la « donnée contextuelle » comme la clé pour compenser les limites des modèles d’IA. Le responsable de l’ingénierie des bases de données chez Google Cloud, Sailesh Krishnamurthi, explique que le modèle lui-même est très puissant, mais que le contexte réel nécessaire aux activités de l’entreprise se trouve dans les données. Cela signifie que pour répondre à une question, il ne suffit pas d’entrer une grande quantité d’informations, mais qu’il faut extraire précisément « l’information requise à l’instant ».

Par conséquent, certains estiment que la prochaine génération de cloud de données doit différer des bases de données existantes. Elle doit dépasser la simple capacité de stockage et de requête, en traitant dans un seul système la recherche graphique, l’intégration vectorielle, la recherche en texte intégral et le calcul relationnel. Ce n’est qu’en minimisant le déplacement des données tout en fournissant les résultats optimaux que l’infrastructure d’IA intelligible pourra fonctionner efficacement dans un environnement d’entreprise à grande échelle.

OpenText partage également cette vision. OpenText collabore avec Google Cloud pour construire une pile d’agents intelligents basée sur l’ingénierie contextuelle, la souveraineté des données et l’interopérabilité ouverte. OpenText souligne que l’information d’entreprise n’est pas simplement un stockage de fichiers, mais un système comprenant classification, marquage, gouvernance et connexion aux processus métier. Pour fournir ces informations aux grands modèles de langage, il faut éviter la surcharge de données inutile et transmettre uniquement l’information nécessaire au bon moment.

Google étend son écosystème en intégrant profondément la plateforme Gemini d’agents intelligents d’entreprise, afin d’élargir ses solutions sectorielles capables d’utiliser en toute sécurité des documents accumulés depuis des décennies. Cela montre encore une fois que le succès de l’introduction de l’IA dépend davantage de la qualité des données et de l’architecture d’accès que de la « coolitude » du modèle.

Environnement hybride et réduction des coûts… La collaboration détermine l’efficacité de l’infrastructure d’IA

La compétition pour l’infrastructure d’IA ne peut pas être décidée uniquement par une seule entreprise. Google collabore avec Nvidia, Dell Technologies, AMD, etc., pour construire une « infrastructure prête pour l’IA » couvrant le cloud et le déploiement local. En particulier, compte tenu du fait que de nombreuses entreprises ont du mal à confier totalement leurs données au cloud pour des raisons de sécurité et de réglementation, Google, via son cloud distribué, permet aux entreprises d’utiliser les fonctionnalités de Gemini dans leurs environnements locaux.

Dans ce contexte, le rôle de Kubernetes devient de plus en plus crucial. Google voit Kubernetes comme le système d’exploitation quasi universel pour l’IA, englobant l’apprentissage, le raisonnement et l’apprentissage renforcé. Cela signifie que Kubernetes est l’outil central pour coordonner les agents intelligents dispersés dans divers environnements. Lorsqu’une entreprise étend l’IA tout en maintenant une architecture multi-cloud ou hybride, cette couche d’orchestration est indispensable.

Le coût est aussi un facteur clé. AMD explique que, dans de nombreux cas, une infrastructure basée sur x86 reste la solution la plus réaliste pour les clients utilisant à la fois leurs propres centres de données et le cloud. Car les charges de travail en conteneur peuvent être facilement migrées entre ces deux environnements, sans modification de code, tout en garantissant performance et rentabilité.

Selon Sabre, une entreprise américaine de technologie touristique, après avoir migré plus de 50 000 CPU virtuels vers Google Cloud basé sur AMD, elle a réalisé à la fois des économies et une amélioration des performances. La société indique qu’elle a obtenu une meilleure vitesse de traitement avec une infrastructure plus petite, sans modification de code, et a réinvesti le budget économisé dans l’investissement en agents intelligents.

Google mise également sur l’expansion de son écosystème. Pour renforcer le partenariat avec Google Cloud, elle prévoit d’investir 750 millions de dollars (environ 1,107375 billion de won) pour améliorer la performance de plus de 120 000 entreprises partenaires. Google envisage aussi une structure permettant aux agents intelligents des partenaires d’interagir avec les systèmes de Google, automatisant l’intégration, la formation et la recommandation.

L’IA pour résoudre « les problèmes difficiles »… Aller au-delà de l’automatisation simple pour améliorer l’expérience client

McKinsey conseille que, plus une entreprise trouve que le retour sur investissement de l’IA est inférieur aux attentes, plus elle doit cibler des problématiques plus importantes. L’associé senior de McKinsey, Ashutosh Padi, affirme que pour créer une valeur significative, il faut s’attaquer à des enjeux capables de bouleverser la structure globale de l’entreprise. Car même des projets expérimentaux simples et réussis ne suscitent pas forcément l’attention de toute l’organisation, mais si l’on résout un problème central, la gestion du changement et le développement des capacités suivront.

L’exemple de Covered California, le plus grand marché d’assurance santé public en Californie, est cité. L’organisme, en partenariat avec Deloitte et Google, a introduit Google Document AI pour automatiser largement la vérification d’éligibilité et d’inscription. On estime que cela a permis d’économiser environ 24 000 heures de travail par an. Auparavant, la vérification de documents pouvait prendre jusqu’à 72 heures, elle ne prend plus que quelques secondes aujourd’hui.

Ce n’est pas seulement une réduction des coûts humains. L’évaluation montre que, libérés des tâches répétitives de traitement documentaire, les employés peuvent se concentrer sur un support client plus précieux, améliorant la qualité du service et l’expérience client. Deloitte explique que l’IA ne remplace pas l’humain, mais devient un outil pour permettre aux gens de se concentrer sur des travaux plus humains.

Le message de Google Cloud Next 2026 est clair. La compétition en IA ne se résume plus uniquement à « qui a créé le modèle le plus intelligent ». Sur le marché d’entreprise, la combinaison de la contextualisation des données, de la couche de contrôle, de l’infrastructure hybride, de la rentabilité et de l’écosystème de partenaires pour l’infrastructure d’IA intelligible devient le véritable facteur décisif. À l’avenir, la réussite ou l’échec de l’introduction de l’IA dépendra probablement davantage de la capacité des modèles à se connecter de manière stable et flexible à l’environnement de l’entreprise, plutôt que de leur sophistication intrinsèque.

Notes sur l’IA TP Ce résumé est basé sur le modèle linguistique TokenPost.ai. Le contenu principal peut comporter des omissions ou des inexactitudes factuelles.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler