Red Hat, dans le contexte de la diffusion de l'« IA proxy », met en avant la confiance et les normes de raisonnement… parie sur vLLM

robot
Création du résumé en cours

Alors que les entreprises intègrent l’“IA agent” dans leur travail réel, l’attention se déplace de la performance du modèle vers la “confiance”. L’analyse indique qu’étant donné que l’IA peut écrire du code, accéder à des systèmes et même effectuer des opérations substantielles, garantir la sécurité, la gouvernance et la stabilité est devenu un enjeu central.

Le directeur technique (CTO) de Red Hat et vice-président senior de l’ingénierie mondiale, Chris Wright, a déclaré lors du sommet Red Hat 2026 : “Lorsque nous voulons que l’agent agisse dans des affaires réelles, faire confiance à cette IA devient crucial.” Il a particulièrement souligné que l’attribution du moindre privilège, l’environnement sandbox et un système de gestion à grande échelle des agents sont des conditions nécessaires.

Red Hat mise sur la construction d’une “couche de raisonnement standard” centrée sur vLLM

En tant que solution pour réduire la complexité de l’IA d’entreprise, Red Hat propose une “couche de raisonnement standardisée”. L’idée est que, tout comme Linux et Kubernetes sont devenus des bases communes pour l’industrie, l’open source moteur de raisonnement AI vLLM doit également jouer ce rôle.

À cette fin, Red Hat a acquis Neural Magic pour obtenir des capacités d’optimisation des performances de quantification et de raisonnement. Chris Wright explique : “Les fournisseurs de modèles ont même commencé à développer pour vLLM avant la sortie de modèles publics. Cette standardisation améliore l’efficacité de l’ensemble de l’écosystème et constitue également la base pour améliorer l’efficacité opérationnelle interne des entreprises.”

Du point de vue des entreprises, cela revêt une importance cruciale car cela réduit l’incertitude dans le choix de l’infrastructure. En clarifiant sur quelle base faire fonctionner le modèle, on peut réduire les coûts de développement, de déploiement et de maintenance. En fin de compte, la confiance dans l’IA open source ne concerne pas seulement l’éthique technologique, mais aussi la “prévisibilité” dans l’environnement opérationnel réel.

Le coût de l’inférence, désormais, devient un indicateur clé pour le conseil d’administration

Avec la popularisation de l’IA, le “coût d’inférence” devient également un indicateur opérationnel important. En raison de l’augmentation continue des coûts en électricité et en semi-conducteurs nécessaires pour faire fonctionner en continu de grands modèles de langage, les entreprises passent d’une utilisation du modèle le plus puissant à la recherche de la combinaison la plus efficace pour différents cas d’usage.

Chris Wright indique qu’il faut choisir le matériel et le modèle offrant le meilleur rapport qualité-prix et efficacité énergétique en fonction de la tâche spécifique. En d’autres termes, utiliser une seule IA pour toutes les tâches peut être inefficace. Les tâches simples pourraient mieux convenir à de petits modèles, tandis que les jugements complexes nécessitent de grands modèles.

Cette tendance augmente la probabilité que l’infrastructure IA évolue vers une “architecture hétérogène” plutôt qu’une “architecture unique”. Car les environnements edge, tels que le cloud, le déploiement local et les sites industriels, seront utilisés en mélange, et le matériel pourrait passer d’un GPU unique à une combinaison de plusieurs. Red Hat espère que sa stratégie de plateforme maintiendra sa valeur à ce stade.

La compétition pour une “IA fiable” se propage aux entreprises de plateforme

Ce discours indique que la compétition sur le marché de l’IA ne dépend plus uniquement de la performance du modèle. Ce que les clients d’entreprise recherchent réellement, ce n’est pas un modèle plus intelligent, mais un environnement d’exécution fiable et contrôlable.

Particulièrement dans un environnement où des centaines ou milliers d’agents IA fonctionnent simultanément, des facteurs tels que la stratégie de sécurité, la gestion des permissions et l’auditabilité deviennent indispensables. C’est aussi la raison pour laquelle l’industrie, comme à l’époque de Linux et Kubernetes, cherche à établir des standards communs.

Finalement, la confiance dans l’IA open source pourrait devenir le critère clé déterminant la vitesse de diffusion de l’IA en entreprise à l’avenir. Avec la mise en place de la couche de raisonnement standardisée et de la stratégie d’infrastructure hétérogène, les entreprises pourront plus rapidement faire passer l’IA de la phase expérimentale à la production réelle.

TP AI Notes : Cet article est un résumé basé sur le modèle linguistique de TokenPost.ai. Le contenu principal peut être omis ou ne pas correspondre entièrement à la réalité.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • 1
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épinglé