F5 et NVIDIA améliorent l'économie de l'usine d'IA avec de nouvelles capacités pour l'inférence AI accélérée

(MENAFN- Asdaf News) ** Dubaï – Asdaf News :**

F5 (NASDAQ: FFIV), le leader mondial de la fourniture et de la sécurisation de chaque application et API, a annoncé aujourd’hui des capacités élargies dans sa ** collaboration en cours **

L’intégration élargie combine ** F5 BIG-IP Next pour Kubernetes **

Dans les systèmes d’IA, les tokens représentent l’unité mesurable de la production d’IA : les mots, symboles ou fragments de données générés et traités pendant l’inférence. Le volume et la vélocité de production de tokens déterminent en fin de compte l’expérience utilisateur, l’efficacité de l’infrastructure et le chiffre d’affaires par accélérateur.

Alors que les entreprises et les fournisseurs GPUaaS se précipitent pour monétiser l’IA et passer des expérimentations d’IA à des services générateurs de revenus, l’efficacité de l’infrastructure est devenue une métrique déterminante. Le succès est désormais mesuré non seulement par la capacité GPU déployée, mais par l’économie des tokens, le débit soutenu de tokens, le temps jusqu’au premier token (TTFT), le coût par token et le chiffre d’affaires par accélérateur GPU. La solution conjointe F5 et NVIDIA est conçue pour répondre directement à ces métriques.

** Optimiser la tokenomics grâce à une infrastructure d’IA intelligente **

Le passage d’une inférence centrée application à des flux de travail d’IA pilotés par des agents exige de nouvelles approches d’architecture pour optimiser le débit de tokens et réduire les coûts. BIG-IP Next pour Kubernetes exploite désormais les statistiques NIM de NVIDIA, les signaux d’exécution Dynamo et la télémétrie GPU pour prendre des décisions d’acheminement tenant compte de l’inférence avant l’exécution. En faisant correspondre les charges de travail aux accélérateurs les plus appropriés en temps réel, la solution augmente l’utilisation soutenue tout en réduisant la latence et la re-computation.

« L’infrastructure d’IA ne consiste plus seulement à accéder au GPU ou à mettre à l’échelle leurs déploiements. Elle a évolué vers la maximisation de la production économique par accélérateur », a déclaré Kunal Anand, Chief Product Officer, F5. « Ensemble avec NVIDIA, nous permettons aux usines d’IA de traiter la production de tokens comme une métrique économique mesurable. BIG-IP Next pour Kubernetes fournit l’intelligence et la gouvernance requises pour augmenter le rendement GPU, réduire le coût par token et déployer des plateformes d’IA partagées en toute confiance à grande échelle. »

** Efficacité d’infrastructure validée : un relèvement structurel **

Les chiffres de performance parlent d’eux-mêmes. Lors de tests validés par The Tolly Group, BIG-IP Next pour Kubernetes, accéléré par les DPU NVIDIA BlueField-3, a délivré jusqu’à une augmentation de 40 % du débit de tokens, un TTFT (temps jusqu’au premier token) 61 % plus rapide et une réduction de 34 % de la latence globale des requêtes.

Il ne s’agit pas de gains incrémentaux. En déchargeant le réseau, le TLS/le chiffrement, l’équilibrage de charge tenant compte de l’IA et la gestion du trafic vers les DPU NVIDIA BlueField-3, BIG-IP Next pour Kubernetes préserve la capacité CPU de l’hôte et libère les GPU pour faire ce pour quoi ils ont été conçus : une inférence soutenue à haut débit à grande échelle. Le résultat : une meilleure utilisation des GPU, une réduction des délais d’attente (file d’attente) et une augmentation du rendement de tokens, permettant un coût par token plus bas au sein d’un périmètre d’infrastructure fixe. Point crucial : aucune modification de modèle n’a été requise, ce qui rend ces gains immédiatement déployables sur l’infrastructure actuelle des usines d’IA. Pour les entreprises et les fournisseurs NeoCloud qui se font concurrence sur l’économie des tokens, la différence se situe entre une infrastructure qui limite la production d’IA et une infrastructure qui l’accélère.

« L’infrastructure informatique accélérée de NVIDIA, combinée à la plateforme de distribution d’applications et de sécurité tenant compte de l’IA de F5, débloque une tokenomics d’usine d’IA supérieure — offrant une inférence évolutive et rentable sans apporter de modifications aux modèles », a déclaré Kevin Deierling, SVP, Networking, NVIDIA. « Ensemble, F5 et NVIDIA permettent aux entreprises de mettre à l’échelle l’inférence d’usine d’IA efficacement et économiquement. »

** Conçu pour l’IA pilotée par des agents et les plateformes d’IA multi-tenant **

Les charges de travail d’IA modernes sont de plus en plus pilotées par des agents, persistantes et conscientes du contexte. Elles nécessitent un contrôle intelligent du trafic que l’équilibrage de charge traditionnel ne peut pas fournir. La solution améliorée BIG-IP Next pour Kubernetes peut désormais prendre en charge :

Acheminement tenant compte de l’inférence pour des flux d’IA agentiques Intégration avec le cadre NVIDIA DOCA Platform Framework (DPF) pour simplifier le déploiement et la gestion du cycle de vie des DPU NVIDIA BlueField EVPN-VXLAN avec des VRF dynamiques pour une multi-tenance sécurisée au niveau réseau Sécurité intégrée, gouvernance des tokens et observabilité au sein des environnements Kubernetes d’IA

Ces capacités permettent aux entreprises et aux fournisseurs NeoCloud de partager de manière sécurisée l’infrastructure GPU entre des unités commerciales ou des clients externes tout en préservant l’isolation des performances et des niveaux de service prévisibles.

** Un plan de contrôle pour l’économie des usines d’IA **

F5 et NVIDIA fournissent aux entreprises des outils validés et des meilleures pratiques pour optimiser l’architecture d’inférence. Avec ces avancées, BIG-IP Next pour Kubernetes est positionné pour devenir un plan de contrôle stratégique pour l’économie des usines d’IA, régissant la consommation de tokens, optimisant les flux de trafic et maximisant le retour sur investissement de l’infrastructure.

Plutôt que de surprovisionner pour compenser les inefficacités, les organisations peuvent désormais extraire une valeur économique plus élevée de chaque GPU déjà en production. Le résultat : un chiffre d’affaires amélioré par GPU, une réduction des charges opérationnelles et des services d’IA évolutifs conçus pour une croissance durable. En combinant la télémétrie d’infrastructure de NVIDIA et l’accélération par DPU avec l’intelligence du trafic et les capacités de sécurité de F5, les entreprises aident les organisations à transformer des usines d’IA en plateformes efficaces et monétisables, prêtes pour l’ère agentique.

** Supports de documentation **

** Blog :** ** Les usines d’IA ont besoin d’une infrastructure intelligente. De nouveaux résultats du Tolly Group montrent pourquoi. ** Rapport :** ** Tests indépendants par Tolly : F5 BIG-IP Next pour Kubernetes


MENAFN25032026007116015312ID1110904062

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler