Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
F5 et NVIDIA améliorent l'économie de l'usine d'IA avec de nouvelles capacités pour l'inférence AI accélérée
(MENAFN- Asdaf News) ** Dubaï – Asdaf News :**
F5 (NASDAQ: FFIV), le leader mondial de la fourniture et de la sécurisation de chaque application et API, a annoncé aujourd’hui des capacités élargies dans sa ** collaboration en cours **
L’intégration élargie combine ** F5 BIG-IP Next pour Kubernetes **
Dans les systèmes d’IA, les tokens représentent l’unité mesurable de la production d’IA : les mots, symboles ou fragments de données générés et traités pendant l’inférence. Le volume et la vélocité de production de tokens déterminent en fin de compte l’expérience utilisateur, l’efficacité de l’infrastructure et le chiffre d’affaires par accélérateur.
Alors que les entreprises et les fournisseurs GPUaaS se précipitent pour monétiser l’IA et passer des expérimentations d’IA à des services générateurs de revenus, l’efficacité de l’infrastructure est devenue une métrique déterminante. Le succès est désormais mesuré non seulement par la capacité GPU déployée, mais par l’économie des tokens, le débit soutenu de tokens, le temps jusqu’au premier token (TTFT), le coût par token et le chiffre d’affaires par accélérateur GPU. La solution conjointe F5 et NVIDIA est conçue pour répondre directement à ces métriques.
** Optimiser la tokenomics grâce à une infrastructure d’IA intelligente **
Le passage d’une inférence centrée application à des flux de travail d’IA pilotés par des agents exige de nouvelles approches d’architecture pour optimiser le débit de tokens et réduire les coûts. BIG-IP Next pour Kubernetes exploite désormais les statistiques NIM de NVIDIA, les signaux d’exécution Dynamo et la télémétrie GPU pour prendre des décisions d’acheminement tenant compte de l’inférence avant l’exécution. En faisant correspondre les charges de travail aux accélérateurs les plus appropriés en temps réel, la solution augmente l’utilisation soutenue tout en réduisant la latence et la re-computation.
« L’infrastructure d’IA ne consiste plus seulement à accéder au GPU ou à mettre à l’échelle leurs déploiements. Elle a évolué vers la maximisation de la production économique par accélérateur », a déclaré Kunal Anand, Chief Product Officer, F5. « Ensemble avec NVIDIA, nous permettons aux usines d’IA de traiter la production de tokens comme une métrique économique mesurable. BIG-IP Next pour Kubernetes fournit l’intelligence et la gouvernance requises pour augmenter le rendement GPU, réduire le coût par token et déployer des plateformes d’IA partagées en toute confiance à grande échelle. »
** Efficacité d’infrastructure validée : un relèvement structurel **
Les chiffres de performance parlent d’eux-mêmes. Lors de tests validés par The Tolly Group, BIG-IP Next pour Kubernetes, accéléré par les DPU NVIDIA BlueField-3, a délivré jusqu’à une augmentation de 40 % du débit de tokens, un TTFT (temps jusqu’au premier token) 61 % plus rapide et une réduction de 34 % de la latence globale des requêtes.
Il ne s’agit pas de gains incrémentaux. En déchargeant le réseau, le TLS/le chiffrement, l’équilibrage de charge tenant compte de l’IA et la gestion du trafic vers les DPU NVIDIA BlueField-3, BIG-IP Next pour Kubernetes préserve la capacité CPU de l’hôte et libère les GPU pour faire ce pour quoi ils ont été conçus : une inférence soutenue à haut débit à grande échelle. Le résultat : une meilleure utilisation des GPU, une réduction des délais d’attente (file d’attente) et une augmentation du rendement de tokens, permettant un coût par token plus bas au sein d’un périmètre d’infrastructure fixe. Point crucial : aucune modification de modèle n’a été requise, ce qui rend ces gains immédiatement déployables sur l’infrastructure actuelle des usines d’IA. Pour les entreprises et les fournisseurs NeoCloud qui se font concurrence sur l’économie des tokens, la différence se situe entre une infrastructure qui limite la production d’IA et une infrastructure qui l’accélère.
« L’infrastructure informatique accélérée de NVIDIA, combinée à la plateforme de distribution d’applications et de sécurité tenant compte de l’IA de F5, débloque une tokenomics d’usine d’IA supérieure — offrant une inférence évolutive et rentable sans apporter de modifications aux modèles », a déclaré Kevin Deierling, SVP, Networking, NVIDIA. « Ensemble, F5 et NVIDIA permettent aux entreprises de mettre à l’échelle l’inférence d’usine d’IA efficacement et économiquement. »
** Conçu pour l’IA pilotée par des agents et les plateformes d’IA multi-tenant **
Les charges de travail d’IA modernes sont de plus en plus pilotées par des agents, persistantes et conscientes du contexte. Elles nécessitent un contrôle intelligent du trafic que l’équilibrage de charge traditionnel ne peut pas fournir. La solution améliorée BIG-IP Next pour Kubernetes peut désormais prendre en charge :
Acheminement tenant compte de l’inférence pour des flux d’IA agentiques Intégration avec le cadre NVIDIA DOCA Platform Framework (DPF) pour simplifier le déploiement et la gestion du cycle de vie des DPU NVIDIA BlueField EVPN-VXLAN avec des VRF dynamiques pour une multi-tenance sécurisée au niveau réseau Sécurité intégrée, gouvernance des tokens et observabilité au sein des environnements Kubernetes d’IA
Ces capacités permettent aux entreprises et aux fournisseurs NeoCloud de partager de manière sécurisée l’infrastructure GPU entre des unités commerciales ou des clients externes tout en préservant l’isolation des performances et des niveaux de service prévisibles.
** Un plan de contrôle pour l’économie des usines d’IA **
F5 et NVIDIA fournissent aux entreprises des outils validés et des meilleures pratiques pour optimiser l’architecture d’inférence. Avec ces avancées, BIG-IP Next pour Kubernetes est positionné pour devenir un plan de contrôle stratégique pour l’économie des usines d’IA, régissant la consommation de tokens, optimisant les flux de trafic et maximisant le retour sur investissement de l’infrastructure.
Plutôt que de surprovisionner pour compenser les inefficacités, les organisations peuvent désormais extraire une valeur économique plus élevée de chaque GPU déjà en production. Le résultat : un chiffre d’affaires amélioré par GPU, une réduction des charges opérationnelles et des services d’IA évolutifs conçus pour une croissance durable. En combinant la télémétrie d’infrastructure de NVIDIA et l’accélération par DPU avec l’intelligence du trafic et les capacités de sécurité de F5, les entreprises aident les organisations à transformer des usines d’IA en plateformes efficaces et monétisables, prêtes pour l’ère agentique.
** Supports de documentation **
** Blog :** ** Les usines d’IA ont besoin d’une infrastructure intelligente. De nouveaux résultats du Tolly Group montrent pourquoi. ** Rapport :** ** Tests indépendants par Tolly : F5 BIG-IP Next pour Kubernetes
MENAFN25032026007116015312ID1110904062