(MENAFN- Asdaf News)** ドバイ – Asdaf News:**F5(NASDAQ: FFIV)は、あらゆるアプリとAPIの提供および保護で世界的リーダーであり、現在進行中の ** コラボレーション** において継続的な拡張機能を本日発表しました拡張された統合は ** Kubernetes 向け F5 BIG-IP Next** を組み合わせたものですAIシステムでは、トークンはAI出力の測定可能な単位を指します。すなわち、推論中に生成され処理される言葉、記号、またはデータ断片です。トークン生成の量と速度は、最終的にユーザー体験、インフラ効率、そしてアクセラレータあたりの収益を左右します。企業やGPUaaSプロバイダーがAIの収益化を競い、AIの実験から収益を生むサービスへ移行する中で、インフラ効率は決定的な指標になっています。成功は、導入されたGPUの能力だけで測られるのではなく、トークン経済性、持続的なトークンスループット、最初のトークンまでの時間(TTFT)、トークンあたりのコスト、GPUアクセラレータあたりの収益によってますます評価されるようになっています。F5とNVIDIAの共同ソリューションは、これらの指標に直接対応するよう設計されています。 ** インテリジェントなAIインフラによるトークノミクスの最適化**アプリケーション中心の推論からエージェント駆動のAIワークフローへと移行するには、トークンスループットを最適化しコストを削減するための新しいアーキテクチャアプローチが必要です。Kubernetes 向け BIG-IP Next は、NVIDIA NIMの統計、Dynamoランタイムのシグナル、GPUテレメトリを今や活用し、実行前に推論を意識したルーティング判断を行います。ワークロードをリアルタイムで最適なアクセラレータに適合させることで、本ソリューションはレイテンシと再計算を抑えつつ、持続的な稼働率を高めます。「AIインフラは、単にGPUへのアクセスを提供したり、それらのデプロイをスケールしたりするだけのものではなくなりました。それは、アクセラレータあたりの経済的な出力を最大化することへと進化しました」と、F5のチーフプロダクトオフィサーであるKunal Anandは述べました。「NVIDIAとともに、AIファクトリーがトークン生成を測定可能なビジネス指標として扱えるようにしています。Kubernetes 向け BIG-IP Next は、GPUの歩留まりを高め、トークンあたりのコストを下げ、共有AIプラットフォームを自信を持ってスケールするために必要なインテリジェンスとガバナンスを提供します。」 ** 検証済みのインフラ効率:構造的な向上**性能数値はそれ自体が物語っています。The Tolly Group が検証したテストでは、NVIDIA BlueField-3 DPUs により加速された Kubernetes 向け BIG-IP Next は、トークンスループットを最大40%増加させ、最初のトークンまでの時間(TTFT)を61%短縮し、全体のリクエストレイテンシを34%削減しました。これは段階的な改善ではありません。ネットワーキング、TLS/暗号化、AIを意識したロードバランシング、トラフィック管理を NVIDIA BlueField-3 DPUs にオフロードすることで、Kubernetes 向け BIG-IP Next はホストCPUの能力を維持し、GPUに対して、作られた目的である、スケールにおける持続的で高スループットの推論に集中できる状態を解放します。その結果、GPU稼働率が向上し、キューイング遅延が減り、トークンの歩留まりが増加します。これにより、固定されたインフラ規模の枠内で、トークンあたりのコストをより低くできます。重要なのは、モデルの変更は一切必要とされなかったため、これらの成果を、既存のAIファクトリーインフラ全体へ即座に導入できることです。トークン経済性で競う企業およびNeoCloudプロバイダーにとって、それはAI出力を制約するインフラと、それを加速するインフラの違いです。「NVIDIAの加速コンピューティングインフラと、F5のAIを意識したアプリケーションデリバリー&セキュリティプラットフォームを組み合わせることで、モデルを一切変更することなく、スケーラブルかつコスト効率の高い推論を実現する、より優れたAIファクトリートークノミクスが可能になります」と、NVIDIAのNetworking担当SVPであるKevin Deierlingは述べました。「F5とNVIDIAは、企業がAIファクトリー推論を効率的かつ経済的にスケールできるよう後押ししています。」 ** エージェント駆動型AIとマルチテナントAIプラットフォームのために構築**最新のAIワークロードは、ますますエージェント駆動であり、持続的で、状況を理解したものになっています。従来のロードバランシングでは提供できない、インテリジェントなトラフィック制御を求めています。強化された Kubernetes 向け BIG-IP Next は、いまや以下をサポートできます: エージェント型AIワークフローのための推論を意識したルーティング NVIDIA DOCA Platform Framework(DPF)との統合により、NVIDIA BlueField DPUのデプロイおよびライフサイクル管理を簡素化 セキュアなネットワークレベルでのマルチテナンシーのための、動的VRFを備えたEVPN-VXLAN KubernetesのAI環境内での統合セキュリティ、トークンガバナンス、可観測性これらの機能により、企業およびNeoCloudプロバイダーは、パフォーマンス分離と予測可能なサービスレベルを維持しながら、事業部門または外部顧客間でGPUインフラを安全に共有できます。 ** AIファクトリー経済のためのコントロールプレーン**F5とNVIDIAは、企業が推論アーキテクチャを最適化するための検証済みのツールとベストプラクティスを提供します。これらの進展により、Kubernetes 向け BIG-IP Next は、AIファクトリー経済のための戦略的なコントロールプレーンとして位置づけられ、トークン消費を管理し、トラフィックフローを最適化し、インフラの投資対効果を最大化します。非効率を補うために過剰に見積もって(過大に)準備するのではなく、組織はすでに生産稼働中のあらゆるGPUから、より大きな経済的価値を引き出せるようになりました。結果として、GPUあたりの収益が改善し、運用上の手間が削減され、持続的な成長に向けて作られたスケーラブルなAIサービスが実現します。NVIDIAのインフラテレメトリとDPU加速、ならびにF5のトラフィックインテリジェンスとセキュリティ機能を組み合わせることで、両社は企業がAIファクトリーを、エージェント時代に備えた効率的で収益化可能なプラットフォームへと転換するのを支援しています。 ** サポート資料** ** ブログ:** ** AIファクトリーにはインテリジェントなインフラが必要です。The Tolly Group が示す新たな結果が、その理由を説明します。 ** レポート:** ** Tolly による独立テスト:Kubernetes 向け F5 BIG-IP Next****MENAFN25032026007116015312ID1110904062
F5とNVIDIA、AI推論の加速のための新機能を備えた先進的なAIファクトリーの経済性を向上
(MENAFN- Asdaf News) ** ドバイ – Asdaf News:**
F5(NASDAQ: FFIV)は、あらゆるアプリとAPIの提供および保護で世界的リーダーであり、現在進行中の ** コラボレーション** において継続的な拡張機能を本日発表しました
拡張された統合は ** Kubernetes 向け F5 BIG-IP Next** を組み合わせたものです
AIシステムでは、トークンはAI出力の測定可能な単位を指します。すなわち、推論中に生成され処理される言葉、記号、またはデータ断片です。トークン生成の量と速度は、最終的にユーザー体験、インフラ効率、そしてアクセラレータあたりの収益を左右します。
企業やGPUaaSプロバイダーがAIの収益化を競い、AIの実験から収益を生むサービスへ移行する中で、インフラ効率は決定的な指標になっています。成功は、導入されたGPUの能力だけで測られるのではなく、トークン経済性、持続的なトークンスループット、最初のトークンまでの時間(TTFT)、トークンあたりのコスト、GPUアクセラレータあたりの収益によってますます評価されるようになっています。F5とNVIDIAの共同ソリューションは、これらの指標に直接対応するよう設計されています。
** インテリジェントなAIインフラによるトークノミクスの最適化**
アプリケーション中心の推論からエージェント駆動のAIワークフローへと移行するには、トークンスループットを最適化しコストを削減するための新しいアーキテクチャアプローチが必要です。Kubernetes 向け BIG-IP Next は、NVIDIA NIMの統計、Dynamoランタイムのシグナル、GPUテレメトリを今や活用し、実行前に推論を意識したルーティング判断を行います。ワークロードをリアルタイムで最適なアクセラレータに適合させることで、本ソリューションはレイテンシと再計算を抑えつつ、持続的な稼働率を高めます。
「AIインフラは、単にGPUへのアクセスを提供したり、それらのデプロイをスケールしたりするだけのものではなくなりました。それは、アクセラレータあたりの経済的な出力を最大化することへと進化しました」と、F5のチーフプロダクトオフィサーであるKunal Anandは述べました。「NVIDIAとともに、AIファクトリーがトークン生成を測定可能なビジネス指標として扱えるようにしています。Kubernetes 向け BIG-IP Next は、GPUの歩留まりを高め、トークンあたりのコストを下げ、共有AIプラットフォームを自信を持ってスケールするために必要なインテリジェンスとガバナンスを提供します。」
** 検証済みのインフラ効率:構造的な向上**
性能数値はそれ自体が物語っています。The Tolly Group が検証したテストでは、NVIDIA BlueField-3 DPUs により加速された Kubernetes 向け BIG-IP Next は、トークンスループットを最大40%増加させ、最初のトークンまでの時間(TTFT)を61%短縮し、全体のリクエストレイテンシを34%削減しました。
これは段階的な改善ではありません。ネットワーキング、TLS/暗号化、AIを意識したロードバランシング、トラフィック管理を NVIDIA BlueField-3 DPUs にオフロードすることで、Kubernetes 向け BIG-IP Next はホストCPUの能力を維持し、GPUに対して、作られた目的である、スケールにおける持続的で高スループットの推論に集中できる状態を解放します。その結果、GPU稼働率が向上し、キューイング遅延が減り、トークンの歩留まりが増加します。これにより、固定されたインフラ規模の枠内で、トークンあたりのコストをより低くできます。重要なのは、モデルの変更は一切必要とされなかったため、これらの成果を、既存のAIファクトリーインフラ全体へ即座に導入できることです。トークン経済性で競う企業およびNeoCloudプロバイダーにとって、それはAI出力を制約するインフラと、それを加速するインフラの違いです。
「NVIDIAの加速コンピューティングインフラと、F5のAIを意識したアプリケーションデリバリー&セキュリティプラットフォームを組み合わせることで、モデルを一切変更することなく、スケーラブルかつコスト効率の高い推論を実現する、より優れたAIファクトリートークノミクスが可能になります」と、NVIDIAのNetworking担当SVPであるKevin Deierlingは述べました。「F5とNVIDIAは、企業がAIファクトリー推論を効率的かつ経済的にスケールできるよう後押ししています。」
** エージェント駆動型AIとマルチテナントAIプラットフォームのために構築**
最新のAIワークロードは、ますますエージェント駆動であり、持続的で、状況を理解したものになっています。従来のロードバランシングでは提供できない、インテリジェントなトラフィック制御を求めています。強化された Kubernetes 向け BIG-IP Next は、いまや以下をサポートできます:
エージェント型AIワークフローのための推論を意識したルーティング NVIDIA DOCA Platform Framework(DPF)との統合により、NVIDIA BlueField DPUのデプロイおよびライフサイクル管理を簡素化 セキュアなネットワークレベルでのマルチテナンシーのための、動的VRFを備えたEVPN-VXLAN KubernetesのAI環境内での統合セキュリティ、トークンガバナンス、可観測性
これらの機能により、企業およびNeoCloudプロバイダーは、パフォーマンス分離と予測可能なサービスレベルを維持しながら、事業部門または外部顧客間でGPUインフラを安全に共有できます。
** AIファクトリー経済のためのコントロールプレーン**
F5とNVIDIAは、企業が推論アーキテクチャを最適化するための検証済みのツールとベストプラクティスを提供します。これらの進展により、Kubernetes 向け BIG-IP Next は、AIファクトリー経済のための戦略的なコントロールプレーンとして位置づけられ、トークン消費を管理し、トラフィックフローを最適化し、インフラの投資対効果を最大化します。
非効率を補うために過剰に見積もって(過大に)準備するのではなく、組織はすでに生産稼働中のあらゆるGPUから、より大きな経済的価値を引き出せるようになりました。結果として、GPUあたりの収益が改善し、運用上の手間が削減され、持続的な成長に向けて作られたスケーラブルなAIサービスが実現します。NVIDIAのインフラテレメトリとDPU加速、ならびにF5のトラフィックインテリジェンスとセキュリティ機能を組み合わせることで、両社は企業がAIファクトリーを、エージェント時代に備えた効率的で収益化可能なプラットフォームへと転換するのを支援しています。
** サポート資料**
** ブログ:** ** AIファクトリーにはインテリジェントなインフラが必要です。The Tolly Group が示す新たな結果が、その理由を説明します。 ** レポート:** ** Tolly による独立テスト:Kubernetes 向け F5 BIG-IP Next
MENAFN25032026007116015312ID1110904062