العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
F5 و NVIDIA يطوران اقتصاديات مصنع الذكاء الاصطناعي المتقدم مع قدرات جديدة لتسريع استنتاجات الذكاء الاصطناعي
( MENAFN- Asdaf News) ** دبي – Asdaf News:**
F5 (NASDAQ: FFIV)، الرائدة العالمية في تقديم وتأمين كل تطبيق وواجهة برمجة تطبيقات (API)، أعلنت اليوم عن قدرات موسّعة في إطار ** تعاونها المستمر**
يُدمج التكامل الموسّع ** F5 BIG-IP Next لـ Kubernetes**
في أنظمة الذكاء الاصطناعي، تمثل الرموز وحدة القياس القابلة للتحديد لمخرجات الذكاء الاصطناعي — الكلمات أو الرموز أو أجزاء البيانات التي يتم توليدها ومعالجتها أثناء الاستدلال. وفي نهاية المطاف، يحدد حجم الرموز وسرعتها في الإنتاج تجربة المستخدم، وكفاءة البنية التحتية، والعائد لكل مُسرّع.
وبينما تتسابق المؤسسات ومقدمو GPUaaS على تحقيق الدخل من الذكاء الاصطناعي والانتقال من تجارب الذكاء الاصطناعي إلى خدمات تولّد إيرادات، أصبحت كفاءة البنية التحتية مؤشرًا محدِّدًا. ويُقاس النجاح بشكل متزايد ليس فقط من خلال سعة وحدات GPU المجمّدة، بل من خلال اقتصاديات الرموز، واستمرارية تدفق الرموز، وزمن أول رمز (TTFT)، وتكلفة كل رمز، وإيراد كل مُسرّع لوحدة GPU. تم تصميم حل F5 وNVIDIA المشترك لمعالجة هذه المقاييس بشكل مباشر.
** تحسين اقتصاديات الرموز عبر بنية تحتية ذكية للذكاء الاصطناعي**
يتطلب التحول من الاستدلال المتمحور حول التطبيقات إلى سير عمل ذكاء اصطناعي تقوده الوكلاء أساليب معمارية جديدة لتحسين تدفق الرموز وتقليل التكاليف. تقوم BIG-IP Next for Kubernetes الآن بالاستفادة من إحصاءات NVIDIA NIM وإشارات وقت تشغيل Dynamo وقياسات تليمتري لوحدات GPU لاتخاذ قرارات توجيه مدركة للاستدلال قبل التنفيذ. ومن خلال مطابقة الأحمال مع المسرّعات الأنسب في الوقت الفعلي، يزيد الحل من الاستخدام المستمر مع تقليل زمن الوصول وإعادة الحساب.
“لا تتعلق البنية التحتية للذكاء الاصطناعي بالوصول إلى وحدات GPU أو توسيع عمليات نشرها فحسب. بل تطورت لتصبح تعظيم الناتج الاقتصادي لكل مُسرّع”، قال كونال أناند، كبير مسؤولي المنتجات، F5.“مع NVIDIA، نُمكّن مصانع الذكاء الاصطناعي من التعامل مع إنتاج الرموز كمؤشر أعمال قابل للقياس. توفر BIG-IP Next for Kubernetes الذكاء والحوكمة اللازمة لزيادة عائد وحدات GPU، وتقليل تكلفة كل رمز، وتوسيع منصات ذكاء اصطناعي مشتركة بثقة.”
** كفاءة بنية تحتية مُثبتة: تحسين هيكلي**
تتحدث أرقام الأداء عن نفسها. في الاختبارات التي تحققها The Tolly Group، حققت BIG-IP Next for Kubernetes، المُسرَّعة عبر NVIDIA BlueField-3 DPUs، زيادة تصل إلى 40% في تدفق الرموز، وبزمن أول رمز (TTFT) أسرع بنسبة 61%، وانخفاض بنسبة 34% في إجمالي زمن تأخر الطلبات.
هذه ليست مكاسب تدريجية. من خلال إسناد الشبكات وTLS/التشفير وموازنة التحميل المدركة للذكاء الاصطناعي وإدارة حركة المرور إلى NVIDIA BlueField-3 DPUs، تحافظ BIG-IP Next for Kubernetes على سعة المعالج المركزي (CPU) للعمّال وتُطلق وحدات GPU للقيام بما صُممت من أجله: استدلال مستمر عالي التدفق على نطاق واسع. وتتمثل النتيجة في تحسين استخدام وحدات GPU وتقليل تأخيرات الانتظار وزيادة عائد الرموز، ما يتيح تكلفة أقل لكل رمز ضمن بصمة بنية تحتية ثابتة. والأهم من ذلك، لم تكن هناك حاجة لإجراء تعديلات على أي نموذج، ما يجعل هذه المكاسب قابلة للنشر فورًا عبر بنية تحتية قائمة لمصانع الذكاء الاصطناعي. وبالنسبة للمؤسسات ومقدمي NeoCloud الذين ينافسون على اقتصاديات الرموز، فإن هذا هو الفرق بين بنية تحتية تقيد مخرجات الذكاء الاصطناعي وبنية تحتية تُسرّعه.
“تفتح بنية الحوسبة المُسرَّعة من NVIDIA، إلى جانب منصة تسليم التطبيقات والأمان المدركة للذكاء الاصطناعي لدى F5، المجال أمام اقتصاديات رموز لمصانع ذكاء اصطناعي متفوقة — توفير استدلال قابل للتوسع وفعّال من حيث التكلفة دون إجراء أي تغييرات على النماذج”، قال كيفن دييرلنغ، نائب الرئيس الأول، الشبكات، NVIDIA.“معًا، يُمكّن كل من F5 وNVIDIA المؤسسات من توسيع الاستدلال الخاص بمصانع الذكاء الاصطناعي بكفاءة وبشكل اقتصادي.”
** مُصممة لوكلاء الذكاء الاصطناعي والمنصات متعددة المستأجرين**
تتسم أحمال عمل الذكاء الاصطناعي الحديثة بأنها تتجه بشكل متزايد لتكون بقيادة الوكلاء، ودائمة، وقادرة على فهم السياق. وهي تتطلب تحكمًا ذكيًا في حركة المرور لا يمكن للـموازنة التقليدية للتحميل توفيره. يمكن لحل BIG-IP Next for Kubernetes المحسّن الآن دعم:
توجيه مدرك للاستدلال لسير عمل ذكاء اصطناعي تقوده وكلاء التكامل مع إطار عمل NVIDIA DOCA Platform Framework (DPF) لتبسيط نشر وإدارة دورة حياة NVIDIA BlueField DPU EVPN-VXLAN مع VRFs ديناميكية لتعدد استئجار آمن على مستوى الشبكة أمن متكامل وحوكمة للرموز وقابلية الملاحظة (observability) داخل بيئات ذكاء اصطناعي ضمن Kubernetes
تمكّن هذه القدرات المؤسسات ومقدمي NeoCloud من مشاركة بنية تحتية لوحدات GPU بشكل آمن عبر وحدات أعمال أو عملاء خارجيين مع الحفاظ على عزل الأداء ومستويات الخدمة القابلة للتنبؤ.
** مستوى تحكم لاقتصاديات مصانع الذكاء الاصطناعي**
يوفر كل من F5 وNVIDIA للمؤسسات أدوات مثبتة وأفضل الممارسات لتحسين بنية الاستدلال. ومع هذه التطورات، تتموضع BIG-IP Next for Kubernetes لتصبح مستوى تحكم استراتيجيًا لاقتصاديات مصانع الذكاء الاصطناعي، وتقوم بإدارة استهلاك الرموز، وتحسين مسارات حركة المرور، وتعظيم عائد الاستثمار في البنية التحتية.
بدلًا من الإفراط في توفير الموارد لتعويض أوجه القصور، يمكن للمؤسسات الآن استخلاص قيمة اقتصادية أكبر من كل وحدة GPU موجودة بالفعل في مرحلة الإنتاج. والنتيجة هي تحسين الإيراد لكل وحدة GPU، وتقليل العبء التشغيلي، وخدمات ذكاء اصطناعي قابلة للتوسع ومُعدة للنمو المستمر. ومن خلال الجمع بين تليمتري البنية التحتية من NVIDIA وتسريع DPU مع قدرات ذكاء حركة المرور والأمان من F5، تساعد الشركات المؤسسات على تحويل مصانع الذكاء الاصطناعي إلى منصات فعّالة وقابلة لتحقيق الدخل ومهيأة لحقبة الوكلاء.
** مواد داعمة**
** المدونة:** ** تحتاج مصانع الذكاء الاصطناعي إلى بنية تحتية ذكية. نتائج جديدة من The Tolly Group تُظهر السبب. ** التقرير:** ** اختبار مستقل من Tolly: F5 BIG-IP Next for Kubernetes
MENAFN25032026007116015312ID1110904062