القبعة الحمراء، في سياق انتشار "الذكاء الاصطناعي الوكيل"، تضع معايير الثقة والاستدلال في المقدمة... تراهن على vLLM

robot
إنشاء الملخص قيد التقدم

مع دخول الشركات في تطبيق “الذكاء الاصطناعي الوكيل” في العمل الفعلي، يتحول التركيز من أداء النموذج إلى “الثقة”. وأشارت التحليلات إلى أنه نظرًا لقدرة الذكاء الاصطناعي على كتابة الشفرات، والتواصل مع الأنظمة، وحتى تنفيذ عمليات جوهرية، أصبح ضمان الأمان، والحوكمة، والاستقرار موضوعات مركزية.

قال كريس رايت، المدير التقني (CTO) ونائب الرئيس التنفيذي للهندسة العالمية في شركة ريد هات، خلال قمة ريد هات 2026: “عندما نريد أن يتخذ الوكيل إجراءات في الأعمال الحقيقية، يصبح من الضروري جدًا أن نثق في هذا الذكاء الاصطناعي.” وأكد بشكل خاص أن منح أقل قدر من الصلاحيات، وبيئة الحاويات، ونظام إدارة الوكلاء على نطاق واسع هي شروط ضرورية.

ريد هات تراهن على بناء “طبقة استدلال قياسية” تعتمد على vLLM

كحلول لتقليل تعقيد الذكاء الاصطناعي للشركات، اقترحت ريد هات “طبقة استدلال موحدة”. الفكرة هي، كما أصبح لينكس وكوبرنيتيس أساسًا مشتركًا للصناعة في الماضي، يجب أن يلعب محرك الاستدلال المفتوح المصدر vLLM نفس الدور اليوم.

ولتحقيق ذلك، استحوذت ريد هات على Neural Magic للحصول على قدرات تحسين الأداء في الاستدلال والكميات. أوضح كريس رايت: “حتى قبل إصدار النماذج المفتوحة، كانت مزودات النماذج تتقدم في تطوير vLLM. هذا التوحيد القياسي يعزز كفاءة النظام البيئي بأكمله، ويشكل أساسًا لتحسين عمليات الشركات الداخلية.”

من منظور الشركات، هذا مهم جدًا لأنه يقلل من عدم اليقين في اختيار البنية التحتية. فقط عندما يتم تحديد نوع البنية التي يُشغل عليها النموذج، يمكن تقليل تكاليف التطوير والنشر والصيانة. في النهاية، فإن الثقة في الذكاء الاصطناعي المفتوح المصدر لا تتعلق فقط بالأخلاقيات التقنية، بل ترتبط أيضًا بـ"القابلية للتوقع" في بيئة التشغيل الفعلية.

تكلفة الاستدلال، أصبحت الآن من المتغيرات التشغيلية التي تهم مجلس الإدارة

مع انتشار الذكاء الاصطناعي، أصبحت “تكلفة الاستدلال” مؤشرًا هامًا للأداء التشغيلي. نظرًا لزيادة استهلاك الكهرباء وتكاليف أشباه الموصلات اللازمة لتشغيل نماذج اللغة الكبيرة بشكل مستمر، تتجه الشركات من استخدام أقوى النماذج بشكل أعمى إلى البحث عن أنسب التوليفات الأكثر كفاءة لعملياتها المختلفة.

قال كريس رايت إنه يجب اختيار الأجهزة والنماذج التي تقدم أفضل قيمة مقابل الأداء وكفاءة الطاقة حسب المهمة المحددة. بمعنى آخر، أن استخدام نوع واحد من الذكاء الاصطناعي لجميع الأعمال قد يكون غير فعال. فالمهام البسيطة قد تكون أكثر ملاءمة لنماذج صغيرة، في حين أن الأحكام المعقدة تتطلب نماذج كبيرة.

هذا الاتجاه يعزز احتمالية أن تتجه بنية الذكاء الاصطناعي التحتية نحو “الهيكل غير المتجانس” بدلاً من “الهيكل الأحادي”. حيث سيتم استخدام بيئات هجينة تجمع بين السحابة، والنشر المحلي، وبيئات الحافة مثل المصانع، مع احتمال توسعة الأجهزة من GPU واحد إلى مجموعات متنوعة. وتأمل ريد هات في أن تظل استراتيجيتها في المنصة ذات قيمة مستمرة في هذا السياق.

صراع “الذكاء الاصطناعي الموثوق” يتسع ليشمل الشركات القائمة على المنصات

تشير هذه التصريحات إلى أن المنافسة في سوق الذكاء الاصطناعي لم تعد تعتمد فقط على أداء النماذج. فالعملاء الحقيقيون لا يحتاجون إلى نموذج أكثر ذكاءً فحسب، بل إلى بيئة تنفيذ موثوقة وقابلة للتحكم.

خصوصًا في بيئات تشغيل مئات أو آلاف الوكلاء الذكاء الاصطناعي في آن واحد، تصبح استراتيجيات الأمان، وإدارة الصلاحيات، والقدرة على التدقيق ضرورية جدًا. وهذا هو السبب في أن الصناعة، مثلما كانت في عصر لينكس وكوبرنيتيس، تسعى مرة أخرى إلى معايير مشتركة.

وفي النهاية، فإن الثقة في الذكاء الاصطناعي المفتوح المصدر قد تكون العامل الحاسم في تحديد سرعة انتشار الذكاء الاصطناعي في الشركات مستقبلًا. مع تثبيت طبقة الاستدلال القياسية واستراتيجية البنية التحتية غير المتجانسة، تأمل الشركات في تسريع انتقال الذكاء الاصطناعي من مرحلة التجربة إلى بيئة الإنتاج الفعلية.

ملاحظات حول TP AI: تم تلخيص هذا النص استنادًا إلى نموذج لغة TokenPost.ai. قد يتم حذف المحتوى الرئيسي أو عدم مطابقته للواقع.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • 1
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • مُثبت