قوقل تقترح منهجية تقييم مستمرة للهندسة لمواجهة تحديات تقييم بيئة إنتاج وكلاء الذكاء الاصطناعي

robot
إنشاء الملخص قيد التقدم

أخبار ME، في 4 أبريل (UTC+8)، أشار GoogleCloudTech في منشور حديث إلى أنه في بيئات الإنتاج، الاعتماد على الدردشة اليدوية والمشاعر الذاتية (أي “فحص الأجواء”) لتقييم وكلاء الذكاء الاصطناعي ليس موثوقًا، وقد يؤدي إلى كوارث. وتفهم المقالة أن الخصائص الاحتمالية للذكاء الاصطناعي التوليدي تجعل أي تغييرات صغيرة في التوجيهات أو أوزان النموذج قد تؤدي إلى تدهور كبير في الأداء. ولحل هذه المشكلة، يقترح المقال نهجًا هندسيًا لتطبيق التقييم المستمر (CE). يميّز هذا النهج بين نمطين لهندسة الذكاء الاصطناعي: نمط الاستكشاف (المختبر) ونمط الدفاع (المصنع). يركز نمط الاستكشاف على العثور على إمكانات النموذج من خلال عدد قليل من الأمثلة وفحص الأجواء؛ بينما يركز نمط الدفاع على الثبات، عبر التقييمات المستندة إلى مجموعات البيانات، والبوابات الصارمة، والمؤشرات الآلية لضمان أن يحقق النظام أهداف مستوى الخدمة (SLO). يحذر المقال من أن العديد من الفرق تبقى لفترة طويلة في نمط الاستكشاف. ويستشهد المقال أيضًا بنظام متعدد الوكلاء موزع (نظام منشئ الدورات) مبني على Cloud Run وبروتوكول Agent2Agent، ليوضح ممارسة نمط الدفاع للتطبيقات الإنتاجية الموثوقة وقابلة للتوسع لذكاء اصطناعي، من خلال التركيز على مبدأ فصل الاهتمامات ووكلاء متخصصين (مثل الباحث، القاضي، منشئ المحتوى، المنسق). (المصدر: InFoQ)

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت