Plurai: نموذج صغير ب30 مليار معلمة يتفوق على نموذج الحماية المخصص ب200 مليار

robot
إنشاء الملخص قيد التقدم

币界网消息، قدم إطار عمل barred الذي اقترحه Plurai من خلال تقديم وصف المهمة وقليل من العينات غير الموسومة، لإنشاء بيانات تدريب تركيبية تلقائيًا، وتدريب حواجز حماية مخصصة (guardrail) لمراجعة ما إذا كانت مخرجات الذكاء الاصطناعي مخالفة. باستخدام هذه البيانات في ضبط النموذج الدقيق لـ qwen2.5-3b (30 مليار معلمة)، تفوقت بشكل شامل على أداة OpenAI oss-safeguard-20b (200 مليار معلمة) في مهام استراتيجيات الحوار، والتحقق من مخرجات الوكيل، والامتثال الطبي، وغيرها، وتفوقت أيضًا على GPT-4.1 المستخدم مباشرة. يقوم هذا الإطار بتقسيم المهمة إلى أبعاد متعددة، ويخصص توليد عينات سهلة الخطأ عند الحدود. بعد التوليد، يجب أن تمر عبر مرحلة «الجدل غير المتناظر» لضمان دقة تصنيف العينات. تم إصدار رموز التقييم ومجموعات البيانات على GitHub وHugging Face كمصدر مفتوح.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت