نموذج بـ 27 مليار معلمة يعمل على GPU بسعة 16 جيجابايت من الذاكرة، ويُقال إن قدرته على الاستنتاج تقترب من Claude 4 Opus

robot
إنشاء الملخص قيد التقدم

أخبار ME، رسالة بتاريخ 1 أبريل (UTC+8). وفي الآونة الأخيرة، وُجدت أنباء تفيد بأن نموذجًا بحجم 27B من المعلمات يعمل على وحدة معالجة رسومات GPU بسعة 16GB محليًا عند التشغيل باستخدام ترميز 4 بت، قد حقق أداءً أفضل في معيار SWE-bench مقارنةً بـClaude Sonnet 4.5. ووفقًا لوجهة نظر كاتب المقال، يمكن لهذا النموذج أن يقدم قدرات استدلال مماثلة لتلك الخاصة بـClaude 4 Opus، لكن مع متطلبات موارد أقل. وتقوم نسخة v2 من هذا النموذج بتقليل التكرار في سلسلة التفكير (chain-of-thought) بنسبة 24%، مع الحفاظ على دقة HumanEval بنسبة 96.91%. (المصدر: InFoQ)

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.26Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.26Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.26Kعدد الحائزين:0
    0.00%
  • القيمة السوقية:$2.26Kعدد الحائزين:1
    0.00%
  • تثبيت