نموذج بـ 27 مليار معلمة يعمل على GPU بسعة 16 جيجابايت من الذاكرة، ويُقال إن قدرته على الاستنتاج تقترب من Claude 4 Opus

robot
إنشاء الملخص قيد التقدم

أخبار ME، 1 أبريل (UTC+8). في الآونة الأخيرة، ترد أنباء بأن نموذجًا بحجم 27B من المعاملات يعمل محليًا على وحدة معالجة رسومية GPU بسعة 16GB للذاكرة المرئية عند تشغيله بترميز 4 بت، وقد حقق أداءً أفضل على معيار SWE-bench مقارنةً بـ Claude Sonnet 4.5. ووفقًا لوجهة نظر المقال، يمكن لهذا النموذج أن يقدّم قدرات استدلال تعادل تقريبًا قدرات Claude 4 Opus، لكن مع متطلبات موارد أقل. وأفاد بأن نسخة v2 من هذا النموذج تقلّل التكرار في سلسلة التفكير (chain-of-thought) بنسبة 24%، مع الحفاظ على دقة HumanEval بنسبة 96.91%. (المصدر: InFoQ)

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.26Kعدد الحائزين:0
    0.00%
  • القيمة السوقية:$2.26Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.41Kعدد الحائزين:2
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:0
    0.00%
  • القيمة السوقية:$2.28Kعدد الحائزين:1
    0.00%
  • تثبيت