نموذج بـ 27 مليار معلمة يعمل على GPU بسعة 16 جيجابايت من الذاكرة، ويُقال إن قدرته على الاستنتاج تقترب من Claude 4 Opus

robot
إنشاء الملخص قيد التقدم

أخبار ME، رسالة في 1 أبريل (UTC+8). يُزعم مؤخرًا أن نموذجًا بحجم 27B من المعلمات، عند تشغيله محليًا على وحدة GPU بذاكرة 16GB من خلال التكميم إلى 4 بتات، قد حقق أداءً أفضل في معيار SWE-bench مقارنةً بـ Claude Sonnet 4.5. ووفقًا لما ورد في المقال، يمكن لهذا النموذج أن يقدم قدرات استدلال مماثلة لـ Claude 4 Opus، لكن مع احتياجات موارد أقل. ويذكر أن نسخة v2 من هذا النموذج تقلل من التكرار في سلسلة الأفكار (chain-of-thought) بنسبة 24%، مع الحفاظ على دقة HumanEval بنسبة 96.91%. (المصدر: InFoQ)

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.23Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:0
    0.00%
  • القيمة السوقية:$2.24Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.24Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.23Kعدد الحائزين:1
    0.00%
  • تثبيت