نموذج DeepSeek مفتوح المصدر الإصدار الرابع، بحجم معلمات يصل إلى 1.6 تريليون

robot
إنشاء الملخص قيد التقدم

أخبار صحيفة Odaily Planet Daily: أطلقت DeepSeek نسخة معاينة من سلسلة النماذج المفتوحة المصدر V4، مرخصة بموجب رخصة MIT، وتم رفع الأوزان على Hugging Face و ModelScope.

تتضمن هذه السلسلة نموذجين من نماذج MoE، حيث يبلغ إجمالي معلمات V4-Pro حوالي 1.6 تريليون، و490 مليار معلمة تنشط لكل رمز، وإجمالي معلمات V4-Flash 2840 مليار، و130 مليار معلمة تنشط، وكلاهما يدعم سياق من حوالي مليون رمز. وأكدت الشركة أن مقارنة مع الإصدار V3.2، فإن استهلاك الذاكرة أثناء استنتاج النص الطويل وتقليل استهلاك الحسابات بشكل ملحوظ.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت