📰 【أقوى نموذج مفتوح المصدر DeepSeek v4 أخيرًا هنا! نموذج بــ 16 تريليون معلمة، ترخيص MIT، تقليل استهلاك ذاكرة النص الطويل إلى عُشر V3.2】


وفقًا لمراقبة Beating، إصدار المعاينة من سلسلة DeepSeek المفتوحة المصدر V4، مرخصة بموجب ترخيص MIT، تم إطلاق الأوزان على Hugging Face وModelScope. تتضمن السلسلة نموذجين من MoE: V4-Pro بإجمالي 1.6 تريليون معلمة، تنشيط لكل رمز 49 مليار (490亿)؛ V4-Flash بإجمالي 284 مليار (2840亿)، تنشيط 13 مليار (130亿). كلا النموذجين يدعمان سياقًا من 1 مليون رمز. هناك ثلاث ترقيات في الهيكل: آلية الانتباه المختلطة (الانتباه التوافقي المدمج CSA + الانتباه المضغوط بشكل مكثف HCA) تقلل بشكل كبير من استهلاك السياق الطويل، مع دعم V4 لــ 1 مليون رمز في السياق...
يا إخوان، DeepSeek مرة أخرى تثير الضجة! نموذج V4 بــ 16 تريليون معلمة، مرخص بموجب MIT ومفتوح المصدر، وذاكرة النص الطويل تم تقليلها إلى عُشر V3.2. هذا هو حقًا ثورة تقنية، وليس تلك المشاريع الفاشلة التي تروج للعملات الوهمية.
$FET $AGIX هل يمكن أن تستغل عملات المفهوم AI هذه الفرصة للانطلاق؟ الجميع يعرف أن سورو هو أكثر ما يزعجه هو تلك الوعود الكبيرة، لكن الاختراقات التقنية الحقيقية يجب أن نكون حاسمين في الانضمام إليها. لا تنتظر المؤسسات لرفع السعر، وأنت لا تزال تتأمل هناك. 👇👇👇👇👇
FET‎-0.9%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت