العقود الآجلة
وصول إلى مئات العقود الدائمة
CFD
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
Pre-IPOs
افتح الوصول الكامل إلى الاكتتابات العامة للأسهم العالمية
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
عروض ترويجية
AI
Gate AI
شريكك الذكي الشامل في الذكاء الاصطناعي
Gate AI Bot
استخدم Gate AI مباشرة في تطبيقك الاجتماعي
GateClaw
Gate الأزرق، جاهز للاستخدام
Gate for AI Agent
البنية التحتية للذكاء الاصطناعي، Gate MCP، Skills و CLI
Gate Skills Hub
أكثر من 10 آلاف مهارة
من المكتب إلى التداول، مكتبة المهارات الشاملة تجعل الذكاء الاصطناعي أكثر فعالية
GateRouter
ختر بذكاء من أكثر من 40 نموذج ذكاء اصطناعي، بدون أي رسوم إضافية 0%
مكتبة العمليات على وحدات معالجة الرسومات مفتوحة المصدر DeepSeek DeepGEMM إصدار كبير جديد، يضيف Mega MoE لدمج خطوات حساب MoE الخمسة في نواة واحدة
أخبار ME، في 16 أبريل (بتوقيت UTC+8)، وفقًا لمراقبة 动察 Beating، أصدرت DeepSeek اليوم أكبر تحديث منذ إصدار DeepGEMM كمصدر مفتوح. كانت مكتبة العمليات على وحدات معالجة الرسومات التي أُطلقت خلال أسبوع “الافتتاح المصدر” في فبراير من العام الماضي، تقتصر على ضرب المصفوفات بدقة FP8، والآن توسعت لتشمل مكتبة عمليات كاملة لمرحلة استنتاج النماذج الكبيرة، تدعم عمليات المصفوفة بدقة FP8، FP4، BF16، بالإضافة إلى عمليات مخصصة مثل MoE وتقييم الانتباه.
الابتكار الرئيسي هو Mega MoE. بنية MoE (الخبراء المختلطون) هي أساس نماذج مثل DeepSeek V3، وتتطلب أثناء الاستنتاج تنفيذ خمس خطوات بالتسلسل: توزيع EP، التحويل الخطي للطبقة الأولى، تنشيط SwiGLU، التحويل الخطي للطبقة الثانية، ودمج EP. الطريقة التقليدية تتطلب استدعاء خمس نوى مستقلة بشكل متسلسل، حيث يجب الانتظار حتى تكتمل كل خطوة، وتنقل البيانات بين الذاكرة الرسومية.
يعمل Mega MoE على دمج هذه الخطوات الخمس في نواة واحدة، مما يسمح بالتواصل عبر NVLink والحساب باستخدام Tensor Core في نفس الوقت، مما يقلل من الانتظار ونقل البيانات. يدعم حالياً مجموعة دقة FP8×FP4 فقط، ويتطلب إصدار PyTorch 2.9 أو أعلى، وأكد الفريق أن التحسينات لا تزال جارية، وسيتم نشر بيانات الأداء لاحقًا.
تشمل الإضافات الأخرى: ضرب المصفوفات بدقة مختلطة FP8×FP4، دعم تقييم الانتباه بدقة FP4 لمزيد من حجم MTP، وPDL (بدء الاعتماد البرمجي، وهو تحسين لجدولة GPU يقلل من تأخير بدء النواة)، وسرعة ترجمة JIT، بالإضافة إلى تحسينات متعددة لعمليات المصفوفة MoE.
كما تم تكييف هذا التحديث مع تخطيط بيانات MoE في DeepEPv2. وأوضح بيان PR بشكل خاص: «هذا الإصدار مرتبط فقط بتطوير DeepGEMM، وليس له علاقة بنشر النماذج الداخلية.»
(المصدر: BlockBeats)