العقود الآجلة
وصول إلى مئات العقود الدائمة
CFD
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
Pre-IPOs
افتح الوصول الكامل إلى الاكتتابات العامة للأسهم العالمية
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
عروض ترويجية
AI
Gate AI
شريكك الذكي الشامل في الذكاء الاصطناعي
Gate AI Bot
استخدم Gate AI مباشرة في تطبيقك الاجتماعي
GateClaw
Gate الأزرق، جاهز للاستخدام
Gate for AI Agent
البنية التحتية للذكاء الاصطناعي، Gate MCP، Skills و CLI
Gate Skills Hub
أكثر من 10 آلاف مهارة
من المكتب إلى التداول، مكتبة المهارات الشاملة تجعل الذكاء الاصطناعي أكثر فعالية
GateRouter
ختر بذكاء من أكثر من 40 نموذج ذكاء اصطناعي، بدون أي رسوم إضافية 0%
لماذا تفشل النماذج الكبيرة في توليد "ما جياقي": تحليل الرموز في MiniMax يكشف أن ما يقرب من 5% من الرموز نُسيت بعد التدريب اللاحق
وفقًا لمراقبة دونتشا بيتينج، أصدرت MiniMax مدونة تقنية تكشف عن سبب المشكلة الجذرية لعدم قدرة نموذجها الكبير من سلسلة M2 على إخراج اسم “ما جياقي”. بدأت التحقيقات من حالة محددة وكشفت في النهاية عن مشكلة تدهور نظامية تؤثر على المفردات بأكملها. تم تحديد السبب الجذري على أنه دمج المُجزئ (مكون يقسم النص إلى وحدات لمعالجة النموذج) لـ “جياقي” كرمز مستقل أثناء التدريب. في مرحلة ما قبل التدريب، واجه النموذج كمية كبيرة من نصوص الإنترنت وتعلم هذا الرمز؛ ومع ذلك، في بيانات الحوار بعد التدريب، كانت هناك أقل من 5 عينات تحتوي على “جياقي”. أثناء ما بعد التدريب، استمرت الرموز عالية التكرار مثل علامات استدعاء الأدوات ورموز الشفرة في تحديث فضاء المتجهات المحيط، مما دفع الرموز منخفضة التكرار مثل “جياقي” في الاتجاه الخاطئ. لا يزال النموذج “يتعرف” على ما جياقي ويمكنه الرد بدقة بالمعلومات ذات الصلة؛ لقد فقد فقط القدرة على إخراج هذا الرمز. ثم أجرى الفريق مسحًا شاملًا لما يقرب من 200,000 رمز في المفردات الكاملة ووجد أن حوالي 4.9% من الرموز قد تدهورت بشكل كبير. كانت أشد حالات التدهور في اليابانية: 29.7% من الرموز اليابانية أظهرت تدهورًا كبيرًا، متجاوزة بكثير الكورية (3.3%)، الروسية (3.7%)، الصينية (3.9%)، والإنجليزية (3.5%). من الرموز الأخرى التي أظهرت تدهورًا ملحوظًا كانت مصطلحات غير ذات صلة بمحركات البحث على الإنترنت مثل “السيرفر الخاص الأسطوري” و"الإجهاض غير المؤلم"، والتي لها آليات مماثلة لتلك الخاصة بـ “جياقي”. كما حل التدهور الشديد في اليابانية لغزًا قديمًا. سابقًا، كان النموذج يخلط أحيانًا بين حروف روسية أو كورية في حوارات يابانية، لكن السبب كان غير معروف. أشارت هذه التحليلات إلى أنه بعد انحراف معلمات الرموز اليابانية، أصبحت مشوشة مع رموز من لغات أخرى في فضاء المتجهات، مما أدى إلى تنشيط غير صحيح للرموز اليابانية (اختلاط اللغات) ودفع الرموز الصينية منخفضة التكرار المجاورة خارج النطاق الاحتمالي الطبيعي (نسيان الرموز). الحل هو بناء مجموعة بيانات تركيبية تغطي المفردات بأكملها، مما يسمح للنموذج بممارسة كل رمز من خلال مهام تكرار بسيطة. كانت النتائج فورية: انخفضت نسبة الأحرف الروسية المختلطة في استجابات اليابانية من 47% إلى 1%، وزادت استقرار معلمات الإخراج للمفردات بأكملها (تشابه جيبي) من أدنى مستوى 0.329 إلى أكثر من 0.97.