العقود الآجلة
وصول إلى مئات العقود الدائمة
CFD
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
Pre-IPOs
افتح الوصول الكامل إلى الاكتتابات العامة للأسهم العالمية
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
عروض ترويجية
AI
Gate AI
شريكك الذكي الشامل في الذكاء الاصطناعي
Gate AI Bot
استخدم Gate AI مباشرة في تطبيقك الاجتماعي
GateClaw
Gate الأزرق، جاهز للاستخدام
Gate for AI Agent
البنية التحتية للذكاء الاصطناعي، Gate MCP، Skills و CLI
Gate Skills Hub
أكثر من 10 آلاف مهارة
من المكتب إلى التداول، مكتبة المهارات الشاملة تجعل الذكاء الاصطناعي أكثر فعالية
GateRouter
ختر بذكاء من أكثر من 40 نموذج ذكاء اصطناعي، بدون أي رسوم إضافية 0%
فريق هه كاي مينغ ELF: نموذج الانتشار اللغوي أخيرًا تم تشغيله بنجاح
وفقًا لمراقبة Beating للقياس، أصدر فريق MIT بقيادة هيا كايمينج نموذج الانتشار اللغوي ELF (تدفقات اللغة المدمجة). لم يتبع النهج التقليدي لـ GPT في التنبؤ بـ “الرمز التالي” بشكل تلقائي، بل وضع توليد النص في مساحة التضمين المستمرة حتى الخطوة الأخيرة التي يتم فيها تحويله مرة أخرى إلى رموز منفصلة.
لقد أصبح نموذج الانتشار ناضجًا في توليد الصور، لكن تطبيقه على النص كان دائمًا غير مريح: الصورة طبيعةً إشارة مستمرة، بينما اللغة تتكون من رموز منفصلة. سابقًا، العديد من نماذج الانتشار المستمر للنص كانت إما تكرر إدخال إشراف على مستوى الرموز خلال مسار التوليد، أو تحتاج إلى مشفر فك تشفير مستقل إضافي. طريقة ELF أكثر نظافة: معظم الخطوات تتم في مساحة المتجهات المستمرة لإزالة الضوضاء، وفي النهاية يتم استخدام شبكة ذات أوزان مشتركة لإنهاء عملية التشفير إلى الرموز المنفصلة.
النتائج التجريبية كانت أيضًا مؤثرة. في تقييم توليد النصوص بدون شرط باستخدام OpenWebText، حقق نموذج ELF-B الذي يضم 105 مليون معلمة معدل توليد حوالي 24.1 في مقياس Gen. PPL باستخدام 32 خطوة عينة، متفوقًا على العديد من نماذج الانتشار اللغوية المستندة إلى الرموز والمنطق المستمر. والأهم من ذلك، أن ELF-B استخدم حوالي 45 مليار رمز تدريب فقط، بينما تتجاوز الطرق المقارنة عادةً 500 مليار رمز، مما يقلل من كمية الرموز المستخدمة في التدريب بمقدار كبير. هذا على الأقل يدل على أن مسار الانتشار المستمر لم يُحبط بسبب “طبيعة اللغة المنفصلة”، وأن المشاكل السابقة ربما كانت تتعلق بواجهات النمذجة وتصميم عمليات السحب.