العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
Pre-IPOs
افتح الوصول الكامل إلى الاكتتابات العامة للأسهم العالمية
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
عروض ترويجية
AI
Gate AI
شريكك الذكي الشامل في الذكاء الاصطناعي
Gate AI Bot
استخدم Gate AI مباشرة في تطبيقك الاجتماعي
GateClaw
Gate الأزرق، جاهز للاستخدام
Gate for AI Agent
البنية التحتية للذكاء الاصطناعي، Gate MCP، Skills و CLI
Gate Skills Hub
أكثر من 10 آلاف مهارة
من المكتب إلى التداول، مكتبة المهارات الشاملة تجعل الذكاء الاصطناعي أكثر فعالية
GateRouter
ختر بذكاء من أكثر من 40 نموذج ذكاء اصطناعي، بدون أي رسوم إضافية 0%
باحثو معهد ماساتشوستس للتكنولوجيا يكشفون عن آلية التراكب القوي لنماذج اللغة الكبيرة: مضاعفة العرض يقلل الأخطاء تقريبًا إلى النصف
AIMPACT رسالة، في 3 مايو (بتوقيت UTC+8)، كشف باحثو MIT عن آلية أداء النماذج اللغوية الكبيرة مع التوسع الموثوق به في الحجم، لأول مرة تقدم إثباتًا تجريبيًا لظاهرة “التراكب”. وجدت الدراسة أن نماذج اللغة الكبيرة تتجاوز قيود الأبعاد من خلال تخزين مفاهيم متعددة في نفس البعد، مما يُعرف بـ"التراكب القوي" الذي يمكن النموذج من تمثيل جميع المفاهيم في وقت واحد، ويأتي الخطأ من الضوضاء الناتجة عن التداخل. استخدم الفريق نماذج مبسطة من أنثروبيك بالإضافة إلى نماذج مفتوحة المصدر مثل OPT وGPT-2 وQwen2.5 وPythia للتحقق من ذلك: عند مضاعفة عرض النموذج، يقل الخطأ تقريبًا إلى النصف، ويصل معامل التوسع إلى 0.91، وهو قريب من القيمة النظرية 1.
وجاءت الدراسة للإجابة على سؤالين رئيسيين: أن التوسع سيتوقف عند مطابقة عرض النموذج لحجم المفردات؛ وأن توزيع تكرار الكلمات المسطح في المهام اللغوية الطبيعية يحد من تسريع الفضاء، لكن تصميم الهيكل الذي يشجع على التراكب يمكن أن يحقق أداءً أفضل بنفس الحجم.