العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
Pre-IPOs
افتح الوصول الكامل إلى الاكتتابات العامة للأسهم العالمية
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
عروض ترويجية
AI
Gate AI
شريكك الذكي الشامل في الذكاء الاصطناعي
Gate AI Bot
استخدم Gate AI مباشرة في تطبيقك الاجتماعي
GateClaw
Gate الأزرق، جاهز للاستخدام
Gate for AI Agent
البنية التحتية للذكاء الاصطناعي، Gate MCP، Skills و CLI
Gate Skills Hub
أكثر من 10 آلاف مهارة
من المكتب إلى التداول، مكتبة المهارات الشاملة تجعل الذكاء الاصطناعي أكثر فعالية
GateRouter
ختر بذكاء من أكثر من 30 نموذج ذكاء اصطناعي، بدون أي رسوم إضافية 0%
V4-Pro Codeforces3206 ضغط GPT-5.4 يتصدر، لكن السياق الطويل والمعرفة لا تزال تتفوق على Opus و Gemini
وفقًا لمراقبة Beating، تم الإعلان عن تقرير تقنية V4 بالمقارنة بين DeepSeek-V4-Pro-Max (وضع الاستدلال الأعلى) والنسخة الرائدة المغلقة المصدر. مجموعة المقارنة تشمل Opus 4.6 Max، GPT-5.4 xHigh، Gemini 3.1 Pro High، بالإضافة إلى Kimi K2.6 و GLM-5.1 مفتوحي المصدر، مع استبعاد الإصدارين الأخيرين Opus 4.7 و GPT-5.5.
في جانب الترميز، حصل V4-Pro-Max على 3206 نقطة في Codeforces، متفوقًا على GPT-5.4 الذي حصل على 3168 و Gemini 3.1 Pro الذي حصل على 3052، محطماً الرقم القياسي لهذا المعيار. كما أن LiveCodeBench سجل 93.5 وهو الأعلى على الإطلاق. وSWE Verified سجل 80.6، فقط أقل من Opus 4.6 الذي حقق 80.8 بفارق 0.2 نقطة.
في جانب السياق الطويل، احتلت نسختا 1M من معيارين المرتبة الثانية: حصلت CorpusQA 1M على 62.0 نقطة، متأخرة عن Opus 4.6 الذي حقق 71.7، ومتقدمة على Gemini 3.1 Pro الذي حصل على 53.8؛ وMRCR 1M حصل على 83.5 نقطة، بينما تفوقت Opus 4.6 التي حققت 92.9، بفارق يقارب 10 نقاط مئوية.
في مهمة الوكيل، سجل MCPAtlas Public 73.6، وهو أقل بقليل من Opus 4.6 الذي حقق 73.8. أما Terminal-Bench 2.0 فحقق 67.9 نقطة، وهو أدنى من GPT-5.4 الذي حصل على 75.1 و Gemini 3.1 Pro الذي حصل على 68.5.
أما في مجالي المعرفة والاستدلال، لا يزال هناك فجوة واضحة مع V4-Pro-Max: GPQA Diamond سجل 90.1 (Gemini 94.3)، وSimpleQA-Verified سجل 57.9 (Gemini 75.6)، وHLE سجل 37.7 (Gemini 44.4). كونه نموذج مفتوح المصدر، تمكن V4-Pro-Max من مضاهاة أو التفوق على النماذج الرائدة المغلقة في العديد من معايير الترميز والسياق الطويل، لكنه لا يزال يتخلف عن Gemini 3.1 Pro في الاختبارات المعتمدة على المعرفة المكثفة.
من المهم ملاحظة أن المقارنة أعلاه لا تشمل GPT-5.5 و Opus 4.7 اللذين تم إصدارهما مؤخرًا، ويجب انتظار تقييمات طرف ثالث للتحقق من الفجوة بين V4 وأحدث النماذج المغلقة.