العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
Pre-IPOs
افتح الوصول الكامل إلى الاكتتابات العامة للأسهم العالمية
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
عروض ترويجية
AI
Gate AI
شريكك الذكي الشامل في الذكاء الاصطناعي
Gate AI Bot
استخدم Gate AI مباشرة في تطبيقك الاجتماعي
GateClaw
Gate الأزرق، جاهز للاستخدام
Gate for AI Agent
البنية التحتية للذكاء الاصطناعي، Gate MCP، Skills و CLI
Gate Skills Hub
أكثر من 10 آلاف مهارة
من المكتب إلى التداول، مكتبة المهارات الشاملة تجعل الذكاء الاصطناعي أكثر فعالية
GateRouter
ختر بذكاء من أكثر من 30 نموذج ذكاء اصطناعي، بدون أي رسوم إضافية 0%
ترجمة كلود الصينية: السؤال نفسه يتطلب 65٪ رموز أكثر من الإنجليزية، وOpenAI فقط 15٪ أكثر
وفقًا لمراقبة Beating، قام الباحث في الذكاء الاصطناعي أرن كوماتسوزاكي بترجمة الورقة الشهيرة لريتش ساتون «الدروس المريرة» إلى 9 لغات، وأدخلها إلى أدوات تقسيم الكلمات (tokenizer) الخاصة بـ OpenAI و Gemini و Qwen و DeepSeek و Kimi و Claude 6 نماذج، بحيث يكون عدد الرموز في النص الأصلي باللغة الإنجليزية على أداة تقسيم الكلمات في OpenAI هو المعيار، وقياس كم مرة تستخدم كل لغة على كل نموذج. النتيجة: نفس المحتوى عند سؤال كلود باللغة الصينية يستهلك 1.65 ضعف المعيار؛ وعند استخدام OpenAI فقط 1.15 ضعف. الهندية على كلود أكثر تطرفًا، حيث تتجاوز 3 أضعاف المعيار. في التقييمات الستة، كانت شركة أنثروبيك في القاع.
الترجمة ستغير طول النص، لذلك النسب مقارنة بالإنجليزية ليست دقيقة تمامًا. لكن الأكثر إقناعًا هو أداء نفس المقطع الصيني على نماذج مختلفة (مع نفس المعيار): Kimi يستخدم فقط 0.81 ضعف (أقل من الإنجليزية)، Qwen 0.85 ضعف، وعند الوصول إلى كلود يصبح 1.65 ضعف. النص هو نفسه تمامًا، والفارق هو ببساطة كفاءة أدوات التقسيم. نماذج الصين تتعامل مع الصينية بشكل أكثر كفاءة من الإنجليزية، مما يدل على أن المشكلة ليست في اللغة الصينية نفسها، بل في مدى تحسين أدوات التقسيم لهذه اللغة.
بالنسبة للمستخدم، كلما زاد عدد الرموز، زادت تكلفة API مباشرة، وانتظار النموذج للإجابة يطول، وتستهلك نافذة السياق بسرعة أكبر. تعتمد كفاءة أدوات التقسيم على نسبة اللغات في بيانات التدريب: كلما زادت البيانات الإنجليزية، يتم ضغط الكلمات الإنجليزية بكفاءة أكبر؛ البيانات غير الإنجليزية أقل، ولا يمكن إلا تقسيمها إلى أجزاء صغيرة جدًا. استنتاج أرن: من يملك سوقًا أكبر، يوفر استهلاك الرموز بشكل أكثر اقتصادًا.