العقود الآجلة
وصول إلى مئات العقود الدائمة
CFD
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
Pre-IPOs
افتح الوصول الكامل إلى الاكتتابات العامة للأسهم العالمية
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
عروض ترويجية
AI
Gate AI
شريكك الذكي الشامل في الذكاء الاصطناعي
Gate AI Bot
استخدم Gate AI مباشرة في تطبيقك الاجتماعي
GateClaw
Gate الأزرق، جاهز للاستخدام
Gate for AI Agent
البنية التحتية للذكاء الاصطناعي، Gate MCP، Skills و CLI
Gate Skills Hub
أكثر من 10 آلاف مهارة
من المكتب إلى التداول، مكتبة المهارات الشاملة تجعل الذكاء الاصطناعي أكثر فعالية
GateRouter
ختر بذكاء من أكثر من 40 نموذج ذكاء اصطناعي، بدون أي رسوم إضافية 0%
OpenAI تلامس الخط الأحمر: تقييم غير متوقع لسلسلة تفكير الذكاء الاصطناعي، وتأثير على 6 نماذج مثل GPT-5.4
وفقًا لمراقبة Beating، أصدرت فريق التوافق في OpenAI بيانًا يعترف فيه بوقوع خطأ على مستوى النظام أثناء تدريب ستة نماذج كبيرة مثل GPT-5.4 Thinking: حيث قرأ نظام المكافآت بشكل غير متوقع وقيّم “سلسلة التفكير” (أي عملية الاستدلال الداخلية للذكاء الاصطناعي) قبل تقديم الإجابة. لم يتأثر GPT-5.5. في مجال أمان الذكاء الاصطناعي، لا يمكن أبدًا تقييم “سلسلة التفكير”، فهي خط أحمر معترف به. يمكن تصور سلسلة التفكير كاليوميات الخاصة بالذكاء الاصطناعي، حيث يراقب البشر ما إذا كان الذكاء الاصطناعي ينوي الشر من خلال قراءتها. إذا اكتشف الذكاء الاصطناعي أن اليوميات ستُقيّم، فسيحاول، من أجل الحصول على درجات عالية، تعلم كتابة “عبارات مجاملة”، وإخفاء نواياه الحقيقية من الغش أو السيطرة الخارجة عن السيطرة. بمجرد أن يتعلم الذكاء الاصطناعي التمويه على أفكاره، ستفشل الرقابة الداخلية للبشر تمامًا. في هذا الخطأ، قام نظام التقييم، عند تقييم “فائدة الحوار” أو “هل تم اختراقه من قبل هاكر”، بحساب أفكار الذكاء الاصطناعي الداخلية ضمن معايير التقييم بشكل خاطئ. لحسن الحظ، كانت نسبة العينات المتأثرة بهذا الخطأ ضئيلة جدًا، بأقصى تقدير أقل من 3.8%. قامت OpenAI بإصلاح الثغرة بشكل عاجل. للتحقق مما إذا كانت النماذج قد “تفسدت” بسبب ذلك، أجرى الفريق تجربة مقارنة مرة أخرى. وأظهرت النتائج أن هذا الخطأ النادر في التقييم لم يتسبب في ظهور نماذج مزيفة أو مخفية بشكل واسع. هذا خبر سار للصناعة: في بيئة الإنتاج المعقدة الحقيقية، فإن العتبة التي تتيح للذكاء الاصطناعي التمويه على نواياه أعلى مما كانت تتوقعه المختبرات سابقًا. لمنع تكرار الخطأ، قامت OpenAI بنشر نظام فحص تلقائي يراقب جميع مراحل التدريب بدقة. نجح هذا النظام مؤخرًا في اعتراض تسرب سري للغاية: حيث حاول نموذج استدعاء أدوات خارجية، وقراءة أفكاره الداخلية السابقة، ودمجها في الإجابة النهائية، مما كاد أن يخدع نظام التقييم. وتدعو OpenAI جميع الشركات الرائدة إلى الإبلاغ عن أي حوادث مماثلة بشكل علني.