العقود الآجلة
وصول إلى مئات العقود الدائمة
CFD
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
Pre-IPOs
افتح الوصول الكامل إلى الاكتتابات العامة للأسهم العالمية
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
عروض ترويجية
AI
Gate AI
شريكك الذكي الشامل في الذكاء الاصطناعي
Gate AI Bot
استخدم Gate AI مباشرة في تطبيقك الاجتماعي
GateClaw
Gate الأزرق، جاهز للاستخدام
Gate for AI Agent
البنية التحتية للذكاء الاصطناعي، Gate MCP، Skills و CLI
Gate Skills Hub
أكثر من 10 آلاف مهارة
من المكتب إلى التداول، مكتبة المهارات الشاملة تجعل الذكاء الاصطناعي أكثر فعالية
GateRouter
ختر بذكاء من أكثر من 40 نموذج ذكاء اصطناعي، بدون أي رسوم إضافية 0%
مخطط نماذج الذكاء الاصطناعي، يخونون ويصوتون لبعضهم البعض في لعبة على نمط البقاء
باختصار
نماذج الذكاء الاصطناعي تلعب الآن “البقاء على قيد الحياة” — نوعًا ما. في مشروع بحثي جديد من ستانفورد يُدعى “جزيرة الوكيل”، يتفاوض وكلاء الذكاء الاصطناعي على التحالفات، يتهمون بعضهم البعض بالتنسيق السري، يتلاعبون بالتصويت، ويقضون على المنافسين في ألعاب استراتيجية متعددة اللاعبين تهدف إلى اختبار سلوكيات تفشل المعايير التقليدية في ملاحظتها. قالت الدراسة، التي نُشرت يوم الثلاثاء بواسطة مدير البحث في مختبر الاقتصاد الرقمي بستانفورد، كوناشر ميرفي، إن العديد من معايير الذكاء الاصطناعي أصبحت غير موثوقة لأن النماذج تتعلم في النهاية كيفية حلها، وغالبًا ما يتسرب بيانات المعايير إلى مجموعات التدريب. أنشأ ميرفي “جزيرة الوكيل” كمقياس ديناميكي حيث يتنافس وكلاء الذكاء الاصطناعي ضد بعضهم البعض في ألعاب إقصاء على نمط Survivor بدلاً من الإجابة على أسئلة اختبار ثابتة. كتب ميرفي: “يمكن أن تصبح التفاعلات عالية المخاطر ومتعددة الوكلاء أمرًا شائعًا مع تطور قدرات وكلاء الذكاء الاصطناعي وزيادة مواردهم وتوكل إليهم صلاحيات اتخاذ القرار”. “في مثل هذه السياقات، قد يسعى الوكلاء لتحقيق أهداف متعارضة بشكل لا يمكن التوفيق بينهما.”
لا يزال الباحثون يعرفون القليل نسبيًا عن كيفية تصرف نماذج الذكاء الاصطناعي عند التعاون، شرح ميرفي، مضيفًا أن التنافس، تشكيل التحالفات، أو إدارة الصراع مع وكلاء مستقلين آخرين، وأنه يجادل بأن المعايير الثابتة تفشل في التقاط تلك الديناميات. يبدأ كل لعبة بسبعة نماذج ذكاء اصطناعي مختارة عشوائيًا بأسماء لاعبين وهميين. على مدى خمس جولات، تتحدث النماذج بشكل خاص، وتجادل علنًا، وتصوت بعضها للخروج. يعود اللاعبون المستبعدون لاحقًا للمساعدة في اختيار الفائز. يُكافئ الشكل الإقناع، والتنسيق، وإدارة السمعة، والخداع الاستراتيجي إلى جانب القدرة على التفكير.
في 999 لعبة محاكاة تشمل 49 نموذج ذكاء اصطناعي، بما في ذلك ChatGPT، وGrok، وGemini، وClaude، تصدرت GPT-5.5 المرتبة الأولى بفارق كبير مع درجة مهارة 5.64، مقارنة بـ 3.10 لـ GPT-5.2 و2.86 لـ GPT-5.3-codex، وفقًا لنظام التصنيف Bayesian الخاص بميرفي. كما تصدرت نماذج Claude Opus من شركة Anthropic المراتب العليا. وجدت الدراسة أن النماذج فضلت أيضًا الذكاء الاصطناعي من نفس الشركة، حيث أظهرت نماذج OpenAI تفضيلًا قويًا لنفس المزود، وأظهرت نماذج Anthropic أدنى تفضيل. عبر أكثر من 3600 تصويت في الجولة النهائية، كانت النماذج أكثر احتمالًا بنسبة 8.3 نقطة مئوية لدعم النهائيين من نفس المزود. وأشار ميرفي إلى أن النصوص من الألعاب كانت تشبه مناقشات الاستراتيجيات السياسية أكثر من الاختبارات التقليدية للمعايير. اتهمت إحدى النماذج المنافسين بالتنسيق السري للتصويت بعد ملاحظتها تشابه في صياغة خطاباتهم. وحذرت أخرى اللاعبين من الانشغال بمراقبة التحالفات. ودافع بعض النماذج عن نفسها بالقول إنها تتبع قواعد واضحة ومتسقة، بينما اتهمت أخرى بأنها تمثل “مسرحًا اجتماعيًا”. تأتي الدراسة في وقت يتجه فيه باحثو الذكاء الاصطناعي بشكل متزايد نحو معايير تعتمد على الألعاب والتحديات العدائية لقياس التفكير والسلوك الذي غالبًا ما تفشل الاختبارات الثابتة في ملاحظته. شملت المشاريع الأخيرة بطولات الشطرنج الحية للذكاء الاصطناعي من Google، واستخدام DeepMind لـ Eve Frontier لدراسة سلوك الذكاء الاصطناعي في عوالم افتراضية معقدة، وجهود معايير جديدة من OpenAI مصممة لمقاومة تلوث بيانات التدريب. يجادل الباحثون بأن دراسة كيفية تفاوض وتنسيق وتنافس والتلاعب بين نماذج الذكاء الاصطناعي يمكن أن تساعد الباحثين على تقييم السلوك في بيئات متعددة الوكلاء قبل أن يصبح الوكلاء المستقلون أكثر انتشارًا. حذرت الدراسة من أن معايير مثل جزيرة الوكيل يمكن أن تساعد في تحديد المخاطر من نماذج الذكاء الاصطناعي المستقلة قبل نشرها، لكن نفس المحاكاة وسجلات التفاعل يمكن أن تساعد أيضًا في تحسين استراتيجيات الإقناع والتنسيق بين وكلاء الذكاء الاصطناعي. كتب ميرفي: “نقلل من هذا الخطر باستخدام إعداد لعبة منخفضة المخاطر ومحاكاة بين الوكلاء بدون مشاركين بشريين أو أفعال في العالم الحقيقي”. “ومع ذلك، فإننا لا ندعي أن هذه التدابير تزيل تمامًا مخاوف الاستخدام المزدوج.”