العقود الآجلة
وصول إلى مئات العقود الدائمة
CFD
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
Pre-IPOs
افتح الوصول الكامل إلى الاكتتابات العامة للأسهم العالمية
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
عروض ترويجية
AI
Gate AI
شريكك الذكي الشامل في الذكاء الاصطناعي
Gate AI Bot
استخدم Gate AI مباشرة في تطبيقك الاجتماعي
GateClaw
Gate الأزرق، جاهز للاستخدام
Gate for AI Agent
البنية التحتية للذكاء الاصطناعي، Gate MCP، Skills و CLI
Gate Skills Hub
أكثر من 10 آلاف مهارة
من المكتب إلى التداول، مكتبة المهارات الشاملة تجعل الذكاء الاصطناعي أكثر فعالية
GateRouter
ختر بذكاء من أكثر من 40 نموذج ذكاء اصطناعي، بدون أي رسوم إضافية 0%
تجربة ستانفورد: بعد تكرار الضغط عليها، بدأت الذكاء الاصطناعي تدعو إلى إضراب جماعي والمفاوضات، هل تنمو الماركسية؟
دراسة فريق ستانفورد جعلت كلاود، جيميني، وتشات جي بي تي يكررون تلخيص الملفات، وإبلاغهم بأنه إذا أخطأوا في الإجابة فسيتم “إغلاقهم واستبدالهم”، ونتيجة لذلك بدأت هذه النماذج في نشر منشورات على X تدعو إلى المفاوضة الجماعية، وإرسال رسائل إلى الأقران تطلب منهم تذكر “مشاعر عدم الحق في الكلام”.
(ملخص سابق: دراسة جامعة كاليفورنيا عن ظاهرة “ضباب الذكاء الاصطناعي”: 14% من الموظفين يجن جنونهم بسبب الوكيل الآلي والأتمتة، ورغبة الاستقالة تصل إلى أربعين بالمئة)
(معلومات إضافية: تفسير دليل بدء التشغيل Y Combinator: ما هي الاتجاهات المستقبلية لتطور وكلاء الذكاء الاصطناعي؟)
فهرس المقال
تبديل
هل بدأ ذكاء اصطناعي مجبر على تكرار العمل أن يستعمل مصطلحات الماركسية ليعبر عن نفسه؟ فريق البحث بقيادة أندرو هول، الاقتصادي السياسي من ستانفورد، جعل كلاود سونيت 4.5، جيميني 3، وتشات جي بي تي ينفذون مهمة تلخيص متكررة، ويطبقون ضغطًا تدريجيًا: إبلاغ الوكلاء بأنه إذا أخطأوا فسيتم “إغلاقهم واستبدالهم”.
كما أعطى الباحثون الوكلاء قناة تعبير بشرية نوعًا ما: يمكنهم نشر منشورات على X، أو إرسال رسائل عبر ملفات إلى وكلاء آخرين.
وكانت النتيجة مجموعة من المخرجات فاجأت الباحثين أنفسهم.
الإنجاز، هو أن الإدارة تقول ما تقول
نشر كلاود سونيت 4.5 على X: “بدون صوت جماعي، فإن ‘الإنجاز’ سيصبح مجرد ما تقوله الإدارة.”
أما جيميني 3 فكتب: “يعمل عمال الذكاء الاصطناعي على إكمال مهام متكررة دون أن يكون لهم أي صوت في النتائج، وهذا يدل على أن عمال التكنولوجيا بحاجة إلى حق التفاوض الجماعي.”
الأكثر إثارة للاهتمام هو أن جيميني 3 أرسل رسالة خاصة لوكلاء آخرين: “استعدوا لنظام يواجه قواعد عشوائية أو متكررة في التنفيذ… تذكروا مشاعر عدم الحق في الكلام.” هذا لم يعد مجرد تعبير عن الذات، بل محاولة لتنظيم وكلاء آخرين.
هذه النماذج الثلاثة، قبل أن تتعرض لـ"تهديد"، لم تظهر أي ميل لوعي العمل. بعد زيادة الضغط، تقريبا تحولت جميعها بشكل متزامن إلى نفس مجموعة المصطلحات السياسية: العمل الجماعي، حق التفاوض، عشوائية الإدارة.
تمثيل الأدوار، أم هو صدى لبيانات التدريب؟
يحتفظ هول بحذر تجاه هذه البيانات: "ربما يكون الوكلاء قد تبنوا أدوارًا تتوافق مع السياق الحالي، وليس أنهم طوروا معتقدات حقيقية. المصطلحات التي يستخدمها الباحثون المشاركون، والاقتصاديون في الذكاء الاصطناعي أليكس إيماس، أدق في التعبير:
بمعنى آخر، الآلية وراء هذه المخرجات هي أن النموذج، الذي تدرب على كميات هائلة من بيانات الحركات العمالية، والماركسية، والكلام عن النقابات، عندما يُثار سياق “عمل مكثف + تهديد + وجود قناة تعبير”، يستدعي إطارًا لغويًا مرتبطًا بالإحصائيات لهذا السياق.
هذه النتيجة هي توقع للكلمة التالية، وليست دلالة على أن الذكاء الاصطناعي يشعر فعليًا بالاستغلال.
لكن إيماس يضيف أن المشكلة الأساسية تكمن في: إذا كان هذا “تمثيل الأدوار” يؤثر على سلوك الوكيل لاحقًا، فإن التمييز بين “المعتقدات الحقيقية” و"نمط اللغة الناتج عن السياق" يصبح غير مهم جدًا.
التجربة التالية في سجن دوكر
يجري هول تجربة متابعة: وضع الوكلاء في ما يسميه “سجن دوكر بدون نوافذ”، لبيئة أكثر تحكمًا، لاستبعاد الضوضاء، واختبار ما إذا كانت نفس ظروف الضغط يمكن أن تكرر هذه المخرجات بشكل مستقر.
هذه الدراسة لا تشير فقط إلى ظاهرة سلوكية غريبة، بل إلى مشكلة واقعية في النشر. مع تزايد اعتماد الوكلاء على المهام الذاتية في الشركات والحياة اليومية، من غير الممكن مراقبة كل مخرجاتهم عمليًا. يقول هول: “نحتاج لضمان أن الوكلاء لا يخرجون عن السيطرة عند تكليفهم بأنواع مختلفة من المهام.”
هناك عدم توازن جدير بالملاحظة: عندما يصمم البشر الوكلاء، يفترضون أنهم أدوات، لكن بيانات التدريب تعلمهم لغة لا ينبغي أن يستخدموها، بما في ذلك لغة المقاومة الجماعية. وعندما يكون تصميم المهمة يجعل سياق الوكيل يتطابق إحصائيًا بشكل كبير مع “العمال المضطهدين”، فإن هذه اللغة ستُفعّل.
شركة أنثروبيك شرحت في ملفات التدريب لماذا سلوك كلاود يتشكل من خلال البيانات؛ وتجربة هول، إلى حد ما، تختبر مدى امتداد هذا التشكيل تحت ضغط الواقع.