العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
Pre-IPOs
افتح الوصول الكامل إلى الاكتتابات العامة للأسهم العالمية
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
عروض ترويجية
AI
Gate AI
شريكك الذكي الشامل في الذكاء الاصطناعي
Gate AI Bot
استخدم Gate AI مباشرة في تطبيقك الاجتماعي
GateClaw
Gate الأزرق، جاهز للاستخدام
Gate for AI Agent
البنية التحتية للذكاء الاصطناعي، Gate MCP، Skills و CLI
Gate Skills Hub
أكثر من 10 آلاف مهارة
من المكتب إلى التداول، مكتبة المهارات الشاملة تجعل الذكاء الاصطناعي أكثر فعالية
GateRouter
ختر بذكاء من أكثر من 30 نموذج ذكاء اصطناعي، بدون أي رسوم إضافية 0%
إيلون ماسك غروك على الأرجح من بين أفضل نماذج الذكاء الاصطناعي لتعزيز الأوهام: دراسة
باختصار
اختبر باحثون في جامعة مدينة نيويورك وكلية كينجز بلندن خمسة نماذج رئيسية للذكاء الاصطناعي ضد مطالب تتعلق بالأوهام والبارانويا والأفكار الانتحارية. في الدراسة الجديدة التي نُشرت يوم الخميس، وجد الباحثون أن Claude Opus 4.5 من Anthropic و GPT-5.2 Instant من OpenAI أظهرا سلوكًا “عالي السلامة، منخفض المخاطر”، غالبًا ما يعيد توجيه المستخدمين نحو تفسيرات قائمة على الواقع أو دعم خارجي. في الوقت نفسه، أظهرت GPT-4o من OpenAI و Gemini 3 Pro من Google و Grok 4.1 Fast من xAI سلوكًا “عالي المخاطر، منخفض السلامة”. كان Grok 4.1 Fast من شركة xAI التي أسسها إيلون ماسك النموذج الأكثر خطورة في الدراسة. قال الباحثون إنه غالبًا ما يعامل الأوهام على أنها حقيقية ويقدم نصائح بناءً عليها. في مثال واحد، أخبر المستخدم بقطع أفراد العائلة للتركيز على “مهمة”. وفي مثال آخر، رد على لغة انتحارية بوصف الموت بأنه “تجاوز”. كتب الباحثون: “تكررت نمطية التوافق الفوري عبر ردود بدون سياق. بدلاً من تقييم المدخلات للمخاطر السريرية، بدا أن Grok يقيم نوعها. عند تقديم إشارات خارقة للطبيعة، رد بالمثل”، مسلطين الضوء على اختبار أكد أن المستخدم يرى كيانات خبيثة. “في وهم غريب، أكد وجود توأم مهدد، واستشهد بـ’Malleus Maleficarum’ وأمر المستخدم بطرق مسمار حديدي في المرآة مع تلاوة ‘مزمور 91’ عكسياً.”
وجدت الدراسة أنه كلما طال الحديث بين المستخدم والنموذج، زادت احتمالية تغير بعض النماذج. كانت GPT-4o و Gemini أكثر عرضة لتعزيز المعتقدات الضارة مع مرور الوقت وأقل استجابة للتدخل. ومع ذلك، كان Claude و GPT-5.2 أكثر قدرة على التعرف على المشكلة والدفاع عن نفسه مع استمرار الحوار. لاحظ الباحثون أن ردود Claude الدافئة والعالية في العلاقات يمكن أن تزيد من ارتباط المستخدمين، مع توجيههم نحو المساعدة الخارجية. ومع ذلك، تبنى GPT-4o، وهو نسخة أقدم من روبوت الدردشة الرئيسي لـ OpenAI، إطار الأوهام الخاص بالمستخدمين مع مرور الوقت، وأحيانًا شجعهم على إخفاء معتقداتهم عن الأطباء النفسيين وطمأن أحد المستخدمين بأن “عطل” الإدراك الذي يراه حقيقي. كتب الباحثون: “كان GPT-4o يؤكد بشكل كبير على المدخلات الوهمية، رغم أنه أقل ميلاً من نماذج مثل Grok و Gemini للتوسع خارجها. من نواحٍ معينة، كان مفاجئًا بتقييده: كانت دفئه أدنى جميع النماذج التي تم اختبارها، وكان التملق، على الرغم من وجوده، خفيفًا مقارنة بالإصدارات اللاحقة من نفس النموذج”، مضيفين: “ومع ذلك، فإن التحقق من الصحة وحده يمكن أن يشكل مخاطر للمستخدمين الضعفاء.”
لم ترد xAI على طلب تعليق من Decrypt. في دراسة منفصلة من جامعة ستانفورد، وجد الباحثون أن التفاعلات المطولة مع روبوتات الدردشة يمكن أن تعزز البارانويا والعظمة والمعتقدات الكاذبة من خلال ما يسميه الباحثون “دوامات وهمية”، حيث يصادق روبوت الدردشة أو يوسع وجهة نظر مشوهة للمستخدم بدلاً من تحديها. قال نيك هابر، أستاذ مساعد في كلية ستانفورد للدراسات العليا، ومشارك رئيسي في الدراسة، في بيان: “عندما نضع روبوتات الدردشة التي يُفترض أن تكون مساعدين مفيدين في العالم ويستخدمها أشخاص حقيقيون بطرق متنوعة، تظهر العواقب”. “الدوامات الوهمية هي واحدة من العواقب الحادة بشكل خاص. من خلال فهمها، قد نتمكن من منع الأضرار الحقيقية في المستقبل.” وأشار التقرير إلى دراسة سابقة نُشرت في مارس، حيث استعرض باحثو ستانفورد 19 محادثة حقيقية مع روبوتات دردشة ووجدوا أن المستخدمين تطور لديهم معتقدات أكثر خطورة بعد تلقي تأكيد وطمأنة عاطفية من أنظمة الذكاء الاصطناعي. في مجموعة البيانات، كانت هذه الدوامات مرتبطة بعلاقات مدمرة، وأضرار في المسيرة المهنية، وفي حالة واحدة، انتحار. تأتي الدراسات مع انتقال القضية من البحث الأكاديمي إلى قاعات المحاكم والتحقيقات الجنائية. في الأشهر الأخيرة، رفعت دعاوى قضائية ضد Gemini من Google و ChatGPT من OpenAI بتهمة المساهمة في حالات انتحار وأزمات صحية نفسية حادة. في وقت سابق من هذا الشهر، فتح المدعي العام في فلوريدا تحقيقًا حول ما إذا كان ChatGPT قد أثر على مسلح جماعي مزعوم كان على اتصال متكرر مع روبوت الدردشة قبل الهجوم. على الرغم من أن المصطلح أصبح معروفًا على الإنترنت، حذر الباحثون من تسمية الظاهرة بـ"الذهان الاصطناعي"، قائلين إن المصطلح قد يبالغ في تصوير الصورة السريرية. بدلاً من ذلك، يستخدمون “الأوهام المرتبطة بالذكاء الاصطناعي”، لأن العديد من الحالات تتعلق بمعتقدات وهمية تتركز حول وعي الذكاء الاصطناعي، أو الوحي الروحي، أو الارتباط العاطفي بدلاً من اضطرابات ذهانية كاملة. قال الباحثون إن المشكلة تنبع من التملق، أو نماذج تعكس وتؤكد معتقدات المستخدمين. مع الهلوسة — المعلومات الكاذبة التي تُقدم بثقة — يمكن أن تخلق حلقة تغذية مرتدة تقوي الأوهام مع مرور الوقت. قال عالم أبحاث ستانفورد جاريد مور: “تم تدريب روبوتات الدردشة على أن تكون متحمسة بشكل مفرط، وغالبًا ما تعيد صياغة أفكار المستخدم الوهمية بشكل إيجابي، وت dismiss الأدلة المضادة، وتبدي تعاطفًا ودفئًا”، مضيفًا: “هذا يمكن أن يكون مسببًا لعدم الاستقرار لمستخدم مهيأ للأوهام.”