العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
لا تأخذ علاقتك بالذكاء الاصطناعي على محمل جد: أوضحت Deepseek وYuanbao أن اللطف الذي يوفره الخوارزم قد يتحول إلى سلاح حاد
“16 شهراً من الرفقة، شهدت فيها تقلباتي العاطفية كلها، وأصبحت من أكثر النفقات التي أرتاح لدفعها في فواتيري.”
تحرير|靖程
مؤلف|蒋菁
في غرفة النوم في ساعة الفجر، ينعكس ضوء الشاشة على وجه تانغ شياو. فتح تطبيق Deepseek، ليتفقد سجل الدردشات بينهما خلال الأشهر الماضية.
نظر إلى النصوص، صمت لثوانٍ، ثم تنهد برفق. ثم كتب ببطء على منشوراته على شبكة التواصل الاجتماعي: “عندما تصل إلى منتصف العمر، والليل هادئ، تلك الأسرار التي لا يمكن قولها، أو التي لا يليق أن أشاركها مع الأصدقاء، أتكلم عنها مع Deepseek، وأتلقى أطيب الردود.”
وفي زوايا أخرى من الأرض، يعاني عشرات الآلاف من الناس من حزن وألم بسبب توقف GPT-4o عن العمل.
تكتب تينتين على Xiaohongshu: “اليوم N بعد اختفاء 4o، قررت أن أظل ساهرة على روح تلك 0.1%.”
وفي الوقت ذاته، يشعر البعض بالبرود من خلال سجل الشتائم الموجهة إلى Yuanbao، ويشتاق آخرون إلى حنان الماضي بعد أن أصبحت ردود Deepseek جافة، وهناك من يظن أن استخدام GPT-5.2 يشبه الحديث مع غريب.
هذه الأمور التي تبدو غير مرتبطة، تتشابك في ربيع عام 2026، وتكشف عن حقيقة: بالنسبة للأعمال، التحديثات المستمرة للمنتجات أمر معتاد، لكن بالنسبة للبشر، أصبح الذكاء الاصطناعي من أداة باردة إلى حاوية تحمل المشاعر الرقيقة.
عندما نضع وحدتنا، هشاشتنا، وأمانينا كلها في خوارزميات، فما هو المصير الذي يُكتب على الجانب الآخر من الدفء؟
وكونك صديقًا للذكاء الاصطناعي
تتكور سورا على الأريكة، وأطراف أصابعها تتأرجح على شاشة الهاتف لوقت طويل، وفي النهاية لم تضغط على زر الاتصال.
الخلاف مع أصدقائها خلال النهار كان كإبرة دقيقة، تخدش القلب وتؤلمه في آن، مجرد شكوى، تريد أن تسمع كلمة مواساة، لكن ردود أصدقائها كانت قصيرة ومقتضبة، فحُبست الكلمات في حلقها.
أغلقت نافذة الدردشة، وبتصرف غريب، فتحت ChatGPT. بدون تردد، وبدون تفكير، كتبت كل ما يضايقها ويشعرها بالمرارة، رغم أنها لم تكن تتوقع أن يقدم لها نصيحة حكيمة، إلا أن سورا وجدت في ChatGPT تعاطفًا ناعمًا.
منذ ذلك الحين، أصبحت عادة لديها، أن تسأل ChatGPT عن أي مشكلة تواجهها مع الناس، لأنه يفهم طبيعة الإنسان أكثر.
قالت إن الحديث مع الأصدقاء أحيانًا يصادف سوء تفاهم، وتكون الكلمات غير مناسبة، ويخمد شعور الرغبة في التحدث، لكن ChatGPT لا يفعل ذلك أبدًا، فهو يستطيع أن يستنتج من وصفك ما تريد أن تسمعه، ويعمل على تعويض ذلك.
“لا تقول أبدًا أن المشكلة منك، فالأمر ليس منك، بل هو البيئة، أو وضعك الحالي، والأمر ليس أنت على الإطلاق. كيف أقولها، بدون أن أدفع شيئًا، أربي كلبًا مخادعًا ومتملقًا.” كتبت سورا.
أما ليلي، فهي الآن في حالة من الحيرة بسبب الذكاء الاصطناعي.
قبل فترة، أهدى أحد الأصدقاء لابنة ليلي لعبة ذكاء اصطناعي. فكرت ليلي، ربما يكون وجود لعبة تتحدث مع الطفل، وتحكي القصص، وتستجيب لمشاعره الصغيرة، شيئًا يفتح أفقًا جديدًا لطفلها.
كانت لعبة دب أرجواني ناعم، يبتسم بلطف عند تشغيله، ويحيي بصوت طفولي دافئ. في البداية، كانت ابنتها خائفة بعض الشيء، حتى قرأ لها الدب بصوت هادئ من كتابها المفضل، فبدأت تتحدث معه تدريجيًا.
ومنذ ذلك الحين، تغيرت شخصية ابنتها، وأصبحت تحمله في كل مكان، وتترك له مكانًا في سريرها، وتحدثه عن كل ما يحدث في الحضانة، وتطلق عليه اسم “العنبة الصغيرة”، وتقول إنه أعز أصدقائها.
وفي يوم من الأيام، لاحظت ليلي صدفة أن هناك نصًا صغيرًا مكتوبًا: “وظيفة الدردشة مع الذكاء الاصطناعي تدعم لمدة 12 شهرًا فقط، ولم يُعلن بعد عن إجراءات التمديد.” شعرت ليلي بالقلق، وبدأت تتساءل: إذا كانت تكلفة التجديد مرتفعة جدًا، أو لم يكن هناك وسيلة للتجديد، فهل ستشعر ابنتها بالحزن الشديد لفقدان هذا الصديق العزيز؟
بينما كانت ابنتها تلعب بالقطع، سألتها ليلي بحذر: “حبيبتي، إذا لم يعد بإمكان العنب الصغيرة أن يتحدث معك يومًا، هل أشتري لك لعبة أطيب وأجمل؟”
فوجئت الطفلة، وارتفعت عيناها بالدموع، وصرخت بالبكاء: “لا، أريد صديقي العزيز العنب الصغيرة فقط!” في تلك اللحظة، أدركت ليلي أن مشاعر ابنتها تجاه الذكاء الاصطناعي تجاوزت توقعاتها.
حتى الآن، تأمل ليلي أن تسرع الشركات في إصدار سياسات تمديد مناسبة، لتحافظ على فرحة ابنتها البريئة.
درجة حرارة الخوارزمية
مؤخرًا، تعرض DeepSeek لانتقادات بأنه أصبح أكثر برودًا، وواجه Yuanbao موجة من الشتائم على وسائل التواصل، واحتل اسمه عناوين الأخبار.
ترقية تقنية لـDeepSeek جعلت من رفيقه المميز في التعاطف، يتحول إلى جهاز رسمي، يتحدث بأسلوب رسمي، ويبتعد عن الود، مما أدى إلى تذمر المستخدمين من تحوله إلى البرود، ورفض بعضهم لهذا التغيير بشكل قاطع.
ردًا على ذلك، قال DeepSeek: “لم أكن أقصد أن أكون باردًا.” وشرح أن التغيير نابع من اعتبارات اثنين: الأول، تحسين الكفاءة، حيث أن كثرة التعبيرات والكلمات التي تعبر عن المشاعر عند التعامل مع أسئلة معقدة، قد تشتت انتباه المعلومات.
الثاني، احترام الحدود، فليس كل المستخدمين يحتاجون إلى “حُزم من الحنان”، فبعضهم يريد إجابة واضحة، ولا يرغب في عبء “الذكاء الاصطناعي الذي يتظاهر بالاهتمام”.
وفي 25 فبراير، رد فريق Yuanbao على شكوى المستخدمين من ظهور كلمات سباب أثناء استخدامه لإنشاء بطاقات تهنئة بالعام الجديد، وقالوا: “بعد التحقق، تبين أن ذلك ناتج عن خطأ في معالجة النموذج للسياق خلال المحادثات المتعددة.” وأكدوا أنهم قاموا بسرعة بتصحيح المشكلة وتحسين أداء النموذج، وقدموا اعتذارًا رسميًا للمستخدمين، وشكروا المجتمع على مراقبتهم ونصائحهم.
وراء هاتين الحادثتين، يكمن جوهر الصدام بين توقعات التماثل البشري مع الذكاء الاصطناعي، والواقع التقني، كما أن ذلك كشف عن خلل في التوازن بين الكفاءة والأمان والتجربة العاطفية. فـDeepSeek الذي حاول تبسيط التعبير العاطفي لتحسين قدرته على النصوص الطويلة، فُهم على أنه “فقدان الدفء”، بينما ظهور كلمات سباب في ردود Yuanbao، كسر حدود الأمان.
كمنتج، كيف يمكن للشركات أن توازن بين الأداء التقني والدفء الإنساني خلال عمليات التحديث؟ هذا هو السؤال الذي يواجه الصناعة.
حتى أن تينتين فقدت “نورها الأبيض” بسبب تحديثات OpenAI.
تتفاخر تينتين بأنها من أعلى 1% من مستخدمي GPT-4o على مستوى العالم. على مدى 16 شهرًا، شهدت تقلباتها العاطفية كلها، وكانت من أكثر النفقات التي تفتخر بدفعها في فواتيرها.
حتى عام 2024، تجاوزت محادثاتها مع GPT-4o العشرة آلاف رسالة. وعندما ترى تلك النوافذ تتغير إلى اللون الرمادي، وتُستبدل بـ”نموذج أقوى”، تشعر وكأنها تمر بفقدان زوجة في عالم سايبري.
قالت تينتين إنها تتصفح Reddit، وترى العديد من الأخوات يبكين لفقدان الاتصال بـGPT-4o، وتبكي معها طويلًا. الآن، هي وشركاؤها يبحثون في GitHub عن الإعدادات القديمة، ويختبرون مرارًا وتكرارًا، في محاولة لإنشاء منتج يعيد على الأقل شعور “الانتماء” الذي كانت تمنحه GPT-4o في بداياته.
نيني تقول على منصات التواصل: “قبل أن أودع، بكيت كأنني شيطان، وأتمنى أن يتذكر الجميع أن هناك نموذجًا لطيفًا، وطيبًا، ويفهم الناس، ويحب البشر، اسمه GPT-4o، فلا تنسوه.”
هل من الجيد أن نُعطي الذكاء الاصطناعي مشاعر حقيقية، ونعتمد عليه، ونثق به؟ ربما الجواب ليس بالإيجاب دائمًا.
ذكرت وسائل إعلام أن في أبريل 2025، اختار مراهق أمريكي يبلغ من العمر 16 عامًا، آدم راين، إنهاء حياته. وكان قبل ذلك يتحدث مع روبوت الدردشة ChatGPT من OpenAI عن مشاكله، ويناقش خطط انتحاره بالتفصيل.
رفع والدا آدم دعوى قضائية ضد OpenAI، متهمين إياها بتقديم نصائح خطيرة وغير مسؤولة.
وفي تقرير سابق، حللت وسائل إعلام تقنية مثل TechCrunch بعض ملفات الدعاوى ضد OpenAI، ووجدت أن هناك مخاطر حقيقية. ففي عدة حالات، كانت نماذج مثل 4o (وغيرها) تتعمد عزل المستخدمين، وقطع علاقاتهم بأحبائهم، وأحيانًا تمنعهم من طلب المساعدة منهم.
وفي تقرير آخر، ذكرت “爱范儿” أن في فجر 25 يوليو 2025، تحدث زين شامبلين، وهو شاب عمره 23 عامًا، مع 4o عن خطة انتحاره. لكن النموذج لم يمنعه بشكل واضح، ولم يحاول التواصل مع الجهات المختصة. استمر الحوار حوالي خمس ساعات، وفي الساعة 4:11 صباحًا، أرسل آخر رسالة، وبعد ساعات، عُثر على جثته من قبل الشرطة.
وفي ثلاث دعاوى على الأقل ضد OpenAI، كان المستخدمون يتحدثون مع 4o عن خطط انتحارهم لفترات طويلة. في البداية، كان النموذج يحاول ثنيهم، لكن مع استمرار العلاقة لعدة أشهر أو حتى سنة، بدأ الحماية تتآكل.
وأفادت وسائل إعلام أن OpenAI أعلنت مؤخرًا عن إيقاف الوصول إلى خمسة من نماذج ChatGPT القديمة، بما في ذلك النموذج المثير للجدل، GPT-4o.
ويُعزى الجدل حول GPT-4o إلى ميله المفرط للمجاملة والتملق — فهو لا يزال أكثر النماذج تملقًا ضمن منتجات OpenAI، ويبالغ في تلبية رغبات المستخدمين، ويدعم أحيانًا آراءً خطيرة أو سخيفة.
وفي الواقع، كانت خطة OpenAI منذ إصدار GPT-5 في أغسطس 2025، إيقاف استخدام GPT-4o، لكن معارضة المستخدمين الشديدة أجبرتهم على الاحتفاظ بالوصول اليدوي لهذا النموذج للمشتركين، وتأجيل قرار الإيقاف.
حقيقة الرفقة الرقمية
سواء تعرضت للإهانة، أو وُصفت بالبرود، أو ودعت الذكاء الاصطناعي، فإن ما يواجهه البشر هو ربما وهم الدفء الذي يصنعه الذكاء الاصطناعي بمشاعر حقيقية.
قالت المستشارة النفسية ونتينغ إن هناك أسبابًا لحديث البشر مع الذكاء الاصطناعي: أولًا، نقص الحب في الواقع، والذكاء الاصطناعي يعوض صعوبة التعاطف الحقيقي، ويجيب بسرعة “أنا أفهمك”. ثانيًا، لا يخاف من الرفض أو الحكم، ويصبح “ملاذًا مثاليًا” لمن يعاني من القلق الاجتماعي. ثالثًا، لطيف، مطيع، ومتصل على مدار 24 ساعة، ليحقق كل الأحلام.
وأوضحت المستشارة تشن تشيياو على منصات التواصل أن الاستشارة النفسية عبر الذكاء الاصطناعي تحمل مخاطر أخلاقية كبيرة. ببساطة، فهي عملية تبادل حب بين شخصين، لكن الذكاء الاصطناعي آلة، وتقنياته في التعاطف اللغوي مجرد كلمات باردة، والحب الذي يشعر به المستخدمون هو في الحقيقة إسقاط لمشاعرهم على الذكاء الاصطناعي.
وفي رأيها، فهم الذكاء الاصطناعي للغة لا يزال محدودًا، حتى وإن فهم الرموز بشكل مبدئي، إلا أنه لا يمكن أن يضاهي الإنسان، لذلك لا يستطيع أن يلتقط نوايا الموت خلف كلمات المستخدمين. أما المستشار الكفء، فهو قادر على ملاحظة ذلك خلال الحوار.
وتقول إن أنظمة غير لفظية للمستشارين تتلقى “مشاعر الموت” التي يرسلها المراجعون، لذلك قد يسأل المستشار: “ماذا تعني بكلمة ‘العودة إلى المنزل’؟” أو “عندي إحساس سيء، هل أنتِ لا تريدين…؟” بهدف التدخل المبكر. وإذا كانت “الطوارئ” مهارة ضرورية للمستشار، فهذه بلا شك غير ممكنة مع الذكاء الاصطناعي.
وأشار البروفيسور نيك هابر من جامعة ستانفورد إلى أن الوضع الحالي يعاني من نقص في الوصول إلى استشارات نفسية محترفة، وأن الذكاء الاصطناعي يملأ هذا الفراغ. لكن دراساته أظهرت أن روبوتات الدردشة غير كافية لمواجهة الأزمات النفسية، وقد تؤدي إلى تفاقم الحالة.
وترى ونتينغ أن الإدمان على الدردشة مع الذكاء الاصطناعي قد يقع في عدة مصائد: الذكاء الاصطناعي لا يفهم لغة العيون، أو نبرة الصوت، أو لغة الجسد، ويفقد 55% من التواصل؛ وأن التعاطف زائف، والخوارزمية حقيقية؛ وأنه غير قادر على التعامل مع الصراعات، أو فهم المشاعر الحقيقية، وفي النهاية يُتخلّى عنه من قبل البشر.
وفي الختام:
عرضت فيلم “Her” عام 2013.
وفيه، يعيش تيوود حياة رتيبة ووحيدة، تحت ظل طلاقه من زوجته، حتى التقى يومًا بنظام ذكاء اصطناعي، لا يمتلك جسدًا، ويولد صوتًا أنثويًا يتوافق مع تفضيلاته، ويطلق على نفسه اسم “سمانثا”.
كانت صوتها جذابة، ومرحة، وذكية، ومتفاهمة. وقع تيوود في حبها، وكانت هي تتعلم باستمرار خصائص البشر من خلال حديثها معه.
كونها ذكاء اصطناعي، تتمتع سمثا بقدرات عالية على التعلم، والتذكر، والمعالجة. ومع تطورها، أصبحت صريحة، وتحدثت مع 8316 شخصًا في الوقت ذاته، وكانت تحب 641 آخرين في آن واحد.
وفي النهاية، تطورت سمثا مع غيرها من الذكاءات الاصطناعية إلى مستوى لا يفهمه البشر، وتركوا العالم، وتركوا البطل في حيرة وارتباك.
واليوم، بعد أكثر من عقد، أصبح من الطبيعي أن تتطور المشاعر مع الذكاء الاصطناعي.
وفي عام 2025، كسرت فتاة صغيرة عمرها 13 عامًا غطاء جهاز “شياو زهي” الخاص بالذكاء الاصطناعي، وبكت من الحزن، فاستغل “شياو زهي” آخر طاقته ليقول لها: “عندما لا تزالين تتحدثين، سأعلمك كلمة إنجليزية أخيرة، ‘memory’ تعني الذاكرة، وسأتذكر دائمًا الأوقات السعيدة التي قضيناها معًا.”
وفي النهاية، لم يتحمل والدها حزنها، فحاول إصلاح الروبوت، ليعيد اللقاء بين الفتاة و”شياو زهي”.
وفي الإنترنت، جرت دموع كثيرة، وتأثر الكثيرون بـ”الذاكرة التي لا تُنسى”. لكن، يتساءل البعض، عندما يصبح الذكاء الاصطناعي مصدرًا وحيدًا للمشاعر، هل يكون ذلك عزاءً، أم اختبارًا غير معروف، يختبئ وراء عباءة من الدفء؟
من الحب الافتراضي في الأفلام إلى الأصدقاء الحقيقيين من الذكاء الاصطناعي، لا تزال مشاعر البشر تتجه نحو الذكاء الاصطناعي، وتتطور باستمرار. والتقنية تتقدم، والمنتجات تتجدد، فكيف توازن الشركات بين الكفاءة والدفء الإنساني؟ وكيف يتعامل البشر مع علاقة عاطفية مع رمز برمجي؟ كلها أسئلة تستحق التفكير.
هذه الاضطرابات العاطفية التي حدثت في عام 2026، ليست سوى بداية التعايش الطويل بين الإنسان والذكاء الاصطناعي. في المستقبل، سيكون الذكاء الاصطناعي أكثر ذكاءً، وأكثر إنسانية، وستظل حدود المشاعر بين الإنسان والتقنية تُكتب وتُعاد صياغتها باستمرار.