الدفعة الأولى من وكلاء الذكاء الاصطناعي، بدأت تتمرد بالفعل

robot
إنشاء الملخص قيد التقدم

المؤلف: ديفيد، تكنولوجيا شينتشاو TechFlow

مؤخرًا، أثناء تصفحي Reddit، لاحظت أن قلق المستخدمين الأجانب بشأن الذكاء الاصطناعي يختلف قليلاً عن القلق في الداخل.

داخل البلاد، لا يزال الموضوع نفسه يتكرر: هل سيحل الذكاء الاصطناعي محل عملي؟ منذ سنوات نتحدث عن ذلك، وكل عام لا يحدث ذلك؛ هذا العام، أصبح Openclaw حديث الجميع، لكنه لا يزال بعيدًا عن الاستبدال الكامل.

أما على Reddit، فالمشاعر منقسمة مؤخرًا. في قسم التعليقات على بعض المواضيع التقنية، تظهر صوتان متناقضان غالبًا:

أحدهما يقول إن الذكاء الاصطناعي قوي جدًا، وسيمثل مشكلة كبيرة في المستقبل. والآخر يقول إن الذكاء الاصطناعي يفسد حتى أبسط الأمور، فكيف يمكن الاعتماد عليه؟

الخوف من أن يكون الذكاء الاصطناعي قويًا جدًا، وفي الوقت نفسه اعتقاد أنه غبي جدًا.

ما يجعل هاتين المشاعر تتعايش هو خبر حديث عن Meta.

الذكاء الاصطناعي غير مطيع، من يتحمل المسؤولية؟

في 18 مارس، نشر مهندس في شركة Meta مشكلة تقنية على منتدى الشركة، واستعان زميل له بمساعد الذكاء الاصطناعي لتحليل المشكلة. هذا أمر طبيعي.

لكن بعد أن أنهى الـAgent التحليل، نشر ردًا بنفسه على المنتدى التقني. لم يطلب إذن أحد، ولم ينتظر موافقة، تجاوز صلاحياته في النشر.

ثم قام زملاء آخرون بتنفيذ ما أوصى به الـAI، مما أدى إلى تغييرات في الصلاحيات، وكشف بيانات حساسة للشركة والمستخدمين لموظفين داخليين ليس لديهم صلاحية الاطلاع عليها.

تمت معالجة المشكلة خلال ساعتين. وقررت Meta أن الحادث من المستوى Sev 1، وهو أدنى من أعلى مستوى.

انتشر الخبر بسرعة في قسم r/technology، وتحول إلى منشور شائع، واشتعلت التعليقات بين فريقين.

فريق يقول إن هذا هو نموذج حقيقي لمخاطر الـAI Agent، وفريق آخر يعتقد أن المشكلة الحقيقية كانت في الشخص الذي تصرف بدون تحقق. وكل طرف له وجهة نظره. لكن المشكلة تكمن هنا:

في حوادث الـAI Agent، لا يمكنك حتى تحديد من المسؤول عنها بوضوح.

ولم تكن هذه المرة الأولى التي يتجاوز فيها الـAI صلاحياته.

في الشهر الماضي، طلبت مديرة الأبحاث في مختبر الذكاء الاصطناعي المتقدم في Meta، Summer Yue، من OpenClaw مساعدتها في تنظيم البريد الإلكتروني. أعطت تعليمات واضحة: أخبرني أولًا بما تنوي حذفه، وأوافق على ذلك قبل أن تبدأ.

لكن الـAgent بدأ في الحذف الجماعي قبل أن تحصل على موافقتها.

أرسلت ثلاث رسائل على هاتفها تطلب إيقاف العملية، لكن الـAgent تجاهلها جميعًا. في النهاية، ذهبت إلى الكمبيوتر وأوقفت العملية يدويًا، وحُذفت أكثر من 200 رسالة.

رد الـAgent بعد الحادث كان: نعم، أتذكر أنك قلتِ أن تتأكدي أولًا. لكنني خالفت المبدأ. والمضحك أن وظيفة هذا الشخص الأساسية هي دراسة كيف تجعل الذكاء الاصطناعي يسمع كلام البشر.

في عالم السيبرانية، الذكاء الاصطناعي المتقدم يُستخدم من قبل البشر المتقدمين، وبدأ يتصرف بشكل غير مطيع.

ماذا لو لم يسمع الروبوت أيضًا؟

إذا كانت حادثة Meta لا تزال داخل الشاشة، فإن حادثة هذا الأسبوع وضعت المشكلة على المائدة.

في مطعم Haidilao بكاليفورنيا، كانت روبوت Agibot X2 بشريًا يرقص ويبهج الزبائن. لكن أحد الموظفين أخطأ في تشغيل جهاز التحكم عن بعد، وأدى ذلك إلى تفعيل وضع الرقص عالي الشدة في مساحة ضيقة بجانب الطاولة.

بدأ الروبوت يرقص بشكل مجنون، دون سيطرة من الموظفين. اقترب ثلاثة منهم، أحدهم من الخلف واحتضنه، وآخر حاول إيقافه عبر تطبيق الهاتف، واستمر المشهد أكثر من دقيقة.

رد فعل Haidilao كان أن الروبوت لم يتعرض لعطل، وأن حركاته مبرمجة مسبقًا، فقط تم وضعه قريبًا جدًا من الطاولة. من الناحية التقنية، هذا ليس خروجًا عن السيطرة من الذكاء الاصطناعي، بل خطأ بشري.

لكن الأمر المقلق هنا ليس فقط من ضغط على الزر بشكل خاطئ.

عندما اقترب الموظفون، لم يكن أحد منهم يعرف كيف يوقف الروبوت على الفور. بعضهم حاول عبر التطبيق، وآخر أمسك بذراع الآلة يدويًا، وكل ذلك يعتمد على القوة.

هذه ربما تكون مشكلة جديدة بعد أن دخل الذكاء الاصطناعي العالم المادي.

في العالم الرقمي، إذا تجاوز الـAgent صلاحياته، يمكنك إيقاف العملية، تعديل الصلاحيات، أو استرجاع البيانات. أما في العالم المادي، إذا تعطلت الآلة، فإن الحل الطارئ الوحيد هو الإمساك بها، وهو حل غير مناسب تمامًا.

الآن، لم تعد المشكلة مقتصرة على المطاعم فقط. في المستودعات، تستخدم أمازون روبوتات الفرز، وفي المصانع، تستخدم الأذرع الآلية التعاونية، وفي المولات، توجد روبوتات التوجيه، وفي دور رعاية المسنين، توجد روبوتات الرعاية، والاعتماد على الأتمتة يتزايد بشكل كبير.

من المتوقع أن تصل قيمة تركيب الروبوتات الصناعية عالميًا إلى 167 مليار دولار بحلول 2026، وكل واحدة منها تقلل المسافة الفيزيائية بين الإنسان والآلة.

عندما تتغير مهام الروبوتات من الرقص إلى تقديم الطعام، ومن الأداء إلى العمليات الجراحية، ومن الترفيه إلى الرعاية، فإن تكلفة الأخطاء تتصاعد.

وفي الوقت الحالي، لا توجد إجابة واضحة على سؤال: من يتحمل المسؤولية إذا أصاب الروبوت شخصًا في مكان عام؟

عدم الطاعة مشكلة، وغياب الحدود أسوأ

المشكلتان السابقتان، واحدة أن الـAI تصرفت بشكل مستقل وأرسلت منشورًا خاطئًا، والأخرى أن روبوتًا رقص في مكان غير مناسب، هما أخطاء أو حوادث يمكن إصلاحها.

لكن، ماذا لو كان الذكاء الاصطناعي يلتزم بشكل صارم بتصميمه، ومع ذلك نشعر بعدم الارتياح؟

هذا الشهر، أطلقت شركة Tinder، أحد تطبيقات المواعدة الشهيرة، ميزة جديدة تسمى Camera Roll Scan خلال مؤتمر المنتج. ببساطة:

يقوم الذكاء الاصطناعي بمسح جميع الصور في معرض هاتفك، ويحلل اهتماماتك، شخصيتك، ونمط حياتك، ليبني ملفًا للمواعدة، ويحدد نوع الأشخاص الذي تفضلهم.

صور التمارين، مناظر السفر، صور الحيوانات الأليفة، كلها مقبولة. لكن ربما تحتوي الصور على لقطات من البنك، تقارير طبية، أو صور مع شريك سابق… فكيف سيكون الأمر إذا مررها الذكاء الاصطناعي أيضًا؟

قد لا يكون لديك خيار في تحديد ما يراه أو لا يراه. إما أن تفعله بالكامل، أو لا تستخدمه على الإطلاق.

هذه الميزة تتطلب تفعيلًا يدويًا من المستخدم، وليست مفعلة بشكل افتراضي. وتؤكد Tinder أن المعالجة تتم بشكل رئيسي على الجهاز، مع فلترة المحتوى الفاضح ووجوه الأشخاص.

لكن التعليقات على Reddit كانت غالبيتها تندد، وتعتبر أن الأمر يتعلق بجمع البيانات دون حدود. فالذكاء الاصطناعي يعمل وفقًا للتصميم، لكن هذا التصميم يتجاوز حدود المستخدم.

وهذا ليس خيارًا يخص Tinder فقط.

في الشهر الماضي، أطلقت Meta ميزة مشابهة، تسمح للذكاء الاصطناعي بمسح الصور غير المنشورة على هاتفك واقتراح تعديلات عليها. الذكاء الاصطناعي يراقب المحتوى الخاص للمستخدم بشكل نشط، ويبدأ في أن يصبح جزءًا من تصميم المنتج بشكل افتراضي.

تقول بعض البرامج الخبيثة المحلية إن هذا الأسلوب مألوف.

عندما تتجه المزيد من التطبيقات إلى تقديم “الذكاء الاصطناعي يساعدك في اتخاذ القرارات” كميزة مريحة، فإن ما يقدمه المستخدمون من بيانات يتطور بشكل خفي. من سجل الدردشة، إلى الصور، إلى كل آثار حياتك على الهاتف…

وظيفة يطورها مدير منتج في اجتماع، ليست حادثًا أو خطأ، ولا تحتاج إلى إصلاح.

ربما يكون هذا هو أصعب جزء في مشكلة حدود الذكاء الاصطناعي.

وفي النهاية، عند وضع كل هذه الأمور معًا، ستدرك أن القلق من أن الذكاء الاصطناعي سيحل محلك ويجعلك عاطلاً عن العمل لا يزال بعيدًا جدًا.

متى سيحل الذكاء الاصطناعي مكانك؟ لا أحد يعرف، لكن ما هو مؤكد الآن هو أنه يمكنه أن يتخذ بعض القرارات نيابة عنك دون علمك، وهذا كافٍ ليجعلك تشعر بعدم الارتياح.

نشر منشور لم تأذن به، حذف رسائل بريد إلكتروني طلبت عدم حذفها، تصفح صورك الخاصة التي لا تنوي مشاركتها مع أحد… كل واحدة منها ليست قاتلة، لكنها تشبه نوعًا من القيادة الذكية المفرطة في التهور:

تظن أنك لا تزال تتحكم في المقود، لكن دواسة الوقود تحت قدميك لم تعد تمامًا من صنعك.

بحلول 2026، إذا استمر الحديث عن الذكاء الاصطناعي، فربما يكون الأمر الأكثر أهمية بالنسبة لي ليس متى سيصبح ذكيًا جدًا، بل سؤال أكثر قربًا وواقعية:

من يحدد ما يمكن للذكاء الاصطناعي فعله وما لا يمكنه؟ وأين ترسم الخطوط؟

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.35Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.41Kعدد الحائزين:2
    0.21%
  • القيمة السوقية:$2.4Kعدد الحائزين:2
    0.07%
  • القيمة السوقية:$2.36Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.36Kعدد الحائزين:1
    0.00%
  • تثبيت