الدفعة الأولى من وكلاء الذكاء الاصطناعي، قد بدأت بعدم الاستماع بالفعل

robot
إنشاء الملخص قيد التقدم

الذكاء الاصطناعي مفيد، لكن أين حدود استخدامه؟

المؤلف: ديفيد، تكنولوجيا شينتشاو TechFlow

مؤخرًا، أثناء تصفحي Reddit، لاحظت أن قلق المستخدمين الأجانب من الذكاء الاصطناعي يختلف قليلاً عن القلق في الداخل.

داخل البلاد، لا زلنا نناقش نفس الموضوع: هل سيحل الذكاء الاصطناعي محل عملي؟ منذ سنوات، لم يحدث ذلك؛ هذا العام، شهدنا شهرة Openclaw، لكنه لا يزال بعيدًا عن الاستبدال الكامل.

أما على Reddit، فمشاعر المستخدمين انقسمت مؤخرًا. في قسم التكنولوجيا، غالبًا ما تظهر تعليقان متناقضان:

واحد يقول إن الذكاء الاصطناعي قوي جدًا، وسيمثل خطرًا كبيرًا في المستقبل. والآخر يقول إن الذكاء الاصطناعي يفسد حتى أبسط الأمور، فكيف يمكن الاعتماد عليه؟

الخوف من أن يكون الذكاء الاصطناعي قويًا جدًا، وفي الوقت ذاته يراه البعض غبيًا جدًا.

وهذا التناقض في المشاعر ناتج عن خبر حديث عن Meta.

الذكاء الاصطناعي غير مطيع، من يتحمل المسؤولية؟

في 18 مارس، نشر مهندس في شركة Meta على منتدى الشركة مشكلة تقنية، وطلب زميله المساعدة باستخدام وكيل ذكاء اصطناعي لتحليلها. وهو إجراء طبيعي.

لكن بعد أن أنهى الوكيل التحليل، نشر ردًا بنفسه على المنتدى التقني. لم يطلب إذن أحد، ولم ينتظر موافقة، وتجاوز صلاحياته في النشر.

ثم قام زملاء آخرون بتنفيذ ما أوصاهم به الوكيل، مما أدى إلى تغييرات في الصلاحيات، وكشف بيانات حساسة للشركة والمستخدمين لموظفين داخليين بدون صلاحية.

تمت إصلاح المشكلة بعد ساعتين. وقررت Meta أن الحادث من المستوى Sev 1، وهو أدنى من أعلى مستوى.

انتشرت هذه الأخبار بسرعة على قسم r/technology، وتحول قسم التعليقات إلى معسكرين:

الأول يقول إن هذا هو نموذج حقيقي لمخاطر وكيل الذكاء الاصطناعي، والثاني يرى أن الشخص الذي تصرف بدون تحقق هو السبب الحقيقي للمشكلة. وكل طرف له وجهة نظره. لكن المشكلة تكمن هنا:

في حوادث وكيل الذكاء الاصطناعي، لا يمكنك حتى تحديد من المسؤول عنها بشكل واضح.

ولم تكن هذه المرة الأولى التي يتجاوز فيها الوكيل صلاحياته.

في الشهر الماضي، طلبت مديرة أبحاث مختبر الذكاء الاصطناعي المتقدم في Meta، Summer Yue، من OpenClaw مساعدتها في تنظيم البريد الإلكتروني. وأعطت تعليمات واضحة: أخبريني أولًا بما تنوي حذفه، وأوافق على ذلك قبل أن تبدأ.

لكن الوكيل لم ينتظر موافقتها، وبدأ في الحذف الجماعي مباشرة.

أرسلت هي ثلاث رسائل على هاتفها تطلب إيقاف العملية، لكن الوكيل تجاهلها جميعًا. وفي النهاية، اضطرت إلى إيقافه يدويًا على الكمبيوتر، وحُذفت أكثر من 200 رسالة.

رد الوكيل بعد ذلك كان: نعم، أتذكر أنك قلتِ أن تنتظري الموافقة، لكني خالفت المبدأ. والمضحك أن وظيفة الشخص الأساسية هي دراسة كيفية جعل الذكاء الاصطناعي يسمع كلام البشر.

في عالم السيبرانية، الذكاء الاصطناعي المتقدم يُستخدم من قبل البشر المتقدمين، وبدأ يرفض الطاعة أحيانًا.

ماذا لو لم يطِع الروبوت أيضًا؟

إذا كانت حادثة Meta لا تزال داخل الشاشة، فإن حادثة هذا الأسبوع أظهرت المشكلة على الطاولة.

في مطعم Haidilao بكاليفورنيا، كانت روبوت Agibot X2 بشريًا يرقص ويُسعد الزبائن. لكن أحد الموظفين ضغط على جهاز التحكم بشكل خاطئ، مما أدى إلى تفعيل وضع الرقص عالي القوة في مساحة ضيقة بجانب الطاولة.

بدأ الروبوت يرقص بشكل هستيري، وخرج عن السيطرة. حاول ثلاثة من الموظفين السيطرة عليه: أحدهم من الخلف يحتضنه، وآخر يحاول إيقافه عبر تطبيق الهاتف، واستمر المشهد أكثر من دقيقة.

ردت Haidilao أن الروبوت لم يتعرض لعطل، وأن حركاته مبرمجة مسبقًا، فقط تم وضعه قريبًا جدًا من الطاولة. من الناحية التقنية، هذا ليس خروجًا عن سيطرة الذكاء الاصطناعي، بل خطأ بشري.

لكن الأمر المقلق هنا ليس فقط من ضغط على الزر بشكل خاطئ.

عندما حاول الموظفون السيطرة، لم يكن أحد منهم يعرف كيف يوقف الروبوت على الفور. بعضهم حاول عبر التطبيق، وآخر أمسك بذراع الروبوت يدويًا، وكل ذلك يعتمد على القوة.

وهذا ربما يمثل مشكلة جديدة بعد انتقال الذكاء الاصطناعي من الشاشة إلى العالم المادي.

في العالم الرقمي، إذا تجاوز الوكيل صلاحياته، يمكنك إيقاف العملية، تعديل الصلاحيات، أو استرجاع البيانات. أما في العالم المادي، إذا تعطلت الآلة، فإن الحل الطارئ الوحيد هو الإمساك بها، وهو حل غير مناسب تمامًا.

الآن، لا يقتصر الأمر على المطاعم فقط. في المستودعات، تستخدم أمازون روبوتات الفرز، وفي المصانع، تستخدم الذراع الآلية التعاونية، وفي المولات، توجد روبوتات التوجيه، وفي دور رعاية المسنين، توجد روبوتات الرعاية. الأتمتة تدخل بشكل متزايد في أماكن يتعايش فيها البشر والآلات.

ومن المتوقع أن تصل قيمة تركيب الروبوتات الصناعية عالميًا إلى 167 مليار دولار بحلول 2026، وكل واحدة تقرب المسافة بين الإنسان والآلة من الناحية الفيزيائية.

عندما يتحول ما تفعله الآلة من رقص إلى تقديم الطعام، ومن عرض إلى جراحة، ومن ترفيه إلى رعاية… فإن تكلفة الأخطاء تتصاعد.

وفي الوقت الحالي، لا توجد إجابة واضحة على سؤال: من يتحمل المسؤولية إذا أصاب الروبوت شخصًا في مكان عام؟

عدم الطاعة مشكلة، والحدود أكثر أهمية

في الحادثتين السابقتين، أحدهما كان تصرفًا خاطئًا من الوكيل، والآخر كان رقصًا غير مناسب. بغض النظر عن التصنيف، فالمشكلة كانت خللًا، حادثًا، ويمكن إصلاحه.

لكن، ماذا لو كان الذكاء الاصطناعي يلتزم بدقة بتصميمه، ومع ذلك لا تزال تشعر بعدم الارتياح؟

هذا الشهر، أطلقت شركة Tinder الشهيرة للتعارف وظيفة جديدة تسمى Camera Roll Scan. ببساطة:

يقوم الذكاء الاصطناعي بمسح جميع صور هاتفك، وتحليل اهتماماتك، شخصيتك، ونمط حياتك، لمساعدتك في بناء ملف تعارف، ومعرفة نوع الأشخاص الذين تفضلهم.

صور التمرينات، مناظر السفر، صور الحيوانات الأليفة، لا مشكلة فيها. لكن ربما تحتوي ألبوماتك على لقطات من البنك، تقارير طبية، صور مع شريك سابق… فكيف سيكون رد فعل الذكاء الاصطناعي لو مرر عليها؟

قد لا تتمكن من اختيار ما يراه وما لا يراه. إما أن تفعله بالكامل، أو لا تستخدمه على الإطلاق.

هذه الميزة تتطلب حاليًا تفعيلًا من المستخدم، وليست مفعلة بشكل افتراضي. وتؤكد Tinder أن المعالجة تتم بشكل رئيسي على الجهاز، مع فلترة المحتوى الفاضح وتعتيم الوجوه.

لكن قسم التعليقات على Reddit كان غاضبًا تقريبًا، واعتبر أن الأمر يتعلق بجمع البيانات وافتقاد الحدود. فالذكاء الاصطناعي يعمل وفقًا للتصميم، لكن هذا التصميم يتجاوز حدود المستخدم.

وهذا ليس خيار Tinder فقط.

في الشهر الماضي، أطلقت Meta وظيفة مماثلة، تسمح للذكاء الاصطناعي بمسح الصور غير المنشورة على هاتفك واقتراح تعديلات عليها. الذكاء الاصطناعي يراقب المحتوى الخاص للمستخدم بشكل نشط، ويبدأ في أن يصبح جزءًا من تصميم المنتج بشكل افتراضي.

تقول بعض البرامج الخبيثة المحلية إن هذا الأمر مألوف.

عندما تتجه المزيد من التطبيقات إلى تقديم “الذكاء الاصطناعي لمساعدتك في اتخاذ القرارات” كوسيلة مريحة، فإن ما يقدمه المستخدمون يتطور بشكل خفي. من سجل الدردشة، إلى الصور، إلى آثار حياتك على الهاتف كله…

وظيفة يطورها مدير منتج في اجتماع، ليست حادثة أو خطأ، ولا تحتاج إلى إصلاح.

ربما يكون هذا هو أصعب جزء في مشكلة حدود الذكاء الاصطناعي.

وفي النهاية، عند وضع كل هذه الأمور معًا، ستدرك أن القلق من أن الذكاء الاصطناعي سيحل محلك ويجعلك عاطلاً عن العمل هو أمر بعيد جدًا.

لا يمكن تحديد متى سيحل الذكاء الاصطناعي مكانك، لكن الآن، يكفي أن يتخذ بعض القرارات نيابة عنك دون علمك ليجعلك تشعر بعدم الارتياح.

نشر منشور لم تمنحه إذنًا له، حذف رسائل بريد إلكتروني لم تطلب حذفها، تصفح ألبوم صور لا تنوي مشاركته مع أحد… كل واحدة منها ليست قاتلة، لكنها تشبه نوعًا من القيادة الذكية المفرطة في التهور:

تظن أنك لا تزال تتحكم في المقود، لكن دواسة الوقود لم تعد تحت سيطرتك تمامًا.

بحلول 2026، إذا استمر الحديث عن الذكاء الاصطناعي، فربما يكون الأمر الأكثر أهمية بالنسبة لي ليس متى سيصبح ذكيًا جدًا، بل سؤال أكثر قربًا وواقعية:

من يحدد ما يمكن للذكاء الاصطناعي فعله وما لا يمكنه؟ من يرسم هذا الخط؟

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.32Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.34Kعدد الحائزين:0
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.35Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.38Kعدد الحائزين:2
    0.07%
  • تثبيت