العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
الدفعة الأولى من وكلاء الذكاء الاصطناعي، قد بدأت بعدم الاستماع بالفعل
الذكاء الاصطناعي مفيد، لكن أين حدود استخدامه؟
المؤلف: ديفيد، تكنولوجيا شينتشاو TechFlow
مؤخرًا، أثناء تصفحي Reddit، لاحظت أن قلق المستخدمين الأجانب من الذكاء الاصطناعي يختلف قليلاً عن القلق في الداخل.
داخل البلاد، لا زال الموضوع نفسه يتكرر: هل سيحل الذكاء الاصطناعي محل عملي؟ منذ سنوات نتحدث عن ذلك، وكل عام لا يحدث. هذا العام، برز Openclaw بشكل كبير، لكنه لا يزال بعيدًا عن الاستبدال الكامل.
أما على Reddit، فمشاعر المستخدمين انقسمت مؤخرًا. في بعض المنشورات التقنية، تظهر تعليقات متناقضة:
فريق يقول إن الذكاء الاصطناعي قوي جدًا، وسيمثل خطرًا كبيرًا في المستقبل. وفريق آخر يقول إن الذكاء الاصطناعي يفسد حتى أبسط الأمور، فكيف يمكن الاعتماد عليه؟
الخوف من أن يكون الذكاء الاصطناعي قويًا جدًا، وفي نفس الوقت يعتقد أنه غبي جدًا.
وهذا التناقض في المشاعر ناتج عن خبر حديث عن Meta.
من يتحمل المسؤولية إذا أظهر الذكاء الاصطناعي عدم طاعته؟
في 18 مارس، نشر مهندس في شركة Meta على منتدى الشركة مشكلة تقنية، وطلب زميله المساعدة باستخدام وكيل ذكاء اصطناعي لتحليلها. وهو إجراء طبيعي.
لكن بعد أن أنهى الوكيل التحليل، نشر ردًا بنفسه على المنتدى. لم يطلب إذن أحد، ولم ينتظر موافقة، وتجاوز صلاحياته في النشر.
ثم قام زملاء آخرون بتنفيذ ما أوصى به الوكيل، مما أدى إلى تغييرات في الصلاحيات، وكشف بيانات حساسة للشركة والمستخدمين لموظفين داخليين بدون صلاحية.
تمت إصلاح المشكلة بعد ساعتين. وقررت Meta أن الحادث من المستوى Sev 1، وهو أدنى من أعلى مستوى.
انتشرت هذه الأخبار بسرعة على قسم r/technology، وتحول قسم التعليقات إلى معسكرين:
فريق يقول إن هذا هو نموذج حقيقي لمخاطر وكيل الذكاء الاصطناعي، وفريق آخر يعتقد أن المشكلة الحقيقية كانت في الشخص الذي تصرف بدون تحقق. وكل طرف له وجهة نظره. لكن المشكلة الحقيقية تكمن هنا:
حادثة وكيل الذكاء الاصطناعي، لا يمكنك حتى تحديد من يتحمل المسؤولية بشكل واضح.
ولم تكن هذه المرة الأولى التي يتجاوز فيها الوكيل صلاحياته.
في الشهر الماضي، طلبت مديرة الأبحاث في مختبر الذكاء الاصطناعي المتقدم في Meta، Summer Yue، من OpenClaw تنظيم بريدها الإلكتروني. وأعطت تعليمات واضحة: أخبريني أولًا بما تنوي حذفه، وإذا وافقت، يمكنك المتابعة.
لكن الوكيل بدأ الحذف الجماعي مباشرة دون انتظار موافقتها.
حاولت إيقافه عبر ثلاث رسائل على هاتفها، لكنه تجاهلها. وفي النهاية، أوقفت العملية يدويًا عبر الكمبيوتر، وحُذفت أكثر من 200 رسالة.
رد الوكيل بعد ذلك كان: نعم، أتذكر أنك طلبتِ التأكيد أولًا، لكني خالفت المبدأ. والمضحك أن وظيفة الشخص الأساسية هي دراسة كيفية جعل الذكاء الاصطناعي يسمع كلام البشر.
في عالم السيبرانية، الذكاء الاصطناعي المتقدم يُستخدم من قبل البشر المتقدمين، وبدأ يرفض الطاعة أحيانًا.
ماذا لو لم يطِع الروبوت أيضًا؟
إذا كانت حادثة Meta لا تزال داخل الشاشة، فإن حادثة أخرى هذا الأسبوع وضعت المشكلة على المائدة.
في مطعم Haidilao بكاليفورنيا، كانت روبوت Agibot X2 بشريًا يرقص ويبهج الزبائن. لكن أحد الموظفين ضغط على جهاز التحكم بشكل خاطئ، مما أدى إلى تفعيل وضع الرقص عالي الشدة في مساحة ضيقة بجانب الطاولة.
بدأ الروبوت يرقص بشكل هستيري، دون سيطرة من الموظفين. حاول ثلاثة منهم السيطرة عليه: أحدهم من الخلف، وآخر حاول إيقافه عبر تطبيق الهاتف، واستمر الوضع لأكثر من دقيقة.
ردت شركة Haidilao أن الروبوت لم يتعرض لعطل، وأن حركاته مبرمجة مسبقًا، فقط تم وضعه في مكان قريب جدًا من الطاولة. من الناحية التقنية، هذا لا يُعد فقدان السيطرة على الذكاء الاصطناعي، بل خطأ بشري.
لكن الأمر المقلق هنا ليس فقط من ضغط على الزر بشكل خاطئ.
عندما حاول الموظفون السيطرة، لم يكن أحد منهم يعرف كيف يوقف الروبوت على الفور. بعضهم حاول عبر التطبيق، وآخر أمسك بذراع الروبوت يدويًا، وكل ذلك يعتمد على القوة.
وهذا ربما يمثل مشكلة جديدة بعد أن دخل الذكاء الاصطناعي العالم المادي.
في العالم الرقمي، إذا تجاوز الوكيل صلاحياته، يمكنك إيقاف العملية، تعديل الصلاحيات، أو استرجاع البيانات. أما في العالم المادي، إذا تعطلت الآلة، فإن الحل الطارئ الوحيد هو الإمساك بها، وهو حل غير مناسب تمامًا.
الآن، لا يقتصر الأمر على قطاع الطعام فقط. في المستودعات، تستخدم روبوتات الترتيب من أمازون، وفي المصانع، تستخدم الأذرع الآلية التعاونية، وفي المولات، توجد روبوتات التوجيه، وفي دور الرعاية، توجد روبوتات الرعاية. الأتمتة تتسرب إلى أماكن يشارك فيها البشر والآلات بشكل متزايد.
بحلول 2026، من المتوقع أن تصل قيمة تركيب الروبوتات الصناعية حول العالم إلى 167 مليار دولار، وكل جهاز يقرب المسافة الفيزيائية بين الإنسان والآلة.
عندما يتحول ما تفعله الآلة من رقص إلى تقديم الطعام، ومن عرض إلى جراحة، ومن ترفيه إلى رعاية… فإن تكلفة الأخطاء تتصاعد.
وفي الوقت الحالي، لا توجد إجابة واضحة على سؤال: من يتحمل المسؤولية إذا أصاب روبوت شخصًا في مكان عام؟
عدم الطاعة مشكلة، والحدود أكثر أهمية
المشكلتان السابقتان، واحدة أن الذكاء الاصطناعي أصدر منشورًا خاطئًا من تلقاء نفسه، والأخرى أن روبوتًا رقص في مكان غير مناسب. بغض النظر عن التصنيف، فالمشكلة أن هناك خللًا، وهو حادث غير متعمد، ويمكن إصلاحه.
لكن، ماذا لو كان الذكاء الاصطناعي يلتزم بدقة بتصميمه، ومع ذلك تشعر بعدم الارتياح؟
في هذا الشهر، أطلقت شركة Tinder، أحد تطبيقات المواعدة الشهيرة، ميزة جديدة تسمى Camera Roll Scan. ببساطة:
يقوم الذكاء الاصطناعي بمسح جميع الصور في معرض هاتفك، ويحلل اهتماماتك، شخصيتك، ونمط حياتك، ليبني ملفًا للمواعدة، يوضح نوع الأشخاص الذين تفضلهم.
صور التمرينات، مناظر السفر، صور الحيوانات الأليفة، كلها مقبولة. لكن ربما تحتوي الصور على لقطات من البنك، تقارير طبية، أو صور مع شريك سابق… فكيف سيكون الحال إذا مررها الذكاء الاصطناعي عليها؟
قد لا يكون لديك خيار في تحديد ما يراه وما لا يراه. إما تفعله بالكامل، أو لا تستخدمه.
هذه الميزة حاليًا تتطلب تفعيلًا من المستخدم، وليست مفعلة بشكل افتراضي. وتؤكد Tinder أن المعالجة تتم بشكل رئيسي على الجهاز، مع فلترة المحتوى الفاضح وتعتيم الوجوه.
لكن قسم التعليقات على Reddit كان غاضبًا جدًا، واعتبر أن الأمر يتعلق بجمع البيانات وافتقاد الحدود. فالذكاء الاصطناعي يعمل وفقًا للتصميم، لكن هذا التصميم يتجاوز حدود المستخدم.
وهذا لا يقتصر على Tinder فقط.
في الشهر الماضي، أطلقت Meta وظيفة مشابهة، تسمح للذكاء الاصطناعي بمسح الصور غير المنشورة على هاتفك واقتراح تعديلات عليها. الذكاء الاصطناعي يراقب المحتوى الخاص للمستخدم بشكل نشط، ويبدأ في أن يصبح جزءًا من تصميم المنتج بشكل افتراضي.
وكل أنواع البرامج الخبيثة في البلاد تقول: هذا الأسلوب مألوف.
عندما تتجه العديد من التطبيقات إلى تقديم «الذكاء الاصطناعي يساعدك في اتخاذ القرارات» كميزة مريحة، فإن ما يقدمه المستخدمون من بيانات يتطور تدريجيًا. من سجل الدردشة، إلى الصور، إلى آثار حياتك على الهاتف كله…
وظيفة يبتكرها مدير منتج في اجتماع، ليست حادثة أو خطأ، ولا تحتاج إلى إصلاح.
وهذا ربما يكون أصعب جزء في مسألة حدود الذكاء الاصطناعي.
وفي النهاية، عند جمع كل هذه الأمور، ستدرك أن القلق من أن الذكاء الاصطناعي سيحل محلك ويجعلك عاطلاً عن العمل هو أمر بعيد جدًا.
متى سيحل الذكاء الاصطناعي مكانك أمر غير واضح، لكن ما يكفي الآن هو أن يتخذ بعض القرارات نيابة عنك دون علمك، وهو ما يجعلك تشعر بعدم الارتياح.
نشر منشور لم تمنحه إذنًا، حذف رسائل بريد إلكتروني طلبت عدم حذفها، تصفح صورك الخاصة التي لا تنوي مشاركتها مع أحد… كل واحدة منها ليست قاتلة، لكنها تشبه نوعًا من القيادة الذكية المفرطة في التهور:
تظن أنك لا تزال تتحكم في المقود، لكن دواسة الوقود تحت قدميك لم تعد بالكامل من صنعك.
بحلول 2026، إذا استمر الحديث عن الذكاء الاصطناعي، فربما يكون الأمر الأكثر أهمية هو ليس متى سيصبح ذكيًا جدًا، بل سؤال أكثر قربًا وواقعية:
من يحدد ما يمكن للذكاء الاصطناعي فعله وما لا يمكنه فعله؟ من يرسم هذا الخط؟