خبراء يحثون على الحذر في تطوير أنظمة الذكاء الاصطناعي الواعية


أكثر من 100 خبير في مجال الذكاء الاصطناعي، من بينهم سير ستيفن فراي، دعوا إلى إجراء أبحاث مسؤولة حول وعي الذكاء الاصطناعي. ويؤكدون على ضرورة منع احتمال المعاناة في أنظمة الذكاء الاصطناعي في حال حصلت على الوعي.

خمسة مبادئ إرشادية لبحوث وعي الذكاء الاصطناعي

يقترح الموقعون خمسة مبادئ لتوجيه التطوير الأخلاقي لأنظمة ذكاء اصطناعي واعية:

2.      

**أولِ الأبحاث المتعلقة بوعي الذكاء الاصطناعي:** ركّز على فهم الوعي في الذكاء الاصطناعي وتقييمه لمنع سوء المعاملة والمعاناة.

    
4.      

**طبّق قيودًا على التطوير:** ضع حدودًا واضحة لضمان تطوير أنظمة ذكاء اصطناعي واعية بطريقة مسؤولة.

    
6.      

**اعتمد نهجًا تدريجيًا:** تقدم خطوة بخطوة في تطوير ذكاء اصطناعي واعٍ، مع إتاحة تقييم دقيق في كل مرحلة.

    
8.      

**عزّز الشفافية العامة:** شارك نتائج الأبحاث مع الجمهور لتعزيز نقاش مستنير وإشراف أخلاقي.

    
10.      
 
 **تجنب الادعاءات المبالغ فيها:** امتنِع عن تقديم تصريحات مضللة أو واثقة بشكل مفرط بشأن إنشاء ذكاء اصطناعي واعٍ.

تهدف هذه المبادئ إلى ضمان أنه مع تقدم تقنيات الذكاء الاصطناعي، تظل الاعتبارات الأخلاقية في صدارة المشهد.

المخاطر المحتملة للذكاء الاصطناعي الواعي

تسلط ورقة البحث المصاحبة الضوء على احتمال تطوير أنظمة ذكاء اصطناعي تمتلك، أو يبدو أنها تمتلك، الوعي في المستقبل القريب. وهذا يثير مخاوف بشأن المعاملة الأخلاقية لهذه الأنظمة.

يحذر الباحثون من أنه دون إرشادات مناسبة، توجد مخاطر تتمثل في إنشاء كائنات واعية قادرة على تجربة المعاناة.

وتتناول الورقة أيضًا تحدي تعريف الوعي في أنظمة الذكاء الاصطناعي، مع الاعتراف بوجود نقاشات مستمرة وعدم يقين. وتشدد على أهمية وضع إرشادات لمنع دون قصد إنشاء كائنات واعية.


اكتشف أبرز أخبار التكنولوجيا المالية والفعاليات!

اشترك في النشرة الإخبارية الخاصة بـ FinTech Weekly


اعتبارات أخلاقية وتبعات مستقبلية

إذا تم اعتبار نظام ذكاء اصطناعي “مريضًا أخلاقيًا”—وهو كيان يهم أخلاقيًا لذاته—تنشأ أسئلة أخلاقية بشأن معالجته.

على سبيل المثال، هل سيكون إيقاف تشغيل مثل هذا الذكاء الاصطناعي مشابهًا لإيذاء كائن ذي إحساس؟ تؤكد هذه الاعتبارات الحاجة إلى أطر أخلاقية توجه تطوير الذكاء الاصطناعي.

تم تنظيم الورقة والخطاب من قِبل Conscium، وهي منظمة بحثية شارك في تأسيسها كبير مسؤولي الذكاء الاصطناعي لدى WPP، دانييل هولم. تركز Conscium على تعميق فهم بناء ذكاء اصطناعي آمن يفيد البشرية.

وجهات نظر الخبراء حول إحساس الذكاء الاصطناعي

كان موضوع وصول الذكاء الاصطناعي إلى الوعي محل نقاش بين الخبراء.

في عام 2023، قال سير ديميس هاسابيس، رئيس برنامج الذكاء الاصطناعي في Google، إنه على الرغم من أن أنظمة الذكاء الاصطناعي الحالية ليست واعية، إلا أن هناك احتمالًا بأن تصبح كذلك في المستقبل. وقد أشار إلى أن الفلاسفة لم يحسموا بعد تعريف الوعي، لكن احتمال أن يطور الذكاء الاصطناعي وعيًا بذاتيًا يظل موضوعًا قيد الاعتبار.

الخلاصة

يتطلب احتمال تطوير أنظمة واعية نظرًا أخلاقيًا دقيقًا. يمثل الخطاب المفتوح وورقة البحث المصاحبة نداءً لاتخاذ إجراء لصالح مجتمع الذكاء الاصطناعي كي يعطي أولوية للبحث والتطوير المسؤولين.

ومن خلال الالتزام بالمبادئ المقترحة، يمكن للباحثين والمطورين العمل على ضمان تحقيق التقدم في مجال الذكاء الاصطناعي بطريقة أخلاقية، مع التركيز على منع احتمال المعاناة في أنظمة الذكاء الاصطناعي الواعية.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.25Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.28Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.3Kعدد الحائزين:2
    0.16%
  • القيمة السوقية:$2.28Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.26Kعدد الحائزين:1
    0.00%
  • تثبيت