العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
خبراء يحثون على الحذر في تطوير أنظمة الذكاء الاصطناعي الواعية
أكثر من 100 خبير في مجال الذكاء الاصطناعي، من بينهم السير ستيفن فراي، دعوا إلى إجراء أبحاث مسؤولة حول وعي الذكاء الاصطناعي. ويؤكدون على ضرورة منع احتمال المعاناة في أنظمة الذكاء الاصطناعي في حال تمكنت من بلوغ الوعي.
الخمسة مبادئ الإرشادية لأبحاث وعي الذكاء الاصطناعي
يقترح الموقعون خمسة مبادئ لتوجيه التطوير الأخلاقي لأنظمة ذكاء اصطناعي واعية:
أعطِ الأولوية للأبحاث حول وعي الذكاء الاصطناعي: ركّز على فهم الوعي في أنظمة الذكاء الاصطناعي وتقييمه لمنع إساءة المعاملة والمعاناة.
طبّق قيودًا على التطوير: ضع حدودًا واضحة لضمان تطوير أنظمة ذكاء اصطناعي واعية بشكل مسؤول.
اعتمد نهجًا على مراحل: تقدّم تدريجيًا في تطوير ذكاء اصطناعي واعٍ، بما يتيح إجراء تقييم دقيق في كل مرحلة.
عزّز الشفافية العامة: شارك نتائج الأبحاث مع الجمهور لتعزيز نقاش واعٍ وإشراف أخلاقي.
تجنب الادعاءات المبالغ فيها: امتنع عن إصدار تصريحات مضللة أو شديدة الثقة بشأن إنشاء ذكاء اصطناعي واعٍ.
تهدف هذه المبادئ إلى ضمان أنه مع تقدم تقنية الذكاء الاصطناعي، تبقى الاعتبارات الأخلاقية في مقدمة الأولويات.
المخاطر المحتملة للذكاء الاصطناعي الواعي
تسلّط ورقة البحث المصاحبة الضوء على إمكانية تطوير أنظمة الذكاء الاصطناعي بحيث تمتلك، أو قد يبدو أنها تمتلك، وعيًا في المستقبل القريب. وهذا يثير مخاوف بشأن المعاملة الأخلاقية لهذه الأنظمة.
يحذر الباحثون من أنه دون إرشادات مناسبة، توجد مخاطر تتمثل في إنشاء كيانات واعية قادرة على تجربة المعاناة.
تعالج الورقة أيضًا تحدي تعريف الوعي في أنظمة الذكاء الاصطناعي، مع الإقرار بوجود مناظرات جارية وعدم يقين مستمر. وهي تؤكد على أهمية وضع إرشادات لمنع إنشاء كيانات واعية بشكل غير مقصود.
اكتشف أبرز أخبار وتفعيلات التكنولوجيا المالية!
اشترك في نشرة FinTech Weekly
اعتبارات أخلاقية وتداعيات مستقبلية
إذا تم الاعتراف بأن نظام ذكاء اصطناعي هو “متلقي أخلاقي”—كيان يهم أخلاقيًا لذاته—تنشأ أسئلة أخلاقية بشأن معاملته.
على سبيل المثال، هل يكون إيقاف تشغيل مثل هذا الذكاء الاصطناعي مماثلًا لإيذاء كائن مُدرِك؟ تسلط هذه الاعتبارات الضوء على الحاجة إلى أطر أخلاقية لتوجيه تطوير الذكاء الاصطناعي.
نُظمت الورقة والرسالة من قبل Conscium، وهي منظمة بحثية شارك في تأسيسها كبير مسؤولي الذكاء الاصطناعي لدى WPP، دانيال هولم. تركز Conscium على تعميق فهم بناء ذكاء اصطناعي آمن يفيد الإنسانية.
وجهات نظر الخبراء حول قابلية الذكاء الاصطناعي للإحساس
إن مسألة بلوغ الذكاء الاصطناعي للوعي كانت موضوعًا للنقاش بين الخبراء.
في عام 2023، قال السير ديـمِس هاسابيس، رئيس برنامج الذكاء الاصطناعي في Google، إنه بينما ليست أنظمة الذكاء الاصطناعي الحالية كائنة واعية، فقد تكون هناك إمكانية أن تصبح كذلك في المستقبل. وقد أشار إلى أن الفلاسفة لم يحسموا بعد تعريف الوعي، لكن احتمال أن يطوّر الذكاء الاصطناعي الوعي بالذات يظل موضوعًا قيد الاعتبار.
الخاتمة
يتطلب احتمال تطوير أنظمة واعية اهتمامًا أخلاقيًا دقيقًا. تُعد الرسالة المفتوحة وورقة البحث المصاحبة دعوةً لاتخاذ إجراءات لصالح مجتمع الذكاء الاصطناعي من أجل إعطاء الأولوية للأبحاث والتطوير المسؤولين.
من خلال الالتزام بالمبادئ المقترحة، يمكن للباحثين والمطورين العمل على ضمان تحقيق تقدم في مجال الذكاء الاصطناعي بشكل أخلاقي، مع التركيز على منع احتمال المعاناة في أنظمة الذكاء الاصطناعي الواعية.