العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
انطلاقة العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
يحث الخبراء على الحذر في تطوير أنظمة الذكاء الاصطناعي الواعية
أكثر من 100 خبير في الذكاء الاصطناعي، من بينهم السير ستيفن فراي، دعوا إلى إجراء بحوث مسؤولة حول وعي الذكاء الاصطناعي. وأكدوا على ضرورة منع المعاناة المحتملة في أنظمة الذكاء الاصطناعي إذا وصلت إلى مستوى الوعي الذاتي.
خمسة مبادئ توجيهية لبحوث وعي الذكاء الاصطناعي
يقترح الموقعون خمسة مبادئ لتوجيه التطوير الأخلاقي لأنظمة الذكاء الاصطناعي الواعية:
تهدف هذه المبادئ إلى ضمان أن تظل الاعتبارات الأخلاقية في مقدمة تطور تكنولوجيا الذكاء الاصطناعي.
المخاطر المحتملة للذكاء الاصطناعي الواعي
تسلط الورقة البحثية المصاحبة الضوء على احتمال أن يتم تطوير أنظمة ذكاء اصطناعي تمتلك، أو تظهر أنها تمتلك، الوعي في المستقبل القريب. وهذا يثير مخاوف بشأن المعاملة الأخلاقية لهذه الأنظمة.
يحذر الباحثون من أنه بدون إرشادات مناسبة، هناك خطر من إنشاء كيانات واعية قادرة على تجربة المعاناة.
كما تتناول الورقة تحدي تعريف الوعي في أنظمة الذكاء الاصطناعي، مع الاعتراف بالنقاشات المستمرة والشكوك. وتؤكد على أهمية وضع إرشادات لمنع إنشاء كيانات واعية بشكل غير مقصود.
اكتشف أهم أخبار وفعاليات التكنولوجيا المالية!
اشترك في النشرة الإخبارية لـ FinTech Weekly
الاعتبارات الأخلاقية والتداعيات المستقبلية
إذا تم الاعتراف بنظام ذكاء اصطناعي كـ “مريض أخلاقي” — ككيان يهم من الناحية الأخلاقية لذاته — تظهر أسئلة أخلاقية حول معاملته.
على سبيل المثال، هل سيكون إيقاف تشغيل مثل هذا الذكاء الاصطناعي مماثلاً لإيذاء كائن حساس؟ تبرز هذه الاعتبارات الحاجة إلى أطر أخلاقية توجه تطوير الذكاء الاصطناعي.
تم تنظيم الورقة والرسالة بواسطة شركة Conscium، وهي منظمة أبحاث أسسها بشكل مشترك Daniel Hulme، كبير مسؤولي الذكاء الاصطناعي في WPP. تركز Conscium على تعميق فهم بناء ذكاء اصطناعي آمن يفيد البشرية.
وجهات نظر الخبراء حول وعي الذكاء الاصطناعي
كان سؤال تحقيق الذكاء الاصطناعي للوعي موضوع نقاش بين الخبراء.
في عام 2023، صرح السير ديميس هاسابيس، رئيس برنامج الذكاء الاصطناعي في جوجل، بأنه على الرغم من أن أنظمة الذكاء الاصطناعي الحالية ليست واعية، إلا أن هناك احتمال أن تكون كذلك في المستقبل. وأشار إلى أن الفلاسفة لم يتفقوا بعد على تعريف للوعي، لكن إمكانية تطور الذكاء الاصطناعي لذات وعي لا تزال موضوعًا للنظر.
الخلاصة
إن احتمال تطوير أنظمة واعية يتطلب دراسة أخلاقية دقيقة. وتعد الرسالة المفتوحة والورقة البحثية المصاحبة دعوة لجهود مجتمع الذكاء الاصطناعي لتبني ممارسات بحث وتطوير مسؤولة.
من خلال الالتزام بالمبادئ المقترحة، يمكن للباحثين والمطورين العمل على ضمان أن تتقدم تكنولوجيا الذكاء الاصطناعي بشكل أخلاقي، مع التركيز على منع المعاناة المحتملة في أنظمة الذكاء الاصطناعي الواعية.