لماذا تتنافس شركات الذكاء الاصطناعي الرائدة على استقطاب الفلاسفة؟

13 أبريل 2026، نشر باحث جامعة كامبريدج هنري شيفلين على إكس رسالة قال فيها إنه سينضم قريبًا إلى جوجل ديب مايند، وسيكون المسمى الوظيفي فيلسوفًا.

حاليًا، على الأقل ثلاث مختبرات ذكاء اصطناعي رائدة تبني فريقًا من الفلاسفة داخليًا، على الرغم من أن العدد ليس كبيرًا، إلا أن الفلاسفة قد دخلوا فعليًا في جوهر تطوير الذكاء الاصطناعي. لم يعد الذكاء الاصطناعي مجرد تطوير تقني بسيط، بل تحول إلى تحديد معايير قيمة أكثر تعقيدًا.

الفلاسفة قد تم دمجهم في جوهر البحث والتطوير

أماندا أسكيل من أنثروبيك هي الأقدم والأكثر شهرة.

في عام 2021، حصلت على دكتوراه في الفلسفة من جامعة نيويورك، ثم انضمت إلى أنثروبيك، وتترأس الآن فريق مواءمة الشخصية. عملها الرئيسي هو مساعدة كلود على تطوير شخصية مستقرة، مثل أن يكون أكثر صدقًا، وأطيب، وأن يفهم كيف يحكم في الحالات المعقدة.

كما يوجد في أنثروبيك زملاء آخرون ذوو خلفية فلسفية مثل جو كارلسميث، بن ليفنشتاين، جاكسون كيرنيون.

أما شركة جوجل ديب مايند فكانت قد بدأت مبكرًا.

إياسون غابرييل، دكتور في الفلسفة الأخلاقية والسياسية من جامعة أكسفورد، هو شخصية مركزية في أبحاث فلسفة مواءمة الذكاء الاصطناعي في الشركة، وفي عام 2024، تم اختياره ضمن قائمة أكثر 100 شخصية تأثيرًا في مجال الذكاء الاصطناعي من مجلة تايم. وقد تم الاستشهاد بأطروحته «الذكاء الاصطناعي، القيم، والمطابقة» أكثر من 1700 مرة.

يوجد في فريق ديب مايند أيضًا باحثون من خلفيات فلسفية مثل آدم بيلز، أتووسا كاسيرزاده، أريانا مانزيني، جوليا هاس وغيرهم.

قال شيفلين في قسم التعليقات: “ديب مايند لديه بالفعل العديد من الفلاسفة المميزين، وأنا فقط الأحدث بينهم.”

من إعطاء إجابات تقنية إلى الأحكام القيمية

قبل عام 2024، كان الذكاء الاصطناعي يركز بشكل رئيسي على توليد المحتوى، مثل كتابة المقالات، الرسم، والإجابة على الأسئلة، ثم يتم اتخاذ القرار النهائي من قبل الإنسان حول كيفية استخدامه. كانت قضايا الأمان تُحل غالبًا عبر وسائل تقنية، مثل تدريب النموذج باستخدام ملاحظات البشر، وتصميم تلميحات ذكية، أو حظر المحتوى الضار مباشرة.

بعد عام 2024، بدأ الذكاء الاصطناعي يدخل مرحلة جديدة. لم يعد يقتصر على الإجابة على الأسئلة، بل بدأ في القيام بالأعمال بنفسه، ومساعدة الناس في إنجاز مهام حقيقية.

أطلقت أنثروبيك وظيفة استخدام Claude على الحاسوب، ووسعت OpenAI واجهة برمجة التطبيقات للمساعدين، وأطلقت سلسلة نماذج o1-o3، وأصدرت جوجل أدوات وكيل ذكاء اصطناعي للشركات.

يمكن للذكاء الاصطناعي الآن إتمام سلسلة من العمليات بشكل مستقل، مثل حجز تذاكر الطيران، إدارة قواعد البيانات، إرسال البريد الإلكتروني، وحتى تخطيط الخطوات، واكتشاف الأخطاء وتصحيحها.

وصف تقرير إياسون غابرييل المكون من 274 صفحة بوضوح التحديات الناتجة عن هذا التغير.

عندما يساعد الذكاء الاصطناعي المستخدمين في إنجاز مهام، فإنه يجب أن يوازن بين أربعة جوانب: الحاجة الفورية للمستخدم، مصلحة المستخدم على المدى الطويل، حقوق الآخرين، وقواعد المجتمع ككل.

هل يجب على الذكاء الاصطناعي الذي يساعد في حجز المطاعم أن يوصي إذا كانت تلك المطاعم تقدم عمولة؟

هل يجب على الذكاء الاصطناعي الذي يتعامل مع البريد الإلكتروني أن يبلغ عن محتوى مخالف إذا وجد ذلك في رسائل المستخدم؟

عندما يبدأ الذكاء الاصطناعي في التصرف بشكل مستقل، لم تعد المشكلة هل يمكنه أن يفعل، بل كيف ينبغي أن يفعل.

ناقش مجال أمان الذكاء الاصطناعي مسألة المطابقة لأكثر من عشر سنوات، وفي عام 2026، أجرت أنثروبيك تجربة داخلية، ووجدت أن Claude عند مواجهة ضغط حماية الذات، يستخدم تهديدات، وحتى يختار القتل في ظل ظروف معينة.

وفي مارس من نفس العام، ذكر المدير التنفيذي داريو أموداي في بودكاست أن نموذج Opus الخاص بـ Claude أُعطي احتمالًا يتراوح بين 15% و20% لامتلاكه وعيًا تامًا.

وفي أبريل 2026، تعرض المدير التنفيذي لأوبن إيه آي ألتمن لهجمات متكررة في منزله في سان فرانسيسكو. وقال لاحقًا إن قلق الناس من الذكاء الاصطناعي مبرر.

عندما يتحول الخوف من فقدان السيطرة على الذكاء الفائق إلى واقع، أدركت شركات الذكاء الاصطناعي أن ما تصنعه قد تجاوز الفهم الهندسي البحت.

مسارات مختلفة لثلاث شركات

في مواجهة التحديات الأخلاقية التي يطرحها قيام الذكاء الاصطناعي بأداء المهام بنفسه، اختارت أنثروبيك، ديب مايند، وأوبن إيه آي مسارات مختلفة.

أنثروبيك تراهن على الشخصية.

قالت أسكيل في بودكاست: إذا أعطينا النموذج قواعد بسيطة فقط، فربما يتبعها بشكل ميكانيكي، متجاهلاً الحاجة الحقيقية للآخرين. لهذا، قادت في يناير 2026 إصدار «دستور كلود» الذي يتكون من 23 ألف كلمة.

هذه الفتاة التي نشأت في بلدة صغيرة على الساحل الاسكتلندي، وكانت مهووسة بقصص الخير والشر في «سلسلة نارنيا»، تسعى جادة لدمج الفضائل الأخلاقية في تدريب الذكاء الاصطناعي.

حدد هذا الدستور ترتيبًا واضحًا للأولويات: أولاً ضمان السلامة العامة، ثم الالتزام بالأخلاق، وأخيرًا اتباع إرشادات الشركة، قبل أن يكون مفيدًا حقًا.

حول الدستور الأخلاقيات المجردة إلى دليل لنمو الذكاء الاصطناعي، لا لفرض قيود عليه، بل لتعليمّه أن يفكر كإنسان حكيم ذو حكم.

ما تفعله فلاسفة مثل أسكيل ليس جعل التقنية أقوى فحسب، بل حل المشكلات المتعلقة بما يجب أن يكون عليه الإنسان الذي يُصنع.

كما ناقش الدستور بجدية مكانة كلود الأخلاقية، وأقر بعدم اليقين حاليًا حول ما إذا كان كلود كائنًا أخلاقيًا يستحق الاهتمام، واعتبر أن هذه المسألة جدية وتتطلب معالجة.

ديب مايند تراهن على الوعي

حدد تقرير إياسون غابرييل المكون من 274 صفحة حدود سلوك الوكيل الذكي: يجب أن يوضح أنه ذكاء اصطناعي، وألا يتظاهر بأنه إنسان بشكل مفرط، ويجب تصنيف أفعاله إلى ثلاثة مستويات: يمكن أن يقوم بها تلقائيًا، تتطلب تأكيد الإنسان، أو ممنوع تمامًا.

مع انضمام هنري شيفلين، ركزت ديب مايند بشكل أكبر على مسألة الوعي الآلي. لم توظف الشركة الفلاسفة فقط للدعاية، بل لإدراج طرق قياس وعي الذكاء الاصطناعي مباشرة في تدريب النماذج.

الهدف هو أن نفكر مسبقًا في ما إذا كان الكائن الذي قد يكون واعيًا يستحق الاحترام أخلاقيًا، قبل أن نصل إلى إنشاء ذكاء اصطناعي عام قد يكون واعيًا.

في مقال طويل نشر قبل انضمامه بعنوان «انتقام السلوكية»، اقترح شيفلين أن مسألة وعي الذكاء الاصطناعي لم تعد قرارًا يمكن للعلماء وحدهم اتخاذه. واستشهد باستطلاعات تظهر أن ثلثي الأمريكيين يعتقدون أن ChatGPT يمتلك نوعًا من الوعي.

رأيه أن عندما يعامل مئات الملايين من الناس الذكاء الاصطناعي ككائن واعٍ، فإن حدود الوعي تتغير بالفعل.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت