قاد فريق الروبوتات في OpenAI تغييرات كبيرة.


قال كاتلين كالينوسكي، الذي كان يقود فريق الروبوتات في OpenAI، إنه استقال من الشركة بسبب قضايا تتعلق باتفاقية التعاون مع البنتاغون في مجال الذكاء الاصطناعي.

يقول كالينوسكي إن هذا القرار ليس شخصيًا، بل مبدأي.
وأوضح على وسائل التواصل الاجتماعي أنه على الرغم من أن الذكاء الاصطناعي يمكن أن يلعب دورًا هامًا في الأمن الوطني، إلا أن هناك حاجة لمزيد من الحذر والشفافية في الموضوعات الحساسة مثل المراقبة المنزلية وأنظمة الأسلحة الذاتية.
ويعتقد أن OpenAI لم تضع تدابير أمان كافية قبل الإعلان عن هذه الاتفاقية.
انضم كالينوسكي إلى OpenAI في نوفمبر من العام الماضي.
وكان قبل ذلك يعمل على مشروع نظارات الواقع المعزز في Meta.

رد شركة OpenAI كان مختلفًا.
قالت الشركة إن هذا التعاون مع البنتاغون هو محاولة لتعزيز الأمن الوطني من خلال الاستخدام المسؤول للذكاء الاصطناعي.
وذكروا أنهم وضعوا حدودًا واضحة — لاستخدامه في المراقبة المنزلية، ولا لتطوير الأسلحة الذاتية.
لا يزال الاحترام قائمًا بين كالينوسكي والرئيس التنفيذي سام ألتمان وفريقه.

لكن هذا الجدل يثير ضجة في الصناعة.
عندما ظهرت الأخبار، زادت عمليات إلغاء تثبيت ChatGPT بأكثر من 295%.
كما تصدرت تطبيقات Claude من Anthropic قائمة التطبيقات المجانية على متجر App Store في الولايات المتحدة.
وهذا يدل بوضوح على قلق المستخدمين بشأن التعاون الحكومي من هذا النوع.

هذه لحظة مثيرة عندما يُثار السؤال حول استخدام أنظمة الذكاء الاصطناعي المتقدمة مثل dbot.
السؤال هو: هل يجب أن تتوفر الشفافية والحماية الأخلاقية الكافية في شراكات الذكاء الاصطناعي بين الشركات والحكومات؟
استقالة كالينوسكي تبرز هذا النقاش.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت