مؤخرًا، خبر استقالة كاتالين كالينوفسكي، رئيس فريق الروبوتات في OpenAI، أحدثت ضجة في السوق. لقد أعربت عن مخاوف أخلاقية جدية بشأن اتفاق التعاون مع وزارة الدفاع الأمريكية، وهذه القضية ليست مجرد قرار شخصي، بل مسألة مبدأ.



يقول كالينوفسكي إن الذكاء الاصطناعي يمكن أن يلعب دورًا هامًا في الأمن الوطني، ولكن يتطلب ذلك رقابة وإجراءات أمان مناسبة. من أهم مخاوفه - إساءة استخدام الذكاء الاصطناعي للمراقبة المنزلية وتطوير أنظمة الأسلحة الذاتية. وأضاف أن OpenAI لم تضع تدابير إدارية كافية قبل الإعلان عن هذا الاتفاق، وأن القرارات اتُخذت بسرعة كبيرة.

انضم كالينوفسكي إلى الشركة في عام 2024 من شركة Meta، حيث كان يعمل على مشروع نظارات الواقع المعزز. كان وصوله إلى OpenAI بهدف توجيه الفريق نحو مسار جديد، لكن الوضع تغير بعد إعلان التعاون مع وزارة الدفاع. حافظ على احترامه لـ سام ألتمان والفريق بأكمله، لكنه لم يتنازل عن موقفه بشأن هذه القضية.

قال متحدث باسم OpenAI إن التعاون مع وزارة الدفاع هو محاولة لتعزيز الأمن الوطني باستخدام الذكاء الاصطناعي بشكل متزن، وأن الشركة وضعت حدودًا واضحة. لكن الجدل لا يزال قائمًا في الصناعة حول هذا التعاون. كانت ردود فعل السوق مثيرة جدًا للاهتمام - بعد الخبر، زادت عمليات حذف ChatGPT بنسبة تزيد عن 295%، بينما حصل تطبيق Claude من شركة Anthropic على المركز الأول بين التطبيقات المجانية على متجر App Store في أمريكا.

تثير هذه القضية بالكامل سؤالًا كبيرًا حول الاستخدام الأخلاقي للتقنيات مثل (الروبوتات الذكية) والتقنيات الذاتية مثل dbot. عندما تتعاون الشركات الكبرى مع الحكومات، كم هو ضروري وجود الشفافية وإجراءات الأمان؟ إذا كنت تفكر في التطور التكنولوجي وأبعاده الأخلاقية، فإن متابعة مثل هذه النقاشات على Gate هو خيار ممتاز.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت