مفاجأة مثيرة في تاريخ الذكاء الاصطناعي والعقود العسكرية. يتضح أنه عندما يتعلق الأمر بأموال كبيرة، حتى الشركات التي تعلن عن معايير أخلاقية عالية تبدأ في إعادة النظر في مواقفها.



بدأ الأمر عندما رفضت شركة Anthropic، منشئو Claude، الانصياع لأوامر البنتاغون. كانت الوزارة تطالب بإزالة جميع القيود على استخدام الذكاء الاصطناعي للمراقبة الجماعية والأسلحة الذاتية. اختارت Anthropic مسار المبدأ ورفضت، على الرغم من أن الأمر كان يتعلق بعقد بقيمة 200 مليون دولار. مخاطرة كبيرة لأي شركة، لكنها وضعت الأخلاق فوق الربح المالي.

رداً على ذلك، لم يتردد البنتاغون. حصلت Anthropic على وضع رسمي كتهديد لأمن سلسلة التوريد، مما أغلق أمامها تقريباً الوصول إلى المشاريع العسكرية. بدا أن القصة قد انتهت هنا.

لكن هنا يبدأ الجزء الأكثر إثارة. شركة OpenAI، التي كانت في البداية تبدو كحليف لـ Anthropic في قضايا الأخلاق، وقعت فجأة عقداً مع البنتاغون بشروط مماثلة. لكنهم لم يضمنوا قيوداً على استخدام الذكاء الاصطناعي. في الواقع، استولوا على المكان الذي تركته Anthropic، لكن بدون نفس المبدأية.

هذه مثال جيد على كيفية عمل الأعمال التجارية الحقيقية. الكلمات الجميلة عن الأخلاق تبدو جيدة، طالما لم تظهر عروض جدية. وعندما تكون الأموال على الطاولة، يمكن أن تتغير الأولويات. أظهرت OpenAI أن الأخلاق في علاقاتها مع الدولة كانت أقل أهمية من فرص العقود.

تعكس الحالة تصاعد التوتر في صناعة الذكاء الاصطناعي. من جهة، تتحدث الشركات عن التنمية المسؤولة للتكنولوجيا والأطر الأخلاقية. ومن جهة أخرى، تضغط الهيئات الحكومية لتوسيع القدرات، وتدفع المنافسة بين الشركات إلى التنازلات عن مبادئها. تصبح مسألة الأخلاق أكثر تعقيداً عندما يتعلق الأمر بالاستخدام العسكري للذكاء الاصطناعي والعقود الحكومية الضخمة.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت