حدثت قصة مثيرة مع OpenAI والبنتاغون. سام ألتمان، الرئيس التنفيذي للشركة، اعترف بشكل غير متوقع أن الصفقة بدت انتهازية وغير مدروسة جيدًا. بصراحة، نادرًا ما ترى زعيم شركة كبيرة يعترف بصراحة بعيوب قراراته.



بشكل عام، كانت المشكلة في أن تقنية الذكاء الاصطناعي من OpenAI يمكن أن تُستخدم للمراقبة الداخلية أو من قبل وكالات الاستخبارات مثل الـ NSA. من الواضح أن ذلك أثار موجة من الانتقادات والمخاوف في المجتمع. وظهرت عيوب في شروط العقد كانت أخطر مما بدا في البداية.

ماذا فعلت OpenAI؟ أدخلت بنودًا جديدة في الاتفاقية لحماية تقنياتها من الاستخدام غير القانوني المحتمل. في جوهرها، محاولة لسد تلك الثغرات التي كانت ستسمح للجهات الحكومية باستخدام الذكاء الاصطناعي للمراقبة.

هذا تحول مثير في تاريخ تفاعل شركات التكنولوجيا الكبرى مع الدولة. واجهت الشركة أسئلة أخلاقية وقررت تحمل المسؤولية. ومع ذلك، يبقى السؤال: لماذا لم يتم التفكير في هذه الثغرات من البداية؟ على أي حال، فإن خطوة نحو الاستخدام المسؤول للذكاء الاصطناعي في العقود الحكومية هي خطوة مهمة.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت