لقد لاحظت للتو أن كل من أنثروبيك وOpenAI قد عدّلا وعودهما الأمنية بشكل كبير. في أنثروبيك، تم حذف وعد مركزي من سياسة النمو المسؤول ببساطة - تحديدًا: الالتزام بإيقاف تدريب الذكاء الاصطناعي إذا لم تكن تدابير تقليل المخاطر كافية. يبرر Jared Kaplan، كبير العلماء في أنثروبيك، ذلك بواقع سوق تنافسي للغاية. توقف أحادي الجانب ليس عمليًا تحت ضغط المنافسة.



مشابه لذلك مع OpenAI: تم إعادة صياغة المهمة وحُذف كلمة "آمن". بدلاً من ذلك، أصبح التركيز الآن على أن الذكاء الاصطناعي يجب أن يفيد البشرية. هذا يتوافق بالطبع مع توقعات المستثمرين والسياسيين، لكنه يظهر أيضًا كيف تفكر هذه الشركات بشكل أكثر براغماتية الآن.

الوقت مثير للاهتمام: أنثروبيك الآن تختتم جولة تمويل بقيمة 30 مليار دولار وتُقدر قيمتها بـ 380 مليار دولار. تسعى OpenAI إلى 100 مليار دولار، بدعم من أمازون ومايكروسوفت ونفيديا. يتضح هنا سبب حذف مثل هذه الصياغات الأمنية - الضغط هائل.

نقطة أخرى: أنثروبيك رفضت للوزارة الدفاع الأمريكية الوصول الكامل إلى Claude، مما أدى إلى توترات مع وزير الدفاع الأمريكي بيت هيجست. يثير ذلك أسئلة حول عقود الدفاع ويُظهر أن مخاوف الأمان والواقع الجيوسياسي يتعارضان أحيانًا. من المثير للاهتمام مراقبة كيف تعيد هذه الصناعة تعريف نفسها حاليًا.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت