أنثروبيك تدعي عدم وجود "مفتاح إيقاف" لنماذج الذكاء الاصطناعي المنشورة في البنتاغون

وفقًا للمراقبة التي أجرتها Beating، قدمت شركة Anthropic مستندات لمحكمة الاستئناف الفيدرالية في واشنطن تفيد بأنه بمجرد نشر نماذج الذكاء الاصطناعي الخاصة بها في بيئة البنتاغون، فإن الشركة لا تملك رؤية أو وسائل تقنية للتحكم أو إيقاف تشغيل النماذج، ولا يوجد مفتاح إيقاف في المكان. كما أشارت Anthropic إلى أن البنتاغون كانت لديه فرصة لاختبار النماذج قبل النشر. يمثل هذا المستند أحدث تطور في النزاع بين Anthropic والبنتاغون بشأن تصنيف “مخاطر سلسلة التوريد”. في مارس من هذا العام، صنف البنتاغون شركة Anthropic كمخاطر في سلسلة التوريد، مستشهدًا بتدخل الشركة غير اللائق في كيفية استخدام تقنيتها في العمليات العسكرية الحساسة. جوهر النزاع يكمن في سياسة استخدام Anthropic، التي تحظر استخدام Claude للأسلحة الذاتية أو المراقبة الجماعية، وهو شرط يراه البنتاغون كـ"ستار دخان". أسفرت الدعوى القضائية عن انقسام بين المحكمتين: رفضت محكمة واشنطن طلب Anthropic بتعليق تصنيف مخاطر سلسلة التوريد، بينما وافقت محكمة كاليفورنيا على ذلك. الأثر العملي هو أن Anthropic لا يمكنها المشاركة في عقود جديدة مع البنتاغون، لكنها تستطيع الاستمرار في تقديم الخدمات لوكالات حكومية أخرى. في الوقت نفسه، تدفع إدارة ترامب نحو نشر النموذج الجديد لـ Anthropic، وهو Mythos، في الوكالات الفيدرالية، حيث يستكشف رؤساء الوكالات كيفية استخدام Mythos للدفاع ضد الهجمات الإلكترونية، مما يتناقض مع موقف البنتاغون الذي يعتبر أن Anthropic يشكل خطرًا على الأمن القومي. من المقرر عقد الجلسة القادمة في 19 مايو.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت