تحليل: ظهور ثغرات أمنية متتالية في أنثروبيك وOpenAI، وأمن نماذج الذكاء الاصطناعي يثير الاهتمام

robot
إنشاء الملخص قيد التقدم

أودايلي ديلي نيوز، أثيرت مخاوف السوق بشأن أمان نماذج الذكاء الاصطناعي بعد وقوع حوادث أمنية متتالية مع شركة أنثروبيك وOpenAI. حاليًا، تحقق أنثروبيك في احتمال وصول غير مصرح به من قبل المستخدمين إلى نموذجها كلاود ميثوس. في ذات الوقت تقريبًا، تم الكشف عن أن OpenAI فتحت بشكل غير متعمد عدة نماذج لم يتم إصدارها بعد في تطبيق كودكس الخاص بها.

يُعتقد أن هذه الحوادث تبرز أن حتى مزودي نماذج الذكاء الاصطناعي التي تركز على قدرات الأمن السيبراني يواجهون تحديات أمنية كبيرة. مع استخدام الذكاء الاصطناعي تدريجيًا في الدفاع ضد الهجمات الإلكترونية، تصبح قضايا أمان المنصات والتحكم في الوصول أيضًا نقاط خطر رئيسية.

وأشارت آراء الصناعة إلى أن هذه الثغرات تعزز من الحاجة إلى تقييم قدرات إدارة أمن الشركات في مجال الذكاء الاصطناعي، كما تعكس أنظمة الأمان لا تزال بحاجة إلى تحسين خلال التطور السريع لتقنيات الذكاء الاصطناعي. (The Information)

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت