تحليل: أنثروبيك وOpenAI يكشفان عن ثغرات أمنية متتالية، أمان نماذج الذكاء الاصطناعي يثير القلق

robot
إنشاء الملخص قيد التقدم

أخبار مارسيان فاينانس، وفقًا لـ The Information، حدثت حوادث أمنية متتالية مع Anthropic و OpenAI، مما أثار اهتمام السوق بسلامة نماذج الذكاء الاصطناعي نفسها. حاليًا، تقوم Anthropic بالتحقيق في احتمال وصول غير مصرح به من قبل المستخدمين إلى نموذجها Claude Mythos. في الوقت نفسه تقريبًا، تم الكشف عن أن OpenAI فتحت بشكل غير متعمد عدة نماذج غير منشورة في تطبيق Codex الخاص بها. أشارت وجهات نظر الصناعة إلى أن هذه الثغرات الأمنية عززت من التدقيق في قدرة الشركات على إدارة أمن الذكاء الاصطناعي، كما تعكس أنظمة الأمان لا تزال بحاجة إلى تحسين خلال التطور السريع لتقنيات الذكاء الاصطناعي. يُعتقد أن حتى مزودي نماذج الذكاء الاصطناعي التي تركز على قدرات الأمن السيبراني يواجهون تحديات أمنية كبيرة. مع استخدام الذكاء الاصطناعي تدريجيًا في الدفاع ضد الهجمات الإلكترونية، أصبحت قضايا أمان المنصات والتحكم في الوصول أيضًا نقاط خطر رئيسية.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت