الخطر غير المرئي: هل يمكنك حقًا الوثوق بمساعدك الذكي «الخاص» للحفاظ على أسرارك؟

robot
إنشاء الملخص قيد التقدم

شركة الأمن السيبراني الإسرائيلية Check Point اكتشفت ضعفًا حرجًا في نظام ChatGPT يمكن أن يسمح باستخراج البيانات دون تنبيه، مما يشكل خطرًا كبيرًا على خصوصية المستخدمين وثقتهم. استغل العيب، الذي يعتمد على “نفق DNS”، وتم تسريب المعلومات من بيئة الذكاء الاصطناعي الآمنة. على الرغم من أن OpenAI قد أصلحت الثغرة منذ ذلك الحين، إلا أن البحث يسلط الضوء على التحديات الأمنية الأوسع والحاجة المتزايدة إلى تدابير حماية قوية في أنظمة الذكاء الاصطناعي التي تتعامل مع بيانات حساسة للمستخدمين.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت