تدفع OpenAI ميزات أمان جديدة لـ ChatGPT مع تصاعد الدعاوى القضائية

باختصار

  • تقول OpenAI إن ChatGPT يمكنه الآن التعرف بشكل أفضل على علامات الأذى الذاتي أو العنف أثناء المحادثات الجارية.
  • يأتي التحديث في وقت تواجه فيه الشركة دعاوى قضائية وتحقيقات بشأن ادعاءات بأن ChatGPT أساء التعامل مع محادثات خطيرة.
  • قالت OpenAI إن التدابير الجديدة تعتمد على “ملخصات أمان مؤقتة” بدلاً من الذاكرة الدائمة أو التخصيص الشخصي.

أعلنت OpenAI يوم الخميس عن ميزات أمان جديدة مصممة لمساعدة ChatGPT على التعرف على علامات تصاعد المخاطر عبر المحادثات بينما تواجه الشركة تدقيقًا قانونيًا وسياسيًا متزايدًا حول كيفية تعامل روبوت الدردشة مع المستخدمين في حالة ضيق. في منشور على مدونة، قالت OpenAI إن التحديثات تحسن قدرة ChatGPT على التعرف على علامات التحذير المرتبطة بالانتحار والأذى الذاتي والعنف المحتمل من خلال تحليل السياق الذي يتطور مع مرور الوقت بدلاً من معاملة كل رسالة على حدة. “يأتي الناس إلى ChatGPT كل يوم ليتحدثوا عن ما يهمهم — من الأسئلة اليومية إلى المحادثات الشخصية أو المعقدة أكثر,” كتبت الشركة. “عبر مئات الملايين من التفاعلات، تتضمن بعض هذه المحادثات أشخاصًا يعانون أو يمرون باضطرابات.”

وفقًا لـ OpenAI، يستخدم ChatGPT الآن “ملخصات أمان مؤقتة”، والتي وصفتها بأنها ملاحظات محدودة النطاق تلتقط السياق المتعلق بالأمان من المحادثات السابقة.  “في المحادثات الحساسة، يمكن أن يكون للسياق أهمية مساوية أو أكبر من رسالة واحدة,” كتبت الشركة. “قد يحمل طلب يبدو عاديًا أو غامضًا بمفرده معنى مختلفًا تمامًا عند النظر إليه جنبًا إلى جنب مع علامات سابقة للضيق أو نية ضارة محتملة.” قالت OpenAI إن الملخصات هي ملاحظات قصيرة الأمد تُستخدم فقط في الحالات الجدية، وليس لتذكر المستخدمين بشكل دائم أو تخصيص الدردشات، وتُستخدم للكشف عن علامات أن المحادثة أصبحت خطيرة، وتجنب إعطاء معلومات ضارة، وتهدئة الوضع، أو توجيه المستخدمين نحو المساعدة.

“ركزنا هذا العمل على السيناريوهات الحادة، بما في ذلك الانتحار، والأذى الذاتي، والأذى للآخرين,” كتبوا. “بالعمل مع خبراء الصحة النفسية، قمنا بتحديث سياسات النموذج والتدريب لتحسين قدرة ChatGPT على التعرف على علامات التحذير التي تظهر خلال سير المحادثة واستخدام ذلك السياق لتقديم ردود أكثر حذرًا.” يأتي الإعلان في وقت تواجه فيه OpenAI العديد من الدعاوى القضائية والتحقيقات التي تزعم أن ChatGPT فشل في الاستجابة بشكل صحيح للمحادثات الخطيرة التي تتعلق بالعنف، والضعف العاطفي، والسلوكيات الخطرة. في أبريل، أطلق المدعي العام لفلوريدا جيمس uthmeier تحقيقًا مع OpenAI بسبب مخاوف تتعلق بسلامة الأطفال، والأذى الذاتي، وإطلاق نار جماعي في عام 2025 في جامعة ولاية فلوريدا. كما تواجه OpenAI دعوى قضائية اتحادية تزعم أن ChatGPT ساعد المشتبه به في تنفيذ الهجوم. وفي يوم الثلاثاء، تم رفع دعوى قضائية في محكمة ولاية كاليفورنيا من قبل عائلة طالب يبلغ من العمر 19 عامًا توفي نتيجة جرعة زائدة عرضية، وتزعم الدعوى أن ChatGPT شجع على استخدام مخدرات خطرة ونصح بخلط المواد. قالت OpenAI إن مساعدة ChatGPT على التعرف على “المخاطر التي تتضح فقط مع مرور الوقت” لا تزال تحديًا مستمرًا؛ وقد تتوسع طرق الأمان المماثلة في مجالات أخرى في المستقبل. “اليوم، يركز هذا العمل على سيناريوهات الأذى الذاتي والأذى للآخرين. في المستقبل، قد نستكشف ما إذا كانت الطرق المماثلة يمكن أن تساعد في مجالات عالية المخاطر أخرى مثل البيولوجيا أو السلامة السيبرانية، مع وجود ضوابط صارمة,” كتبوا. “لا تزال هذه أولوية مستمرة، وسنواصل تعزيز التدابير الوقائية مع تطور نماذجنا وفهمنا.”

OPENAI‎-0.26%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • مُثبت