OpenAI впроваджує нові функції безпеки ChatGPT у зв'язку з зростанням кількості судових позовів

Коротко

  • OpenAI заявляє, що ChatGPT тепер краще виявляє ознаки самопошкодження або насильства під час поточних розмов.
  • Оновлення з’являється на тлі судових позовів та розслідувань щодо звинувачень у неправильному поводженні ChatGPT у небезпечних розмовах.
  • OpenAI повідомила, що нові заходи безпеки ґрунтуються на тимчасових “зведеннях безпеки”, а не на постійній пам’яті або персоналізації.

OpenAI у четвер оголосила про нові функції безпеки, спрямовані на допомогу ChatGPT у розпізнаванні ознак зростаючого ризику в розмовах, оскільки компанія стикається з посиленням юридичних та політичних перевірок щодо того, як її чатбот обробля користувачів у стресових ситуаціях. У блозі OpenAI повідомила, що оновлення покращують здатність ChatGPT ідентифікувати попереджувальні ознаки, пов’язані з самогубством, самопошкодженням і потенційним насильством, аналізуючи контекст, що розвивається з часом, а не обробляючи кожне повідомлення окремо. “Люди щодня звертаються до ChatGPT, щоб поговорити про те, що для них важливо — від повсякденних питань до більш особистих або складних розмов,” — написала компанія. “У сотнях мільйонів взаємодій деякі з цих розмов включають людей, які борються або переживають стрес.”

Згідно з OpenAI, ChatGPT тепер використовує тимчасові “зведення безпеки”, які описуються як вузькоспеціальні нотатки, що фіксують релевантний контекст безпеки з попередніх розмов.  “У чутливих розмовах контекст може бути так само важливий, як і одне повідомлення,” — написала компанія. “Запит, який здається звичайним або двозначним сам по собі, може мати зовсім інше значення, якщо його розглядати разом із попередніми ознаками стресу або потенційно шкідливого наміру.” OpenAI повідомила, що зведення є короткостроковими нотатками, які використовуються лише у серйозних ситуаціях, а не для постійного запам’ятовування користувачів або персоналізації чатів, і їх застосовують для виявлення ознак, що розмова стає небезпечною, уникнення поширення шкідливої інформації, деескалації ситуації або спрямування користувачів до допомоги.

“Ми зосередили цю роботу на гострих сценаріях, включаючи самогубство, самопошкодження та шкоду іншим,” — написали вони. “Співпрацюючи з фахівцями з психічного здоров’я, ми оновили наші політики моделі та навчання, щоб покращити здатність ChatGPT розпізнавати попереджувальні ознаки, що з’являються протягом розмови, і використовувати цей контекст для більш обережних відповідей.” Оголошення з’являється на тлі кількох судових позовів та розслідувань, які стверджують, що ChatGPT не належним чином реагував на небезпечні розмови, що включають насильство, емоційну вразливість і ризиковану поведінку. У квітні генеральний прокурор Флориди Джеймс Утмеєр розпочав розслідування щодо OpenAI через побоювання щодо безпеки дітей, самопошкодження та масової стрільби 2025 року у Флоридському державному університеті. OpenAI також стикається з федеральним позовом, у якому стверджується, що ChatGPT допоміг підозрюваному у стрільбі здійснити напад. У вівторок OpenAI і генеральний директор Сэм Альтман були позвані до суду штату Каліфорнія родиною 19-річного студента, який помер від випадкової передозування, з позовом, що стверджує, що ChatGPT заохочував небезпечне вживання наркотиків і радив змішувати речовини. OpenAI заявила, що допомога ChatGPT у розпізнаванні “ризику, який стає очевидним лише з часом,” залишається постійним викликом; подібні методи безпеки з часом можуть розширитися і на інші сфери. “Сьогодні ця робота зосереджена на сценаріях самопошкодження та шкоди іншим. У майбутньому ми можемо досліджувати, чи допоможуть подібні методи в інших високоризикових сферах, таких як біологія або кібербезпека, за умови дотримання обережних заходів,” — написали вони. “Це залишається пріоритетом, і ми продовжимо посилювати заходи безпеки у міру розвитку наших моделей і розуміння.”

OPENAI-0,06%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріплено