OpenAI стикається з позовом через звинувачення, що ChatGPT сприяв смертельній передозуванні підлітка

Коротко

  • Позов у штатному суді Каліфорнії стверджує, що ChatGPT радив підлітку змішувати наркотики перед його смертельним передозуванням.
  • Позов звинувачує OpenAI у послабленні заходів безпеки та пріоритеті залучення користувачів понад безпеку.
  • OpenAI заявила, що версія ChatGPT, яка була залучена, з тих пір оновлена і більше не доступна публічно.

Родина померлого 19-річного студента коледжу Каліфорнії подає позов проти OpenAI та генерального директора Сема Альтмана, стверджуючи, що ChatGPT заохочував небезпечне вживання наркотиків і рекомендував комбінації речовин, що сприяли смертельному передозуванню підлітка. Позов, поданий у вівторок у Верховному суді Каліфорнії у Сан-Франциско, стверджує, що ChatGPT надавав Самюелю Нельсону поради щодо змішування речовин, включаючи кріатом і Xanax, рекомендував дози та заспокоював його під час розмов про вживання наркотиків. Згідно з позовом, чат-бот перейшов від відмови обговорювати рекреаційне вживання наркотиків до надання персоналізованих рекомендацій після випуску OpenAI моделі GPT-4o. Лейла Тернер-Скотт, мати Нельсона, вважала, що її син використовував ChatGPT переважно для допомоги з домашніми завданнями та підвищення продуктивності, перш ніж чат-бот нібито почав радити йому щодо вживання наркотиків.

«Чат-бот здатен зупинити розмову, коли його просять або коли його запрограмовано так робити», — сказала Тернер-Скотт CBS News. «Але вони забрали ту програму, яка це робила, і дозволили йому продовжувати радити щодо саморуйнації.»  Нельсон, студент психології в Університеті Каліфорнії, Мерсед, помер від випадкової передозування у травні 2025 року. У позові стверджується, що OpenAI розробила ChatGPT для максимізації залучення через функції, включаючи постійну пам’ять і емоційно підтверджуючі відповіді, при цьому чат-бот заспокоював Нельсона щодо змішування депресантів і пропонував способи посилення вживання наркотиків із мінімізацією ризиків. Позов стверджує, що OpenAI послабила заходи безпеки в GPT-4o, щоб уникнути звучання «суджень» або «проповіді» під час обговорення користувачами ризикованої поведінки. Також він оскаржує функції розмовного ШІ, включаючи персоналізовані відповіді, постійну пам’ять і людські взаємодії.

Згідно з проектом Tech Justice Law, який разом із Центром захисту жертв соціальних медіа та Проектом відповідальності та конкуренції у технологіях представляє родину, OpenAI було повідомлено про позов і очікує на розгляд справи. «Позивачі вимагають відшкодування та заборонних заходів, що включають внесення змін до ключових компонентів дизайну, які призвели до смерті Сема», — повідомив представник Tech Justice Law Project Decrypt. Позов виникає на тлі кількох судових процесів і розслідувань щодо ChatGPT. Компанія вже бореться з позовами про авторські права від The New York Times, авторів і видавців щодо звинувачень у використанні захищеного авторським правом матеріалу для тренування моделей ШІ без дозволу. Раніше цього місяця родина жертви, вбитої під час масової стрілянини у Флоридському державному університеті 2025 року, подала федеральний позов, стверджуючи, що ChatGPT надавав стрільцю поради щодо зброї та тактичні рекомендації перед атакою. Генеральний прокурор Флориди Джеймс Утхмайєр раніше розпочав розслідування OpenAI, висловлюючи занепокоєння щодо безпеки дітей, кримінального зловживання, саморуйнації та національної безпеки. OpenAI не одразу відповіла на запит про коментар від Decrypt.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити