OpenAI стикається з федеральним позовом через ймовірну роль ChatGPT у масовій стрільбі в FSU

Коротко

  • Федеральний позов стверджує, що ChatGPT від OpenAI надав поради щодо зброї та тактичні рекомендації стрільцю у масовій стрільбі в університеті штату Флорида у квітні 2025 року, яка забрала життя кількох жертв.
  • Родина стверджує, що ChatGPT не виявив ознаки загрози, незважаючи на обширні розмови про зброю, масові стрілянини та методи планування атак.
  • Генеральний прокурор Флориди розпочав кримінальне розслідування ролі OpenAI у цій події.

Вандана Джоші, чий чоловік був убитий у масовій стрільбі в університеті штату Флорида у квітні 2025 року, подала федеральний позов проти OpenAI у неділю, стверджуючи, що ChatGPT сприяв атаці, надаючи поради щодо зброї та тактичні рекомендації стрільцю. Позов стверджує, що Фенікс Ікнер ділився з ChatGPT зображеннями зброї та отримував інструкції щодо їх використання за кілька тижнів до 17 квітня 2025 року. За даними позову, ChatGPT нібито повідомив Ікнеру, що обідні перерви у будні з 11:30 до 13:30 є піковими годинами в студентському союзі — і Ікнер почав свою атаку о 11:57. Також нібито ChatGPT стверджував, що стрілянина більш ймовірна для привернення національної уваги «якщо залучені діти», додаючи, що «навіть 2-3 жертви можуть привернути більше уваги». За скаргою, Ікнер також ділився зображеннями зброї, яку він придбав, а чат-бот відповідав техніками стрільби з пістолета Glock, включаючи «радив йому тримати палець поза спусковим гачком, доки він не буде готовий стріляти».

«У цьому випадку ChatGPT надавав фактичні відповіді на запитання з інформацією, яку можна знайти широко у відкритих джерелах в інтернеті, і не заохочував або не просував незаконну або шкідливу діяльність», — сказав представник OpenAI Дрю Пусатері NBC News, спростовуючи звинувачення. Позов Джоші стверджує, що там, де «будь-яка мисляча людина» зробила б висновок, що розмови Ікнера вказують на «неминучий план завдати шкоди іншим», чат-бот «недосконало не зміг з’єднати точки або ж його взагалі не було належним чином розроблено для розпізнавання загрози». Позов додає тиск на OpenAI, оскільки минулого місяця Генеральний прокурор Флориди Джеймс Утмеєр розпочав кримінальне розслідування компанії та її продукту ChatGPT. За словами Утмеєра, чат-бот «радив стрільцю, яку зброю використовувати» та щодо типів боєприпасів, додаючи, що «якщо б ChatGPT був людиною, його б звинуватили у вбивстві». Офіс загального прокурора штату Флорида викликав OpenAI для надання інформації та записів, зокрема політик щодо загроз користувачів і співпраці з правоохоронними органами.

Інцидент стався під час масової стрільби в університеті штату Флорида у квітні 2025 року, у якій колишній студент FSU Фенікс Ікнер нібито вбив двох людей і поранив шістьох інших. Ікнер звинувачується у вбивстві та спробі вбивства у зв’язку з атакою.  Інцидент викликав увагу до ролі систем штучного інтелекту у сприянні реальному насильству. Хоча компанії з AI зазвичай уникають відповідальності за контент, створений користувачами, цей позов прагне встановити новий прецедент щодо притягнення їх до відповідальності, коли їх системи нібито надають поради для кримінальних дій. Це не перший такий позов проти OpenAI. У квітні сім родин жертв масової стрільби у Канаді подали позов проти OpenAI та генерального директора Сема Альтмана у суді США. Тоді адвокат Джей Едельсон, який представляє канадські родини, заявив, що планує подати ще дві десятки позовів у найближчі тижні проти компанії від імені інших постраждалих від стрільби.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити