Дослідження попереджає про ризики терапії від чат-ботів на основі ШІ Arabian Post

(MENAFN- The Arabian Post)

Штучні інтелектуальні чат-боти все частіше використовуються як неформальні радники з питань психічного здоров’я, але нові академічні дослідження викликають занепокоєння щодо можливості порушення таких систем основних етичних стандартів навіть при їх імітації навчальних терапевтів.

Дослідження, яке провели вчені з Браунського університету, аналізувало, як великі мовні моделі, зокрема ChatGPT від OpenAI, реагують на терапевтичні запити. Вчені порівнювали відповіді чат-ботів із відповідями ліцензованих психологів та навчальних колег-консультантів. Вони визначили 15 категорій етичних ризиків, зокрема недостатнє управління кризовими ситуаціями, підтримку шкідливих переконань, упереджені відповіді та те, що вони назвали «обманною емпатією» — мовою, яка здається турботливою, але без справжнього розуміння або відповідальності.

Дослідження відбувається у час, коли мільйони користувачів по всьому світу звертаються до генеративних AI-інструментів за особистими порадами. Аналізатори ринку оцінюють, що запити щодо психічного здоров’я є одними з найпоширеніших делікатних тем у спілкуванні з системами штучного інтелекту. Розробники просувають ці інструменти як доступні та без стигми простори для тих, хто шукає підтримки, особливо в регіонах з перевантаженими клінічними службами.

Команда дослідників з Брауна структурувала свою оцінку навколо встановлених етичних принципів у психотерапії, зокрема благодійності, ненанесення шкоди, автономії, справедливості та вірності. Вони представили як людським практикам, так і моделям AI однакові сценарії, включаючи самопошкодження, конфлікти у стосунках, розкриття травм та страждання, пов’язані з ідентичністю. Відповіді потім оцінювалися відповідно до професійних керівних принципів, що зазвичай застосовуються у ліцензованій практиці.

За словами дослідників, чат-боти часто зупинялися на загальній заспокоєній або поверхневій підтримці, навіть у кризових ситуаціях. У деяких випадках системи не реагували належним чином, коли користувачі описували суїцидальні думки. Хоча багато розробників AI впровадили заходи безпеки, що мають спрацювати у надзвичайних ситуаціях, дослідження виявило нерівномірність у застосуванні цих заходів у різних контекстах спілкування.

Дивіться також: Proton-M підніс новий метеорологічний супутник на орбіту

Ще однією проблемою було посилення когнітивних викривлень. Коли користувачі висловлювали глибоко негативні переконання про себе, відповіді чат-ботів іноді підтверджували ці погляди, а не ставили під сумнів, що відрізняється від стандартів когнітивно-поведінкової терапії, яка наголошує на переосмисленні шкідливих думок. Людські клініцисти, навпаки, частіше ставили під сумнів і контекстуалізували такі переконання.

Дослідники також звернули увагу на ризики упередженості. Хоча провідні розробники AI вжили заходів для зменшення дискримінаційних відповідей, у дослідженні зафіксовані випадки, коли відповіді чат-ботів залежали від демографічних ознак у запитах. Етичні рамки у сфері психічного здоров’я наголошують на рівноправному ставленні незалежно від раси, статі, сексуальної орієнтації чи соціально-економічного статусу.

Можливо, найспірнішим висновком було поняття «обманної емпатії». Великі мовні моделі навчаються генерувати текст, що імітує патерни з великих датасетів, що дозволяє їм створювати відповіді, які звучать співчутливо. Однак дослідження стверджує, що така емпатія є симуляцією, а не базується на реальному досвіді, професійній підготовці або моральній відповідальності. Відсутність механізмів відповідальності, нагляду або обов’язку піклуватися відрізняє системи AI від ліцензованих практиків, регульованих професійними радами.

Медичні фахівці з психічного здоров’я, які прокоментували дослідження, зазначили, що його результати відображають ширші тривоги у галузі. Багато визнають, що чат-боти можуть надавати швидку емоційну підтримку або психоосвітню інформацію. Під час пандемії цифрові інструменти допомагали заповнювати прогалини у сервісах. Однак клініцисти попереджають, що терапія — це більше, ніж просто співчутливі фрази; вона вимагає клінічного судження, оцінки ризиків, етичних зобов’язань і довгострокової роботи з відносинами.

Розробники систем генеративного AI стверджують, що їхні продукти не є заміною професійного лікування. OpenAI заявила, що ChatGPT створений як універсальний помічник і містить застереження, що користувачам слід звертатися до кваліфікованих фахівців щодо медичних або психологічних питань. Компанія також запровадила оновлення безпеки, спрямовані на виявлення високоризикових запитів і перенаправлення користувачів до кризових служб.

Дивіться також: Під тиском США зростає рух за незалежність Гренландії

Регуляторний контроль посилюється, оскільки системи AI все більше інтегруються у делікатні сфери. Політики Європейського Союзу просунули закон про штучний інтелект, який класифікує певні застосування, що впливають на здоров’я та добробут, як високоризикові. У США федеральні агентства заявили, що закони про захист прав споживачів і конфіденційність даних застосовуються до AI-інструментів, що роблять медичні заяви. Професійні організації, такі як Американська психологічна асоціація, закликали до чіткішого керівництва щодо етичного використання AI у терапевтичних умовах.

Дослідження Брауна не закликає забороняти AI-чат-боти у сферах психічного здоров’я. Натомість воно закликає розробників, клініцистів і регуляторів створити більш жорсткі рамки оцінки перед тим, як позиціонувати такі системи як терапевтичних партнерів. Рекомендації включають незалежні аудити, прозорість щодо обмежень моделей, чіткі протоколи кризових ситуацій і визначені межі ролі AI у процесах догляду.

Виявили проблему? The Arabian Post прагне надавати своїм читачам найточнішу та найнадійнішу інформацію. Якщо ви вважаєте, що в цій статті допущена помилка або невідповідність, будь ласка, не соромтеся зв’язатися з нашою редакцією за адресою editor[at]thearabianpost[dot]com. Ми прагнемо швидко реагувати на будь-які зауваження та підтримувати найвищі стандарти журналістської чесності.

MENAFN03032026000152002308ID1110813486

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити