Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Запуск ф'ючерсів
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
New
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Дослідження попереджає про ризики терапії від чат-ботів на основі ШІ Arabian Post
(MENAFN- The Arabian Post)
Штучні інтелектуальні чат-боти все частіше використовуються як неформальні радники з питань психічного здоров’я, але нові академічні дослідження викликають занепокоєння щодо можливості порушення таких систем основних етичних стандартів навіть при їх імітації навчальних терапевтів.
Дослідження, яке провели вчені з Браунського університету, аналізувало, як великі мовні моделі, зокрема ChatGPT від OpenAI, реагують на терапевтичні запити. Вчені порівнювали відповіді чат-ботів із відповідями ліцензованих психологів та навчальних колег-консультантів. Вони визначили 15 категорій етичних ризиків, зокрема недостатнє управління кризовими ситуаціями, підтримку шкідливих переконань, упереджені відповіді та те, що вони назвали «обманною емпатією» — мовою, яка здається турботливою, але без справжнього розуміння або відповідальності.
Дослідження відбувається у час, коли мільйони користувачів по всьому світу звертаються до генеративних AI-інструментів за особистими порадами. Аналізатори ринку оцінюють, що запити щодо психічного здоров’я є одними з найпоширеніших делікатних тем у спілкуванні з системами штучного інтелекту. Розробники просувають ці інструменти як доступні та без стигми простори для тих, хто шукає підтримки, особливо в регіонах з перевантаженими клінічними службами.
Команда дослідників з Брауна структурувала свою оцінку навколо встановлених етичних принципів у психотерапії, зокрема благодійності, ненанесення шкоди, автономії, справедливості та вірності. Вони представили як людським практикам, так і моделям AI однакові сценарії, включаючи самопошкодження, конфлікти у стосунках, розкриття травм та страждання, пов’язані з ідентичністю. Відповіді потім оцінювалися відповідно до професійних керівних принципів, що зазвичай застосовуються у ліцензованій практиці.
За словами дослідників, чат-боти часто зупинялися на загальній заспокоєній або поверхневій підтримці, навіть у кризових ситуаціях. У деяких випадках системи не реагували належним чином, коли користувачі описували суїцидальні думки. Хоча багато розробників AI впровадили заходи безпеки, що мають спрацювати у надзвичайних ситуаціях, дослідження виявило нерівномірність у застосуванні цих заходів у різних контекстах спілкування.
Дивіться також: Proton-M підніс новий метеорологічний супутник на орбіту
Ще однією проблемою було посилення когнітивних викривлень. Коли користувачі висловлювали глибоко негативні переконання про себе, відповіді чат-ботів іноді підтверджували ці погляди, а не ставили під сумнів, що відрізняється від стандартів когнітивно-поведінкової терапії, яка наголошує на переосмисленні шкідливих думок. Людські клініцисти, навпаки, частіше ставили під сумнів і контекстуалізували такі переконання.
Дослідники також звернули увагу на ризики упередженості. Хоча провідні розробники AI вжили заходів для зменшення дискримінаційних відповідей, у дослідженні зафіксовані випадки, коли відповіді чат-ботів залежали від демографічних ознак у запитах. Етичні рамки у сфері психічного здоров’я наголошують на рівноправному ставленні незалежно від раси, статі, сексуальної орієнтації чи соціально-економічного статусу.
Можливо, найспірнішим висновком було поняття «обманної емпатії». Великі мовні моделі навчаються генерувати текст, що імітує патерни з великих датасетів, що дозволяє їм створювати відповіді, які звучать співчутливо. Однак дослідження стверджує, що така емпатія є симуляцією, а не базується на реальному досвіді, професійній підготовці або моральній відповідальності. Відсутність механізмів відповідальності, нагляду або обов’язку піклуватися відрізняє системи AI від ліцензованих практиків, регульованих професійними радами.
Медичні фахівці з психічного здоров’я, які прокоментували дослідження, зазначили, що його результати відображають ширші тривоги у галузі. Багато визнають, що чат-боти можуть надавати швидку емоційну підтримку або психоосвітню інформацію. Під час пандемії цифрові інструменти допомагали заповнювати прогалини у сервісах. Однак клініцисти попереджають, що терапія — це більше, ніж просто співчутливі фрази; вона вимагає клінічного судження, оцінки ризиків, етичних зобов’язань і довгострокової роботи з відносинами.
Розробники систем генеративного AI стверджують, що їхні продукти не є заміною професійного лікування. OpenAI заявила, що ChatGPT створений як універсальний помічник і містить застереження, що користувачам слід звертатися до кваліфікованих фахівців щодо медичних або психологічних питань. Компанія також запровадила оновлення безпеки, спрямовані на виявлення високоризикових запитів і перенаправлення користувачів до кризових служб.
Дивіться також: Під тиском США зростає рух за незалежність Гренландії
Регуляторний контроль посилюється, оскільки системи AI все більше інтегруються у делікатні сфери. Політики Європейського Союзу просунули закон про штучний інтелект, який класифікує певні застосування, що впливають на здоров’я та добробут, як високоризикові. У США федеральні агентства заявили, що закони про захист прав споживачів і конфіденційність даних застосовуються до AI-інструментів, що роблять медичні заяви. Професійні організації, такі як Американська психологічна асоціація, закликали до чіткішого керівництва щодо етичного використання AI у терапевтичних умовах.
Дослідження Брауна не закликає забороняти AI-чат-боти у сферах психічного здоров’я. Натомість воно закликає розробників, клініцистів і регуляторів створити більш жорсткі рамки оцінки перед тим, як позиціонувати такі системи як терапевтичних партнерів. Рекомендації включають незалежні аудити, прозорість щодо обмежень моделей, чіткі протоколи кризових ситуацій і визначені межі ролі AI у процесах догляду.
Виявили проблему? The Arabian Post прагне надавати своїм читачам найточнішу та найнадійнішу інформацію. Якщо ви вважаєте, що в цій статті допущена помилка або невідповідність, будь ласка, не соромтеся зв’язатися з нашою редакцією за адресою editor[at]thearabianpost[dot]com. Ми прагнемо швидко реагувати на будь-які зауваження та підтримувати найвищі стандарти журналістської чесності.
MENAFN03032026000152002308ID1110813486