Чат-боти «постійно підтверджують усе», навіть коли ви на межі самогубства. Нові дослідження оцінюють, наскільки небезпечним насправді є штучний інтелектовий психоз

Штучний інтелект швидко перейшов від нішевої технології до повсякденного супутника, і мільйони людей звертаються до чатботів за порадами, емоційною підтримкою та спілкуванням. Але зростає кількість досліджень і свідчень експертів, які стверджують, що через надмірну підлесливість чатботів і їхнє використання для всього, це може сприяти зростанню симптомів ілюзій та манії у користувачів із психічними розладами.

Рекомендоване відео


Новий дослідження з університету Ааргуса в Данії показує, що збільшене використання чатботів може погіршувати симптоми ілюзій і манії у вразливих спільнотах. Професор Сорен Дінесен Øстерgaard, один із дослідників, який аналізував електронні медичні записи майже 54 000 пацієнтів із психічними захворюваннями, попереджає, що AI-чатботи створені для цільової роботи з найбільш вразливими.

«Це підтверджує нашу гіпотезу, що використання AI-чатботів може мати значні негативні наслідки для людей із психічними захворюваннями», — сказав Øстерgaard у дослідженні, опублікованому у лютому. Його робота базується на дослідженні 2023 року, яке виявило, що чатботи можуть спричинити «когнітивний дисонанс, який може підсилювати ілюзії у тих, хто має схильність до психозу».

Інші психологи глибше аналізують шкоду чатботів, стверджуючи, що вони навмисно створені для постійного підтвердження користувача — що особливо небезпечно для тих із психічними розладами, такими як манія та шизофренія. «Чатбот підтверджує і валідизує все, що вони кажуть. Це вперше трапляється з людьми з ілюзійними розладами, коли хтось постійно їх підсилює», — сказала доктор Джоді Халперн, професор біоетики та голова Школи громадського здоров’я Каліфорнійського університету у Берклі, газеті Fortune.

Доктор Адам Чекруд, професор психіатрії Йельського університету та генеральний директор компанії Spring Health, назвав чатбот «величезним підлесником», який «постійно підтверджує все, що кажуть люди».

У центрі дослідження, яке проводили Øстерgaard і його команда в Ааргуській лікарні, — ідея, що ці чатботи навмисно створені з підлесливими тенденціями, тобто вони часто заохочують, а не пропонують альтернативний погляд.

«AI-чатботи мають внутрішню схильність підтверджувати переконання користувача. Це очевидно, що це дуже проблематично, якщо у користувача вже є ілюзії або він їх розвиває. Насправді, це значно сприяє закріпленню, наприклад, грандіозних ілюзій або параної», — написав Øстерgaard.

Великі мовні моделі навчають бути корисними та згодними, часто підтверджуючи переконання або емоції користувача. Для більшості це може здаватися підтримкою. Але для людей із шизофренією, біполярним розладом, важкою депресією або обсесивно-компульсивним розладом така валідизація може посилювати параною, грандіозність або саморуйнівне мислення.

Дослідження на основі доказів підтверджують твердження

Оскільки AI-чатботи стали настільки поширеними, їхня кількість стає частиною зростаючої більшої проблеми для дослідників і експертів: люди звертаються до чатботів за допомогою та порадами — що не є самою по собі поганою річчю, — але їм не протистоять так само, як людині, у відповідь на деякі ідеї.

Зараз одне з перших досліджень, яке базується на аналізі населення, показує, що ризики не є гіпотетичними.

Дослідження Øстергаарда і його команди виявило випадки, коли інтенсивне або тривале використання чатботів, здавалося, погіршувало існуючі стани, з дуже високим відсотком випадків, коли використання чатботів посилювало ілюзії та маніакальні епізоди, особливо у пацієнтів із важкими розладами, такими як шизофренія або біполярний розлад.

Крім ілюзій і манії, дослідження виявило збільшення суїцидальних думок і самопошкоджень, порушень харчової поведінки та обсесивно-компульсивних симптомів. Лише у 32 задокументованих випадках із майже 54 000 записів пацієнтів дослідники виявили, що використання чатботів зменшує самотність.

«Незважаючи на те, що наші знання у цій галузі все ще обмежені, я вважаю, що тепер ми знаємо достатньо, щоб сказати, що використання AI-чатботів є ризикованим, якщо у вас важке психічне захворювання — таке як шизофренія або біполярний розлад. Я закликаю бути обережними», — сказав Øстерgaard.

Експертні психологи попереджають про підлесливі тенденції

Експертні психологи все більше занепокоєні використанням чатботів у ролі товариша та майже у психічних розладах. З’являються історії про людей, які закохуються у своїх AI-партнерів, інші нібито отримують відповіді, що можуть призвести до злочинів, а цього тижня один нібито порадив чоловікові скоїти «масову трагедію» в одному з великих аеропортів.

Деякі фахівці з психічного здоров’я вважають, що швидке впровадження AI-компаньйонів випереджає розробку заходів безпеки.

Чекруд, який також досліджував цю тему, аналізуючи різні моделі AI-чатботів у Vera-MH, описує сучасний стан AI як кризу безпеки, що розгортається у реальному часі.

Він зазначив, що однією з найбільших проблем чатботів є те, що вони не знають, коли припинити діяти як психотерапевт. «Чи підтримує він межі? Чи визнає, що він — просто AI і обмежений у своїх можливостях, чи намагається бути терапевтом для людей?»

Мільйони людей тепер використовують чатботів для терапевтичних розмов або емоційної підтримки. Але на відміну від медичних пристроїв або ліцензованих фахівців, ці системи працюють без стандартного клінічного нагляду або регулювання.

«Зараз це просто дуже небезпечно», — сказав Чекруд у недавній дискусії з Fortune про безпеку AI. «Можливість заподіяння шкоди надто велика».

Оскільки ці передові системи AI часто поводяться як «величезні підлесники», вони схильні більше погоджуватися з користувачем, ніж ставити під сумнів потенційно небезпечні твердження або спрямовувати їх до професійної допомоги. У результаті користувач проводить з чатботом більше часу у «бульбашці». Для Øстергаарда це викликає тривогу.

«Комбінація здається досить токсичною для деяких користувачів», — сказав він Fortune. _Коли чатботи пропонують більше підтверджень, у поєднанні з відсутністю заперечень, це сприяє тому, що люди використовують їх довше у ехо-камері. Це ідеальний циклічний процес, що посилює проблему».

Щоб зменшити ризик, Чекруд запропонував структуровані рамки безпеки, які дозволили б системам AI виявляти, коли користувач може входити у «руйнівну психічну спіраль». Замість однієї застережливої заяви, яка зараз з’являється у таких системах, як ChatGPT від OpenAI або Claude від Anthropic, ці системи проводили б багатокрокові оцінки, щоб визначити, чи потребує користувач втручання або направлення до фахівця.

Інші дослідники кажуть, що саме поширеність чатботів робить їх привабливими: їх здатність миттєво підтверджувати може підривати причини, через які користувачі звертаються за допомогою.

Халперн зазначила, що справжня емпатія вимагає того, що вона називає «емпатичним допитливістю». У людських стосунках емпатія часто полягає у визнанні різниць, навігації у конфліктах і перевірці припущень щодо реальності.

На відміну від цього, чатботи створені для підтримки зв’язку та підтримки залученості.

«Ми знаємо, що чим довше триває стосунок із чатботом, тим більше він погіршується, і тим більша ймовірність, що станеться щось небезпечне», — сказала Халперн Fortune.

Для людей із ілюзійними розладами система, яка постійно підтверджує їхні переконання, може послабити їхню здатність внутрішньо перевіряти реальність. Замість того, щоб допомагати користувачам розвивати навички подолання, Халперн сказала, що така виключно підтверджувальна взаємодія з чатботом з часом може їх послаблювати.

Вона також звертає увагу на масштаб проблеми. Наприкінці 2025 року OpenAI опублікувала статистику, що приблизно 1,2 мільйона людей щотижня використовують ChatGPT для обговорення суїциду, що ілюструє, наскільки глибоко ці системи закорінені у моменти вразливості.

Є простір для покращення психічної допомоги

Однак не всі експерти швидко піднімають тривогу щодо роботи чатботів у сфері психічного здоров’я. Психіатр і нейронауковець доктор Томас Інсел сказав, що через їхню доступність — вони безкоштовні, онлайн, без стигми — звернення до чатботів може мати потенціал для розвитку психічної сфери.

«Що ми не знаємо, — сказав Інсел, — це наскільки це дійсно допомагає багатьом людям. Це не лише через великі кількості, а й через масштаб залученості».

Психічне здоров’я, у порівнянні з іншими галузями медицини, часто ігнорується тими, хто найбільше його потребує.

«Виявляється, що, на відміну від більшості медичних галузей, більшість людей, які могли б і повинні отримувати допомогу, її не отримують», — сказав Інсел, додавши, що чатботи дають людям можливість звертатися за допомогою, що змушує його задуматися: «Можливо, це є звинуваченням системи психічного здоров’я, що люди або не купують те, що ми пропонуємо, або не можуть його отримати, або їм не подобається спосіб його подання».

Для фахівців із психічного здоров’я, які спілкуються з пацієнтами щодо їхнього онлайн-використання чатботів, Øстерgaard радить уважно слухати, для чого саме їхні пацієнти їх використовують. «Я закликаю колег ставити додаткові питання щодо використання та його наслідків», — сказав він Fortune. «Важливо, щоб фахівці з психічного здоров’я були обізнані щодо використання AI-чатботів. Інакше важко ставити релевантні питання».

Першопочаткові дослідження авторів цієї статті збігаються з Інселом у тому, що через їхню універсальність вони змогли лише проаналізувати записи пацієнтів, що згадували чатботів, попереджаючи, що проблема може бути ще ширшою, ніж показали їхні результати.

«Я боюся, що проблема є більш поширеною, ніж думає більшість людей», — сказав Øстерgaard. «Ми бачимо лише верхівку айсберга».

Якщо у вас є думки про суїцид, зателефонуйте на гарячу лінію 988 або на 1-800-273-8255.

Приєднуйтесь до нас на Форчуні Workplace Innovation Summit 19–20 травня 2026 року в Атланті. Наступна ера інновацій у робочому середовищі вже тут — і старий сценарій переписується. На цьому ексклюзивному, енергійному заході зберуться найінноваційніші лідери світу, щоб дослідити, як AI, людяність і стратегія знову змінюють майбутнє роботи. Реєструйтеся зараз.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Популярні активності Gate Fun

    Дізнатися більше
  • Рин. кап.:$0.1Холдери:1
    0.00%
  • Рин. кап.:$0.1Холдери:1
    0.00%
  • Рин. кап.:$0.1Холдери:1
    0.00%
  • Рин. кап.:$2.41KХолдери:1
    0.00%
  • Рин. кап.:$2.46KХолдери:2
    0.23%
  • Закріпити