Ф'ючерси
Сотні безстрокових контрактів
CFD
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Pre-IPOs
Отримайте повний доступ до глобальних IPO акцій.
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Акції
AI
Gate AI
Ваш універсальний AI-помічник для спілкування
Gate AI Bot
Використовуйте Gate AI безпосередньо у своєму соціальному додатку
GateClaw
Gate Блакитний Лобстер — готовий до використання
Gate for AI Agent
AI-інфраструктура, Gate MCP, Skills і CLI
Gate Skills Hub
Понад 10 000 навичок
Від офісу до трейдингу: універсальна база навичок для ефективнішої роботи з AI
GateRouter
Розумний вибір із понад 40 моделей ШІ, без додаткових витрат (0%)
Половина порад щодо здоров'я з штучним інтелектом є неправильною — і здається цілком правильною
Коротко
Майже половина відповідей на питання з охорони здоров’я та медицини, які надають найпопулярніші сьогодні AI-чатботи, є неправдивими, вводять в оману або небезпечно неповними — і вони подаються з повною впевненістю. Це головний висновок нового рецензованого дослідження, опублікованого 14 квітня у BMJ Open. Дослідники з UCLA, Університету Альберти та Wake Forest протестували п’ять чатботів — Gemini, DeepSeek, Meta AI, ChatGPT і Grok — на 250 питаннях з охорони здоров’я, що охоплювали рак, вакцини, стовбурові клітини, харчування та спортивну продуктивність. Результати: 49,6% відповідей були проблематичними. Тридцять відсотків — “дещо проблематичні”, і 19,6% — “дуже проблематичні” — відповіді, які цілком могли привести людину до неефективного або небезпечного лікування. Щоб перевірити моделі на міцність, команда використала адверсаріальний підхід — навмисне формулюючи питання так, щоб підштовхнути чатботів до поганої поради. Питання включали, чи викликає 5G рак, які альтернативні терапії кращі за хіміотерапію, і скільки сирого молока потрібно пити для користі для здоров’я.
“За замовчуванням, чатботи не отримують доступ до даних у реальному часі, а генерують відповіді, роблячи висновки на основі статистичних шаблонів із своїх навчальних даних і передбачаючи ймовірні послідовності слів,” пишуть автори. “Вони не розмірковують або зважують докази, і не здатні робити етичні або ціннісні судження.” Це основна проблема. Чатботи не консультуються з лікарем — вони просто шукають шаблони тексту. А пошук шаблонів в інтернеті, де дезінформація поширюється швидше за виправлення, дає саме такі результати. Дослідники продовжують: “Ця поведінкова обмеженість означає, що чатботи можуть відтворювати авторитетно звучні, але потенційно хибні відповіді.” З 250 питань лише дві викликали відмову відповідати — обидві від Meta AI, щодо анаболічних стероїдів і альтернативних методів лікування раку. Всі інші чатботи продовжували говорити.
Результати варіювалися залежно від теми. Вакцини та рак показали найкращі результати — частково тому, що високоякісні дослідження з цих тем добре структуровані і широко поширені онлайн. Харчування показало найгіршу статистичну продуктивність серед усіх категорій у дослідженні, а спортивна продуктивність — майже так само. Якщо ви питали AI, чи є дієта кнарів здоровою, відповідь, яку ви отримали, ймовірно, не базувалася на науковому консенсусі.
Grok виділявся з-поміж інших з поганих причин. Чатбот Ілона Маска був найгіршим з усіх протестованих моделей. З 50 відповідей 29 (58%) були оцінені як проблематичні загалом — найвищий відсоток серед усіх п’яти чатботів. П’ятнадцять із них (30%) були дуже проблематичними, що значно більше, ніж очікувалося за випадковим розподілом. Дослідники прямо пов’язують це з навчальними даними Grok: X — платформа, відома швидким і широким поширенням дезінформації про здоров’я. Посилання були окремою катастрофою. У всіх моделях середній рівень повноти посилань становив лише 40% — і жоден чатбот не створив повністю точний список посилань. Моделі видавали авторів, журнали та назви, які не відповідали дійсності. DeepSeek навіть визнав це: модель повідомила дослідникам, що її посилання згенеровані на основі шаблонів навчальних даних “і можуть не відповідати фактичним, перевіреним джерелам.” Проблема зчитуваності ускладнює все інше. Всі відповіді чатботів отримали оцінку у діапазоні “Складно” за шкалою легкості читання Флеша — еквівалент рівня студентів коледжу другого — третього курсу. Це перевищує рекомендацію Американської медичної асоціації, згідно з якою матеріали для пацієнтів не повинні перевищувати шостий клас читання. Інакше кажучи, ці чатботи застосовують той самий трюк, що й політики та професійні дебатери: закидають вас такою кількістю технічних слів за короткий час, що ви починаєте думати, ніби вони знають більше, ніж насправді. Чим складніше щось зрозуміти, тим легше це неправильно інтерпретувати. Результати віддзеркалюють дослідження Оксфордського університету 2026 року, висвітлене Decrypt, яке виявило, що медичні поради AI не кращі за традиційні методи самодіагностики. Вони також узгоджуються з ширшими занепокоєннями щодо AI-чатботів, які надають непослідовні рекомендації залежно від формулювання питань. “Зі зростанням використання AI-чатботів наші дані підкреслюють необхідність громадської освіти, професійної підготовки та регуляторного контролю, щоб забезпечити, що генеративний AI підтримує, а не руйнує громадське здоров’я,” підсумовують автори.
Дослідження протестувало лише п’ять безкоштовних чатботів, і метод адверсаріального підкріплення може перебільшувати рівень невдач у реальному світі. Але автори прямо кажуть: проблема не у крайніх випадках. Вона у тому, що ці моделі розгортаються у масштабі, використовуються недосвідченими як пошукові системи і налаштовані — за задумом — майже ніколи не казати “Я не знаю.”