Використання вашого AI чат-бота як пошукової системи? Будьте обережні щодо того, чому ви вірите

(MENAFN- The Conversation) Під час Першої світової війни британський уряд шукав способи допомогти людям розтягнути обмежені запаси їжі. Він знайшов пам’ятки від відомого herbalist XIX століття, який стверджував, що листя ревеню можна використовувати як овоч разом із стеблами.

Уряд відповідно надрукував власні пам’ятки, радячи людям їсти листя ревеню як салат, а не викидати їх. Але виникла одна проблема: листя ревеню може бути отруйним. За повідомленнями, люди помирали або хворіли.

Радіацію було виправлено, і пам’ятки зняли з обігу. Але під час Другої світової війни уряд знову шукав способи розтягнути запаси їжі.

Вони знайшли запас старих ресурсів з попередньої війни, які пояснювали нетрадиційні джерела їжі, включаючи листя ревеню. Повторне використання пам’яток здавалося ефективним, тому їх розсилали населенню. І знову повідомлялося, що люди помирали або хворіли.

Ці пам’ятки були дезінформацією, але громадськість не мала підстав їх підозрювати обидва рази. Це були офіційні ресурси, створені урядом — чому б вони не були безпечними?

Саме так дезінформація може спричиняти проблеми навіть після виправлення початкової помилки. І мораль цієї історії досі резонує в епоху генеративного штучного інтелекту (ШІ).

Чат-боти не є пошуковими системами

Генеративний ШІ використовується для створення текстів і зображень (та інших форм даних) на основі оригінальної інформації, яку він засвоїв. Але він також може бути двигуном швидкого поширення дезінформації, яка перевищує здатність людей виробляти безпечну інформацію, не кажучи вже про її перевірку та виправлення.

Як і історія з ревенем, виправлення не завжди здатні повністю видалити початкове забруднення.

Платформи ШІ, такі як ChatGPT і Claude, не працюють як звичайні пошукові системи. Але люди використовують їх саме так, оскільки вони швидко підсумовують складні теми і вимагають менше кліків, ніж традиційний інтернет-пошук.

Пошукові системи ґрунтуються на статтях і текстах про певну тему і оцінюють їхню надійність. Генеративний ШІ ж базується на величезних масивах тексту, з яких він визначає ймовірність появи слів поруч.

Ці «великі мовні моделі» прагнуть лише створювати правдоподібні речення, а не точні.

Наприклад, якщо «зелені яйця і шинка» часто з’являються у його масиві слів, він швидше опише «яйця і шинку» як зелені, якщо хтось запитає.

‘Правдоподібно, але неправильно’

OpenAI, яка створила ChatGPT, визнала (на основі власного дослідження), що неможливо запобігти тому, щоб неправдива інформація подавалася як істина через особливості роботи генеративного ШІ. Пояснюючи, чому великі мовні моделі «галюцинують», дослідники написали:

Це може мати реальні наслідки. Одне недавнє дослідження показало, що ChatGPT не розпізнав медичну надзвичайну ситуацію у більш ніж половині випадків. Це може погіршуватися через вже існуючі помилки у медичних записах, що, за висновками британського розслідування 2025 року, впливало на до чотирьох із десяти пацієнтів.

Хоча лікар може призначити додаткові обстеження для підтвердження діагнозу, один дослідник пояснив, що генеративний ШІ «дає неправильну відповідь з такою ж впевненістю, як і правильну».

Проблема, як зазначив інший вчений, полягає в тому, що генеративний ШІ «знаходить і імітує патерни слів». Бути правим чи ні — не так важливо: «Він мав створити речення, і він його створив».

Дослідження показали, що інструменти генеративного ШІ неправильно подають новини у 45% випадків, незалежно від мови чи регіону. І тепер виникає справжня тривога щодо ризику для життя через створення неіснуючих маршрутів для походів.

Легко посміятися з генеративного ШІ, коли він радить людям їсти камінці або приклеювати топінги на піцу клеєм.

Але інші приклади не такі смішні — наприклад, планувальник харчування в супермаркеті, який пропонував рецепт, що міг би спричинити хлорний газ, або поради щодо дієти, що залишили когось з хронічним токсичним впливом броміду.

Шукайте стару інформацію

Освіта і встановлення хороших правил щодо відповідального та обережного використання генеративного ШІ будуть важливими, особливо з урахуванням його проникнення в уряди, бюрократії та складні організації.

Політики вже використовують генеративний ШІ у своїй щоденній роботі, зокрема для дослідження політики. А відділення швидкої допомоги в лікарнях використовують інструменти ШІ для запису нотаток пацієнтів, щоб заощадити час.

Одним із заходів безпеки є пошук більш надійної інформації, створеної до того, як текст і зображення, заражені ШІ, проникли в інтернет.

Існують навіть інструменти, що допомагають спростити цей процес, зокрема один, створений австралійським художником Tega Brain, «який поверне лише контент, створений до першого публічного релізу ChatGPT 30 листопада 2022 року».

Нарешті, якщо ваша інтуїція підказує перевірити цю історію, найкращим варіантом можуть стати старі книги: посилання на те, як британський уряд двічі заохочував отруєння ревенем, можна знайти у «The Poison Garden’s A-Z of Poisonous Plants» та «Botanical Curses and Poisons: The Shadow Lives of Plants».

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити