Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Використання вашого AI чат-бота як пошукової системи? Будьте обережні щодо того, чому ви вірите
(MENAFN- The Conversation) Під час Першої світової війни британський уряд шукав способи допомогти людям розтягнути обмежені запаси їжі. Він знайшов пам’ятки від відомого herbalist XIX століття, який стверджував, що листя ревеню можна використовувати як овоч разом із стеблами.
Уряд відповідно надрукував власні пам’ятки, радячи людям їсти листя ревеню як салат, а не викидати їх. Але виникла одна проблема: листя ревеню може бути отруйним. За повідомленнями, люди помирали або хворіли.
Радіацію було виправлено, і пам’ятки зняли з обігу. Але під час Другої світової війни уряд знову шукав способи розтягнути запаси їжі.
Вони знайшли запас старих ресурсів з попередньої війни, які пояснювали нетрадиційні джерела їжі, включаючи листя ревеню. Повторне використання пам’яток здавалося ефективним, тому їх розсилали населенню. І знову повідомлялося, що люди помирали або хворіли.
Ці пам’ятки були дезінформацією, але громадськість не мала підстав їх підозрювати обидва рази. Це були офіційні ресурси, створені урядом — чому б вони не були безпечними?
Саме так дезінформація може спричиняти проблеми навіть після виправлення початкової помилки. І мораль цієї історії досі резонує в епоху генеративного штучного інтелекту (ШІ).
Чат-боти не є пошуковими системами
Генеративний ШІ використовується для створення текстів і зображень (та інших форм даних) на основі оригінальної інформації, яку він засвоїв. Але він також може бути двигуном швидкого поширення дезінформації, яка перевищує здатність людей виробляти безпечну інформацію, не кажучи вже про її перевірку та виправлення.
Як і історія з ревенем, виправлення не завжди здатні повністю видалити початкове забруднення.
Платформи ШІ, такі як ChatGPT і Claude, не працюють як звичайні пошукові системи. Але люди використовують їх саме так, оскільки вони швидко підсумовують складні теми і вимагають менше кліків, ніж традиційний інтернет-пошук.
Пошукові системи ґрунтуються на статтях і текстах про певну тему і оцінюють їхню надійність. Генеративний ШІ ж базується на величезних масивах тексту, з яких він визначає ймовірність появи слів поруч.
Ці «великі мовні моделі» прагнуть лише створювати правдоподібні речення, а не точні.
Наприклад, якщо «зелені яйця і шинка» часто з’являються у його масиві слів, він швидше опише «яйця і шинку» як зелені, якщо хтось запитає.
‘Правдоподібно, але неправильно’
OpenAI, яка створила ChatGPT, визнала (на основі власного дослідження), що неможливо запобігти тому, щоб неправдива інформація подавалася як істина через особливості роботи генеративного ШІ. Пояснюючи, чому великі мовні моделі «галюцинують», дослідники написали:
Це може мати реальні наслідки. Одне недавнє дослідження показало, що ChatGPT не розпізнав медичну надзвичайну ситуацію у більш ніж половині випадків. Це може погіршуватися через вже існуючі помилки у медичних записах, що, за висновками британського розслідування 2025 року, впливало на до чотирьох із десяти пацієнтів.
Хоча лікар може призначити додаткові обстеження для підтвердження діагнозу, один дослідник пояснив, що генеративний ШІ «дає неправильну відповідь з такою ж впевненістю, як і правильну».
Проблема, як зазначив інший вчений, полягає в тому, що генеративний ШІ «знаходить і імітує патерни слів». Бути правим чи ні — не так важливо: «Він мав створити речення, і він його створив».
Дослідження показали, що інструменти генеративного ШІ неправильно подають новини у 45% випадків, незалежно від мови чи регіону. І тепер виникає справжня тривога щодо ризику для життя через створення неіснуючих маршрутів для походів.
Легко посміятися з генеративного ШІ, коли він радить людям їсти камінці або приклеювати топінги на піцу клеєм.
Але інші приклади не такі смішні — наприклад, планувальник харчування в супермаркеті, який пропонував рецепт, що міг би спричинити хлорний газ, або поради щодо дієти, що залишили когось з хронічним токсичним впливом броміду.
Шукайте стару інформацію
Освіта і встановлення хороших правил щодо відповідального та обережного використання генеративного ШІ будуть важливими, особливо з урахуванням його проникнення в уряди, бюрократії та складні організації.
Політики вже використовують генеративний ШІ у своїй щоденній роботі, зокрема для дослідження політики. А відділення швидкої допомоги в лікарнях використовують інструменти ШІ для запису нотаток пацієнтів, щоб заощадити час.
Одним із заходів безпеки є пошук більш надійної інформації, створеної до того, як текст і зображення, заражені ШІ, проникли в інтернет.
Існують навіть інструменти, що допомагають спростити цей процес, зокрема один, створений австралійським художником Tega Brain, «який поверне лише контент, створений до першого публічного релізу ChatGPT 30 листопада 2022 року».
Нарешті, якщо ваша інтуїція підказує перевірити цю історію, найкращим варіантом можуть стати старі книги: посилання на те, як британський уряд двічі заохочував отруєння ревенем, можна знайти у «The Poison Garden’s A-Z of Poisonous Plants» та «Botanical Curses and Poisons: The Shadow Lives of Plants».