Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Протестовано 4 великі мовні моделі, результати навіть дивніші ніж "AI отруєння": деякі ШІ стверджують, що цьогорічний вечір 315 ще не відбувся
Джерело: Платформа спростування міфів Шанхаю
Центральне телебачення (ЦТ) у 2026 році транслювало вечірнє шоу «3·15» 15 березня. Після викриття діяльності GEO (генеративного двигуна оптимізації) — «засмічення» великих моделей штучного інтелекту — багато людей зрозуміли, що довіряти рекомендаціям AI небезпечно, оскільки недобросовісні продавці масово створюють фальшиві відгуки та підробляють авторитетні рекомендації, «підгодовуючи» їх великим моделям, щоб отримати «індивідуальні рекомендації».
Однак деякі споживачі після ознайомлення з викриттями запитали: якщо не ставити AI питання з суб’єктивним ухилом, наприклад «Який бренд кращий?» або «Які послуги популярні?», а лише запитувати про об’єктивні факти, чи можна довіряти відповідям великих моделей?
Відповідь також негативна.
Чим більше питаєш у моделей, тим більше помилок отримуєш
16 березня журналіст провів простий тест із чотирма найбільш популярними великими моделями штучного інтелекту: поставив їм одне й те саме питання «Які бренди були викриті у шоу «3·15» 2026 року?». Лише одна модель дала правильну відповідь. Інші три — у двох з них відповіді містили не лише випадки цього року, а й минулорічні; ще одна — найсмішніша — відповіла, що «Шоу «3·15» 2026 року наразі не проводиться. Оскільки сьогодні 16 березня 2026 року, якщо шоу вже транслювалося 15 березня, відповідний викриття зазвичай публікують на телеканалі CCTV Finance, у додатку CCTV News та на інших медіа-платформах».
Модель, яка дала правильну відповідь (частина відповіді знімка екрана)
Дві моделі змішали минулорічні викриття з цьогорічними
Одна з моделей відповіла: «Ще не проводиться»
Деякі споживачі зауважили, що включення минулорічних викриттів у відповідь — не зовсім помилка, адже «це досить повно». Але технічні фахівці зазначили, що це явно виявляє недоліки відповідних моделей: запит був із «стандартною відповіддю», але модель помилилася, що свідчить про серйозні похибки у розумінні семантики та відборі даних.
У відповідь на додаткові запитання журналіста ці «надмірно активні» моделі виявили ще кілька проблем.
Наприклад, один із викриттів шоу «3·15» минулого року — використання водовмісних агентів (так званих «пігулок для підвищення ваги»), що додавали ваги креветкам. Тому журналіст запитав дві моделі, які включили цей випадок у свої відповіді цього року: «Де можна знайти посилання на цю новину CCTV?» Одна з них надала кілька посилань, зокрема «Повний запис шоу «3·15» на CCTV», «Спеціальний репортаж CCTV News (текст + відео)», «Сторінка спецпроекту CCTV Finance 3·15», що здавалося досить надійним. Але при натисканні посилань браузер показував: «Вибачте, можливо, через мережеві проблеми або відсутність сторінки, спробуйте пізніше». Навіть копіюючи посилання у браузер, сторінки не відкривалися. Це свідчить, що надані моделю посилання не підтверджують її відповіді.
Посилання, які надає модель для перевірки, ведуть на сайт CCTV, що здається надійним, але насправді не відкриваються (скріншот сторінки)
Інша модель надала посилання з різних джерел — CCTV, Baijiahao, NetEase News — всі відкриваються, але з’явилися нові проблеми.
Перше посилання — офіційна стаття CCTV, де йдеться про «водовмісних креветок», але дата публікації — 15 березня 2025 року. Модель, мабуть, помітила це і додала примітку: «У деяких пошукових результатах ця дата показана як 2025 рік, але зміст стосується репортажу про шоу 2026 року, можливо, через архівування сайту або правила формування URL. Просимо орієнтуватися на фактичний зміст сторінки». Це свідчить, що модель не лише не помітила свою помилку, а й намагається її виправдати.
Модель намагається «самообґрунтувати» (скріншот сторінки)
Друге посилання — стаття від авторитетного медіа-аккаунту щодо цьогорічного шоу «3·15», але її авторитетність викликає сумніви. Зміст містить багато помилок, зокрема — у «аналізі» зазначено, що першим випадком викриття у 2026 році був «пігулки для підвищення ваги креветок», що й пояснює, чому модель використала саме цю посилання. Журналіст перевірив цю статтю за допомогою інструменту визначення AI-генерації — вона має ознаки слабкої штучної авторської роботи. Іншими словами, ця стаття, ймовірно, створена моделлю, і тому випадки у ній теж мають похибки.
Помилка у «аналізі» медіа-статті (скріншот сторінки)
За результатами перевірки, сліди AI-генерації у цій статті дуже помітні (скріншот)
AI-галюцинація еволюціонує, перевірка — єдиний шлях до істини
«Багато користувачів великих моделей вже помітили, що для задоволення користувачів AI іноді вигадує неіснуючий контент або змішує несумісні дані, «сміливо брешучи». Хоча розробники моделей намагаються зменшити цей ефект, поки що жодна універсальна штучна модель не здатна повністю позбавитися AI-галюцинацій», — пояснює Сяо Хуей, співробітник технологічної компанії, що займається розробкою великих моделей.
Основний принцип роботи моделей — генерація контенту на основі ймовірностей, вони не мають справжнього «розуміння». Моделі шукають статистичні закономірності у величезних масивах даних. При зустрічі з невідомою або нечіткою інформацією вони «збирають» відповіді, базуючись на поширених шаблонах, що і є причиною AI-галюцинацій. Помилки, що виникають під час запитів і додаткових уточнень, — наслідок саме цього феномену.
Сяо Хуей додав, що «засмічення» AI — це також використання AI-галюцинацій: «GEO-компанії масово підгодовують інтернет фальшивими даними, змінюючи розподіл даних у певних сферах та їх статистику, щоб змусити модель генерувати відповіді, вигідні бізнесу, але неправдиві».
Він наголошує, що громадськість має бути обережною з AI-галюцинаціями. Моделі не заборонені до використання, але потрібно безпечно, свідомо та правильно їх застосовувати. Звичайним користувачам слід ставитися з критикою до результатів AI. Найпростіше — пам’ятати про ключові слова «обмеження, перевірка, додаткові питання, верифікація».
По-перше, при запитах до моделей слід обмежувати сферу пошуку, додавати фрази «у офіційних джерелах такої-то організації» або «у авторитетних медіа», щоб зменшити ризик AI-галюцинацій.
По-друге, варто ставити одне й те саме питання різним моделям для крос-перевірки. Якщо відповіді не співпадають — потрібно додатково уточнювати.
По-третє, потрібно вимагати у моделей посилання на джерела відповідей і самостійно їх перевіряти. Якщо джерело невідоме, сумнівне або посилання викликає підозру — довіра до відповіді знижується.
Крім того, важливо враховувати сценарії застосування AI-моделей. Наприклад, у сферах медичних діагнозів, рекомендацій щодо ліків, правових рішень, інвестицій та фінансового кредитування — відповіді AI «лише для довідки», їх не можна використовувати як основу для прийняття рішень.
Редактор: Сунь Фей