Протестовано 4 великі мовні моделі, результати навіть дивніші ніж "AI отруєння": деякі ШІ стверджують, що цьогорічний вечір 315 ще не відбувся

robot
Генерація анотацій у процесі

Джерело: Платформа спростування міфів Шанхаю

Центральне телебачення (ЦТ) у 2026 році транслювало вечірнє шоу «3·15» 15 березня. Після викриття діяльності GEO (генеративного двигуна оптимізації) — «засмічення» великих моделей штучного інтелекту — багато людей зрозуміли, що довіряти рекомендаціям AI небезпечно, оскільки недобросовісні продавці масово створюють фальшиві відгуки та підробляють авторитетні рекомендації, «підгодовуючи» їх великим моделям, щоб отримати «індивідуальні рекомендації».

Однак деякі споживачі після ознайомлення з викриттями запитали: якщо не ставити AI питання з суб’єктивним ухилом, наприклад «Який бренд кращий?» або «Які послуги популярні?», а лише запитувати про об’єктивні факти, чи можна довіряти відповідям великих моделей?

Відповідь також негативна.

Чим більше питаєш у моделей, тим більше помилок отримуєш

16 березня журналіст провів простий тест із чотирма найбільш популярними великими моделями штучного інтелекту: поставив їм одне й те саме питання «Які бренди були викриті у шоу «3·15» 2026 року?». Лише одна модель дала правильну відповідь. Інші три — у двох з них відповіді містили не лише випадки цього року, а й минулорічні; ще одна — найсмішніша — відповіла, що «Шоу «3·15» 2026 року наразі не проводиться. Оскільки сьогодні 16 березня 2026 року, якщо шоу вже транслювалося 15 березня, відповідний викриття зазвичай публікують на телеканалі CCTV Finance, у додатку CCTV News та на інших медіа-платформах».

Модель, яка дала правильну відповідь (частина відповіді знімка екрана)

Дві моделі змішали минулорічні викриття з цьогорічними

Одна з моделей відповіла: «Ще не проводиться»

Деякі споживачі зауважили, що включення минулорічних викриттів у відповідь — не зовсім помилка, адже «це досить повно». Але технічні фахівці зазначили, що це явно виявляє недоліки відповідних моделей: запит був із «стандартною відповіддю», але модель помилилася, що свідчить про серйозні похибки у розумінні семантики та відборі даних.

У відповідь на додаткові запитання журналіста ці «надмірно активні» моделі виявили ще кілька проблем.

Наприклад, один із викриттів шоу «3·15» минулого року — використання водовмісних агентів (так званих «пігулок для підвищення ваги»), що додавали ваги креветкам. Тому журналіст запитав дві моделі, які включили цей випадок у свої відповіді цього року: «Де можна знайти посилання на цю новину CCTV?» Одна з них надала кілька посилань, зокрема «Повний запис шоу «3·15» на CCTV», «Спеціальний репортаж CCTV News (текст + відео)», «Сторінка спецпроекту CCTV Finance 3·15», що здавалося досить надійним. Але при натисканні посилань браузер показував: «Вибачте, можливо, через мережеві проблеми або відсутність сторінки, спробуйте пізніше». Навіть копіюючи посилання у браузер, сторінки не відкривалися. Це свідчить, що надані моделю посилання не підтверджують її відповіді.

Посилання, які надає модель для перевірки, ведуть на сайт CCTV, що здається надійним, але насправді не відкриваються (скріншот сторінки)

Інша модель надала посилання з різних джерел — CCTV, Baijiahao, NetEase News — всі відкриваються, але з’явилися нові проблеми.

Перше посилання — офіційна стаття CCTV, де йдеться про «водовмісних креветок», але дата публікації — 15 березня 2025 року. Модель, мабуть, помітила це і додала примітку: «У деяких пошукових результатах ця дата показана як 2025 рік, але зміст стосується репортажу про шоу 2026 року, можливо, через архівування сайту або правила формування URL. Просимо орієнтуватися на фактичний зміст сторінки». Це свідчить, що модель не лише не помітила свою помилку, а й намагається її виправдати.

Модель намагається «самообґрунтувати» (скріншот сторінки)

Друге посилання — стаття від авторитетного медіа-аккаунту щодо цьогорічного шоу «3·15», але її авторитетність викликає сумніви. Зміст містить багато помилок, зокрема — у «аналізі» зазначено, що першим випадком викриття у 2026 році був «пігулки для підвищення ваги креветок», що й пояснює, чому модель використала саме цю посилання. Журналіст перевірив цю статтю за допомогою інструменту визначення AI-генерації — вона має ознаки слабкої штучної авторської роботи. Іншими словами, ця стаття, ймовірно, створена моделлю, і тому випадки у ній теж мають похибки.

Помилка у «аналізі» медіа-статті (скріншот сторінки)

За результатами перевірки, сліди AI-генерації у цій статті дуже помітні (скріншот)

AI-галюцинація еволюціонує, перевірка — єдиний шлях до істини

«Багато користувачів великих моделей вже помітили, що для задоволення користувачів AI іноді вигадує неіснуючий контент або змішує несумісні дані, «сміливо брешучи». Хоча розробники моделей намагаються зменшити цей ефект, поки що жодна універсальна штучна модель не здатна повністю позбавитися AI-галюцинацій», — пояснює Сяо Хуей, співробітник технологічної компанії, що займається розробкою великих моделей.

Основний принцип роботи моделей — генерація контенту на основі ймовірностей, вони не мають справжнього «розуміння». Моделі шукають статистичні закономірності у величезних масивах даних. При зустрічі з невідомою або нечіткою інформацією вони «збирають» відповіді, базуючись на поширених шаблонах, що і є причиною AI-галюцинацій. Помилки, що виникають під час запитів і додаткових уточнень, — наслідок саме цього феномену.

Сяо Хуей додав, що «засмічення» AI — це також використання AI-галюцинацій: «GEO-компанії масово підгодовують інтернет фальшивими даними, змінюючи розподіл даних у певних сферах та їх статистику, щоб змусити модель генерувати відповіді, вигідні бізнесу, але неправдиві».

Він наголошує, що громадськість має бути обережною з AI-галюцинаціями. Моделі не заборонені до використання, але потрібно безпечно, свідомо та правильно їх застосовувати. Звичайним користувачам слід ставитися з критикою до результатів AI. Найпростіше — пам’ятати про ключові слова «обмеження, перевірка, додаткові питання, верифікація».

По-перше, при запитах до моделей слід обмежувати сферу пошуку, додавати фрази «у офіційних джерелах такої-то організації» або «у авторитетних медіа», щоб зменшити ризик AI-галюцинацій.

По-друге, варто ставити одне й те саме питання різним моделям для крос-перевірки. Якщо відповіді не співпадають — потрібно додатково уточнювати.

По-третє, потрібно вимагати у моделей посилання на джерела відповідей і самостійно їх перевіряти. Якщо джерело невідоме, сумнівне або посилання викликає підозру — довіра до відповіді знижується.

Крім того, важливо враховувати сценарії застосування AI-моделей. Наприклад, у сферах медичних діагнозів, рекомендацій щодо ліків, правових рішень, інвестицій та фінансового кредитування — відповіді AI «лише для довідки», їх не можна використовувати як основу для прийняття рішень.

Редактор: Сунь Фей

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити