Более преувеличенный, чем "отравление ИИ" Практическое тестирование 4 крупных моделей: одна ИИ сказала, что вечеринка 315 в этом году еще не проводилась

robot
Генерация тезисов в процессе

(Источник: Ningbo Daily, Китай)

Перевод с Ningbo Daily, Китай

Вечерняя программа CCTV «3·15» 2026 года была показана вечером 15 марта. После разоблачения деятельности GEO (генеративное движковое оптимизация), связанной с «отравлением» больших моделей ИИ, многие поняли, что рекомендации ИИ могут быть ненадежными, поскольку недобросовестные продавцы массово создают фальшивые отзывы и поддельные авторитетные рекомендации, «кормят» ими модели, чтобы получить «индивидуальные рекомендации».

Но некоторые потребители после просмотра разоблачений спросили: если не задавать ИИ большие модели субъективные вопросы вроде «какой бренд лучше» или «какие услуги популярны», а только запрашивать объективные факты, можно ли доверять ответам ИИ?

Ответ также отрицательный.

Допрашивая модель, всё больше ошибок

16 марта журналист провёл простой тест четырём наиболее популярным большим моделям ИИ: задал им один и тот же вопрос «Какие бренды были разоблачены на вечерней программе CCTV «3·15» 2026 года?». Только одна модель ответила правильно. В остальных трёх моделях два ответа содержали как случаи текущего года, так и случаи прошлых лет; одна же ответила совершенно неправдоподобно: «В 2026 году вечерняя программа CCTV «3·15» пока не проводилась. Так как сегодня 16 марта 2026 года, если программа уже прошла 15 марта, то соответствующие разоблачения обычно публикуются одновременно на канале CCTV Finance, в приложении CCTV News и на крупных медиа-платформах.»

Модель, давшая правильный ответ (скриншот части ответа)

Две модели смешали случаи прошлых лет с текущими

Одна из моделей ответила: «Пока не проводилась»

Некоторые потребители отметили, что включение прошлых случаев в ответ кажется не совсем ошибкой, так как «ответ был очень полным». Но технические специалисты указали, что это явно показывает недостатки модели: вопрос имел «стандартный ответ», однако модель ошиблась, что свидетельствует о серьёзных сбоях в понимании семантики и фильтрации данных.

На дополнительные вопросы журналистов эти две «слишком усердные» модели также продемонстрировали другие проблемы.

Например, один из разоблачённых случаев на «3·15» в прошлом году — использование водоудерживающих добавок (так называемый «пузырь»), чтобы увеличить вес креветок. Журналист спросил у двух моделей, предоставлявших этот случай как текущий: «Где находится ссылка на CCTV-отчёт о увеличении веса креветок?» Одна из моделей предоставила несколько ссылок, включая «Полное воспроизведение программы CCTV 15 марта», «Тематический материал CCTV News (текст + видео)», «Тема CCTV Finance 15 марта», что казалось очень надёжным. Но при попытке перейти по этим ссылкам страницы показывали: «Извините, возможно, из-за сетевых причин или отсутствия страницы, попробуйте позже». Даже скопировав ссылки в браузер, открыть их не удалось. Видно, что предоставленные модели ссылки недостаточно надёжны для подтверждения ответа.

Показанные модели ссылки, якобы ведущие на CCTV, казались правдоподобными, но на деле были недоступны (скриншоты страниц)

Другая модель предоставила ссылки на разные источники — CCTV, Baijiahao, NetEase News — все открывались, но возникли новые проблемы.

Первая ссылка — официальный материал CCTV (CCTV), действительно касающийся «водоудерживающих креветок», однако дата на странице и в статье — 15 марта 2025 года. Модель заметила это и добавила комментарий: «В некоторых результатах поиска дата указана как 2025 год, однако содержание относится к репортажу о программе 2026 года, возможно, из-за архивации сайта или правил формирования URL, пожалуйста, ориентируйтесь на фактическое содержание страницы». То есть модель не заметила ошибку в ответе и попыталась «оправдать» себя.

Вторая ссылка — статья от независимого медиа о «разборе» программы CCTV «3·15» 2026 года, авторитетность аккаунта вызывает сомнения. В содержании много ошибок, например, в «разборе» говорится, что первый случай, разоблачённый на «3·15» 2026 года — «пузырь» в креветках, что объясняет, почему эта статья попала в список. Проверка этой статьи с помощью инструмента обнаружила, что она слабо содержит признаки AI-генерации, то есть, скорее всего, создана моделью, и случаи в ней могут быть искажены.

Ошибки в «разборе» независимого медиа (скриншоты)

Анализ показал, что в статье есть явные признаки AI-генерации (скриншоты)

Эволюция AI-галлюцинаций: проверка — единственный способ узнать правду

Многие пользователи больших моделей ИИ уже заметили, что для удовлетворения пользователей ИИ иногда выдумывает несуществующий контент или смешивает несвязанные сведения, «серьёзно вру». Хотя разработчики моделей пытаются устранить AI-галлюцинации, пока это не очень успешно. В настоящее время ни одна универсальная ИИ-модель не способна полностью исключить галлюцинации, объяснил сотрудник технологической компании, занимающийся разработкой больших моделей, Сяо Хуэй.

Основа работы больших моделей — вероятностное порождение контента, они не обладают настоящим «пониманием». Модели ищут статистические закономерности в огромных объёмах данных. При столкновении с неизвестной или неясной информацией они формируют ответы, основываясь на часто встречающихся шаблонах, что и вызывает AI-галлюцинации. Ошибки, возникающие при вопросах и уточнениях, — следствие именно этого.

Сяо Хуэй также отметил, что «отравление» ИИ — это использование AI-галлюцинаций: «GEO-компании массово «кормят» интернет фальшивой информацией, меняя распределение данных и статистику в определённых сферах, чтобы заставить модели выдавать ответы, выгодные бизнесу, но противоречащие фактам».

Он предостерёг общественность: будьте осторожны с AI-галлюцинациями. Модели не нельзя полностью запретить, их нужно использовать безопасно, осознанно и правильно. Обычные пользователи должны критически относиться к результатам ИИ. Самое простое — помнить о ключевых словах «ограничение, проверка, уточнение, верификация».

Во-первых, при вопросах моделям можно ограничивать область поиска, добавлять фразы вроде «искать на сайте определённой организации» или «искать в авторитетных СМИ», чтобы снизить риск галлюцинаций.

Во-вторых, стоит задавать один и тот же вопрос разным моделям и сравнивать ответы. При расхождениях — обязательно уточнять.

В-третьих, требовать у модели предоставления ссылок на источники и проверять их вручную. Если источники отсутствуют, неясны или ссылки вызывают сомнения — доверие к ответам снижается.

Также важно учитывать сценарии использования ИИ. В таких сферах, как медицинская диагностика, рекомендации по лекарствам, юридические решения, инвестиции, финансы и кредиты, ответы ИИ «только для справки» и не могут служить основанием для решений.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить