Ваш AI-чатбот может утекать ваши беседы в Meta, TikTok и Google

Вкратце

  • Исследователи из IMDEA Networks обнаружили более 13 сторонних трекеров, встроенных в ChatGPT, Claude, Grok и Perplexity, включая инструменты от Meta, Google и TikTok.
  • Grok был самым опасным: гостевые беседы по умолчанию являются публичными, а трекер TikTok получал дословное содержание сообщений через метаданные Open Graph.
  • Отказ от cookies не всегда помогает.

Когда вы вводите что-то в чат-боте ИИ, вы, вероятно, предполагаете, что разговор остается между вами и машиной. Вы ошибаетесь — и новое исследование подробно объясняет, кто еще слушает. Исследователи из IMDEA Networks Institute опубликовали 4 мая результаты, показывающие, что все четыре крупнейших помощника ИИ — ChatGPT, Claude, Grok и Perplexity — тихо делятся данными с сторонними рекламными и аналитическими службами, включая Meta, Google и TikTok. Проект под названием LeakyLM выявил более 13 встроенных трекеров по этим платформам. Ни один из них не раскрыт пользователям в понятной форме.

Изображение: IMDEA Networks Institute

Думайте об этом так: каждый раз, когда вы открываете чат, невидимые программные инструменты, встроенные в веб-страницу, отправляют данные в рекламные сети — передавая информацию о том, кто вы, на какой странице находитесь и иногда даже о том, что вы набрали. Что именно утечет Самая простая утечка — это URL вашего разговора — веб-адрес, указывающий на конкретный чат. Звучит безобидно, правда? Проблема в том, что несколько платформ делают эти URL публично доступными по умолчанию, то есть любой, у кого есть ссылка, может прочитать ваш разговор без входа в систему. Когда эти URL также отправляются в рекламные системы Meta или Google, эти компании получают возможность получать доступ и читать ваши чаты. «Утечка URL — это не просто метаданные, — говорят исследователи, — это может быть эквивалентом утечки самого разговора».  Grok, чат-бот ИИ от xAI Илона Маска, — самый уязвимый. Гостевые беседы по умолчанию являются публичными на платформе — вход не требуется, чтобы их прочитать. Трекер TikTok получал не только URL, но и дословное содержание сообщений через так называемые метаданные Open Graph, стандарт, используемый для генерации изображений предпросмотра при обмене ссылками. По сути, система TikTok получила скриншот вашего разговора.

Изображение: IMDEA Networks Institute

Claude (Anthropic) и ChatGPT (OpenAI) имеют более строгие контроль доступа — ваши беседы не являются публичными, если вы сами не решите их поделиться. Но они все равно передают URL разговоров и идентифицирующие данные, такие как рекламные cookies, в Meta и Google. Для Claude эти данные отправляются на 11 рекламных платформ через собственные серверы Anthropic, а не через браузер, поэтому блокировщик рекламы не остановит их. Perplexity в прошлом месяце убрала свой трекер Meta. Что вы можете сделать В исследовании признается, что оно не доказало, что Meta или Google действительно читали чьи-либо чаты. Но инфраструктура для этого существует, и данные передаются. «Изученные LLM предоставляют средства контроля конфиденциальности для ограничения видимости разговоров, но могут вводить пользователей в заблуждение, создавая впечатление о более строгой защите, чем есть на самом деле», — утверждают исследователи. «Хотя у нас еще нет доказательств того, что разговоры читаются трекерами, распространение постоянных ссылок и, следовательно, возможность их чтения существуют, а значит, существует потенциальный риск». Это не первый случай, когда платформы ИИ подвергаются критике за конфиденциальность. Недавно Claude начал требовать подтверждение личности через государственный ID для новых подписчиков — шаг, вызвавший негативную реакцию тех же пользователей, которые перешли с ChatGPT из-за опасений по поводу слежки, как сообщила Decrypt в прошлом месяце. Пока что практических мер ограничено. В Grok ограничьте видимость бесед в настройках и явно отмените любую уже отправленную ссылку. В Claude хотя бы отключите несущественные cookies, чтобы отключить Meta Pixel. В Perplexity установите беседы как Частные. В ChatGPT отказ от cookies там, где возможно, уменьшает риск утечки, хотя Google Analytics все равно работает для авторизованных пользователей бесплатно. Если хотите пойти еще дальше и полностью защититься, наш гид по конфиденциальности ИИ может стать хорошим ресурсом. Исследователи планируют расширить свой анализ на Meta AI, Microsoft Copilot и Google Gemini — их исключили из этого раунда, потому что они одновременно выступают и поставщиками ИИ, и рекламными компаниями, что усложняет модель угроз. Результаты были переданы в органы по защите данных 13 апреля 2026 года. xAI было уведомлено 17 апреля. На момент публикации ни одна компания не дала ответа.

GROK-3,4%
XAI0,53%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить