Ваш штучний інтелект-чатбот може витікати ваші розмови до Meta, TikTok і Google

Коротко

  • Дослідники з IMDEA Networks виявили понад 13 сторонніх трекерів, вбудованих у ChatGPT, Claude, Grok і Perplexity, включаючи інструменти від Meta, Google і TikTok.
  • Grok був найгіршим порушником: гостеві розмови за замовчуванням є публічними, а трекер TikTok отримував дослівний вміст повідомлень через метадані Open Graph.
  • Відмова від файлів cookie не завжди допомагає.

Коли ви щось вводите у чат-боті AI, ви, ймовірно, припускаєте, що розмова залишається між вами та машиною. Ви помиляєтеся — і нове дослідження чітко показує, хто ще слухає. Дослідники з Інституту IMDEA Networks опублікували результати 4 травня, показуючи, що всі чотири найбільші помічники AI — ChatGPT, Claude, Grok і Perplexity — тихо діляться даними з сторонніми сервісами реклами та аналітики, включаючи Meta, Google і TikTok. Проєкт, під назвою LeakyLM, виявив понад 13 трекерів, вбудованих у ці платформи. Жоден з них не розкривається користувачам зрозумілою мовою.

Зображення: Інститут IMDEA Networks

Уявіть так: кожного разу, коли ви відкриваєте чат, невидимі програмні засоби, вбудовані у веб-сторінку, дзвонять додому до рекламних мереж — передаючи деталі про вас, про те, на якій сторінці ви перебуваєте, і іноді навіть про те, що ви ввели. Що фактично витікає Найпростіша витік — це URL вашої розмови — веб-адреса, яка вказує на конкретний чат. Звучить безпечно, правда? Проблема в тому, що кілька платформ роблять ці URL публічно доступними за замовчуванням, тобто будь-хто, хто має посилання, може прочитати вашу розмову без входу в систему. Коли ці URL також надсилаються до систем реклами Meta або Google, ці компанії отримують можливість доступу та читання ваших чатів. “Витік URL — це не просто метадані, — кажуть дослідники, — це може бути еквівалентом витоку самої розмови.”  Grok, AI-чатбот від Elon Musk з xAI, є найбільш відкритим. Гостеві розмови за замовчуванням є публічними на платформі — входу не потрібно, щоб їх прочитати. Трекер TikTok отримував не лише URL-адреси, а й дослівний вміст повідомлень через так звані метадані Open Graph, стандарт, який використовується для створення попередніх зображень при поширенні посилання. Фактично, система TikTok отримувала скріншот вашої розмови.

Зображення: Інститут IMDEA Networks

Claude (Anthropic) і ChatGPT (OpenAI) мають більш жорсткий контроль доступу — ваші чати не є публічними, якщо ви не вирішите їх поділитися. Але вони все одно передають URL-адреси розмов і ідентифікаційні дані, такі як рекламні файли cookie, до Meta і Google. Для Claude ці дані передаються через 11 рекламних платформ через сервери Anthropic, а не через браузер, тому блокувальник реклами цього не зупинить. Perplexity минулого місяця видалив свій трекер Meta. Що ви можете зробити Дослідження визнає, що воно не довело, що Meta або Google дійсно читали чиїсь чати. Але інфраструктура для цього існує, і дані передаються. “Обрані LLM пропонують засоби контролю приватності для обмеження видимості розмов, але можуть вводити користувачів в оману, натякаючи на більш сильний захист, ніж він фактично забезпечений,” стверджують дослідники. «Хоча у нас ще немає доказів, що трекери читають розмови, поширення постійних посилань і, відповідно, здатність їх читати існує, і тому потенційний ризик є.» Це не перший випадок, коли платформи AI стикаються з питаннями приватності. Нещодавно Claude почав вимагати підтвердження особи державним посвідченням для нових підписників — крок, який викликав обурення тих користувачів, які перейшли з ChatGPT через побоювання щодо спостереження, повідомляє Decrypt минулого місяця. Поки що практичних кроків обмежено. На Grok обмежте видимість розмов у налаштуваннях і явно відкличте будь-яке посилання, яке ви вже поділилися. На Claude хоча б відмовтеся від необов’язкових файлів cookie — це принаймні вимикає Meta Pixel. На Perplexity зробіть розмови приватними. На ChatGPT відмовтеся від файлів cookie там, де можливо, щоб зменшити ризик, хоча Google Analytics все ще працює для безкоштовних користувачів із входом. Якщо хочете ще глибше і бути повністю захищеними, наш посібник з приватності AI може стати хорошим ресурсом для ознайомлення. Дослідники планують розширити свій аналіз на Meta AI, Microsoft Copilot і Google Gemini — їх виключили з цього раунду, оскільки вони працюють як одночасно провайдери AI, так і рекламні компанії, що ускладнює модель загрози. Результати були подані до органів захисту даних 13 квітня 2026 року. xAI було повідомлено 17 квітня. На момент публікації жодна компанія не відповіла.

GROK-2,44%
XAI1,72%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити