Критики висміюють заяви Anthropic: китайські лабораторії штучного інтелекту крадуть її дані

Критики висміюють заяви Anthropic про крадіжку даних китайськими лабораторіями AI

Джейсон Нельсон

Вівторок, 24 лютого 2026 року, 7:40 ранку за японським часом 3 хв читання

У цій статті:

ANTH.PVT

Anthropic звинуватив три китайські лабораторії AI у витяганні мільйонів відповідей із їхнього чатбота Claude для тренування конкурентних систем, що, за словами компанії, порушує умови користування та послаблює американський експортний контроль.

У блозі, опублікованому в понеділок, Anthropic заявила, що виявила «промислові масштаби кампаній» з боку розробників AI DeepSeek, Moonshot і MiniMax щодо витягання можливостей Claude через дистиляцію моделей. Компанія стверджує, що лабораторії згенерували понад 16 мільйонів обмінів, використовуючи приблизно 24 000 фальшивих акаунтів.

Заява Anthropic викликала скептицизм і насмішки в X, де критики поставили під сумнів її позицію, враховуючи, як тренуються основні моделі AI, включаючи Claude, що відображає ширший тривалий дебат щодо інтелектуальної власності, авторських прав і справедливого використання.

“Ви тренуєтеся на відкритому інтернеті і потім називаєте це ‘атаками дистиляції’, коли інші навчаються у вас,” написав Торі Грін, співзасновник компанії AI-інфраструктури IO.Net. “Лабораторії, які люблять пропагувати ‘відкрите дослідження’, раптом плачуть через відкритий доступ.”

“Ооо ні, моя приватна IP, як сміє хтось використовувати її для тренування моделі AI, тільки Anthropic має право використовувати чужу IP, ні-ні, це не може бути!” написав інший користувач X.

Дистиляція — це метод тренування AI, при якому менша модель навчається на виходах більшої.

У контексті кібербезпеки це також може описувати атаки витягання моделей, коли зловмисник використовує легальний доступ для систематичних запитів до системи та використовує її відповіді для тренування конкурента.

“Ці кампанії стають все більш інтенсивними та складними,” написала Anthropic у понеділок. “Вікно для дій вузьке, і загроза виходить за межі окремої компанії або регіону. Для боротьби з цим потрібні швидкі, скоординовані дії галузі, політиків і глобальної спільноти AI.”

“Дистиляція може бути легальною: лабораторії AI використовують її для створення менших, дешевших моделей для своїх клієнтів,” написала Anthropic у окремому пості в X. “Але іноземні лабораторії, які незаконно дистилюють американські моделі, можуть зняти обмеження, використовуючи можливості моделей у своїх військових, розвідних і системах спостереження.”

У червні Reddit подав позов проти Anthropic, звинувативши її у зборі понад 100 000 постів і коментарів та використанні даних для тонкої настройки Claude.

Reddit подає позов проти Anthropic через ймовірне несанкціоноване збирання даних

Цей випадок приєднується до позовів проти OpenAI, Meta та Google через масштабне збирання онлайн-контенту без дозволу.

“[Там є] публічне обличчя, яке намагається увійти в свідомість споживача з претензіями на праведність і повагу до меж і закону, і приватне обличчя, яке ігнорує будь-які правила, що заважають їм ще більше збагачуватися,” йдеться у позові Reddit.

Продовження історії  

Anthropic заявила, що розширює засоби виявлення, посилює перевірку акаунтів, ділиться розвідкою з іншими лабораторіями та органами влади, а також додає заходи безпеки для обмеження майбутніх спроб дистиляції.

“Але жодна компанія не може вирішити цю проблему самотужки,” написала Anthropic. “Як ми зазначили вище, атаки дистиляції такого масштабу вимагають скоординованої відповіді галузі AI, хмарних провайдерів і політиків.”

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити