Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Запуск ф'ючерсів
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
New
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Критики висміюють заяви Anthropic: китайські лабораторії штучного інтелекту крадуть її дані
Критики висміюють заяви Anthropic про крадіжку даних китайськими лабораторіями AI
Джейсон Нельсон
Вівторок, 24 лютого 2026 року, 7:40 ранку за японським часом 3 хв читання
У цій статті:
ANTH.PVT
Anthropic звинуватив три китайські лабораторії AI у витяганні мільйонів відповідей із їхнього чатбота Claude для тренування конкурентних систем, що, за словами компанії, порушує умови користування та послаблює американський експортний контроль.
У блозі, опублікованому в понеділок, Anthropic заявила, що виявила «промислові масштаби кампаній» з боку розробників AI DeepSeek, Moonshot і MiniMax щодо витягання можливостей Claude через дистиляцію моделей. Компанія стверджує, що лабораторії згенерували понад 16 мільйонів обмінів, використовуючи приблизно 24 000 фальшивих акаунтів.
Заява Anthropic викликала скептицизм і насмішки в X, де критики поставили під сумнів її позицію, враховуючи, як тренуються основні моделі AI, включаючи Claude, що відображає ширший тривалий дебат щодо інтелектуальної власності, авторських прав і справедливого використання.
“Ви тренуєтеся на відкритому інтернеті і потім називаєте це ‘атаками дистиляції’, коли інші навчаються у вас,” написав Торі Грін, співзасновник компанії AI-інфраструктури IO.Net. “Лабораторії, які люблять пропагувати ‘відкрите дослідження’, раптом плачуть через відкритий доступ.”
“Ооо ні, моя приватна IP, як сміє хтось використовувати її для тренування моделі AI, тільки Anthropic має право використовувати чужу IP, ні-ні, це не може бути!” написав інший користувач X.
Дистиляція — це метод тренування AI, при якому менша модель навчається на виходах більшої.
У контексті кібербезпеки це також може описувати атаки витягання моделей, коли зловмисник використовує легальний доступ для систематичних запитів до системи та використовує її відповіді для тренування конкурента.
“Ці кампанії стають все більш інтенсивними та складними,” написала Anthropic у понеділок. “Вікно для дій вузьке, і загроза виходить за межі окремої компанії або регіону. Для боротьби з цим потрібні швидкі, скоординовані дії галузі, політиків і глобальної спільноти AI.”
“Дистиляція може бути легальною: лабораторії AI використовують її для створення менших, дешевших моделей для своїх клієнтів,” написала Anthropic у окремому пості в X. “Але іноземні лабораторії, які незаконно дистилюють американські моделі, можуть зняти обмеження, використовуючи можливості моделей у своїх військових, розвідних і системах спостереження.”
У червні Reddit подав позов проти Anthropic, звинувативши її у зборі понад 100 000 постів і коментарів та використанні даних для тонкої настройки Claude.
Reddit подає позов проти Anthropic через ймовірне несанкціоноване збирання даних
Цей випадок приєднується до позовів проти OpenAI, Meta та Google через масштабне збирання онлайн-контенту без дозволу.
“[Там є] публічне обличчя, яке намагається увійти в свідомість споживача з претензіями на праведність і повагу до меж і закону, і приватне обличчя, яке ігнорує будь-які правила, що заважають їм ще більше збагачуватися,” йдеться у позові Reddit.
Anthropic заявила, що розширює засоби виявлення, посилює перевірку акаунтів, ділиться розвідкою з іншими лабораторіями та органами влади, а також додає заходи безпеки для обмеження майбутніх спроб дистиляції.
“Але жодна компанія не може вирішити цю проблему самотужки,” написала Anthropic. “Як ми зазначили вище, атаки дистиляції такого масштабу вимагають скоординованої відповіді галузі AI, хмарних провайдерів і політиків.”