Китайські компанії використовували Claude для неправомірного отримання можливостей покращення власних моделей, повідомляє Anthropic
ФОТО: Ілюстрація з логотипом Anthropic · Reuters
Reuters
Вівторок, 24 лютого 2026, 3:23 ранку за місцевим часом GMT+9 1 хвилина читання
23 лютого (Reuters) — Три китайські компанії намагалися використати Claude для неправомірного отримання можливостей для покращення своїх моделей, повідомила у понеділок компанія-розробник чатбота Anthropic у блозі.
DeepSeek, Moonshot і MiniMax створили понад 16 мільйонів взаємодій із Claude, використовуючи приблизно 24 000 фальшивих акаунтів, що порушує умови обслуговування Anthropic та регіональні обмеження доступу.
Вони застосували техніку під назвою “дистиляція”, яка полягає у тому, що більш старша, більш усталена та потужна модель штучного інтелекту оцінює якість відповідей, що виходять із новішої моделі, фактично передаючи знання старшої моделі, повідомила Anthropic.
“Ці кампанії стають все більш інтенсивними та складними. Вікно для дій є вузьким, і загроза виходить за межі будь-якої окремої компанії чи регіону.”
DeepSeek AI і MiniMax не одразу відповіли на запити про коментарі.
(Репортаж Юбі Бабу з Мехіко; редагування Алан Барана)
Умови та Політика конфіденційності
Панель конфіденційності
Більше інформації
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Китайські компанії використовували Claude для покращення власних моделей, повідомляє Anthropic
Китайські компанії використовували Claude для неправомірного отримання можливостей покращення власних моделей, повідомляє Anthropic
ФОТО: Ілюстрація з логотипом Anthropic · Reuters
Reuters
Вівторок, 24 лютого 2026, 3:23 ранку за місцевим часом GMT+9 1 хвилина читання
23 лютого (Reuters) — Три китайські компанії намагалися використати Claude для неправомірного отримання можливостей для покращення своїх моделей, повідомила у понеділок компанія-розробник чатбота Anthropic у блозі.
DeepSeek, Moonshot і MiniMax створили понад 16 мільйонів взаємодій із Claude, використовуючи приблизно 24 000 фальшивих акаунтів, що порушує умови обслуговування Anthropic та регіональні обмеження доступу.
Вони застосували техніку під назвою “дистиляція”, яка полягає у тому, що більш старша, більш усталена та потужна модель штучного інтелекту оцінює якість відповідей, що виходять із новішої моделі, фактично передаючи знання старшої моделі, повідомила Anthropic.
“Ці кампанії стають все більш інтенсивними та складними. Вікно для дій є вузьким, і загроза виходить за межі будь-якої окремої компанії чи регіону.”
DeepSeek AI і MiniMax не одразу відповіли на запити про коментарі.
(Репортаж Юбі Бабу з Мехіко; редагування Алан Барана)
Умови та Політика конфіденційності
Панель конфіденційності
Більше інформації