Образ Anthropic звинувачує три китайські лабораторії штучного інтелекту у створенні понад 24 000 фальшивих акаунтів із моделлю Claude для покращення власних моделей.
Ці лабораторії — DeepSeek, Moonshot AI і MiniMax — нібито здійснили понад 16 мільйонів обмінів із Claude через ці акаунти, використовуючи техніку під назвою «дистиляція». Anthropic заявляє, що лабораторії «націлювалися на найвідмінніші можливості Claude: агентне мислення, використання інструментів і програмування».
Обвинувачення виникають на тлі дебатів щодо того, наскільки строго слід контролювати експорт передових чіпів для штучного інтелекту, політики, спрямованої на стримування розвитку AI у Китаї.
Дистиляція — поширений метод навчання, який використовують лабораторії штучного інтелекту для створення менших і дешевших версій своїх моделей, але конкуренти можуть використовувати його для фактичного копіювання роботи інших лабораторій. OpenAI надіслала меморандум законодавцям Палати представників на початку цього місяця, звинувативши DeepSeek у використанні дистиляції для імітації своїх продуктів.
DeepSeek вперше привернула увагу рік тому, коли випустила свою відкриту модель розуміння R1, яка майже досягла рівня американських передових лабораторій за продуктивністю при значно нижчій ціні. Очікується, що незабаром DeepSeek випустить DeepSeek V4, свою найновішу модель, яка, за повідомленнями, може перевершити Claude від Anthropic і ChatGPT від OpenAI у програмуванні.
Масштаб кожної атаки різнився за обсягом. Anthropic відстежила понад 150 000 обмінів від DeepSeek, спрямованих на покращення базової логіки та узгодженості, зокрема щодо безпечних альтернатив цензурі для запитів, чутливих до політики.
Moonshot AI здійснила понад 3,4 мільйона обмінів, спрямованих на агентне мислення і використання інструментів, програмування і аналіз даних, розробку агентів для роботи з комп’ютерами та комп’ютерне зору. Минулого місяця компанія випустила нову відкриту модель Kimi K2.5 і агент для програмування.
MiniMax здійснила 13 мільйонів обмінів, спрямованих на агентне програмування, використання інструментів і оркестрацію. Anthropic повідомляє, що спостерігала за роботою MiniMax, коли вона перенаправляла майже половину свого трафіку для витягування можливостей із останньої моделі Claude під час її запуску.
Anthropic заявляє, що продовжить інвестувати у захисти, які ускладнюють виконання дистиляційних атак і полегшують їх виявлення, але закликає до «координованої відповіді галузі штучного інтелекту, провайдерів хмарних послуг і політиків».
Дистиляційні атаки відбуваються у час, коли експорт американських чіпів до Китаю все ще активно обговорюється. Минулого місяця адміністрація Трампа офіційно дозволила компаніям США, таким як Nvidia, експортувати передові AI-чіпи (наприклад, H200) до Китаю. Критики стверджують, що це послаблення експортних обмежень збільшує обчислювальні можливості Китаю у сфері AI у критичний час глобальної гонки за домінування у цій галузі.
Anthropic стверджує, що масштаб витягання даних DeepSeek, MiniMax і Moonshot «вимагає доступу до передових чіпів».
«Дистиляційні атаки тому підтверджують обґрунтованість експортних обмежень: обмежений доступ до чіпів обмежує як безпосереднє навчання моделей, так і масштаб нелегальної дистиляції», — йдеться у блозі Anthropic.
Дмитро Альперовіч, голова аналітичного центру Silverado Policy Accelerator і співзасновник CrowdStrike, сказав TechCrunch, що він не здивований цими атаками.
«Здавна було очевидно, що частиною швидкого прогресу китайських моделей AI є крадіжка через дистиляцію передових моделей США. Тепер ми це знаємо точно», — сказав Альперовіч. «Це дає нам ще більше підстав відмовитися від продажу будь-яких AI-чіпів цим компаніям, що лише додатково їм вигідно».
Anthropic також заявляє, що дистиляція не лише підриває американське домінування у сфері AI, а й може створювати ризики для національної безпеки.
«Anthropic та інші американські компанії створюють системи, які запобігають використанню AI державними та недержавними акторами для, наприклад, розробки біологічної зброї або здійснення зловмисних кібероперацій», — йдеться у блозі Anthropic. «Моделі, створені через нелегальну дистиляцію, навряд чи збережуть ці заходи безпеки, що дозволяє поширюватися небезпечним можливостям без належного захисту».
Anthropic зазначає, що авторитарні уряди використовують передові моделі AI для таких цілей, як «офензивні кібероперації, кампанії дезінформації та масове спостереження», і цей ризик зростає, якщо ці моделі відкрито доступні.
TechCrunch звернувся до DeepSeek, MiniMax і Moonshot за коментарями.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Anthropic звинувачує китайські лабораторії штучного інтелекту у майнингу Claude, поки США обговорюють експорт чіпів для ШІ
Образ Anthropic звинувачує три китайські лабораторії штучного інтелекту у створенні понад 24 000 фальшивих акаунтів із моделлю Claude для покращення власних моделей.
Ці лабораторії — DeepSeek, Moonshot AI і MiniMax — нібито здійснили понад 16 мільйонів обмінів із Claude через ці акаунти, використовуючи техніку під назвою «дистиляція». Anthropic заявляє, що лабораторії «націлювалися на найвідмінніші можливості Claude: агентне мислення, використання інструментів і програмування».
Обвинувачення виникають на тлі дебатів щодо того, наскільки строго слід контролювати експорт передових чіпів для штучного інтелекту, політики, спрямованої на стримування розвитку AI у Китаї.
Дистиляція — поширений метод навчання, який використовують лабораторії штучного інтелекту для створення менших і дешевших версій своїх моделей, але конкуренти можуть використовувати його для фактичного копіювання роботи інших лабораторій. OpenAI надіслала меморандум законодавцям Палати представників на початку цього місяця, звинувативши DeepSeek у використанні дистиляції для імітації своїх продуктів.
DeepSeek вперше привернула увагу рік тому, коли випустила свою відкриту модель розуміння R1, яка майже досягла рівня американських передових лабораторій за продуктивністю при значно нижчій ціні. Очікується, що незабаром DeepSeek випустить DeepSeek V4, свою найновішу модель, яка, за повідомленнями, може перевершити Claude від Anthropic і ChatGPT від OpenAI у програмуванні.
Масштаб кожної атаки різнився за обсягом. Anthropic відстежила понад 150 000 обмінів від DeepSeek, спрямованих на покращення базової логіки та узгодженості, зокрема щодо безпечних альтернатив цензурі для запитів, чутливих до політики.
Moonshot AI здійснила понад 3,4 мільйона обмінів, спрямованих на агентне мислення і використання інструментів, програмування і аналіз даних, розробку агентів для роботи з комп’ютерами та комп’ютерне зору. Минулого місяця компанія випустила нову відкриту модель Kimi K2.5 і агент для програмування.
MiniMax здійснила 13 мільйонів обмінів, спрямованих на агентне програмування, використання інструментів і оркестрацію. Anthropic повідомляє, що спостерігала за роботою MiniMax, коли вона перенаправляла майже половину свого трафіку для витягування можливостей із останньої моделі Claude під час її запуску.
Anthropic заявляє, що продовжить інвестувати у захисти, які ускладнюють виконання дистиляційних атак і полегшують їх виявлення, але закликає до «координованої відповіді галузі штучного інтелекту, провайдерів хмарних послуг і політиків».
Дистиляційні атаки відбуваються у час, коли експорт американських чіпів до Китаю все ще активно обговорюється. Минулого місяця адміністрація Трампа офіційно дозволила компаніям США, таким як Nvidia, експортувати передові AI-чіпи (наприклад, H200) до Китаю. Критики стверджують, що це послаблення експортних обмежень збільшує обчислювальні можливості Китаю у сфері AI у критичний час глобальної гонки за домінування у цій галузі.
Anthropic стверджує, що масштаб витягання даних DeepSeek, MiniMax і Moonshot «вимагає доступу до передових чіпів».
«Дистиляційні атаки тому підтверджують обґрунтованість експортних обмежень: обмежений доступ до чіпів обмежує як безпосереднє навчання моделей, так і масштаб нелегальної дистиляції», — йдеться у блозі Anthropic.
Дмитро Альперовіч, голова аналітичного центру Silverado Policy Accelerator і співзасновник CrowdStrike, сказав TechCrunch, що він не здивований цими атаками.
«Здавна було очевидно, що частиною швидкого прогресу китайських моделей AI є крадіжка через дистиляцію передових моделей США. Тепер ми це знаємо точно», — сказав Альперовіч. «Це дає нам ще більше підстав відмовитися від продажу будь-яких AI-чіпів цим компаніям, що лише додатково їм вигідно».
Anthropic також заявляє, що дистиляція не лише підриває американське домінування у сфері AI, а й може створювати ризики для національної безпеки.
«Anthropic та інші американські компанії створюють системи, які запобігають використанню AI державними та недержавними акторами для, наприклад, розробки біологічної зброї або здійснення зловмисних кібероперацій», — йдеться у блозі Anthropic. «Моделі, створені через нелегальну дистиляцію, навряд чи збережуть ці заходи безпеки, що дозволяє поширюватися небезпечним можливостям без належного захисту».
Anthropic зазначає, що авторитарні уряди використовують передові моделі AI для таких цілей, як «офензивні кібероперації, кампанії дезінформації та масове спостереження», і цей ризик зростає, якщо ці моделі відкрито доступні.
TechCrunch звернувся до DeepSeek, MiniMax і Moonshot за коментарями.