Anthropic обвиняет китайские лаборатории ИИ в майнинге Claude, пока в США ведутся дебаты о экспорте чипов для ИИ

Обвинения Anthropic в адрес китайских лабораторий ИИ за добычу Claude на фоне дебатов о экспорте чипов для ИИ в США

Ребекка Беллан

Вт, 24 февраля 2026 г., 04:57 по японскому времени 4 мин чтения

Логотип Deepseek отображается на экране мобильного телефона с флагом Китая и двоичным кодом в этой иллюстрации в Брюсселе, Бельгия, 22 февраля 2026 г. (Фото Джонатана Раа/NurPhoto через Getty Images) | Источник изображения: Getty Images

Anthropic обвиняет три китайские лаборатории ИИ в создании более 24 000 фальшивых аккаунтов с использованием модели Claude для улучшения своих собственных моделей.

Лаборатории — DeepSeek, Moonshot AI и MiniMax — якобы сгенерировали более 16 миллионов обменов с Claude через эти аккаунты с помощью техники, называемой «дистилляцией». Anthropic заявил, что лаборатории «нацелились на наиболее дифференцированные возможности Claude: агентное рассуждение, использование инструментов и программирование».

Обвинения возникают на фоне дебатов о том, насколько строго следует контролировать экспорт передовых чипов для ИИ, что является политикой, направленной на ограничение развития ИИ в Китае.

Дистилляция — распространённый метод обучения, который используют лаборатории ИИ для создания меньших и более дешёвых версий своих моделей, но конкуренты могут использовать его для фактического копирования работы других лабораторий. OpenAI ранее направила меморандум законодателям Палаты представителей, обвиняя DeepSeek в использовании дистилляции для имитации своих продуктов.

DeepSeek впервые привлёк внимание год назад, когда выпустил свою открытую модель рассуждения R1, которая почти достигла уровня американских передовых лабораторий по производительности при значительно меньших затратах. Ожидается, что скоро DeepSeek представит DeepSeek V4 — свою последнюю модель, которая, по сообщениям, превосходит Claude от Anthropic и ChatGPT от OpenAI в программировании.

Масштаб каждой атаки различался по охвату. Anthropic отслеживал более 150 000 обменов с DeepSeek, которые, по их мнению, были направлены на улучшение базовой логики и согласованности, особенно в области безопасных альтернатив цензурных запросов, чувствительных к политике.

Moonshot AI имел более 3,4 миллиона обменов, нацеленных на агентное рассуждение и использование инструментов, программирование и анализ данных, разработку агентов для использования компьютеров и компьютерное зрение. В прошлом месяце компания выпустила новую открытую модель Kimi K2.5 и программного агента.

MiniMax осуществлял 13 миллионов обменов, ориентированных на агентное программирование, использование инструментов и оркестрацию. Anthropic заявил, что наблюдал за действиями MiniMax, когда он перенаправлял почти половину своего трафика для заимствования возможностей у последней модели Claude при её запуске.

Anthropic заявляет, что продолжит инвестировать в защитные меры, усложняющие выполнение дистилляционных атак и упрощающие их обнаружение, но призывает к «координированному ответу всей индустрии ИИ, облачных провайдеров и политиков».

Дистилляционные атаки происходят в то время, когда экспорт американских чипов в Китай всё ещё активно обсуждается. В прошлом месяце администрация Трампа официально разрешила компаниям США, таким как Nvidia, экспортировать передовые чипы для ИИ (например, H200) в Китай. Критики утверждают, что такое ослабление экспортных ограничений увеличивает вычислительные возможности Китая в области ИИ в критический момент глобальной гонки за доминирование в ИИ.

Продолжение статьи  

Anthropic утверждает, что масштаб добычи данных DeepSeek, MiniMax и Moonshot «требует доступа к передовым чипам».

«Дистилляционные атаки, следовательно, подтверждают необходимость экспортных ограничений: ограничение доступа к чипам ограничивает как прямое обучение моделей, так и масштаб нелегальной дистилляции», — говорится в блоге Anthropic.

Дмитрий Алперович, председатель аналитического центра Silverado Policy Accelerator и соучредитель CrowdStrike, заявил TechCrunch, что не удивлён этим атакам.

«Давно очевидно, что одна из причин быстрого прогресса китайских моделей ИИ — это кража через дистилляцию передовых американских моделей. Теперь мы знаем это точно», — сказал Алперович. «Это должно дать нам ещё больше оснований отказаться продавать любые чипы ИИ этим компаниям, что только даст им преимущество».

Anthropic также отметил, что дистилляция не только угрожает подорвать американское превосходство в области ИИ, но и может создавать риски для национальной безопасности.

«Anthropic и другие американские компании создают системы, которые предотвращают использование ИИ государственными и негосударственными акторами для разработки биологического оружия или проведения вредоносных киберопераций», — говорится в блоге Anthropic. «Модели, созданные через нелегальную дистилляцию, вряд ли сохранят эти меры безопасности, что позволяет опасным возможностям распространяться без защиты».

Anthropic указал на авторитарные правительства, использующие передовые модели ИИ для таких целей, как «наступательные кибероперации, кампании дезинформации и массовое наблюдение», что увеличивается, если эти модели открыты для общего доступа.

TechCrunch обратился к DeepSeek, MiniMax и Moonshot за комментариями.

Условия использования и Политика конфиденциальности

Панель управления конфиденциальностью

Подробнее

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить