Критики высмеивают заявления Anthropic: китайские лаборатории ИИ крадут ее данные

Критики высмеивают заявления Anthropic о том, что китайские лаборатории ИИ крадут их данные

Джейсон Нельсон

Вт, 24 февраля 2026 г., 07:40 по японскому времени 3 мин чтения

В этой статье:

ANTH.PVT

Anthropic обвинила три китайские лаборатории ИИ в извлечении миллионов ответов из их чатбота Claude для обучения конкурирующих систем, что, по мнению компании, нарушает условия использования и ослабляет экспортный контроль США.

В опубликованном в понедельник блоге Anthropic заявила, что обнаружила «промышленные масштабы кампаний» со стороны разработчиков ИИ DeepSeek, Moonshot и MiniMax по извлечению возможностей Claude через дистилляцию моделей. Компания утверждает, что лаборатории сгенерировали более 16 миллионов обменов, используя примерно 24 000 фальшивых аккаунтов.

Объявление Anthropic вызвало скептицизм и насмешки в X, где критики поставили под сомнение их позицию, учитывая, как обучаются крупные модели ИИ, включая Claude, что отражает продолжающуюся дискуссию о интеллектуальной собственности, авторских правах и добросовестном использовании.

«Вы обучались на открытом интернете и теперь называете это ‘атаками дистилляции’, когда другие учатся у вас», — написал Тори Грин, соучредитель компании по инфраструктуре ИИ IO.Net. «Лаборатории, которые любят пропагандировать ‘открытые исследования’, вдруг начинают плакать о свободном доступе.»

«Ой, нет, моя личная интеллектуальная собственность, как посмели использовать её для обучения модели ИИ, только Anthropic имеет право использовать чужую интеллектуальную собственность, нууу, это не может продолжаться!» — написал другой пользователь X.

Дистилляция — это метод обучения ИИ, при котором меньшая модель учится на результатах работы большей.

В контексте кибербезопасности это также может означать атаки по извлечению модели, когда злоумышленник использует легитимный доступ для систематического запроса системы и использования её ответов для обучения конкурирующей модели.

«Эти кампании усиливаются по масштабу и сложности», — написала Anthropic в понедельник. «Время для действий ограничено, и угроза выходит за рамки одной компании или региона. Решение этой проблемы потребует быстрого, скоординированного реагирования со стороны индустрии, политиков и глобального сообщества ИИ.»

«Дистилляция может быть легитимной: лаборатории ИИ используют её для создания меньших, более дешёвых моделей для своих клиентов», — написала Anthropic в отдельном посте в X. «Но иностранные лаборатории, незаконно дистиллирующие американские модели, могут снять ограничения, внедряя возможности моделей в свои военные, разведывательные и системы слежки.»

В июне Reddit подала иск против Anthropic, обвиняя её в сборе более 100 000 постов и комментариев и использовании данных для доработки Claude.

Reddit подала иск против Anthropic за предполагаемый несанкционированный сбор данных

Дело присоединяется к искам против OpenAI, Meta и Google за масштабный сбор онлайн-контента без разрешения.

«[Там есть] публичная сторона, которая пытается завоевать доверие потребителей, заявляя о праведности, уважении границ и закона, и частная сторона, игнорирующая любые правила, мешающие ей увеличивать доходы», — говорится в иске Reddit.

Продолжение истории  

Anthropic заявила, что расширяет меры по обнаружению, ужесточает проверку аккаунтов, делится разведданными с другими лабораториями и органами власти, а также вводит дополнительные меры безопасности для ограничения будущих попыток дистилляции.

«Но ни одна компания не может решить эту проблему в одиночку», — написала Anthropic. «Как мы отметили выше, атаки дистилляции такого масштаба требуют скоординированных действий всей индустрии ИИ, облачных провайдеров и политиков.»

Условия использования и Политика конфиденциальности

Панель управления конфиденциальностью

Подробнее

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить