Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Критики высмеивают заявления Anthropic: китайские лаборатории ИИ крадут ее данные
Критики высмеивают заявления Anthropic о том, что китайские лаборатории ИИ крадут их данные
Джейсон Нельсон
Вт, 24 февраля 2026 г., 07:40 по японскому времени 3 мин чтения
В этой статье:
ANTH.PVT
Anthropic обвинила три китайские лаборатории ИИ в извлечении миллионов ответов из их чатбота Claude для обучения конкурирующих систем, что, по мнению компании, нарушает условия использования и ослабляет экспортный контроль США.
В опубликованном в понедельник блоге Anthropic заявила, что обнаружила «промышленные масштабы кампаний» со стороны разработчиков ИИ DeepSeek, Moonshot и MiniMax по извлечению возможностей Claude через дистилляцию моделей. Компания утверждает, что лаборатории сгенерировали более 16 миллионов обменов, используя примерно 24 000 фальшивых аккаунтов.
Объявление Anthropic вызвало скептицизм и насмешки в X, где критики поставили под сомнение их позицию, учитывая, как обучаются крупные модели ИИ, включая Claude, что отражает продолжающуюся дискуссию о интеллектуальной собственности, авторских правах и добросовестном использовании.
«Вы обучались на открытом интернете и теперь называете это ‘атаками дистилляции’, когда другие учатся у вас», — написал Тори Грин, соучредитель компании по инфраструктуре ИИ IO.Net. «Лаборатории, которые любят пропагандировать ‘открытые исследования’, вдруг начинают плакать о свободном доступе.»
«Ой, нет, моя личная интеллектуальная собственность, как посмели использовать её для обучения модели ИИ, только Anthropic имеет право использовать чужую интеллектуальную собственность, нууу, это не может продолжаться!» — написал другой пользователь X.
Дистилляция — это метод обучения ИИ, при котором меньшая модель учится на результатах работы большей.
В контексте кибербезопасности это также может означать атаки по извлечению модели, когда злоумышленник использует легитимный доступ для систематического запроса системы и использования её ответов для обучения конкурирующей модели.
«Эти кампании усиливаются по масштабу и сложности», — написала Anthropic в понедельник. «Время для действий ограничено, и угроза выходит за рамки одной компании или региона. Решение этой проблемы потребует быстрого, скоординированного реагирования со стороны индустрии, политиков и глобального сообщества ИИ.»
«Дистилляция может быть легитимной: лаборатории ИИ используют её для создания меньших, более дешёвых моделей для своих клиентов», — написала Anthropic в отдельном посте в X. «Но иностранные лаборатории, незаконно дистиллирующие американские модели, могут снять ограничения, внедряя возможности моделей в свои военные, разведывательные и системы слежки.»
В июне Reddit подала иск против Anthropic, обвиняя её в сборе более 100 000 постов и комментариев и использовании данных для доработки Claude.
Reddit подала иск против Anthropic за предполагаемый несанкционированный сбор данных
Дело присоединяется к искам против OpenAI, Meta и Google за масштабный сбор онлайн-контента без разрешения.
«[Там есть] публичная сторона, которая пытается завоевать доверие потребителей, заявляя о праведности, уважении границ и закона, и частная сторона, игнорирующая любые правила, мешающие ей увеличивать доходы», — говорится в иске Reddit.
Anthropic заявила, что расширяет меры по обнаружению, ужесточает проверку аккаунтов, делится разведданными с другими лабораториями и органами власти, а также вводит дополнительные меры безопасности для ограничения будущих попыток дистилляции.
«Но ни одна компания не может решить эту проблему в одиночку», — написала Anthropic. «Как мы отметили выше, атаки дистилляции такого масштаба требуют скоординированных действий всей индустрии ИИ, облачных провайдеров и политиков.»
Условия использования и Политика конфиденциальности
Панель управления конфиденциальностью
Подробнее