Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Американский гигант ИИ с 510 000 строк исходного кода утек! Разработчики напрямую «списывают работу»? Юристы предупреждают о рисках
Поскольку один из сотрудников по ошибке допустил утечку 512 000 строк исходного кода Claude Code, весь сектор получил возможность заглянуть во внутреннюю архитектуру нового гиганта в области искусственного интеллекта (AI) Anthropic, а также заранее стала известна схема его продуктов — электронных питомцев и персистентных AI-ассистентов.
Местное время 31 марта: из-за ошибки при сборке npm-пакета исходный код Claude Code был раскрыт. В течение нескольких часов утекший код оформился на GitHub в виде распространения с более чем 10 000 звезд и более чем 20 000 резервных копий.
В ответ на это Anthropic в письме корреспонденту «Ежедневной экономической газеты» (далее — корреспондент «ежедневной экономической газеты») сообщила, что это проблема упаковки релиза, вызванная человеческой ошибкой (human error), а не уязвимостью безопасности.
Эксперты отмечают, что эта утечка дает возможность «списать» — повышать собственные продуктовые возможности для малых и средних разработчиков, однако коммерческое использование соответствующего кода сталкивается с юридическими рисками.
** «Открытый исходный код» из 510 000 строк Claude Code**
Местное время 31 марта: стажер-исследователь компании Web3 по кибербезопасности FuzzLand Чаофань Шоу (Chaofan Shou) в социальной платформе X сообщил, что исходный код инструмента для программирования на AI Claude Code, принадлежащего Anthropic, был случайно раскрыт.
Согласно его описанию, при проверке npm-пакета Claude Code он обнаружил файл cli.js.map объемом 57MB, который указывал на ссылку на bucket, где содержались 1900 файлов TypeScript, в общей сложности более 512 000 строк полного исходного кода без обфускации и декомпиляции. Это означает, что разработчики могут легко подсмотреть и даже восстановить внутреннюю структуру Claude Code.
Корень проблемы несложен: файлы source map, которые должны были быть исключены из производственной сборки, из-за упущений в конфигурации .npmignore или неправильных настроек процесса сборки были опубликованы вместе с релизом на npm registry — общедоступной платформе. В течение нескольких часов соответствующий код был загружен на GitHub и широко распространился; более того, уже появились разработчики, которые полностью восстановили Claude Code на основе утекшего содержимого.
После того как событие получило развитие, Anthropic срочно обновила npm-пакет и удалила соответствующие файлы, а также стерла ранние версии. Но было уже поздно.
Корреспондент «ежедневной экономической газеты» обратился в Anthropic за подтверждением по этому вопросу. Компания ответила: «Сегодня ранее в одном из релизов Claude Code содержалась часть внутреннего исходного кода. В этом инциденте не было случаев затрагивания или раскрытия каких-либо конфиденциальных данных клиентов или учетных данных. Это проблема упаковки релиза, вызванная человеческой ошибкой, а не уязвимость безопасности. Мы внедряем меры, чтобы подобные ситуации больше не повторялись».
Это уже второй крупный инцидент утечки, произошедший с Anthropic в течение одной недели. 26 марта компания только что из-за ошибочной конфигурации CMS (content management system, система управления контентом) раскрыла сведения модели под названием Claude Mythos и около 3000 непубличных активов. Раньше, еще до этого, проблемы с утечкой исходного кода и системных подсказок у Claude Code также возникали в феврале 2025 года и декабре 2024 года. Частые «человеческие промахи» продолжают подтачивать доверие рынка к ее возможностям в сфере безопасности.
«Утечка уровня производства»: заранее раскрыты непубличные электронные питомцы и персистентные AI-ассистенты
По мере того как разработчики углублялись в анализ утекшего кода, постепенно становилась ясной внутренняя система Claude Code, намного более обширная, чем ожидал внешний мир. Это не просто инструмент-обертка для API, а полноценная production-level среда разработки.
Согласно анализу репозитория на GitHub, утекший кодовый пакет включает более 40 инструментов контроля прав, движок запросов, содержащий 46 000 строк кода, систему координации множества агентов, функции IDE-моста и механизм персистентной памяти и т. п. В коде также обнаружены 35 флагов функций на этапе компиляции и более 120 непубличных переменных окружения; через переменную окружения USER_TYPE=ant сотрудники Anthropic могут разблокировать все внутренние функции.
Некоторые программисты отмечают, что содержимое утечки Claude показывает: это не AI-ассистент для программирования, а скорее операционная система.
Еще более примечательно наличие нескольких экспериментальных функций, которые еще не были выпущены.
Во-первых, это терминальная система электронного питомца под названием BUDDY.
Из кода видно, что BUDDY — это AI-система-партнер, похожая на электронного питомца «Тамагочи» (Tamagotchi), который был популярен по всему миру в 90-х годах прошлого века. Его ключевой механизм сочетает user ID и псевдослучайный алгоритм для генерации уникального персонажа, включая вид, редкость, внешний вид и атрибуты. Система также поддерживает такие настройки, как «гатя» (抽卡) и светящиеся вариации, а модель автоматически генерирует «описание души». Отдельно стоит отметить: ключевые атрибуты питомца не хранятся, а динамически вычисляются на основе user ID, что обеспечивает стабильную и неизменяемую уникальность.
Во-вторых, это персистентный AI-ассистент под названием KAIROS.
KAIROS скрыт за флагами компиляции и в публичных версиях не виден. После активации эта система может постоянно отслеживать поведение пользователя, записывать информацию и активно выполнять задачи, одновременно поддерживая подробные журналы операций. В сочетании с бэкэнд-механизмом под названием autoDream, система также может в периоды низкой активности автоматически упорядочивать память, преобразуя содержимое кратких диалогов в долгосрочные структурированные знания. Этот дизайн считается очень похожим на процесс консолидации памяти человека во время сна.
Некоторый исследователь Byte AI Agent отметил, что больше всего удивляет режим KAIROS — GitHub Webhook + Cron + MCP Channel + бэкэнд Dream整理 — по сути, это перенос агента из статуса инструмента к цифровому сотруднику.
Кроме того, чтобы предотвратить утечку внутренней информации, Anthropic также разработала «режим под прикрытием» (Undercover Mode), который ограничивает сотрудников в открытых исходных вкладах упоминать внутренние названия моделей или названия инструментов. При этом в ее API встроен механизм «отравления данных»: путем внедрения ложных определений инструментов (fake_tools) мешают потенциальному извлечению данных и поведению модели при дистилляции, снижая тем самым производительность моделей конкурентов.
Эти решения показывают, что Anthropic уже вложила много сил в техническую защиту и конкурентную стратегию, но «человеческая ошибка» обнажила слабое место на уровне исполнения процесса.
За праздником разработчиков: «списать» может обернуться юридическими рисками
Как важный продукт, который соотносится с OpenAI, Claude Code долго конкурировал с такими инструментами, как GitHub Copilot. Хотя эта случайная утечка и не является официальным открытием исходного кода, многие разработчики рассматривают ее как редкую возможность для обучения.
Профессор Шанхайского университета финансов и экономики Ху Яньпин (胡延平) сказал корреспонденту «ежедневной экономической газеты», что первостепенное влияние этой утечки на экосистему AI заключается в том, что она может помочь другим командами агентов повысить уровень своих продуктов и помочь разработчикам лучше понимать технологическую дорожную карту. Он сообщил, что некоторые технические специалисты действительно анализировали утечку, восстанавливали, модифицировали, тестировали — вплоть до попыток развертывания и воспроизведения — и проводили системное исследование утекших файлов. «Для разработчиков, которые изначально обладают посредственными возможностями в области AI Agent, это, безусловно, возможность “списать”, быстро выровнять уровень продукта. Более того, в процессе “списывания” можно исправлять домашнее задание: после локальных оптимизаций некоторые аспекты фреймворка могут стать даже лучше, чем в Claude Code.»
По мнению Ху Яньпина, утечка кода действительно приносит большую пользу малым и средним разработчикам, но для крупных компаний это может быть не так. «Потому что крупные компании либо уже занимаются reverse engineering, либо в процессе создания более системной продуктовой архитектуры. Чтобы такой продукт, как Claude Code, был успешен, помимо силы отдельного продукта, зависит и от построения всей прикладной экосистемы — включая Skills-экосистему, экосистему разработчиков и партнеров, а также как с помощью full-stack AI обслуживать огромную среду из сотен миллионов устройств и сотен миллионов пользователей».
Ху Яньпин считает, что повышенное внимание и обсуждение вокруг утечки исходного кода Claude Code возникли потому, что Anthropic является одной из двух AI-компаний в мире, обладающих наиболее сильными full-stack возможностями, особенно в To B и в области кода: вторая — OpenAI. Кроме того, в таких продуктах Anthropic продвинулась дальше OpenAI и обладает более сильной product power. «Судя по утекшему коду, Claude Code системно практикует и органично интегрирует Prompt Engineering, Context Engineering и Harness Engineering — темы, которые сейчас активно обсуждаются в индустрии. В особенности Harness Engineering и функции, позволяющие управлять компьютером после обновления, дают отрасли понять направление следующего этапа развития. Управляемый (takeover) Agent как прикладная операционная система и action intelligence агент становится универсальным; в будущем он станет цифровым универсальным интеллектом, отличным от воплощенного универсального интеллекта».
Однако, в интервью корреспонденту «ежедневной экономической газеты» юрист юридической фирмы «Гао Юнь» (国浩律师事务所) У Цзюньлин (吴俊伶) напомнила, что этот инцидент больше подходит для квалификации как раскрытие source map, приведшее к возможности восстановить часть исходного кода, а не как активное согласие правообладателя на публикацию исходного кода. Поэтому то, что исходный код может быть получен внешними лицами, не означает автоматически, что каждый получил правомерное разрешение на законное копирование, переработку, интеграцию или коммерческое использование.
Она проанализировала: для компаний и разработчиков если после загрузки соответствующего кода использовать его для копирования, переработки, встраивания в собственные продукты или на его основе оптимизировать и обучать аналогичные конкурирующие продукты, обычно возникает риск в совокупности по линии авторского права, коммерческой тайны и даже недобросовестной конкуренции. Хотя после того как соответствующие исходники уже широко распространились, правообладателю сложнее задним числом заявлять коммерческую тайну на весь исходный код, это не означает автоматически, что он не сможет продолжать предъявлять права на еще не раскрытые детали либо на дальнейшее обоснование прав в отношении раннего недобросовестного получения, распространения и использования. Для текущих пользователей Anthropic ее официальные условия также прямо ограничивают использование сервиса для разработки конкурирующих продуктов, обучения конкурирующего AI, а также декомпиляции, reverse или копирования сервисов, поэтому соответствующее использование может дополнительно повлечь риск нарушения договора.
Она также отметила, что в сравнении с этим простое «ознакомление» с соответствующим кодом с целью исследования или анализа безопасности обычно несет более низкий риск; но как только это переходит в этап разработки, коммерциализации и т. п., юридические риски существенно возрастают.
На данный момент несколько репозиториев на GitHub, размещающих утекший исходный код, уже получили уведомления об удалении на основании Digital Millennium Copyright Act и были сняты. Это также дополнительно показывает, что юридическое противостояние вокруг этого события продолжается.
(Источник: «Ежедневная экономическая газета»)