Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
#ClaudeCode500KCodeLeak
🔥 Основные новости индустрии ИИ: Объяснение В конце марта 2026 года в мире искусственного интеллекта произошел один из самых обсуждаемых инцидентов: Anthropic — компания, создавшая популярного помощника по программированию на ИИ Claude Code — случайно опубликовала в интернете значительную часть своего закрытого исходного кода, что вызвало вирусный хештег #ClaudeCode500KCodeLeak.
📌 Что произошло?
Во время рутинного обновления программного обеспечения Anthropic по ошибке включила (файл карты исходного кода) в публичный релиз Claude Code на npm-репозитории. Этот файл не предназначался для публикации — но из-за особенностей работы карт исходного кода он позволил любому восстановить внутренний исходный код инструмента ИИ.
В результате около 500 000 строк закрытого TypeScript-кода Claude Code стали доступны для чтения и загрузки, включая детали его внутренней архитектуры, скрытые функции и неанонсированные компоненты. Разработчики и исследователи быстро распространили и скопировали уязвимый код на GitHub и в социальных сетях, прежде чем Anthropic смогла контролировать распространение.
🧠 Что было в утечке?
Опубликованный исходный код включал:
Основную архитектуру и системы координации мультиагентов
Логику внутренних инструментов и код оркестрации
Флаги функций для неанонсированных возможностей
Скрытые эксперименты и детали реализации, отсутствующие в публичной документации продукта
Большая часть этого материала ранее не была доступна широкой публике, предоставляя непреднамеренный «внутренний взгляд» на то, как создается и структурируется крупный помощник по программированию на ИИ.
💼 Были ли скомпрометированы данные клиентов?
По словам Anthropic, в инциденте не были раскрыты чувствительные данные клиентов, учетные данные или веса базовой модели ИИ. Утечка произошла из-за ошибки в упаковке, а не из-за нарушения безопасности или взлома.
Тем не менее, даже без личной информации, раскрытие закрытого кода имеет серьезные конкурентные и безопасностьные последствия. Конкуренты могут изучать решения Anthropic, а эксперты по безопасности опасаются, что злоумышленники могут использовать полученные знания для поиска уязвимостей.
🌐 Реакция сообщества
После того как новость стала известна, разработчики по всему миру быстро отреагировали:
Тысячи пользователей перепостили код на платформах, таких как GitHub и X (ранее Twitter).
Некоторые инженеры начали анализировать системы мультиагентов, раскрытые в утечке.
Появились обсуждения о том, что означает это событие для безопасности разработки инструментов ИИ.
⚠️ Почему это важно
Хотя утекший контент не включал секреты основной модели ИИ, это все равно стало крупным событием, поскольку Claude Code — один из ведущих помощников по программированию на ИИ сегодня. Утечка показывает, как реализуются реальные ИИ-инструменты на техническом уровне, предоставляя редкий взгляд на инженерные решения, лежащие в основе систем кодирования на базе агентов.
Аналитики отрасли отмечают, что инцидент подчеркивает важность строгих операционных мер безопасности даже в компаниях, ориентированных на безопасность ИИ, и вызывает вопросы о том, как в будущем должны выпускаться и проверяться инструменты.