Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Приостановка разработки утечек Cybersecurity AI от Anthropic
Новость о просочившейся модели ИИ от Anthropic взбудоражила индустрию кибербезопасности, заставив акции крупных компаний резко пойти вниз. То, что поначалу выглядело как потенциальный прорыв, теперь поднимает срочные вопросы: могут ли организации доверять ИИ свои самые чувствительные цифровые активы, или этот инцидент просто подтверждает необходимость в защите со стороны экспертов?
По данным Mint, просочившийся черновик поста в блоге представил новый уровень моделей ИИ под названием Capybara. В черновике утверждалось, что Capybara превосходит флагманскую модель Anthropic, Claude Opus 4.6, в «разработке ПО, академическом рассуждении и задачах, связанных с кибербезопасностью». Также отмечалось, что обучение на Claude Mythos — модель, которую Anthropic описывает как свою самую продвинутую на данный момент — завершено.
Почему это просочилось?
Хотя Anthropic связывала утечку с «человеческой ошибкой», это объяснение может мало успокоить организации относительно того, на что способна компания, чтобы защитить конфиденциальные данные. Некоторые аналитики предполагают, что могли быть и другие мотивы.
«Утечка Capybara — это прискорбно, но я почти думаю, что ее намеренно оставили в доступном data lake, чтобы привлечь внимание к возникающим киберрискам, которые постоянно формируются по мере развития ИИ-платформ, и которые будут формироваться дальше», — заявил Трейси Голдберг, директор по кибербезопасности в Javelin Strategy & Research. «При этом все сказанное верно: модель все еще проходит тестирование, и Anthropic явно заявляет, что осознает баги и риски, которые нужно устранить, поэтому Anthropic сделала Capybara только мягким релизом».
Нависающая угроза ИИ
Anthropic также подчеркнула киберриски, связанные с этими моделями, и акцентировала внимание на обостряющейся гонке вооружений между защитниками и киберпреступниками, которая происходит с участием ИИ. Компания предупредила, что Capybara может стать первой в серии моделей, способных выявлять и эксплуатировать уязвимости гораздо быстрее, чем команды по безопасности успевают реагировать. Иными словами, преступники могут использовать модель, чтобы подпитывать новое поколение угроз кибербезопасности, управляемых ИИ.
Инвесторы отреагировали быстро: акции CrowdStrike, Datadog и Zscaler упали более чем на 10% в начале торгов.
«Обвал технологических акций на фоне новостей об утечке Capybara действительно лишь подчеркивает, насколько инвесторы плохо понимают ИИ в целом», — сказал Голдберг. «Мы знаем, что эти модели будут продолжать адаптироваться и делать это в более быстром темпе, чем успевают отрабатывать меры отраслевой безопасности. Именно поэтому управление (governance) вокруг ИИ так критично».
0
0
Теги: AIAnthropicCrowdStrikeCybersecurityMint