Приостановка разработки утечек Cybersecurity AI от Anthropic

Новость о просочившейся модели ИИ от Anthropic взбудоражила индустрию кибербезопасности, заставив акции крупных компаний резко пойти вниз. То, что поначалу выглядело как потенциальный прорыв, теперь поднимает срочные вопросы: могут ли организации доверять ИИ свои самые чувствительные цифровые активы, или этот инцидент просто подтверждает необходимость в защите со стороны экспертов?

По данным Mint, просочившийся черновик поста в блоге представил новый уровень моделей ИИ под названием Capybara. В черновике утверждалось, что Capybara превосходит флагманскую модель Anthropic, Claude Opus 4.6, в «разработке ПО, академическом рассуждении и задачах, связанных с кибербезопасностью». Также отмечалось, что обучение на Claude Mythos — модель, которую Anthropic описывает как свою самую продвинутую на данный момент — завершено.

Почему это просочилось?

Хотя Anthropic связывала утечку с «человеческой ошибкой», это объяснение может мало успокоить организации относительно того, на что способна компания, чтобы защитить конфиденциальные данные. Некоторые аналитики предполагают, что могли быть и другие мотивы.

«Утечка Capybara — это прискорбно, но я почти думаю, что ее намеренно оставили в доступном data lake, чтобы привлечь внимание к возникающим киберрискам, которые постоянно формируются по мере развития ИИ-платформ, и которые будут формироваться дальше», — заявил Трейси Голдберг, директор по кибербезопасности в Javelin Strategy & Research. «При этом все сказанное верно: модель все еще проходит тестирование, и Anthropic явно заявляет, что осознает баги и риски, которые нужно устранить, поэтому Anthropic сделала Capybara только мягким релизом».

Нависающая угроза ИИ

Anthropic также подчеркнула киберриски, связанные с этими моделями, и акцентировала внимание на обостряющейся гонке вооружений между защитниками и киберпреступниками, которая происходит с участием ИИ. Компания предупредила, что Capybara может стать первой в серии моделей, способных выявлять и эксплуатировать уязвимости гораздо быстрее, чем команды по безопасности успевают реагировать. Иными словами, преступники могут использовать модель, чтобы подпитывать новое поколение угроз кибербезопасности, управляемых ИИ.

Инвесторы отреагировали быстро: акции CrowdStrike, Datadog и Zscaler упали более чем на 10% в начале торгов.

«Обвал технологических акций на фоне новостей об утечке Capybara действительно лишь подчеркивает, насколько инвесторы плохо понимают ИИ в целом», — сказал Голдберг. «Мы знаем, что эти модели будут продолжать адаптироваться и делать это в более быстром темпе, чем успевают отрабатывать меры отраслевой безопасности. Именно поэтому управление (governance) вокруг ИИ так критично».

0

                    АКЦИЙ

0

                ПРОСМОТРОВ
            

            

            

                Поделиться в FacebookПоделиться в TwitterПоделиться в LinkedIn

Теги: AIAnthropicCrowdStrikeCybersecurityMint

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить