Приостановка разработки утечек Cybersecurity AI от Anthropic

Новости о слитом AI-модели от Anthropic потрясли индустрию кибербезопасности, резко обрушив акции крупных компаний. То, что изначально выглядело как потенциальный изменяющий правила игры момент, теперь вызывает срочные вопросы: могут ли организации доверять AI своим самым чувствительным цифровым активам, или этот инцидент просто подтверждает необходимость в экспертной защите?

Согласно Mint, утекший черновик блога представил новый уровень AI-моделей под названием Capybara. Черновик утверждал, что Capybara превзошла флагманскую модель Anthropic, Claude Opus 4.6, в «программировании, академическом мышлении и задачах, связанных с кибербезопасностью». В нем также отмечалось, что обучение на Claude Mythos — модели, которую Anthropic описывает как самую продвинутую на сегодняшний день — завершено.

Почему это утекло?

Хотя Anthropic объяснила утечку «человеческой ошибкой», это объяснение может мало успокаивать организации относительно способности компании защищать чувствительные данные. Некоторые аналитики предполагают, что могли быть другие мотивы.

«Утечка Capybara несчастлива, но мне почти интересно, не была ли она намеренно оставлена в доступном дата-озере, чтобы подчеркнуть некоторые новые киберриски, которые постоянно развивающиеся AI-платформы представляют и будут представлять», — сказала Трейси Голдберг, директор по кибербезопасности в Javelin Strategy & Research. «При всем этом модель все еще находится на стадии тестирования, и Anthropic явно заявляет, что осознает ошибки и риски, которые необходимо устранить, именно поэтому Anthropic лишь мягко запустила Capybara.»

Надвигающаяся угроза AI

Anthropic также подчеркнула риски кибербезопасности, связанные с этими моделями, акцентируя внимание на нарастающей гонке вооружений в области AI между защитниками и киберпреступниками. Компания предостерегла, что Capybara может стать первой в серии моделей, способных выявлять и эксплуатировать уязвимости гораздо быстрее, чем команды безопасности смогут ответить. Другими словами, преступники могут использовать модель для создания нового поколения угроз кибербезопасности на основе AI.

Инвесторы отреагировали быстро, опустив акции CrowdStrike, Datadog и Zscaler более чем на 10% в начале торгов.

«Падение акций техноиндустрии после новостей об утечке Capybara действительно подчеркивает отсутствие понимания, которое инвесторы имеют в отношении AI в целом», — сказала Голдберг. «Мы знаем, что эти модели будут продолжать адаптироваться и делать это с темпом, который быстрее, чем меры безопасности в индустрии могут реагировать. Вот почему управление AI так критически важно.»

0

                    АКЦИЙ

0

                ПРОСМОТРОВ
            

            

            

                Поделиться на FacebookПоделиться в TwitterПоделиться в LinkedIn

Теги: AIAnthropicCrowdStrikeКибербезопасностьMint

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить