Приостановка разработки утечек Cybersecurity AI от Anthropic

Новости о слитом AI-модели Anthropic встряхнули индустрию кибербезопасности, отправив акции крупных компаний резко вниз. То, что изначально выглядело как потенциальный переворот, теперь поднимает неотложные вопросы: могут ли организации доверять ИИ своим самым чувствительным цифровым активам, или этот инцидент просто подчеркивает необходимость экспертной защиты?

Согласно Mint, утекший проект блога представил новый уровень AI-моделей под названием Capybara. В проекте утверждалось, что Capybara превосходит флагманскую модель Anthropic, Claude Opus 4.6, в “программировании, академическом мышлении и задачах, связанных с кибербезопасностью.” Также отмечалось, что обучение на Claude Mythos — модели, которую Anthropic описывает как свою самую продвинутую на сегодняшний день — завершено.

Почему это утекло?

Хотя Anthropic объяснил утечку “человеческой ошибкой,” это объяснение может немного успокоить организации относительно способности компании защищать чувствительные данные. Некоторые аналитики предполагают, что могли быть и другие мотивы.

“Утечка Capybara печальна, но я почти думаю, что она была намеренно оставлена в доступном хранилище данных, чтобы подчеркнуть некоторые из возникающих киберрисков, которые постоянно развивающиеся платформы AI представляют и будут представлять,” сказала Трейси Голдберг, директор по кибербезопасности в Javelin Strategy & Research. “Сказав это, модель все еще находится на стадии тестирования, и Anthropic явно заявляет, что осведомлен о багах и рисках, которые необходимо решить, именно поэтому Anthropic лишь мягко запустил Capybara.”

Надвигающаяся угроза AI

Anthropic также подчеркнул киберриски, связанные с этими моделями, акцентируя внимание на нарастающей гонке вооружений в сфере AI между защитниками и киберпреступниками. Компания предупредила, что Capybara может стать первой в серии моделей, способных идентифицировать и эксплуатировать уязвимости гораздо быстрее, чем команды безопасности могут реагировать. Другими словами, преступники могут использовать модель для создания нового поколения угроз кибербезопасности, управляемых AI.

Инвесторы отреагировали быстро, отправив акции CrowdStrike, Datadog и Zscaler вниз более чем на 10% в начале торгов.

“Падение акций технологий на фоне новостей о утечке Capybara действительно подчеркивает отсутствие понимания, которое инвесторы имеют относительно AI в целом,” сказала Голдберг. “Мы знаем, что эти модели будут продолжать адаптироваться и будут делать это с темпом, быстрее, чем меры безопасности в отрасли смогут реагировать. Вот почему управление в сфере AI так критично.”

0

                    АКЦИЙ

0

                ПРОСМОТРОВ
            

            

            

                Поделиться на FacebookПоделиться в TwitterПоделиться в LinkedIn

Теги: AIAnthropicCrowdStrikeКибербезопасностьMint

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Горячее на Gate Fun

    Подробнее
  • РК:$0.1Держатели:2
    0.00%
  • РК:$0.1Держатели:1
    0.00%
  • РК:$2.25KДержатели:1
    0.00%
  • РК:$2.26KДержатели:1
    0.00%
  • РК:$2.26KДержатели:1
    0.00%
  • Закрепить