Приостановка разработки утечек Cybersecurity AI от Anthropic

Новость о просочившейся модели ИИ от Anthropic потрясла индустрию кибербезопасности, отправив акции крупных компаний резко вниз. То, что поначалу выглядело как потенциальный прорыв, теперь поднимает срочные вопросы: могут ли организации доверять ИИ свои самые чувствительные цифровые активы, или этот инцидент просто еще раз подтверждает необходимость экспертной защиты?

Согласно Mint, утекший черновик блогпоста представил новый класс моделей ИИ под названием Capybara. В черновике утверждалось, что Capybara превзошла флагманскую модель Anthropic, Claude Opus 4.6, в «разработке программного кода, академических рассуждениях и задачах, связанных с кибербезопасностью». Также отмечалось, что обучение на Claude Mythos — модели, которую Anthropic описывает как их самую продвинутую на данный момент — завершено.

Почему это утекло?

Хотя Anthropic объяснила утечку «человеческой ошибкой», это объяснение может мало что сделать, чтобы успокоить организации относительно способности компании обезопасить чувствительные данные. Некоторые аналитики предполагают, что могли быть и другие мотивы.

«Утечка Capybara — это, конечно, неприятно, но я почти задумываюсь о том, не оставили ли ее преднамеренно в доступном дата-лейке, чтобы привлечь внимание к возникающим киберрискам, которые постоянно создают развивающиеся ИИ-платформы, и будут создавать в будущем», — сказала Трейси Голдберг, директор по кибербезопасности в Javelin Strategy & Research. «При всем при этом, модель все еще проходит тестирование: Anthropic явно заявляет, что осознает ошибки и риски, которые нужно устранить, поэтому они лишь мягко запустили Capybara».

Нависающая угроза ИИ

Anthropic также подчеркнула связанные с этими моделями риски кибербезопасности, акцентируя эскалирующуюся гонку вооружений, которая идет в сфере ИИ между защитниками и киберпреступниками. Компания предупредила, что Capybara может стать первой в серии моделей, способных выявлять и эксплуатировать уязвимости значительно быстрее, чем команды по безопасности способны реагировать. Иными словами, преступники могут использовать модель, чтобы подпитывать новое поколение угроз кибербезопасности, движимых ИИ.

Инвесторы отреагировали быстро, опустив акции CrowdStrike, Datadog и Zscaler более чем на 10% в начале торгов.

«Обрушение акций технологических компаний на фоне новостей об утечке Capybara действительно лишь подчеркивает, насколько инвесторы в целом плохо понимают ИИ», — сказала Голдберг. «Мы знаем, что эти модели будут продолжать адаптироваться и будут делать это быстрее, чем отраслевые меры безопасности способны ответить. Именно поэтому регулирование в сфере ИИ так критично».

0

                    АКЦИЙ

0

                ПРОСМОТРОВ
            

            

            

                Поделиться на FacebookПоделиться в TwitterПоделиться в LinkedIn

Теги: AIAnthropicCrowdStrikeCybersecurityMint

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Горячее на Gate Fun

    Подробнее
  • РК:$2.27KДержатели:2
    0.00%
  • РК:$2.37KДержатели:2
    1.04%
  • РК:$2.24KДержатели:1
    0.00%
  • РК:$2.24KДержатели:1
    0.00%
  • РК:$2.25KДержатели:1
    0.00%
  • Закрепить