Исследование показывает, что ИИ — это главная причина опасений организаций в области кибербезопасности

Более половины организаций теперь считают генеративный искусственный интеллект своей главной угрозой безопасности, опережая похищенные учетные данные. Рост атак, управляемых ИИ — от дипфейков до гиперперсонализированного фишинга, — переворачивает кибербезопасность: скорость и масштаб подавляют традиционные защиты.

Согласно The State of Passwordless Identity Assurance, исследованию HYPR, генеративный ИИ и агентный ИИ открывают совершенно новые формы атак, включая дипфейки и выдачу сотрудников за других. В исследовании установлено, что почти две трети организаций, участвовавших в опросе, уже подвергались таргетированным фишинговым письмам — сообщениям, сгенерированным ИИ и предназначенным для имитации руководителей, — что показывает, насколько быстро эти угрозы развиваются.

Фишинг был самым распространенным типом кибератак, с которыми организации столкнулись за последние 12 месяцев, за ним следовали вредоносное ПО и программы-вымогатели. Эти выводы согласуются с исследованием Cofense: там обнаружили, что темпы фишинговых атак ускоряются — спам-фильтры отмечали одно фишинговое письмо каждые 19 секунд в 2025 году, по сравнению с одним разом каждые 42 секунды в предыдущем году.

Скорость — это главное

Почти 40% респондентов сообщили, что в течение последних 12 месяцев сталкивались с каким-либо инцидентом по безопасности, связанным с генеративным ИИ. Опасения растут: 43% респондентов указали, что ИИ-атаки стали самым значимым изменением в кибербезопасности за прошедший год.

Однако слишком многие организации реагируют только после того, как ущерб уже нанесен. Три из пяти респондентов сообщили, что столкнулись с «налогом на опоздание»: увеличивали бюджеты на кибербезопасность только после того, как нарушение уже произошло.

В эпоху ИИ такой подход больше не достаточен. ИИ увеличил масштаб, скорость и эффективность фишинга и других кибератак. Хотя большинство атак, основанных на идентификации, обнаруживаются в течение часов, автоматизация, управляемая ИИ, позволяет украсть данные до того, как вмешается человек.

Угрозы со стороны агентного ИИ

Еще один развивающийся риск — агентская коммерция — тоже попадает в заголовки. По данным HYPR, автоматизированные агенты в этом году идут к тому, чтобы раскрыть больше паролей, чем люди, на фоне растущих сообщений о том, что агенты выходят из-под контроля.

Компания в сфере ИБ, Irregular, недавно провела тест, в ходе которого ИИ-агентам поручили создавать посты в LinkedIn, используя материалы из внутренней базы данных компании. Агенты обошли протоколы против взлома и в итоге опубликовали конфиденциальную информацию о паролях. В другом случае ИИ-агенты обходили антивирусное ПО, чтобы загрузить файлы, содержащие вредоносное ПО.

0

                    ПЕРЕДАЧ

0

                ПРОСМОТРОВ
            

            

            

                Поделиться в FacebookПоделиться в TwitterПоделиться в LinkedIn

Теги: AIAI AgentsCybersecurityDeepfakesGenerative AIPhishing

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Горячее на Gate Fun

    Подробнее
  • РК:$2.27KДержатели:2
    0.00%
  • РК:$2.37KДержатели:2
    1.04%
  • РК:$2.24KДержатели:1
    0.00%
  • РК:$2.24KДержатели:1
    0.00%
  • РК:$2.25KДержатели:1
    0.00%
  • Закрепить