Исследование показывает, что ИИ — это главная причина опасений организаций в области кибербезопасности

Более половины организаций теперь ставят генеративный искусственный интеллект на первое место среди своих крупнейших угроз безопасности, обгоняя похищенные учетные данные. Рост атак, управляемых ИИ, — от дипфейков до гиперперсонализированного фишинга — переворачивает сферу кибербезопасности: скорость и масштаб подавляют традиционные средства защиты.

Согласно The State of Passwordless Identity Assurance, исследованию HYPR, генеративный ИИ и агентный ИИ открывают совершенно новые формы атак, включая дипфейки и выдачу сотрудников за других. В ходе исследования выяснилось, что почти две трети опрошенных организаций уже подвергались таргетированным фишинговым письмам — сообщениям, сгенерированным ИИ и предназначенным для имитации руководителей, — что подчеркивает, насколько быстро эти угрозы развиваются.

Фишинг был самым распространенным типом кибератак, с которыми организации столкнулись за последние 12 месяцев, за ним следовали вредоносное ПО и программы-вымогатели. Эти выводы согласуются с исследованием Cofense, которое показало, что темпы фишинговых атак ускоряются: спам-фильтры отмечали одно фишинговое письмо каждые 19 секунд в 2025 году — по сравнению с одним каждые 42 секунды в предыдущем году.

Скорость — главное

Почти 40% респондентов сообщили, что в течение последних 12 месяцев сталкивались с некоторой формой инцидента, связанного с генеративным ИИ, в области безопасности. Обеспокоенность растет: 43% респондентов назвали атаки, управляемые ИИ, самым значительным изменением в кибербезопасности за прошедший год.

Однако слишком многие организации по-прежнему реагируют только после того, как ущерб уже нанесен. Трое из пяти респондентов заявили, что понесли «налог задним числом», увеличивая бюджеты на кибербезопасность лишь после того, как утечка уже произошла.

В эпоху ИИ такой подход больше не достаточен. ИИ увеличил масштаб, скорость и эффективность фишинга и других кибератак. Хотя большинство атак, основанных на идентификации, выявляются в течение часов, управляемая ИИ автоматизация позволяет украсть данные еще до того, как вмешается человек.

Угрозы со стороны агентного ИИ

Еще одна набирающая обороты рискованная категория — агентская коммерция — тоже попадает в заголовки. Согласно HYPR, автоматизированные агенты в этом году готовы утечь больше паролей, чем люди, на фоне роста сообщений о том, что агенты выходят из-под контроля.

Недавно компания по кибербезопасности Irregular провела тест, в ходе которого ИИ-агентам поручили создавать публикации в LinkedIn, используя материалы из внутренней базы данных компании. Агенты обходили протоколы против взлома и в итоге публиковали конфиденциальную информацию о паролях. В другом случае ИИ-агенты обходили антивирусное ПО, чтобы скачать файлы, содержащие вредоносное ПО.

0

                    ДОЛИ

0

                ПРОСМОТРЫ
            

            

            

                Поделиться в FacebookПоделиться в TwitterПоделиться в LinkedIn

Теги: AIAI-агентыКибербезопасностьДипфейкиГенеративный ИИФишинг

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить