вот мы и здесь! первое известное уязвимое место нулевого дня, разработанное с помощью ИИ, только что было обнаружено Google.


кто-то использовал LLM, чтобы найти недостаток в открытом административном инструменте. затем заставил модель написать скрипт на Python, который обходит 2fa на нем. затем начал использовать его на реальных целях.
как мы можем знать, что это было ИИ? везде чистые строковые комментарии. оценка серьезности CVSS, которую модель буквально выдумала. никто не пишет Python так аккуратно в 3 часа ночи, охотясь за ошибками.
сам баг был логической ошибкой, предположением о доверии, которое разработчик жестко закодировал несколько лет назад. такой тип ошибок хорошо ловит LLM.
в течение лет вопрос был: «может ли ИИ помочь злоумышленникам?» много сомнений. «теоретически». «в конечном итоге». «с достаточной поддержкой».
этот спор завершен.
новый вопрос — насколько быстро окно закрывается между «уязвимость есть где-то в вашей системе» и «уязвимость используется в масштабах». раньше это занимало месяцы. сейчас — дни.
Посмотреть Оригинал
post-image
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить