Web3 безопасность сейчас входит в новую фазу. CertiK недавно запустила своего AI-автора, который полностью меняет подход к проверке безопасности. Этот инструмент был внутренне протестирован более двух лет и теперь доступен для всех.



Самая впечатляющая часть — его показатели эффективности. AI-автор был протестирован против 35 реальных случаев Web3 безопасности в 2026 году и достиг точности обнаружения 88,6%. Но важна не только цифра, а то, что уровень ложных срабатываний был чрезвычайно низким.

Этот подход интеграции безопасности прямо в рабочий процесс — значительное изменение для индустрии. Разработчики теперь могут обнаруживать уязвимости во время написания кода, а не ждать финального аудита. Это не только экономит время, но и помогает быстро реагировать на потенциальные риски.

Соучредитель CertiK Ронхуи Гу заявил, что этот инструмент позволяет командам разработки заранее выявлять проблемы безопасности. Отфильтровывая тысячи ложных тревог, AI-автор выделяет только важные, значимые проблемы. Это превращает безопасность из препятствия в ускоритель для команд Web3.

Технически система построена на многоуровневой архитектуре. Несколько моделей обнаружения работают параллельно, обеспечивая широкий охват, в то время как многоступенчатый валидатор фильтрует нерелевантные тревоги и приоритизирует реальные угрозы. Система поддерживается постоянно обновляемой базой знаний, которая учится на реальных уязвимостях и новых моделях атак.

Вместо замены человеческих аудиторов, этот AI-автор создан для их поддержки. Он управляет базовым обнаружением и предварительной сортировкой, позволяя командам безопасности сосредоточиться на более сложных уязвимостях и протокольных рисках.

Разнообразие — ключевая сила. AI-автор может адаптироваться к различным языкам программирования, архитектурам систем и профилям рисков, делая его актуальным как для DeFi-проектов, так и для корпоративных приложений.

Это лишь часть более широкой стратегии CertiK по внедрению AI в сферу безопасности. В ближайшие месяцы появятся новые функции, которые глубже интегрируют безопасность в инструменты разработки и процессы соответствия. Очевидный вывод: AI-безопасность — не будущее, а настоящее.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить