Anthropic дослідник демонструє: за допомогою LLM масово виявлено 500 нульових днів вразливостей

robot
Генерація анотацій у процесі

Заголовок

Дослідник Anthropic на [un]prompted 2026 демонструє: LLM масово виявляє 500 нульових вразливостей

Резюме

Рохан Пол поділився відео виступу Ніколаса Карліні на [un]prompted 2026, під назвою “Чорні капелюшки LLM”. Карліні є дослідником безпеки AI в Anthropic, він продемонстрував, як зловмисники використовують великі мовні моделі для виявлення та експлуатації вразливостей програмного забезпечення. Основна цифра: 500 нульових вразливостей були автоматизовано виявлені. Ще більш важливо: з посиленням можливостей LLM у дослідженні вразливостей, модель загроз переходить — від “як атакувати моделі AI” до “що станеться, якщо AI почне атакувати інші системи”.

Аналіз

Це не теоретичні міркування, а відтворювані емпіричні дані. Карліні зафіксував, як LLM виявляє реальні дефекти, які традиційні методи фузз-тестування та статичного аналізу пропустили, включаючи проблеми обходу автентифікації. Він неодноразово підкреслював ефективність у своєму блозі:

  • LLM не обов’язково створює нові типи атак, але значно знижує витрати та бар’єри для існуючих атак
  • Типові вигоди включають: масове створення фішингових атак, автоматизовану розвідку цілей, скриптове з’єднання експлуатаційних ланцюгів
  • Ці етапи, які раніше вимагали фінансування або досвідчених фахівців, стають “демократизованими” завдяки моделям та можуть бути паралельно масштабовані

Відгуки спільноти (обговорення на конференції та потік Hacker News) вказують на те, що галузь серйозно ставиться до цієї зміни. Існує обґрунтована зворотна точка зору: використання AI для виявлення вразливостей може бути кориснішим для захисту, оскільки компанії можуть систематично інтегрувати це в CI/CD та бази активів, покриваючи ширші області та виявляючи раніше. Але Карліні чітко зазначає, що результати все ще невизначені — зрештою, хто більше виграє: захист чи атака, наразі ніхто не може стверджувати.

Тривожне питання полягає у часовій площині: що станеться, якщо в наступні 6-12 місяців можливості продовжать зростати? Робота Карліні показує, що ми ще не досягли “потолка”.

Огляд впливу на атакуючу та захисну сторони

Вимір Що отримують атакуючі Що отримують захисники
Витрати та швидкість Зниження витрат і прискорення, масові фішинг/розвідка/використання Повне сканування коду та конфігурацій, раннє виявлення дефектів
Площа покриття Довгі цілі та рідкісні технологічні стеки включені в зону атаки Вища частота покриття всіх активів та ланцюгів постачання
Поріг професіоналізму Зниження вимог до навичок, підвищення межі можливостей скриптових фахівців Платформене втілення, поєднання переваг інфраструктури та процесів
Невизначеність Ефективність залежить від даних/узгодження/захисту Потрібно вирішити проблеми з помилковими сповіщеннями, відповідністю та витратами на співпрацю людини та машини

Висновок:

  • LLM масштабує та формалізує “відомі можливі атаки”, а не створює нові парадигми з нуля
  • У короткостроковій перспективі гра між атакою та захистом залежить від того, хто швидше інтегрує моделі у виробничий процес (дані, обчислювальні потужності, оцінювання та зворотний зв’язок)

Оцінка впливу

  • Важливість: Висока
  • Сфера: Безпека AI, Дослідження AI, Технічний аналіз

Висновок: Ми знаходимося на “ранньому, але прискореному” поворотному моменті. Найбільші переваги матимуть захисні команди з інженерними та формалізованими можливостями, постачальники безпеки, великі підприємства, а також фонди, які можуть виділити фінанси та ресурси для розробки інструментів. Индивідууми, які займаються червоними командами, отримають вигоду, але систематизоване впровадження принесе швидші та більші винагороди.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити