Виявлення "бічних каналів" у сліпих зоні безпеки ШІ… Чи досягла правиломірна перевірка свого межі?

robot
Генерація анотацій у процесі

Інтелектуальна безпека (AI) здебільшого зосереджена на помилках або зловживаннях моделями. Але хтось зазначає, що більш нагальні проблеми полягають у тому, що існуючі системи виявлення «бачать, але не бачать». Останнім часом широко обговорювані «бічні канали атак» вважаються яскравим прикладом такої прогалини у виявленні.

Бічні канали атаки не полягають у зломі самого програмного коду. Навпаки, це техніка, яка аналізує фізичні сигнали — споживання енергії, електромагнітне випромінювання, час обробки — для викрадення інформації або переривання виконання програми. Навіть чутливі дані, такі як криптографічні ключі, можна отримати, вимірюючи випадкові сигнали, що витікають з апаратного забезпечення.

За останніми дослідженнями, зовнішній спостерігач може лише аналізуючи шаблони шифрувального трафіку, робити висновки про «тему» взаємодії з AI. Не потрібно розшифровувати, не потрібно дивитись у вміст даних. Це означає, що лише структура трафіку, інтервал часу та порядок можуть розкрити значущу інформацію. Проблема в тому, що ці сигнали виходять за межі огляду існуючих інструментів безпеки, орієнтованих на контент.

Обмеження правил-орієнтованого виявлення

За останні 20 років безпека базується на «правилах». Підписи, порогові значення, відомі шаблони та базові аномалії — це ядро безпечної роботи. Індустрія не лише додавала більше правил і більш точні, а й впроваджувала AI для швидшої роботи.

Проте, правила-орієнтоване виявлення потребує «об’єкта для порівняння». Потрібні відомі сліди, явні відхилення, чіткі межі порушень, щоб спрацювати сигналізація. У порівнянні, багато сучасних атак, зокрема бічні канали, уникають цих передумов.

Якщо зловмисник використовує зашифровані канали, звичайні інструменти або AI-підтримувані робочі процеси, кожна дія може здаватися нормальною. Аналізуючи окремі кроки, може не бути ознак аномалії, але з часом, поєднуючи їх, можна виявити шаблони атаки. Це і є «прогалини у виявленні». Це не проблема недостатнього охоплення, а структурних обмежень.

Атаки, які навіть AI може пропустити

Реальність полягає в тому, що ця прогалина у виявленні дуже важлива. Навіть якщо зловмисник діє всередині системи, команда безпеки може не отримати жодних сигналів. Не лише безпідставні попередження, а й самі сліди для розслідування можуть бути відсутні.

Бічні канали атаки — класичний приклад. Дані існують, але приховані у часових затримках, порядку, моделях взаємодії. Поточні інструменти не призначені для їх інтерпретації. Повільні вторгнення, так звані «low-and-slow» атаки, або зловживання нормальними управлінськими інструментами, а також AI-атаки, що змінюють свою форму залежно від маршруту, — все це так само.

Проблема у тому, що з поширенням AI у бізнесі та атаках ці прогалини лише зростають. Водночас, значна частина інвестицій у безпеку зосереджена на швидшій обробці вже виявлених загроз. Автоматизація створення правил, класифікація попереджень, підвищення ефективності аналізу — це важливо, але для атак, які з самого початку не викликають попереджень, ці підходи мають обмеження.

Не лише події, а «поведінка» має значення

Деякі аналітики вважають, що для зменшення цієї прогалини потрібно розробити метод, який зможе інтерпретувати «послідовність поведінки», а не окремі події. Сигнали, необхідні команді безпеки, вже існують. Взаємовідносини між системами, послідовність дій, зміни у моделях доступу, еволюція з часом — все це може розкрити намір атаки.

Наприклад, коли зловмисник намагається поширюватися всередині системи через зашифровані канали, сліди не у вмісті трафіку, а у зміні способів доступу. Хоча бічні канали не показують дані напряму, вони розкривають структуру. В кінці кінців, важливо не ізольовані події, а процеси та контекст.

Саме тому ідея, що лише за допомогою заздалегідь визначених правил або ручних умов недостатньо для побудови наступного покоління систем виявлення, стає дедалі переконливішою. Потрібно навчатися на структурованих операційних даних або навіть створювати моделі, що здатні виявляти невизначені шаблони. Іронія у тому, що методи глибокого навчання, які потенційно можна застосувати для бічних каналів, також можуть використовуватися для виявлення цих тонких шаблонів трафіку.

Стандарти інвестицій у безпеку мають змінитися

З точки зору керівників безпеки, ключове питання зрозуміле: потрібно визначити, чи допомагає AI системам більш ефективно застосовувати правила, чи здатен він виявляти поведінку, яку правила не можуть описати. Обидва підходи мають цінність, але вирішують різні задачі.

Для більшості організацій першим кроком є не додавання нових інструментів, а об’єктивна оцінка того, наскільки далеко здатна дійти поточна стратегія виявлення. Малі дії на етапі розвідки, приховане поширення всередині системи, активності, що маскуються під нормальні — ці зони особливо вразливі.

Зменшення прогалин у виявленні не лише пришвидшує реагування. Це дозволяє організаціям раніше усвідомити, що «щось не так». Це допомагає скоротити час перебування зловмисника у системі, обмежити масштаб інциденту і підвищити ймовірність вжиття заходів до досягнення цілей зловмисника. Також це сприяє більш точному розумінню реального рівня ризиків.

Бічні канали атаки — не лише новий метод, а й спосіб розкрити важливу інформацію за межами традиційних систем безпеки. В кінці кінців, проблема не у AI, а у тому, що він робить більш очевидними раніше приховані обмеження систем виявлення.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити