Попередження від Пічая щодо безпеки: штучний інтелект швидше копає ями, ніж їх закриває, ринок ще не відреагував

robot
Генерація анотацій у процесі

Швидкість «підкопів» від AI, яку люди не встигають компенсувати

Слова Pichai з подкасту були недооцінені: зараз AI-моделі можуть масово знаходити вразливості майже конвеєрним способом, і це коштує сміховинно дешево. Внутрішні дані Google свідчать, що у 2025 році було виявлено близько 90 нових ланцюжків експлойтів; модель Anthropic за дуже невеликих витрат знайшла тисячі дефектів. Раніше окремий zero-day можна було продати за $100 тис., а тепер ця система ціноутворення починає руйнуватися.

Ще більш промовистою є тиша в індустрії. Після того, як слова Pichai розійшлися технологічним колом, практично ніхто з досвідчених фахівців із безпеки не вийшов і не сказав «ризики перебільшують». Ця тиша сама по собі є консенсусом: атакувальні можливості розширюються разом із масштабуванням обчислювальних ресурсів, а оборона не встигає.

Pichai також сказав одну доволі неприємну річ: узгоджена оборона на рівні індустрії «наразі не сталася».

Що це означає на практичному рівні:

  • Безпека перетворюється з «підлатати після запуску» на жорстке обмеження «чи можна запускати». CIO у регульованих галузях можуть відкласти розгортання передового AI щонайменше на рік — доки не з’являться більш піддані аудиту архітектури
  • Гравці з AI+безпекою як єдиним інтегрованим рішенням отримують перевагу. CrowdStrike, Palo Alto та подібні платформні вендори знаходяться в кращій позиції, ніж ті, хто лише «експериментує з AI», не переймаючись межами відповідальності
  • Регулювання досі — порожнеча. Зараз наголошують на «добровільних галузевих ініціативах», але державні актори, що здійснюють атаки, вже атакують прикордонні (маргінальні) пристрої. У короткостроковій перспективі це виглядає нормально, але в довгу — є ризики

«AI — це лише інструмент» ігнорує асиметрію

Поширений наратив: «ризики AI будуть природно поглинуті, техніка завжди адаптується». Але дані Google Threat Intelligence Group дають приклад навпаки: у 2025 році кількість zero-day зростає інноваційно, і 48% із них напряму націлені на корпоративне програмне забезпечення.

AI знижує вартість атаки, але складність оборони не зменшується пропорційно. Довіра до програмного забезпечення тихо деградує. Після виступу Pichai ціни на акції Google майже не змінилися — це означає, що ринок не переварив цей сенс: цілий набір застосунків, зазначений вище, побудований на базі, яка стала більш крихкою, ніж раніше.

Сторона погляду Докази/формулювання Нюанс для галузі Моя оцінка
Оптимісти щодо AI (всередині лабораторій) Pichai розглядає безпеку як «неявне обмеження», нарівні з «залізом»; на ринку немає явного тиску на продажі Увага ще на нарощуванні обчислювальної потужності, але корпоративні пілоти будуть обережнішими Недооцінили масштаб проблеми. Закрите середовище може допомагати, але провал координації збільшує втрати
«Безпекові» багатоверствовики (аналітики з Волл-стріт) CrowdStrike, Palo Alto посилилися завдяки прогресу в «підкопах» на базі Anthropic; Wolfe Research запропонував «мережеву війну зі швидкістю машин» Капітал концентрується в AI-нaтивних платформах безпеки; удар по лідерах — $10B ARR Загалом так. Ці компанії якраз «піймали» асиметричну перевагу, про яку говорив Pichai
Скептики щодо ризику (сфера політики) Кількість zero-day рік-до-року +15%; протягом 48 годин після інцидентів — без регуляторної відповіді Поточний стан триватиме, доки не станеться достатньо велика подія Ставити на «штиль» нерозумно. Тиск накопичується
Спостерігачі за загрозами рівня держави (GTIG) Пов’язані з Китаєм актори атакують периферійні пристрої; комерційні постачальники шпигунського ПЗ координують використання на мобільних пристроях Зростає премія за безпеку «на периферії», тиску зазнають фрагментовані вендори Вірно, але це нехтує тим, як швидкість технічного «витоку назовні» може використати ширший спектр атакувальників

Підсумкова оцінка: попередження Pichai змушує галузь зіткнутися з запізнілою реальністю — асиметрія між атакою та обороною, при цьому перевага на боці атаки. У AI-стеку безпека «вбудована від початку» і тому є більш стійкою, ніж постфактумні заплатки. Коли перша велика інвазія, яку спричинив AI, потрапить на перші шпальти, запізнілі інвестори, ймовірно, змушені будуть «сплатити за уроки».

Важливість: висока

Категорія: AI безпека|Тренди індустрії|Технічні інсайти

Висновок: вікно можливостей ще є, але воно звужується. Платформні вендори безпеки та ті, хто будує безпеку як «передній план» у AI-стеку, матимуть відносну перевагу; на рівні угод безпекові лідери з боку попиту отримують кращі позиції, тоді як чисті лабораторії моделей і пасивні утримувачі зазнають тиску через пізні ціни та премію за відповідальність.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити