Коли штучний інтелект навчається діяти самостійно: новий геополітичний театр епохи агентів

Чіпи — це головний театр попередньої війни. Наступна війна точитиметься навколо більш складного для контролю, відслідковування та протидії — AI-агента, здатного самостійно планувати, виконувати та ітерувати свої дії. До 2026 року він одночасно переписує бізнес-логіку та межі національної безпеки.

Компанія, яка була розірвана контрактом Пентагоном

У першому кварталі 2026 року сталася подія, яка майже не привернула уваги в країні: Міністерство оборони США припинило співпрацю з Anthropic, натомість уклавши нову угоду з OpenAI, яка дозволяє використовувати їхні моделі у “законних цілях” для секретних систем.

Причина розірвання контракту полягала не у недостатній технічній здатності, а у тому, що Anthropic наполягав на визначенні етичних меж у військовому застосуванні — зокрема, відмовлявся відкривати доступ до авторизації для систем моніторингу та автономної зброї. Пентагон згодом відніс їх до “ризиків для національної безпеки у ланцюжках поставок”.

Ця подія має значення набагато ширше за юридичний аспект контракту. Вона відкриває реальність, яка швидко формується: Етична позиція щодо AI вже стала козирем у геополітичних іграх. Вибір моделі, відкриття певних дозволів, визначення червоних ліній — ці рішення, що раніше належали внутрішній політиці технічних компаній, тепер підкоряються логіці національної безпеки.

I. Огляд концепцій · Що таке AI-агент

На відміну від традиційної моделі “вхід-вихід” однократної відповіді AI, AI-агент (інтелектуальний агент) здатен самостійно планувати, викликати інструменти, виконувати багатоступінчасті завдання та ітеративно коригувати свої дії — без необхідності постійного втручання людини. Восени 2025 року вважається початком епохи агентного AI, коли продукти як Claude Code, GPT-o3 зробили цю здатність масовою.

Агент: недооцінений стратегічний актив

Більшість дискусій щодо геополітики AI залишаються на рівні “хто має потужнішу велику модель”. Але кількість параметрів моделі — це відносно прозорий і відслідковуваний показник, тоді як здатність агента важко кількісно оцінити, її важко заблокувати і важко відтворити.

У аналізі журналу “Національні інтереси” двотижневої давності цю зміну описано як “критичний момент”: кращі країни, які володіють AI-агентами та інтегрують їх у національну стратегію, зможуть у найближчі десятиліття переосмислити глобальні бізнес, безпеку та управління. Це не просто прогноз — це процес, що вже відбувається.

Розглянемо конкретну силу агентів у сфері національної безпеки:

Атака

  • Самостійне виявлення та використання вразливостей у мережах, швидкість атаки — понад людські можливості

  • Масове створення фейкових новин, підроблених відео для маніпуляції громадською думкою

  • Координація дронових роїв для бойових дій, зменшення ризику людських втрат

  • Реальне злиття багатоджерельної розвідки, скорочення часу прийняття стратегічних рішень

Захист

  • Виявлення загроз за допомогою AI, аналіз мільйонів щоденних подій та фільтрація шуму

  • Автоматичне створення правил для фаєрволів, швидка адаптація до AI-атак

  • Моніторинг ризиків у ланцюжках поставок, виявлення аномальної активності

  • Автоматизація розгортання архітектури нульової довіри для ключової інфраструктури

У 2025 році Anthropic офіційно підтвердив, що китайські хакери вже “на незвичайному рівні” використовують AI-агентів для автоматизації кібератак. Водночас Білий дім США через проект “Генезис” (Genesis Mission) розгортає агентів у сферах науки та оборони для прискорення проривів. Звіт CFR (Американська рада з міжнародних відносин) фіксує трансформацію китайської армії від “інформатизації” до “інтелектуалізації” — технологія агентів є ядром цієї трансформації.

Дві одночасні гонки

Якщо чіпова війна — це боротьба “жорсткого блокування”, то війна агентів — зовсім інша структура: дві одночасні, переплетені між собою гонки — одна за здатністю, інша — за правилами.

На рівні здатностей у США та Китаю з’явилися цікаві розходження. США йдуть шляхом “повного стеку”: наприкінці 2025 року адміністрація Трампа схвалила експорт NVIDIA H200 до Китаю, а також закріпила у стратегії національної безпеки ідею “домінування американських стандартів у глобальному розвитку AI”. Логіка проста: якщо весь світ використовує американську технологічну базу, то США контролюють цю екосистему.

Китай же обрав шлях “застосункової переваги”. ByteDance випереджає США у кількох застосунках агентів; Z.ai випустив GLM-5.1, здатний автономно працювати понад 8 годин у одному завданні; Meta купила команду Manus, що переїхала з Китаю до Сінгапуру, — що свідчить про глобальний потік топ-талантів у сфері агентів.

  • Комерційний темп застосування AI-агентів (Китай vs США): ByteDance випереджає на 6-9 місяців

  • Прогноз зростання витрат на AI-безпеку у 2026 році (Gartner): +44%, до 238 мільярдів доларів

  • Частка статей у стратегічних документах країн щодо агентів (початок 2026): зросла у 3 рази

На рівні правил розбіжності ще глибші. Аналіз Atlantic Council вказує, що головна суперечність у глобальній системі управління AI — у тому, що країни здатні досягти консенсусу щодо оцінки ризиків і прозорості, але уникають встановлювати обов’язкові обмеження для “високоризикових” застосувань — автономної зброї, масового спостереження, інформаційної маніпуляції. Зовні — глобальна співпраця, всередині — геополітична боротьба.

II. Найскладніша правова дилема: агент — людина чи інструмент?

Що справді ускладнює для урядів питання агентів — це не лише їх військовий потенціал, а й більш фундаментальне: Яким юридичним статусом володіє AI, здатний самостійно приймати рішення, діяти та помилятися?

CFR у січні цього року чітко зазначив: 2026-й може стати роком вибуху дебатів про юридичну особистість AI. Основні протиріччя — у двох площинах: по-перше, коли AI-агент у кібератаках, фінансових махінаціях або фізичних ушкодженнях виступає безпосереднім учасником, хто несе відповідальність — розробник, оператор чи користувач? По-друге, коли різні країни дають цим відповідям різний зміст, виникає регуляторний арбітраж — “офшорні” юрисдикції, де закони максимально лояльні до агентів, приваблюють капітал і інновації.

Якщо великі держави розходяться у питанні, чи може агент нести юридичну відповідальність, — це матиме глибокий геополітичний вплив: так само, як офшорні фінансові центри приваблювали капітал, країни з лояльним регулюванням стануть центрами швидкого впровадження агентів.

— CFR “Як визначити майбутнє AI у 2026 році”, січень 2026

Ця реальність вже на порозі. У березні на RSA Conference обговорювали “злочинних AI-агентів” як окремий клас загроз — ці агенти можуть бути зламані, зкомпрометовані або зловмисно запущені, вони здатні досліджувати мережі, маскуватися під легітимних користувачів і без контролю проникати у системи.

Три найважливіші сигнали для читачів із Китаю

У цій геополітичній грі агентів є три сигнали, що особливо варто врахувати:

Сигнал перший: нарратив про суверенний AI поширюється по всьому світу. У лютому 2026 року Індія провела перший самостійний саміт з впливу AI, де представила першу суверенну велику мовну модель. Все більше країн усвідомлюють, що використання чужої бази AI означає передачу даних, логіки ухвалення рішень і потенційних бекдорів іншій країні. Стратегія “суверенного AI” — це, по суті, про “зменшення залежності” на технічному рівні.

Сигнал другий: відкритий код агентів — двосічний меч. Framework OpenClaw швидко набрав мільйони інсталяцій, але виявив серйозні вразливості — витоки дозволів, неконтрольовані підагенти. Це відкриває глибоку суперечність: відкритий код знижує бар’єри для здобуття можливостей, але одночасно дає потенційним зловмисникам рівний доступ до зброї. У цьому контексті стратегічно виправдані більш контрольовані, обмежені відкриті моделі, як 通义千问 або DeepSeek, ніж безмежне відкриття.

Сигнал третій: енергетична та обчислювальна інфраструктура стає новим стратегічним ресурсом. Колишній голова Об’єднаного комітету начальників штабів генерал Денфорд у статті минулого тижня прямо заявив: “Кожне рішення про будівництво дата-центру — це рішення про національну безпеку.” Вибір місця розташування, енергопостачання, мережеві з’єднання — ці питання тепер розглядаються у контексті національної безпеки.

· · ·

Кількість — хто має більше та кращих обчислювальних ресурсів. Війна агентів — це боротьба за трафік — хто може дозволити AI автономно і постійно виконувати більше високовартісних завдань. Перший може блокувати, другий — майже ні.

Це тривожний висновок: коли AI навчився діяти самостійно, традиційна логіка “затягнути гайки” починає здавати. Ви можете блокувати чіпи, але опонент навчився тренувати агента з меншими ресурсами, що здатен атакувати вас. Ви контролюєте вихід моделей — але відкриті фреймворки вже давно обійшли цю межу.

Головна боротьба переноситься у більш важкий для кількісної оцінки та контролю вимір — хто зможе швидше побудувати найнадійнішу, найстійкішу систему співпраці людини і машини? Відповідь на це питання стане яснішою протягом найближчих п’яти років.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити