Цілющий тренд на розведення креветок охоплює всю мережу, але банківська сфера масово «холодно» реагує. Експерти: високі системні привілеї OpenClaw і фінансові норми мають природний конфлікт.

robot
Генерація анотацій у процесі

Останніми часами популярність набирає відкритий штучний інтелект (AI) — агент OpenClaw (так званий «Лобстер»), що привертає увагу багатьох галузей, але банківський сектор загалом ставиться до цієї «розведення лобстерів» з обережністю. Журналіст «Daily Economic News» з однієї з акціонерних банківської групи дізнався, що нещодавно ця установа отримала від регуляторних органів попередження щодо ризиків, пов’язаних із «Лобстером».

Проте, слід зазначити, що ще до популяризації OpenClaw, банки вже досліджували та застосовували агентів штучного інтелекту, активно впроваджуючи їх у фронтові бізнес-процеси для підвищення ефективності обробки операцій.

Як фінансові установи, що суворо контролюють ризики, можуть балансувати між інноваціями та дотриманням нормативів у епоху AI?

Обережне ставлення банків до «розведення лобстерів»

OpenClaw отримав свою назву через схожість іконки з червоним лобстером. Процес його встановлення та налаштування часто називають «вирощуванням лобстера». На відміну від чат-ботів типу ChatGPT, OpenClaw через інтеграцію з комунікаційними програмами та великими мовними моделями здатен самостійно виконувати складні завдання — керувати файлами, відправляти та отримувати пошту, обробляти дані на локальному комп’ютері користувача. Це створює образ «цифрового співробітника», що виконує роботу за людину, тому багато користувачів вже застосовують його на практиці.

Зі зростанням популярності OpenClaw зростає й занепокоєння щодо його безпеки. Останнім часом Мінкомзв’язку та Національний центр реагування на інтернет-інциденти оприлюднили попередження про можливі ризики, пов’язані з цим агентом, закликаючи користувачів бути обережними.

У цій хвилі «вирощування лобстерів» банківський сектор проявляє досить стриману позицію. Нещодавно, за інформацією з галузі, одна з акціонерних банківських груп отримала від регулятора попередження щодо ризиків, а представник іншого державного банку повідомив «Daily Economic News», що їхній банк ще не впроваджував OpenClaw і не планує цього робити найближчим часом.

Чому банки ставляться з обережністю до OpenClaw?

«На відміну від діалогових AI, агент OpenClaw потребує доступу до локальних файлів, викликів зовнішніх API та навіть системних привілеїв. Така „кінцева автоматизація“ може легко спричинити кібератаки або витік конфіденційних даних транзакцій, що суперечить принципам жорсткого регулювання та нульової терпимості банків», — зазначив 16 березня заступник директора Інституту соціальних наук у Пекіні Ван Пень у коментарі «Daily Economic News».

Голова відділу IP-маркетингу компанії Gaoshengfei також висловив схожу думку: «Високий рівень системних привілеїв OpenClaw природно конфліктує з фінансовими нормативами».

Він пояснив, що OpenClaw за замовчуванням має доступ до локальних файлів та API з високими привілеями, що підвищує ефективність роботи, але вже було виявлено кілька вразливостей середнього та високого рівня ризику. Крім того, відсутність ефективних механізмів безпеки для плагінів створює ризик зловмисного використання для крадіжки паролів, ключів та інших конфіденційних даних. Ще важливіше, що здатність агентів самостійно виконувати дії у фінансових сценаріях може спричинити помилки — наприклад, неправильне переказування коштів або купівлю інвестиційних продуктів. Оскільки AI ще не має повної пояснюваності своїх рішень, відповідальність за автоматичні дії важко визначити. Крім того, дані, що генеруються під час роботи агентів, можуть передаватися третім сторонам, що створює ризики порушення правил щодо обробки конфіденційної інформації, такої як кредитні дані або документи для кредитних рішень.

Тому, на думку Гаошенфея, у короткостроковій перспективі OpenClaw краще застосовувати у некритичних бізнес-сценаріях у вигляді пілотних проектів. Масштабне впровадження можливе лише після вирішення питань безпеки, відповідальності та пояснюваності алгоритмів.

За словами Ван Пена, банки не будуть безпосередньо використовувати відкритий код OpenClaw, а скоріше візьмуть за основу його технологічний шлях. У майбутньому, ймовірно, застосовуватимуть приватні версії або рішення у обмежених середовищах — наприклад, у внутрішніх локальних мережах банків, через власну розробку або кастомізацію, для автоматизації офісних процесів, підтримки ризик-менеджменту та інших некритичних сценаріїв.

Вивчення агентів штучного інтелекту у банківському секторі вже триває

Варто зазначити, що ще до популяризації OpenClaw, банки вже досліджували та застосовували агентів AI. Журналіст звернув увагу, що багато банків активно впроваджують агентів у фронтові бізнес-процеси для підвищення ефективності обробки операцій.

Наприклад, Нанкінський банк співпрацює з Volcano Engine у масштабному впровадженні агентів у фінансові сценарії, створивши єдину платформу HiAgent, на якій вже запущено понад 20 високоякісних агентів, що застосовуються у сферах офісної роботи, операцій, розвитку бізнесу та управління ризиками.

Якщо говорити про результати, то перед візитом до клієнта менеджери з корпоративних клієнтів зазвичай витрачають багато часу на підготовку звітів із різних систем і платформ. Водночас, «односторінковий» агент може автоматично збирати дані з внутрішніх та зовнішніх джерел, очищати, об’єднувати та перевіряти їх, швидко формуючи всебічний та точний аналітичний звіт, зменшуючи час підготовки з двох годин до п’яти хвилин. Це стає ключовим інструментом у періоди пікових маркетингових кампаній.

У своєму звіті «Перспективи банківської сфери Китаю 2026 року», компанія KPMG зазначає, що аналіз відкритих тендерних оголошень та досліджень показує зростання кількості проектів із великими моделями у банківському секторі з січня по листопад 2025 року, з піковими сплесками у серпні. Згідно з аналізом, у період з січня по червень переважали проекти з питань знань та відповідей, а з липня — спостерігався стрімкий ріст застосувань агентів, особливо у жовтні та листопаді, коли всі нові проекти були пов’язані з агентами.

Як же банкам балансувати між інноваціями та дотриманням нормативів при дослідженні застосування агентів штучного інтелекту?

16 березня, дослідник із банківського сектору Фу Іфу з Сучжоуською торгово-промисловою палатою у коментарі «Daily Economic News» зазначив, що при впровадженні агентів у фронтові процеси потрібно оновлювати управлінські механізми, тестувати нові технології у контрольованих умовах, щоб забезпечити можливість оцінки та контролю ризиків. Також важливо посилювати захист даних та аудит алгоритмів, дотримуватися принципу «мінімальних привілеїв», уникати надмірного збору клієнтських даних. Постійний діалог із регуляторами та участь у формуванні галузевих стандартів допомагає виявляти потенційні порушення заздалегідь. Крім того, банки мають створювати процеси людського контролю за ключовими рішеннями агентів, щоб запобігти автоматичним помилкам. Впроваджуючи нормативи у всі етапи розробки технологій і готуючи фахівців із різних галузей, банки зможуть безпечно та ефективно розкривати потенціал штучного інтелекту.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити