Дилема відповідності штучного інтелекту: довіра все ще належить людям

Роман Елошвілі — засновник та генеральний директор групи XData, компанії з розробки програмного забезпечення для B2B. Там він керує розвитком штучного інтелекту у банківській сфері, налагоджує відносини з інвесторами та сприяє масштабуванню бізнесу. Також він є засновником ComplyControl — британського стартапу у сфері регуляторних технологій, що спеціалізується на передових технологічних рішеннях для банків.


Дізнайтеся про найкращі новини та події у фінтеху!

Підписуйтеся на розсилку FinTech Weekly

Читають керівники JP Morgan, Coinbase, Blackrock, Klarna та інших


Банки та фінтех-компанії по всьому світу шукають способи використовувати штучний інтелект у різних сферах: для прискорення операцій, зниження витрат, покращення взаємодії з клієнтами та інше. І все ж, коли йдеться про відповідність вимогам — мабуть, найскладніший і найзатратніший у часі аспект фінансів — більшість компаній досі утримуються від впровадження.

Опитування, проведене на початку 2025 року, показало, що лише невелика частка компаній (менше 2%) повністю інтегрували штучний інтелект у свої робочі процеси. Більшість з них все ще перебуває на початкових етапах досліджень і впровадження, якщо взагалі його здійснюють.

Тиск на компанії щодо дотримання регуляторних змін залишається дуже високим і зростає. Тому чому ж відповідність так повільно впроваджує штучний інтелект, хоча він міг би дуже допомогти?

Давайте спробуємо з’ясувати.

Зір людського ока все ще важливий

Мабуть, перше і найголовніше, що потрібно пам’ятати — відповідність не зводиться лише до виконання чек-листів. Це про прийняття суджень у ситуаціях, що часто мають сіру зону. Світ фінансових рішень рідко буває чорно-білим. Регуляції різняться залежно від юрисдикції, а тлумачення цих правил — рідко однозначне.

Штучний інтелект чудово справляється з обробкою даних у швидкому режимі та виявленням аномалій. Але, попри здатність позначати підозрілі транзакції за заздалегідь визначеними шаблонами, він не може чітко пояснити “чому” він зробив саме так. Що важливіше, він погано працює з нюансами. Людський співробітник з відповідності може визначити, коли поведінка клієнта, хоча й незвична, є безпечною. Штучний інтелект, натомість, швидше за все, просто підніме тривогу без контексту.

Саме тому керівники з відповідності вагаються передати цю відповідальність машині. Машини безумовно можуть допомагати, але більшість людей все ще більше довіряє здатності людини бачити ширшу картину і судити відповідно.

Ефективність проти регуляторних і репутаційних ризиків

Здатність штучного інтелекту аналізувати тисячі транзакцій у реальному часі — це те, чого жодна команда з відповідності не могла б досягти вручну. Тому з точки зору ефективності, його можна вважати чудовим інструментом підтримки, що зменшує навантаження на людський персонал і дозволяє зосередитися на більш стратегічних і нюансних завданнях.

Але відповідність — це не лише швидкість. Якщо система штучного інтелекту припуститься помилки у судженні, це може призвести до штрафів, шкоди репутації або регуляторного контролю. Усе це може бути дуже шкідливим — можливо, навіть руйнівним. Тому багато хто прагне уникнути таких ускладнень.

Більшість регуляторів також погоджуються, що у випадку прийняття рішень на основі штучного інтелекту хтось має залишатися відповідальним. Якщо модель помилково заблокує легітимну транзакцію або пропустить шахрайську, відповідальність все одно лежить на компанії. І саме люди з відповідності мають нести цю відповідальність.

Це створює природний рівень обережності: керівники з відповідності мають зважувати переваги швидшого моніторингу проти ризиків можливих регуляторних штрафів. І доки системи штучного інтелекту не стануть більш зрозумілими і прозорими, багато компаній й надалі будуть утримуватися від автономного прийняття рішень.

Як відповідально впроваджувати штучний інтелект

Дуже важливий урок із усього вищесказаного — те, що вагання керівників з відповідності не означають їхню антипатію до штучного інтелекту. Насправді багато з них оптимістично налаштовані щодо ролі AI у майбутньому. Головне — знайти правильний шлях вперед.

На мою думку, найприроднішим і перспективним шляхом є впровадження гібридної моделі. Співпраця між людьми та штучним інтелектом, де штучний інтелект виконує важку роботу — сканує транзакції, позначає незвичайну активність або генерує звіти. А коли результати готові, люди можуть їх переглянути, інтерпретувати контекст рішень AI і ухвалити остаточне рішення.

Щоб застосовувати таку модель, компанії повинні переконатися, що їхні системи штучного інтелекту є пояснюваними. Відповідність — це не лише виявлення ризиків, а й доведення того, що рішення є справедливими. Саме тому ринок потребує більше інструментів AI, які можуть пояснювати свої результати простими словами.

Це не про “людина проти машини”

Реалістично, я не бачу, щоб штучний інтелект робив посади співробітників з відповідності застарілими. Скоріше за все, їхні ролі зміняться — від виконавців до менеджерів. Вони менше будуть самі виконувати перевірки і більше — перевіряти рішення AI, працюючи з сірою зоною, де машини ще не до кінця справляються.

В основі відповідності — людська справа. І хоча AI може зробити команди швидшими та ефективнішими, він не може нести моральну та регуляторну відповідальність, що з цим пов’язана.

Саме тому я твердо переконаний, що майбутнє відповідності — це не “людина проти машини”, а “людина з машиною” — спільна робота для забезпечення безпеки та справедливості фінансових систем.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити