Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Рівень судження: чому штучний інтелект не є розумним, поки лідери не стануть розумнішими
Гільєрмо Дельгадо Апарісіо є Global AI Leader у Nisum.
Дізнайтеся про найкращі новини та події у фінтеху!
Підпишіться на інформаційний бюлетень FinTech Weekly
Читають керівники JP Morgan, Coinbase, Blackrock, Klarna та багатьох інших
AI у фінтеху охоплює широкий спектр сценаріїв використання — від виявлення шахрайства та алгоритмічного трейдингу до динамічного скорингу кредитоспроможності й персоналізованих рекомендацій продуктів. Та звіт Управління з фінансового регулювання (Financial Conduct Authority) виявив, що з 75% компаній, які використовують AI, лише 34% розуміють, як він працює.
Проблема не лише в браку обізнаності. Це глибоке нерозуміння сили й масштабу аналітики даних — дисципліни, з якої й виникає AI. Масове впровадження інструментів генеративного AI вивело тему на рівень C-suite. Але багато з тих, хто вирішує, як саме впроваджувати AI, не розуміють його базових принципів — обчислень (calculus), статистики та передових алгоритмів.
Візьмімо Закон Бенфорда — простий статистичний принцип, який виявляє шахрайство, знаходячи закономірності в числах. AI спирається на таку саму математику, лише масштабовану до мільйонів транзакцій одночасно. Скиньте гіперболу, і фундамент усе одно — статистика та алгоритми.
Саме тому AI-грамотність на рівні C важлива. Лідери, які не можуть відрізнити, де закінчується аналітика, від того, де починається AI, наражаються на ризик надмірної довіри до систем, які вони не розуміють, або недовикористання їх через страх. І історія показує, що трапляється, коли особи, які ухвалюють рішення, неправильно читають технологію: колись регулятори намагалися заборонити міжнародні IP-дзвінки, але технологія випередила правила. Така сама динаміка розгортається з AI. Його не можна або заблокувати, або бездумно прийняти; потрібні судження, контекст і здатність відповідально ним керувати.
Лідерам у фінтеху потрібно закривати ці прогалини, щоб використовувати AI відповідально й ефективно. Це означає розуміти, де закінчується аналітика даних і починається AI, розвивати навички для керування цими системами та застосовувати обґрунтоване судження, щоб вирішувати, коли і як довіряти результатам їхньої роботи.
Обмеження, сліпі зони та ілюзії AI
Аналітика аналізує минулі та теперішні дані, щоб пояснити, що сталося і чому. AI виростає з цієї основи: використовуючи передову аналітику, він прогнозує, що відбуватиметься далі, і дедалі частіше — автоматично вирішує або діє.
З огляду на виняткові здібності обробки даних легко зрозуміти, чому лідери у фінтеху можуть сприймати AI як їхню “магічну кулю”. Але він не може розв’язати кожну проблему. Люди все ще мають природну перевагу в розпізнаванні патернів — особливо коли дані неповні або “забруднені” (“dirty”). AI може важко інтерпретувати контекстні нюанси, які люди здатні швидко зрозуміти.
Втім, помилково думати, що недосконалі дані роблять AI марним. Аналітичні моделі можуть працювати з неповними даними. Але знати, коли впроваджувати AI, а коли покладатися на людське судження, щоб заповнити прогалини, — це і є реальний виклик. Без такого уважного нагляду AI може створювати суттєві ризики.
Однією з таких проблем є упередженість (bias). Коли фінтех-компанії навчають AI на старих наборах даних, вони часто успадковують “багаж”, що з ними приходить. Наприклад, ім’я клієнта може ненавмисно слугувати проксі для визначення статі, або підказки з прізвища, що асоціюються з етнічністю, можуть зміщувати кредитні скоринги так, як не погодився б жоден регулятор. Ці упередженості, які легко сховати в математиці, часто потребують людського нагляду, щоб їх виявити й виправити.
Коли моделі AI опиняються в ситуаціях, на яких їх не навчали, це може спричинити дрейф моделі (model drift). Ринкова волатильність, зміни регуляторних вимог, еволюція поведінки клієнтів і макроекономічні зрушення можуть впливати на ефективність моделі без людського моніторингу та рекалібрації.
Складність рекалібрування алгоритмів різко зростає, коли фінтех-компанії використовують “чорні скриньки”, які не дають візуалізації зв’язку між змінними. За таких умов вони втрачають можливість передати ці знання особам, які ухвалюють рішення в менеджменті. Крім того, помилки та упередженості залишаються прихованими в непрозорих моделях, підриваючи довіру та відповідність вимогам.
Що лідерам у фінтеху потрібно знати
Опитування Deloitte показало, що 80% кажуть: у їхніх радах мало або взагалі немає досвіду з AI. Але керівники C-suite не можуть дозволити собі ставитися до AI як до проблеми “для технічної команди”. Відповідальність за AI лежить на керівництві, тож лідерам у фінтеху треба підвищувати кваліфікацію.
Здатність до перехресної аналітичної грамотності
Перед запуском AI лідерам у фінтеху потрібно вміти перемикати контекст — дивитися на цифри, бізнес-кейс, операційну діяльність і етику — та розуміти, як ці фактори перетинаються і формують результати впровадження AI. Вони мають усвідомлювати, як статистична точність моделі співвідноситься з ризиком кредитоспроможності. І розпізнавати, коли змінна, що виглядає фінансово здоровою (наприклад, історія погашень), може створювати соціальні або регуляторні ризики через кореляцію з захищеною групою, такою як вік чи етнічність.
Ця AI-грамотність з’являється завдяки роботі поруч із офіцерами з комплаєнсу, щоб розбирати регуляторні вимоги, спілкуванню з менеджерами продуктів щодо досвіду користувача та перегляду результатів моделей разом із data scientists, щоб виявляти ознаки дрейфу чи упередженості.
У фінтеху уникнення 100% ризиків неможливе, але завдяки перехресній аналітичній грамотності лідери можуть точно визначити, які ризики варто брати, а які зруйнують цінність для акціонерів. Ця навичка також загострює здатність лідера знаходити й діяти проти упередженості — не лише з точки зору комплаєнсу, а й з стратегічної та етичної.
Наприклад, припустімо, що AI-модель для кредитного скорингу схиляється надто сильно до однієї групи клієнтів. Виправлення цього дисбалансу — це не просто робота для фахівців з науки про дані; це захищає репутацію компанії. Для фінтех-компаній, які прагнуть фінансової інклюзії або стикаються з перевіркою в межах ESG, лише юридична відповідність — недостатня. Судження означає знати, що є правильним, а не лише те, що дозволено.
Грамотність у пояснюваності (Explainability)
Пояснюваність — основа довіри. Без неї особи, які ухвалюють рішення, клієнти та регулятори залишаються в сумнівах щодо того, чому модель прийшла саме до такого висновку.
Це означає, що керівники мають уміти відрізняти моделі, які можна інтерпретувати, від тих, що потребують пояснень “після факту” (post-hoc), наприклад, SHAP values або LIME). Вони мають ставити запитання, коли логіка моделі незрозуміла, і розуміти, що одна лише “точність” не може виправдати рішення з “чорною скринькою”.
Упередженість не з’являється з повітря; вона виникає, коли моделі навчають і впроваджують без достатнього нагляду. Пояснюваність дає лідерам видимість, щоб виявляти ці проблеми на ранній стадії та діяти до того, як вони спричинять шкоду.
AI — як автопілот у літаку. У більшості випадків він працює гладко, але коли настає шторм, пілот має взяти керування на себе. У фінансах діє той самий принцип. Командам потрібна здатність зупинити торгівлю, підкоригувати стратегію або навіть “витягнути вилку” з запуску продукту, коли змінюються умови. Пояснюваність працює пліч-о-пліч із готовністю до ручного втручання (override readiness), що гарантує, що керівники з C-suite розуміють AI та залишаються під контролем навіть тоді, коли він працює в масштабі.
Ймовірнісне мислення моделей
Керівникам звичні детерміновані рішення, наприклад: якщо кредитний скоринг нижче 650 — відхилити заявку. Але AI працює інакше, і це велика зміна ментальної парадигми.
Для лідерів імовірнісне мислення вимагає трьох компетенцій:
Наприклад, імовірнісна AI-модель фінтех-компанії може позначити клієнта як клієнта з високим ризиком, але це не обов’язково означає “відмовити”. Це може означати “додатково перевірити” або “відкоригувати умови кредиту”. Без такого нюансу автоматизація ризикує перетворитися на грубий інструмент, знижуючи довіру клієнтів і водночас наражаючи компанії на регуляторні “відповіді” (blowback).
Чому саме шар судження визначить переможців у фінтеху
Майбутнє фінтеху визначатиметься не тим, у кого найпотужніші моделі AI; радше тим, хто використовує їх із найгострішим судженням. Коли AI стає товаром (commoditizes), приріст ефективності стає стандартною вимогою. Те, що відрізняє переможців, — здатність втручатися, коли алгоритми стикаються з невизначеністю, ризиком та етичними “сірими зонами”.
Шар судження — це не абстрактна ідея. Він проявляється, коли керівники ухвалюють рішення призупинити автоматизований трейдинг, відкласти запуск продукту або скасувати (override) оцінку ризику, яка не відображає реальний контекст. Ці моменти — не провали AI; це підтвердження того, що людський нагляд є останньою лінією створення цінності.
Стратегічне узгодження — там, де судження стає інституціоналізованим. Сильна AI-стратегія — це не лише постановка технічних дорожніх карт; вона гарантує, що організація повертається до ініціатив, підсилює команди AI-навичками, забезпечує компанію необхідною архітектурою даних і прив’язує кожне впровадження до чітко визначеного бізнес-результату. У цьому сенсі судження — не епізодичне, а вбудоване в операційний режим і дозволяє керівникам застосовувати підхід до лідерства, заснований на цінності.
Фінтех-компаніям потрібні лідери, які вміють балансувати AI для швидкості та масштабу й людей — для контексту, нюансів і далекоглядного бачення. AI може знаходити аномалії за секунди, але лише люди можуть вирішувати, коли варто “відштовхнутися” від математики, переглянути припущення або піти на сміливий ризик, який відкриває шлях до зростання. Саме цей шар судження перетворює AI з інструмента на перевагу.
Про автора:
Гільєрмо Дельгадо — Global AI Leader для Nisum і COO Deep Space Biology. Маючи понад 25 років досвіду в біохімії, штучному інтелекті, космічній біології та підприємництві, він розробляє інноваційні рішення для добробуту людей на Землі та в космосі.
Будучи корпоративним консультантом зі стратегії, він долучався до AI-віназії NASA щодо космічної біології та отримав нагороди за інновації. Він має ступінь Master of Science з Artificial Intelligence від Georgia Tech, здобуту з відзнакою. Крім того, як викладач універститету, він викладав курси з машинного навчання, великих даних і геномної науки.