Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Етичні міркування при впровадженні DeepSeek AI у фінтех
Девін Партида — головна редакторка ReHack. Як письменниця, її матеріали були опубліковані в Inc., VentureBeat, Entrepreneur, Lifewire, The Muse, MakeUseOf та інших.
Відкрийте для себе топові новини та події з фінтеху!
Підпишіться на розсилку FinTech Weekly
Читають керівники в JP Morgan, Coinbase, Blackrock, Klarna та інших
Штучний інтелект (AI) — одна з найбільш перспективних, але водночас унікально тривожних технологій у фінтехі сьогодні. Тепер, коли DeepSeek розіслав ударні хвилі по всьому простору AI, його конкретні можливості та ризики потребують уваги.
Поки ChatGPT вивів генеративний AI у мейнстрим у 2022 році, DeepSeek підняв його на нові висоти, коли модель DeepSeek-R1 запустили у 2025 році.
Алгоритм є з відкритим кодом і безкоштовним, але демонстрував рівень, подібний до платних пропрієтарних альтернатив. Через це він є спокусливою бізнес-можливістю для фінтех-компаній, які прагнуть скористатися AI, але водночас він піднімає низку етичних питань.
Рекомендовані матеріали для читання:
Конфіденційність даних
Як і в багатьох застосунках на базі AI, конфіденційність даних є проблемою. Великі мовні моделі (LLM), як-от DeepSeek, потребують суттєвого обсягу інформації, а в такому секторі, як фінтех, ці дані можуть бути чутливими.
DeepSeek має додаткове ускладнення: це китайська компанія. Уряд Китаю може отримати доступ до всієї інформації на дата-центрах, що належать китайським власникам, або вимагати дані в компаній у межах країни. Отже, модель може створювати ризики, пов’язані з іноземним шпигунством і пропагандою.
Іншою проблемою є витоки даних від третіх сторін. DeepSeek уже зазнав витоку, який розкрив понад 1 мільйон записів, що може поставити під сумнів безпеку інструментів AI.
AI-пупередження (bias)
Моделі машинного навчання на кшталт DeepSeek схильні до упереджень. Оскільки моделі AI настільки вправні в тому, щоб виявляти й навчатися на тонких патернах, які людям може бути складно помітити, вони можуть переймати неусвідомлені упередження з даних свого навчання. Коли вони навчаються на такій викривленій інформації, вони можуть підсилювати й погіршувати проблеми нерівності.
Такі страхи особливо помітні у фінансах. Оскільки фінансові установи історично обмежували можливості для меншин, значна частина їхніх історичних даних демонструє суттєві упередження. Навчання DeepSeek на цих наборах даних може призвести до подальших упереджених дій, як-от коли AI відмовляє в кредитах або іпотеках на основі етнічності людини, а не її кредитоспроможності.
Довіра споживачів
Оскільки проблеми, пов’язані з AI, заповнили заголовки, широка громадськість стала дедалі підозрілішою до цих сервісів. Це може призвести до ерозії довіри між бізнесом у фінтеху та його клієнтами, якщо компанія не буде прозоро керувати цими занепокоєннями.
DeepSeek може зіткнутися тут із унікальною перепоною. Повідомляється, що компанія створила свою модель лише за $6 мільйонів і, як швидкоросла китайська компанія, може наганяти спогади про проблеми конфіденційності, які стосувалися TikTok. Громадськість може не бути готовою довіряти малобюджетній, швидко розробленій AI-моделі свої дані, особливо коли китайський уряд може мати певний вплив.
Як забезпечити безпечне й етичне впровадження DeepSeek
Ці етичні міркування не означають, що фінтех-компанії не можуть безпечно використовувати DeepSeek, але вони підкреслюють важливість ретельного впровадження. Організації можуть етично та безпечно розгортати DeepSeek, дотримуючись цих найкращих практик.
Запускайте DeepSeek на локальних серверах
Один із найважливіших кроків — запускати інструмент AI на національних дата-центрах. Хоча DeepSeek є китайською компанією, ваги її моделі відкриті, тож є можливість запускати її на серверах у США та зменшувати занепокоєння щодо витоків конфіденційності з боку китайського уряду.
Однак не всі дата-центри однаково надійні. У ідеалі фінтех-бізнеси розміщували б DeepSeek на власному обладнанні. Якщо це неможливо, керівництву варто обирати хост обережно, партнерившись лише з тими, хто має високі гарантії безперервної доступності (uptime) та стандарти безпеки, такі як ISO 27001 і NIST 800-53.
Зменшуйте доступ до чутливих даних
Під час створення застосунку на базі DeepSeek фінтех-компаніям варто продумати, які типи даних модель може отримувати доступ. AI має мати доступ лише до того, що потрібно для виконання своєї функції. Також бажано “очищати” доступні дані від будь-якої непотрібної персонально ідентифікуючої інформації (PII).
Коли DeepSeek має менше чутливих деталей, будь-який витік матиме менший вплив. Мінімізація збору PII також є ключовою для відповідності законам на кшталт General Data Protection Regulation (GDPR) та Gramm-Leach-Bliley Act (GLBA).
Упроваджуйте засоби кібербезпеки
Регламенти на кшталт GDPR і GLBA також зазвичай вимагають захисних заходів, щоб запобігати витокам у першу чергу. Навіть поза межами такого законодавства, історія DeepSeek із витоками підкреслює необхідність додаткових запобіжників безпеки.
У мінімумі фінтех-компанії мають шифрувати всі дані, до яких може отримувати доступ AI, як під час зберігання (at rest), так і під час передавання (in transit). Регулярне тестування на проникнення для виявлення й усунення вразливостей також є ідеальним варіантом.
Фінтех-організації також мають розглянути автоматизований моніторинг своїх застосунків DeepSeek, адже така автоматизація в середньому заощаджує $2,2 мільйона на витратах, пов’язаних із витоками, завдяки швидшим і ефективнішим відповідям.
Аудитуйте та контролюйте всі застосунки на базі AI
Навіть після виконання цих кроків, критично важливо залишатися уважними. Аудитуйте застосунок на базі DeepSeek перед тим, як його розгортати, щоб виявити ознаки упередженості або вразливостей безпеки. Пам’ятайте, що деякі проблеми можуть бути непомітними спочатку, тож потрібен постійний перегляд.
Створіть окрему робочу групу, щоб моніторити результати AI-рішення та гарантувати, що воно залишатиметься етичним і відповідатиме будь-яким регламентам. Також найкраще бути прозорими з клієнтами щодо цієї практики. Пояснення можуть допомогти побудувати довіру в інакше сумнівній сфері.
Фінтех-компанії мають враховувати етику AI
Фінтех-дані є особливо чутливими, тож усі організації в цьому секторі мають сприймати інструменти, що залежать від даних, як-от AI, серйозно. DeepSeek може стати перспективним бізнес-ресурсом, але лише якщо його використання дотримується суворих етичних і безпекових рекомендацій.
Коли лідери фінтеху зрозуміють необхідність такого підходу, вони зможуть гарантувати, що їхні інвестиції в DeepSeek та інші AI-проєкти залишатимуться безпечними й справедливими.