Етичні міркування при впровадженні DeepSeek AI у фінтех


Девін Партида є головною редакторкою ReHack. Як письменниця, її матеріали публікувалися в Inc., VentureBeat, Entrepreneur, Lifewire, The Muse, MakeUseOf та інших.


Відкрийте для себе найкращі новини та події з фінтеху!

Підпишіться на розсилку FinTech Weekly

Читають керівники в JP Morgan, Coinbase, Blackrock, Klarna та інших


Штучний інтелект (ШІ) — одна з найперспективніших, але водночас по-особливому тривожних технологій у фінтехі сьогодні. Після того як DeepSeek розіслав шокуючі сигнали по всьому простору ШІ, його конкретні можливості та ризики потребують уваги.

Хоча ChatGPT виніс генеративний ШІ в масову аудиторію в 2022 році, DeepSeek підняв його на нові висоти, коли в 2025 році вийшла модель DeepSeek-R1.

Алгоритм є відкритим кодом і безкоштовним, але демонстрував приблизно такий самий рівень, як і платні пропрієтарні альтернативи. Тому це спокуслива можливість для бізнесу для фінтех-компаній, які прагнуть монетизувати ШІ, але він також піднімає деякі етичні питання.


Рекомендовані матеріали для читання:

*   **Модель DeepSeek R1 спричиняє дискусію про майбутнє розробки ШІ**
*   **AI-модель DeepSeek: можливості та ризики для малих технічних компаній**

Конфіденційність даних

Як і в багатьох застосуваннях ШІ, проблема конфіденційності даних є актуальною. Великі мовні моделі (LLM), як-от DeepSeek, потребують значної кількості інформації, і в такому секторі, як фінтех, значна частина цих даних може бути чутливою.

DeepSeek має додаткову складність, бо це китайська компанія. Уряд Китаю може отримати доступ до всієї інформації в дата-центрах, які належать китайським власникам, або вимагати дані в компаній у межах країни. Відповідно модель може створювати ризики, пов’язані із закордонним шпигунством і пропагандою.

Витоки даних від третіх сторін — ще одна проблема. DeepSeek уже зазнав витоку, який розкрив понад 1 млн записів, що може поставити під сумнів безпеку інструментів ШІ.

упередженість ШІ

Моделі машинного навчання, як-от DeepSeek, схильні до упередженості. Оскільки моделі ШІ надзвичайно добре виявляють і навчаються на тонких патернах, які люди можуть не помічати, вони можуть переймати несвідомі упередження з даних, на яких їх навчали. Коли вони вчитимуться з цієї викривленої інформації, вони можуть підтримувати й погіршувати проблеми нерівності.

Такі побоювання особливо помітні в фінансах. Оскільки фінансові установи історично обмежували можливості для представників меншин, у їхніх історичних даних часто проявляється значна упередженість. Навчання DeepSeek на цих наборах даних може призвести до подальших упереджених дій, як-от коли ШІ відмовляє в позиках або іпотеці на підставі етнічності людини, а не її кредитоспроможності.

Довіра споживачів

Оскільки проблеми, пов’язані зі ШІ, заповнили заголовки, широка громадськість стала дедалі більше підозрілою до цих сервісів. Це може призвести до ерозії довіри між фінтех-бізнесом і його клієнтами, якщо ці занепокоєння не буде прозоро врегульовано.

DeepSeek може зіткнутися тут із унікальною перешкодою. Як повідомляється, компанія створила свою модель лише за $6 мільйонів, і будучи швидкозростаючою китайською компанією, може наводити людям спогади про проблеми з конфіденційністю, які торкнулися TikTok. Громадськість може не виявити ентузіазму щодо довіри до бюджетної, швидко розробленої моделі ШІ, віддаючи їй свої дані, особливо коли уряд Китаю може мати певний вплив.

Як забезпечити безпечне та етичне впровадження DeepSeek

Ці етичні міркування не означають, що фінтех-компанії не можуть безпечно використовувати DeepSeek, але вони підкреслюють важливість уважної реалізації. Організації можуть етично та безпечно впроваджувати DeepSeek, дотримуючись цих найкращих практик.

Запускайте DeepSeek на локальних серверах

Один із найважливіших кроків — розгортати інструмент ШІ в межах власних дата-центрів. Хоча DeepSeek — китайська компанія, ваги його моделі є у відкритому доступі, що робить можливим запуск на серверах у США та зменшує занепокоєння щодо витоків конфіденційних даних через уряд Китаю.

Однак не всі дата-центри однаково надійні. Ідеально, щоб фінтех-компанії розміщували DeepSeek на власному обладнанні. Якщо це неможливо, керівництво має обирати хоста обережно, співпрацюючи лише з тими, хто може гарантувати високий uptime та стандарти безпеки, такі як ISO 27001 і NIST 800-53.

Зменшуйте доступ до чутливих даних

Під час розробки застосування на базі DeepSeek фінтех-компаніям слід продумати, які типи даних модель може отримувати. ШІ має мати доступ лише до того, що необхідно для виконання своєї функції. Очищення доступних даних від будь-якої непотрібної інформації, що дозволяє ідентифікувати особу (PII), також є ідеальним варіантом.

Коли DeepSeek має менше чутливих деталей, будь-який витік матиме менший вплив. Мінімізація збору PII також є ключовою для дотримання законів на кшталт General Data Protection Regulation (GDPR) і Gramm-Leach-Bliley Act (GLBA).

Упроваджуйте контролі кібербезпеки

Регламенти на кшталт GDPR і GLBA також зазвичай вимагають захисних заходів, щоб запобігти витокам у першу чергу. Навіть поза межами такого законодавства, історія DeepSeek із витоками підкреслює потребу в додаткових запобіжниках безпеки.

Як мінімум, фінтех-компаніям варто шифрувати всі дані, доступні ШІ, як у стані зберігання (at rest), так і під час передавання (in transit). Регулярне пенетраційне тестування, щоб виявити й усунути вразливості, також є ідеальним варіантом.

Фінтех-організації також мають розглянути автоматизований моніторинг своїх застосувань DeepSeek, оскільки така автоматизація в середньому економить $2.2 мільйона на витратах через витоки завдяки швидшим і ефективнішим відповідям.

Аудит і моніторинг усіх застосувань ШІ

Навіть після виконання цих кроків критично важливо залишатися пильними. Проведіть аудит застосування на базі DeepSeek перед розгортанням, щоб виявити ознаки упередженості або вразливостей безпеки. Пам’ятайте, що деякі проблеми можуть бути непомітними спочатку, тож потрібен постійний перегляд.

Створіть окрему робочу групу, щоб моніторити результати рішення на основі ШІ та гарантувати, що воно залишатиметься етичним і таким, що відповідає будь-яким нормам. Також найкраще бути прозорими з клієнтами щодо цієї практики. Це заспокоїть і допоможе збудувати довіру в іншому випадку у сумнівній сфері.

Фінтех-компанії мають враховувати етику ШІ

Фінтех-дані є особливо чутливими, тож усі організації в цьому секторі повинні сприймати інструменти, що покладаються на дані, як-от ШІ, серйозно. DeepSeek може бути перспективним ресурсом для бізнесу, але лише якщо його використання відповідає суворим етичним і безпековим рекомендаціям.

Коли лідери фінтеху зрозуміють необхідність такої обережності, вони зможуть гарантувати, що їхні інвестиції в DeepSeek та інші AI-проєкти залишатимуться безпечними та справедливими.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити