Этические соображения при внедрении DeepSeek AI в финтех


Девин Партида — главный редактор ReHack. Как автор, ее материалы публиковались в Inc., VentureBeat, Entrepreneur, Lifewire, The Muse, MakeUseOf и других изданиях.


Откройте для себя лучшие новости и события в сфере fintech!

Подпишитесь на рассылку FinTech Weekly

Читают руководители в JP Morgan, Coinbase, Blackrock, Klarna и других


Искусственный интеллект (AI) — одна из самых перспективных, но при этом по-настоящему тревожных технологий в финтехе сегодня. Теперь, когда DeepSeek послал шокирующие волны по всей AI-сфере, конкретные возможности и подводные камни требуют внимания.

Хотя ChatGPT вывел генеративный AI в мейнстрим в 2022 году, DeepSeek поднял его на новый уровень, когда в 2025 году вышла модель DeepSeek-R1.

Алгоритм является с открытым исходным кодом и бесплатным, но по качеству работы он демонстрировал уровень, сопоставимый с платными проприетарными альтернативами. Поэтому это заманчивая бизнес-возможность для компаний в финтехе, которые хотят извлечь выгоду из AI, но одновременно это поднимает некоторые этические вопросы.


Рекомендуем к чтению:

*   **Модель DeepSeek R1 вызывает споры о будущем разработки AI**
*   **AI-модель DeepSeek: возможность и риск для небольших техкомпаний**

Конфиденциальность данных

Как и во многих AI-приложениях, конфиденциальность данных — это проблема. Большие языковые модели (LLM), такие как DeepSeek, требуют существенного объема информации, и в такой сфере, как финтех, часть этих данных может быть чувствительной.

У DeepSeek есть дополнительное усложнение: компания является китайской. Правительство Китая может получить доступ ко всей информации на принадлежащих китайцам дата-центрах или запросить данные у компаний в стране. Следовательно, модель может создавать риски, связанные с иностранным шпионажем и пропагандой.

Взломы данных третьими сторонами — еще одна причина для беспокойства. У DeepSeek уже был инцидент утечки, в результате которого обнажилось более 1 миллиона записей, что может поставить под сомнение безопасность AI-инструментов.

Смещение (bias) в AI

Модели машинного обучения, такие как DeepSeek, склонны к смещению. Поскольку AI-модели настолько хорошо умеют находить и учиться на тонких паттернах, которые люди могут не замечать, они могут перенимать неосознанные предубеждения из данных обучения. По мере обучения на этой перекошенной информации они способны поддерживать и ухудшать проблемы неравенства.

Такие опасения особенно заметны в финансах. Поскольку финансовые институты исторически ограничивали возможности для меньшинств, в их исторических данных часто присутствует значительное смещение. Обучение DeepSeek на этих наборах данных может привести к дальнейшим смещенным действиям, таким как отказ в AI-займах или ипотеке на основе этничности человека, а не его кредитоспособности.

Доверие потребителей

Поскольку AI-ассоциированные проблемы заполнили заголовки, широкая публика стала все более подозрительно относиться к этим сервисам. Это может привести к эрозии доверия между финтех-компанией и ее клиентами, если компания не будет прозрачно управлять этими опасениями.

У DeepSeek может быть здесь уникальное препятствие. Сообщается, что компания построила свою модель всего за $6 миллионов и, будучи быстрорастущей китайской компанией, может напоминать людям о проблемах конфиденциальности, которые затронули TikTok. Публика может не спешить доверять недорогой, быстро разработанной AI-модели с их данными, особенно когда у китайского правительства может быть какое-то влияние.

Как обеспечить безопасное и этичное внедрение DeepSeek

Эти этические соображения не означают, что финтех-компании не могут безопасно использовать DeepSeek, но они подчеркивают важность внимательного внедрения. Организации могут развертывать DeepSeek этично и безопасно, придерживаясь этих лучших практик.

Запускайте DeepSeek на локальных серверах

Один из самых важных шагов — запускать AI-инструмент в отечественных дата-центрах. Хотя DeepSeek — китайская компания, ее веса модели открыты, что делает возможным запуск на серверах в США и снижает опасения по поводу утечек конфиденциальных данных со стороны китайского правительства.

Однако не все дата-центры одинаково надежны. В идеале финтех-компании должны размещать DeepSeek на собственном оборудовании. Если это невозможно, руководству следует тщательно выбирать хостера, сотрудничая только с теми, кто обеспечивает высокий аптайм и стандарты безопасности, такие как ISO 27001 и NIST 800-53.

Сведите к минимуму доступ к чувствительным данным

При создании приложения на основе DeepSeek финтех-компании должны учитывать типы данных, к которым модель может получить доступ. AI должен иметь возможность обращаться только к тому, что необходимо для выполнения своей функции. Также идеально заранее очищать доступные данные от любых ненужных лично идентифицируемых данных (PII).

Когда у DeepSeek меньше чувствительных деталей, любая утечка будет иметь меньший эффект. Минимизация сбора PII также важна для соблюдения законов вроде General Data Protection Regulation (GDPR) и Gramm-Leach-Bliley Act (GLBA).

Внедрите меры кибербезопасности

Регламенты вроде GDPR и GLBA обычно также требуют защитных мер, чтобы не допустить утечек в первую очередь. Даже вне рамок такого законодательства, история DeepSeek с утечками подчеркивает необходимость дополнительных мер безопасности.

Минимум, финтех-компаниям следует шифровать все данные, доступные для AI, как при хранении, так и при передаче. Регулярное тестирование на проникновение, чтобы находить и устранять уязвимости, также является идеальным вариантом.

Финансовым организациям также следует рассмотреть автоматизированный мониторинг своих приложений DeepSeek, поскольку такая автоматизация в среднем экономит $2.2 миллиона на затратах из-за утечек — благодаря более быстрым и эффективным ответам.

Аудит и мониторинг всех AI-приложений

Даже после выполнения этих шагов критически важно оставаться бдительными. Аудитируйте приложение на основе DeepSeek перед развертыванием, чтобы выявлять признаки смещения или уязвимости безопасности. Помните, что некоторые проблемы могут быть незаметны на первый взгляд, поэтому необходим постоянный пересмотр.

Создайте отдельную целевую группу для мониторинга результатов AI-решения и гарантии того, что оно остается этичным и соответствует любым нормативным требованиям. Также лучше быть прозрачными с клиентами относительно этой практики. Это успокоение поможет укрепить доверие в сфере, которая в противном случае выглядит сомнительной.

Финтех-компании должны учитывать этику AI

Финтех-данные особенно чувствительны, поэтому все организации в этом секторе должны серьезно относиться к инструментам, зависящим от данных, таким как AI. DeepSeek может быть многообещающим бизнес-ресурсом, но только если его использование соответствует строгим требованиям этики и безопасности.

Как только лидеры финтеха поймут необходимость такого подхода, они смогут гарантировать, что инвестиции в DeepSeek и другие AI-проекты остаются безопасными и справедливыми.

DEEPSEEK-3,14%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить