Этические соображения при внедрении DeepSeek AI в финтех


Девин Партида — главный редактор ReHack. Как писатель, её работы были опубликованы в Inc., VentureBeat, Entrepreneur, Lifewire, The Muse, MakeUseOf и других.


Откройте для себя лучшие новости и события в сфере финтех!

Подпишитесь на рассылку FinTech Weekly

Эту рассылку читают руководители в JP Morgan, Coinbase, Blackrock, Klarna и других


Искусственный интеллект (AI) — одна из самых перспективных, но при этом уникально тревожных технологий в финтехе сегодня. Теперь, когда DeepSeek вызвал шоковые волны по всему пространству AI, его конкретные возможности и подводные камни требуют внимания.

Хотя ChatGPT вывел генеративный AI в массовую среду в 2022 году, DeepSeek вывел его на новый уровень, когда в 2025 году вышла его модель DeepSeek-R1.

Алгоритм с открытым исходным кодом и бесплатный, но результаты он демонстрировал на сопоставимом уровне с платными проприетарными альтернативами. Поэтому это заманчивое бизнес-возможность для компаний в сфере финтех, которые надеются извлечь выгоду из AI, но при этом возникает и ряд этических вопросов.


Рекомендуем прочитать:

*   **Модель R1 от DeepSeek вызывает дискуссии о будущем разработки AI**
*   **AI-модель DeepSeek: возможности и риски для небольших технологических компаний**

Конфиденциальность данных

Как и во многих AI-приложениях, конфиденциальность данных вызывает беспокойство. Большие языковые модели (LLM), такие как DeepSeek, требуют существенного объёма информации, и в отрасли вроде финтеха значительная часть этих данных может быть чувствительной.

У DeepSeek есть дополнительная сложность: это китайская компания. Правительство Китая может получить доступ ко всей информации в дата-центрах, принадлежащих китайским владельцам, или запросить данные у компаний в стране. Следовательно, модель может создавать риски, связанные с иностранным шпионажем и пропагандой.

Утечки данных третьими сторонами — ещё одна причина для беспокойства. DeepSeek уже столкнулся с утечкой, раскрывшей более 1 миллиона записей, что может поставить под сомнение безопасность AI-инструментов.

AI bias (смещение)

Модели машинного обучения, такие как DeepSeek, склонны к смещению. Поскольку AI-модели настолько хорошо умеют замечать и обучаться на тонких закономерностях, которые люди могут не воспринимать, они могут перенять неосознанные предубеждения из данных обучения. По мере того как они учатся на такой перекошенной информации, они могут поддерживать и усиливать проблемы неравенства.

Такие опасения особенно заметны в финансах. Поскольку финансовые учреждения исторически ограничивали возможности для меньшинств, в их исторических данных проявляется значительное смещение. Обучение DeepSeek на этих наборах данных может привести к дальнейшим действиям с предвзятостью — например, когда AI отказывает в кредитах или ипотеке на основании этнической принадлежности человека, а не кредитоспособности.

Доверие потребителей

По мере того как AI-ассоциированные проблемы заполняют заголовки, у широкой общественности растёт подозрительность к этим услугам. Это может привести к эрозии доверия между бизнесом в сфере финтех и его клиентами, если компания не будет прозрачно управлять этими опасениями.

У DeepSeek здесь может быть уникальное препятствие. Сообщается, что компания создала свою модель всего за $6 миллионов, и, как быстро растущая китайская компания, она может напомнить людям о проблемах конфиденциальности, которые затронули TikTok. Публика может быть не слишком готова доверять малобюджетной, быстро разработанной AI-модели свои данные, особенно когда у правительства Китая может быть определённое влияние.

Как обеспечить безопасное и этичное внедрение DeepSeek

Эти этические соображения не означают, что фирмы в сфере финтех не могут использовать DeepSeek безопасно, но они подчёркивают важность тщательного внедрения. Организации могут развёртывать DeepSeek этично и безопасно, придерживаясь этих лучших практик.

Развёртывайте DeepSeek на локальных серверах

Один из самых важных шагов — запускать AI-инструмент на внутренних дата-центрах. Хотя DeepSeek — китайская компания, веса её модели открыты, что делает возможным запуск на серверах в США и снижает опасения по поводу утечек конфиденциальных данных со стороны правительства Китая.

Однако не все дата-центры одинаково надёжны. В идеале компании в сфере финтех будут размещать DeepSeek на своём собственном оборудовании. Если это невозможно, руководству следует тщательно выбирать хостера — сотрудничать только с теми, кто даёт высокие гарантии доступности и стандарты безопасности, такие как ISO 27001 и NIST 800-53.

Сократите доступ к чувствительным данным

При создании приложения на основе DeepSeek компаниям в сфере финтех стоит учитывать, к каким типам данных модель может получать доступ. AI должен иметь доступ только к тому, что необходимо для выполнения своей функции. Также желательно очищать доступные данные от любых не нужных персонально идентифицируемых сведений (PII).

Когда у DeepSeek меньше чувствительных деталей, любая утечка будет иметь меньшее воздействие. Минимизация сбора PII также важна для соблюдения законов, таких как General Data Protection Regulation (GDPR) и Gramm-Leach-Bliley Act (GLBA).

Внедрите средства кибербезопасности

Нормативные требования вроде GDPR и GLBA обычно также предписывают защитные меры, чтобы предотвращать утечки в первую очередь. Даже за пределами такого законодательства, история DeepSeek с утечками подчёркивает необходимость дополнительных мер безопасности.

Как минимум компаниям в сфере финтех следует шифровать все данные, доступные AI, как в состоянии покоя (at rest), так и при передаче (in transit). Регулярное тестирование на проникновение для поиска и устранения уязвимостей также является наилучшим вариантом.

Организациям в сфере финтех также стоит рассмотреть автоматизированный мониторинг своих приложений DeepSeek, поскольку такая автоматизация в среднем экономит $2.2 миллиона на затратах из-за утечек благодаря более быстрым и эффективным ответам.

Аудит и мониторинг всех AI-приложений

Даже после выполнения этих шагов важно сохранять бдительность. Проведите аудит приложения на основе DeepSeek перед развёртыванием, чтобы выявить признаки смещения или уязвимости безопасности. Помните, что некоторые проблемы могут быть не заметны сначала, поэтому необходим постоянный пересмотр.

Создайте отдельную целевую группу для мониторинга результатов AI-решения и обеспечения того, что оно остаётся этичным и соответствует любым регуляциям. Также лучше быть прозрачными с клиентами относительно этой практики. Такое заверение поможет сформировать доверие в иначе сомнительной области.

Компании в сфере финтех должны учитывать этику AI

Данные в сфере финтех особенно чувствительны, поэтому все организации в этом секторе должны серьёзно относиться к инструментам, зависящим от данных, таким как AI. DeepSeek может стать многообещающим бизнес-ресурсом, но только если его использование следует строгим этическим и требованиям безопасности.

Как только лидеры в сфере финтех поймут необходимость такой заботы, они смогут гарантировать, что их инвестиции в DeepSeek и другие AI-проекты останутся безопасными и справедливыми.

DEEPSEEK15,96%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить