Этические соображения при внедрении DeepSeek AI в финтех


Девин Партида — главный редактор ReHack. Как писатель, её материалы были опубликованы в Inc., VentureBeat, Entrepreneur, Lifewire, The Muse, MakeUseOf и других изданиях.


Откройте для себя лучшие новости и мероприятия в финтехе!

Подпишитесь на рассылку FinTech Weekly

Читают руководители в JP Morgan, Coinbase, Blackrock, Klarna и др.


Искусственный интеллект (ИИ) — одна из самых многообещающих, но при этом уникально тревожных технологий в финтехе сегодня. Теперь, когда DeepSeek вызвал шок-волны во всём пространстве ИИ, его конкретные возможности и подводные камни требуют пристального внимания.

Пока ChatGPT в 2022 году вывел генеративный ИИ в массовый сегмент, DeepSeek поднял его на новый уровень, когда в 2025 году был запущен его модельный вариант DeepSeek-R1.

Алгоритм с открытым исходным кодом и бесплатный, но показывал результаты на сопоставимом уровне с платными проприетарными альтернативами. Таким образом, это заманчивая бизнес-возможность для финтех-компаний, которые надеются извлечь выгоду из ИИ, но он также поднимает некоторые этические вопросы.


Рекомендуемые материалы для чтения:

*   **Модель DeepSeek R1 вызвала дискуссию о будущем разработки ИИ**
*   **ИИ-модель DeepSeek: возможности и риски для небольших технологических компаний**

Конфиденциальность данных

Как и во многих приложениях ИИ, конфиденциальность данных вызывает беспокойство. Большие языковые модели (LLM), такие как DeepSeek, требуют значительного объёма информации, и в отрасли вроде финтеха большая часть этих данных может быть чувствительной.

У DeepSeek есть дополнительная сложность: компания является китайской. Правительство Китая может получить доступ ко всей информации на принадлежащих китайцам центрах обработки данных или запросить данные у компаний в стране. Следовательно, модель может создавать риски, связанные с иностранным шпионажем и пропагандой.

Утечки данных от третьих сторон — ещё одна проблема. DeepSeek уже столкнулся с утечкой, которая раскрыла более 1 миллиона записей, что может поставить под сомнение безопасность инструментов ИИ.

Смещение в ИИ

Модели машинного обучения, такие как DeepSeek, склонны к смещению. Поскольку модели ИИ настолько хорошо умеют находить и учиться на тонких паттернах, которые люди могут не замечать, они могут перенять неосознаваемые предвзятости из данных обучения. По мере обучения на такой перекошенной информации они могут поддерживать и ухудшать проблемы неравенства.

Такие опасения особенно заметны в финансах. Поскольку финансовые учреждения исторически лишали меньшинства возможностей, в их исторических данных видна существенная предвзятость. Обучение DeepSeek на этих наборах данных может привести к дальнейшим предвзятым действиям, таким как отказ ИИ в выдаче кредитов или ипотек на основе этничности человека, а не кредитоспособности.

Доверие потребителей

Поскольку проблемы, связанные с ИИ, заполняют заголовки, широкая общественность стала всё более подозрительно относиться к этим услугам. Это может привести к размыванию доверия между финтех-компанией и её клиентами, если она не будет прозрачно управлять этими опасениями.

У DeepSeek здесь может быть уникальное препятствие. Сообщается, что компания построила свою модель всего за $6 миллионов, и, как быстрорастущая китайская компания, она может напомнить людям о проблемах конфиденциальности, которые затронули TikTok. Публика может не спешить доверять бюджетной и быстро разработанной модели ИИ своим данным, особенно когда у китайского правительства может быть определённое влияние.

Как обеспечить безопасное и этичное развертывание DeepSeek

Эти этические соображения не означают, что финтех-компании не могут использовать DeepSeek безопасно, но они подчёркивают важность аккуратной реализации. Организации могут этично и безопасно развертывать DeepSeek, соблюдая эти лучшие практики.

Запускайте DeepSeek на локальных серверах

Один из самых важных шагов — запускать инструмент ИИ на внутренних центрах обработки данных. Хотя DeepSeek — китайская компания, веса его модели открыты, что делает возможным запуск на серверах в США и снижение опасений относительно утечек конфиденциальных данных со стороны китайского правительства.

Однако не все центры обработки данных одинаково надёжны. В идеале финтех-компании должны размещать DeepSeek на собственном оборудовании. Когда это невозможно, руководству следует выбирать хост аккуратно: сотрудничать только с теми, кто предоставляет высокие гарантии безотказной работы и соответствует стандартам безопасности, таким как ISO 27001 и NIST 800-53.

Сократите доступ к чувствительным данным

При разработке приложения на основе DeepSeek финтех-компаниям следует продумать, какие типы данных модель может получать доступ. ИИ должен иметь возможность обращаться только к тому, что нужно для выполнения своей функции. Удаление (очистка) из доступных данных любых ненужных персонально идентифицируемых данных (PII) также является идеальным вариантом.

Когда у DeepSeek меньше чувствительных деталей, любая утечка будет иметь меньшее влияние. Сведение к минимуму сбора PII — также ключ к соблюдению законов вроде General Data Protection Regulation (GDPR) и Gramm-Leach-Bliley Act (GLBA).

Внедрите элементы кибербезопасности

Нормативные требования вроде GDPR и GLBA также обычно требуют защитных мер, чтобы предотвратить утечки в первую очередь. Даже вне рамок такого законодательства, история DeepSeek с утечками подчёркивает необходимость дополнительных мер безопасности.

Как минимум финтех-компаниям следует шифровать все данные, доступные для ИИ, как в состоянии покоя (at rest), так и при передаче (in transit). Регулярное тестирование на проникновение для поиска и устранения уязвимостей также является идеальным вариантом.

Финансовым организациям также стоит рассмотреть автоматизированный мониторинг приложений DeepSeek, поскольку такая автоматизация в среднем экономит $2.2 миллиона на затратах, связанных с утечками, благодаря более быстрым и эффективным ответам.

Аудируйте и отслеживайте все приложения ИИ

Даже после выполнения этих шагов важно сохранять бдительность. Проведите аудит приложения на базе DeepSeek перед развертыванием, чтобы выявить признаки смещения или уязвимости безопасности. Помните, что некоторые проблемы могут быть заметны не сразу, поэтому необходим постоянный пересмотр.

Создайте отдельную целевую группу, чтобы мониторить результаты ИИ-решения и убедиться, что оно остаётся этичным и соответствующим любым нормативным требованиям. Также лучше быть прозрачными с клиентами об этой практике. Это поможет укрепить доверие в сфере, которая в противном случае может быть весьма сомнительной.

Финтех-компании должны учитывать этику ИИ

Данные финтеха особенно чувствительны, поэтому все организации в этом секторе должны серьёзно относиться к инструментам, зависящим от данных, таким как ИИ. DeepSeek может стать многообещающим ресурсом для бизнеса, но только если его использование следует строгим этическим и безопасностным руководствам.

Как только лидеры финтеха поймут необходимость такой заботы, они смогут гарантировать, что их инвестиции в DeepSeek и другие ИИ-проекты останутся безопасными и справедливыми.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить