Этические соображения при внедрении DeepSeek AI в финтех


Девин Партита является главным редактором ReHack. В качестве автора ее работы были опубликованы в Inc., VentureBeat, Entrepreneur, Lifewire, The Muse, MakeUseOf и других.


Узнайте о лучших новостях и событиях в сфере финтеха!

Подписывайтесь на рассылку FinTech Weekly

Читают руководители из JP Morgan, Coinbase, Blackrock, Klarna и других


Искусственный интеллект (ИИ) является одной из самых многообещающих, но уникально тревожных технологий в финтехе сегодня. Теперь, когда DeepSeek вызвал шок в области ИИ, его конкретные возможности и подводные камни требуют внимания.

Хотя ChatGPT вывел генеративный ИИ в мейнстрим в 2022 году, DeepSeek поднял его на новые высоты, когда его модель DeepSeek-R1 была запущена в 2025 году.

Алгоритм является открытым и бесплатным, но показывает результаты на уровне платных проприетарных альтернатив. Таким образом, это соблазнительная бизнес-возможность для финтех-компаний, надеющихся использовать ИИ, но также она поднимает некоторые этические вопросы.


Рекомендуемые чтения:

*   **Модель R1 от DeepSeek вызывает дебаты о будущем разработки ИИ**
*   **Модель ИИ DeepSeek: Возможности и риски для малых технологических компаний**

Конфиденциальность данных

Как и во многих приложениях ИИ, конфиденциальность данных является проблемой. Большие языковые модели (LLM), такие как DeepSeek, требуют значительного объема информации, и в таком секторе, как финтех, большая часть этих данных может быть чувствительной.

DeepSeek имеет дополнительную сложность в том, что является китайской компанией. Государство Китая может получить доступ ко всей информации на китайских дата-центрах или запросить данные у компаний в стране. Следовательно, модель может представлять риски, связанные с иностранным шпионажем и пропагандой.

Утечки данных третьих лиц — еще одна проблема. DeepSeek уже пострадал от утечки, в результате которой были раскрыты более 1 миллиона записей, что может вызвать сомнения в безопасности инструментов ИИ.

Смещение ИИ

Модели машинного обучения, такие как DeepSeek, подвержены смещению. Поскольку модели ИИ так хорошо умеют выявлять и учиться на тонких паттернах, которые могут ускользать от человеческого внимания, они могут перенимать бессознательные предвзятости из своих обучающих данных. Поскольку они учатся на этой искаженной информации, они могут продолжать и усугублять проблемы неравенства.

Такие опасения особенно актуальны в финансах. Поскольку финансовые учреждения исторически ограничивали возможности для меньшинств, многие из их исторических данных демонстрируют значительное смещение. Обучение DeepSeek на этих наборах данных может привести к дальнейшим предвзятым действиям, таким как отказ ИИ в кредитах или ипотеке на основе этнической принадлежности, а не кредитоспособности.

Доверие потребителей

Поскольку проблемы, связанные с ИИ, заполнили заголовки, общественность стала все более подозрительной к этим услугам. Это может привести к разрушению доверия между финтех-бизнесом и его клиентами, если он не будет прозрачно управлять этими проблемами.

DeepSeek может столкнуться с уникальным барьером здесь. Сообщается, что компания построила свою модель всего за 6 миллионов долларов и, будучи быстро растущей китайской компанией, может напоминать людям о проблемах конфиденциальности, связанных с TikTok. Общественность может не быть настроена доверять модели ИИ с низким бюджетом и быстро разработанной с их данными, особенно когда на нее может оказывать влияние китайское правительство.

Как обеспечить безопасное и этичное развертывание DeepSeek

Эти этические соображения не означают, что финтех-компании не могут использовать DeepSeek безопасно, но они подчеркивают важность тщательной реализации. Организации могут развертывать DeepSeek этично и безопасно, следуя этим лучшим практикам.

Запустите DeepSeek на локальных серверах

Одним из самых важных шагов является запуск ИИ-инструмента на внутренних дата-центрах. Хотя DeepSeek является китайской компанией, его модельные веса открыты, что позволяет запускать его на серверах США и смягчать опасения по поводу утечек конфиденциальности от китайского правительства.

Тем не менее, не все дата-центры одинаково надежны. В идеале финтех-компании будут размещать DeepSeek на своем собственном оборудовании. Когда это невозможно, руководство должно тщательно выбирать хост, сотрудничая только с теми, кто имеет высокую гарантию времени безотказной работы и стандарты безопасности, такие как ISO 27001 и NIST 800-53.

Минимизируйте доступ к чувствительным данным

При создании приложения на основе DeepSeek финтех-компании должны учитывать, к каким данным модель может получить доступ. ИИ должен иметь возможность доступа только к тем данным, которые необходимы для выполнения его функции. Также желательно очищать доступные данные от любой ненужной персонально идентифицируемой информации (PII).

Когда DeepSeek хранит меньше чувствительных деталей, любое нарушение будет менее значительным. Минимизация сбора PII также ключ к соблюдению законов, таких как Общий регламент по защите данных (GDPR) и Закон Грамма-Лича-Блайли (GLBA).

Внедрите меры кибербезопасности

Регламенты, такие как GDPR и GLBA, обычно также требуют защитных мер для предотвращения утечек в первую очередь. Даже вне такой законодательной базы, история DeepSeek с утечками подчеркивает необходимость дополнительных мер безопасности.

По меньшей мере, финтех-компании должны шифровать все данные, доступные для ИИ, как в состоянии покоя, так и в процессе передачи. Регулярные тесты на проникновение для выявления и устранения уязвимостей также желательно.

Финтех-организации также должны рассмотреть возможность автоматизированного мониторинга своих приложений DeepSeek, так как такая автоматизация позволяет сэкономить в среднем 2,2 миллиона долларов на затратах по утечкам благодаря более быстрому и эффективному реагированию.

Аудит и мониторинг всех приложений ИИ

Даже после выполнения этих шагов крайне важно оставаться бдительными. Проверьте приложение на основе DeepSeek перед его развертыванием на наличие признаков смещения или уязвимостей безопасности. Помните, что некоторые проблемы могут не быть заметны сразу, поэтому необходимо проводить постоянный обзор.

Создайте специальную рабочую группу для мониторинга результатов ИИ-решения и обеспечения его этичности и соответствия любым регламентам. Также лучше быть прозрачным с клиентами относительно этой практики. Уверенность может помочь построить доверие в иначе сомнительной области.

Финтех-компании должны учитывать этику ИИ

Данные финтеха особенно чувствительны, поэтому все организации в этом секторе должны серьезно относиться к инструментам, зависимым от данных, таким как ИИ. DeepSeek может быть многообещающим бизнес-ресурсом, но только если его использование соответствует строгим этическим и безопасным нормам.

Как только руководители финтеха поймут необходимость такого подхода, они смогут обеспечить безопасность и справедливость своих инвестиций в DeepSeek и другие проекты ИИ.

DEEPSEEK-2,59%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить