Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Этические соображения при внедрении DeepSeek AI в финтех
Девин Партида — главный редактор ReHack. Как автор, её работы были опубликованы в Inc., VentureBeat, Entrepreneur, Lifewire, The Muse, MakeUseOf и в других изданиях.
Откройте для себя ключевые новости и события в финтехе!
Подпишитесь на рассылку FinTech Weekly
Читают руководители в JP Morgan, Coinbase, Blackrock, Klarna и других компаниях
Искусственный интеллект (AI) — одна из самых многообещающих, но при этом по-своему тревожных технологий в финтехе сегодня. Теперь, когда DeepSeek произвёл эффект шока во всём AI-сообществе, его конкретные возможности и риски требуют пристального внимания.
Хотя ChatGPT вывел генеративный AI в массовый сегмент в 2022 году, DeepSeek поднял эту технологию на новый уровень, когда в 2025 году вышла его модель DeepSeek-R1.
Алгоритм является с открытым исходным кодом и бесплатным, но показал результаты на сопоставимом уровне с платными проприетарными альтернативами. Поэтому это заманчивая бизнес-возможность для финтех-компаний, стремящихся извлечь выгоду из AI, но при этом он поднимает и некоторые этические вопросы.
Рекомендуемое чтение:
Конфиденциальность данных
Как и во многих AI-приложениях, конфиденциальность данных — это повод для беспокойства. Большие языковые модели (LLM), подобные DeepSeek, требуют значительного объёма информации, и в такой сфере, как финтех, часть этих данных может быть чувствительной.
У DeepSeek есть дополнительная сложность: компания является китайской. Правительство Китая может получить доступ ко всей информации на принадлежащих китайским компаниям центрах обработки данных или запросить данные у компаний внутри страны. Следовательно, модель может создавать риски, связанные с иностранным шпионажем и пропагандой.
Нарушения данных у третьих сторон — ещё одна проблема. DeepSeek уже столкнулся с утечкой, которая раскрыла более 1 миллиона записей, что может вызвать сомнения в безопасности инструментов AI.
Предвзятость AI
Модели машинного обучения, подобные DeepSeek, склонны к предвзятости. Поскольку AI-модели настолько искусны в выявлении и обучении на тонких паттернах, которые люди могут не заметить, они могут перенимать неосознанные предубеждения из данных, на которых проходило обучение. По мере того как они обучаются на этой искажённой информации, они могут закреплять и ухудшать проблемы неравенства.
Такие опасения особенно заметны в финансах. Поскольку финансовые учреждения исторически ограничивали возможности меньшинств, в их исторических данных часто присутствует значительная предвзятость. Обучение DeepSeek на этих наборах данных может привести к дальнейшим предвзятым действиям, таким как отказ в кредитах или ипотеке человеку из-за его этничности, а не из-за кредитоспособности.
Доверие потребителей
Поскольку AI-связанные проблемы заполняют заголовки, у широкой публики растёт подозрительность к этим услугам. Это может привести к эрозии доверия между финтех-компанией и её клиентами, если она не будет прозрачно управлять такими опасениями.
DeepSeek может столкнуться с здесь с уникальным барьером. Сообщается, что компания создала свою модель всего за $6 миллионов, и как быстрорастущая китайская компания она может напомнить людям о проблемах конфиденциальности, которые затрагивали TikTok. Публичная аудитория может быть не слишком склонна доверять бюджетной, быстро разработанной AI-модели со своими данными, особенно когда у правительства Китая может быть определённое влияние.
Как обеспечить безопасное и этичное внедрение DeepSeek
Эти этические соображения не означают, что финтех-компании не могут использовать DeepSeek безопасно, но они подчёркивают важность продуманной реализации. Организации могут внедрять DeepSeek этично и безопасно, придерживаясь этих лучших практик.
Запускайте DeepSeek на локальных серверах
Один из самых важных шагов — запускать инструмент AI на отечественных дата-центрах. Хотя DeepSeek — китайская компания, веса её модели открыты, что делает возможным запуск на серверах в США и снижает опасения по поводу утечек данных со стороны правительства Китая.
Однако не все дата-центры одинаково надёжны. В идеале финтех-компании должны размещать DeepSeek на собственном оборудовании. Когда это невозможно, руководству следует выбирать хостинг внимательно — сотрудничать только с теми, кто обеспечивает высокую доступность и соответствует стандартам безопасности, такими как ISO 27001 и NIST 800-53.
Сократите доступ к чувствительным данным
При создании приложения на базе DeepSeek финтех-компании должны учитывать, к каким видам данных модель может получать доступ. AI должен иметь возможность получать доступ только к тому, что нужно для выполнения своей функции. Удаление из доступных данных любых не требующихся персонально идентифицируемых данных (PII) также является идеальным вариантом.
Когда у DeepSeek меньше чувствительных деталей, любая утечка будет иметь меньший эффект. Минимизация сбора PII — также ключевой фактор для соответствия требованиям законов вроде Общего регламента по защите данных (GDPR) и Закона Gramm-Leach-Bliley Act (GLBA).
Внедрите меры кибербезопасности
Регламенты вроде GDPR и GLBA также обычно требуют защитных мер, чтобы предотвратить утечки в первую очередь. Даже вне рамок такого законодательства, история DeepSeek с утечками подчёркивает необходимость дополнительных мер безопасности.
Как минимум, финтех-компаниям следует шифровать все данные, доступные AI, как в состоянии покоя (at rest), так и при передаче (in transit). Регулярное тестирование на проникновение для поиска и устранения уязвимостей также является идеальным вариантом.
Финансовым организациям также стоит рассмотреть автоматизированный мониторинг своих приложений DeepSeek, поскольку такая автоматизация в среднем экономит $2,2 миллиона на затратах, связанных с утечками, благодаря более быстрым и эффективным ответам.
Аудитируйте и контролируйте все приложения AI
Даже после выполнения этих шагов важно сохранять бдительность. Аудитируйте приложение на базе DeepSeek перед развертыванием, чтобы выявить признаки предвзятости или уязвимости безопасности. Помните, что некоторые проблемы могут быть незаметны сначала, поэтому необходим постоянный пересмотр.
Создайте отдельную целевую группу для мониторинга результатов AI-решения и для того, чтобы оно оставалось этичным и соответствовало любым регламентам. Также лучше быть прозрачными с клиентами относительно этой практики. Такое успокоение может помочь выстроить доверие в противном случае к сомнительной сфере.
Финтех-компании должны учитывать этику AI
Финтех-данные особенно чувствительны, поэтому все организации в этом секторе должны серьёзно относиться к инструментам, зависящим от данных, таким как AI. DeepSeek может быть перспективным бизнес-ресурсом, но только если его использование следует строгим этическим и безопасностным руководствам.
Когда лидеры финтеха поймут необходимость такой заботы, они смогут гарантировать, что их инвестиции в DeepSeek и другие AI-проекты останутся безопасными и справедливыми.