在金融科技中部署DeepSeek AI的伦理考量


Devin Partida 是 ReHack 的执行主编。作为一名撰稿人,她的作品曾刊登在 Inc.、VentureBeat、Entrepreneur、Lifewire、The Muse、MakeUseOf 等媒体以及其他媒体上。


发现顶级金融科技新闻与活动!

订阅 FinTech Weekly 的通讯

由 JP Morgan、Coinbase、Blackrock、Klarna 等高管阅读,并且还有更多


人工智能(AI)是当今**金融科技(fintech)**中最有前景、但也最引人担忧的技术之一。现在,DeepSeek 已在整个 AI 领域引发震荡,它的具体可能性与潜在陷阱都需要被高度关注。

尽管 ChatGPT 在 2022 年将生成式 AI 推向主流,但在 2025 年 DeepSeek-R1 模型发布之后,DeepSeek 又把这一领域带到了新的高度。

该算法是开源且免费的,但其表现已达到与付费的专有替代方案相当的水平。因此,它对于希望借助 AI 实现获利的金融科技公司来说是一个非常诱人的商业机会,但它也引发了一些伦理问题。


推荐阅读:

*   **DeepSeek 的 R1 模型引发关于 AI 未来的争论**
*   **DeepSeek 的 AI 模型:对小型科技公司的机遇与风险**

数据隐私

与许多 AI 应用一样,数据隐私是一个令人担忧的问题。像 DeepSeek 这样的“大型语言模型(LLMs)”需要大量信息,而在金融科技这样的行业中,这些数据中的相当一部分可能十分敏感。

DeepSeek 还增加了一个额外的复杂性:它是一家中国公司。中国政府可以访问由中国公司拥有的数据中心中的所有信息,或者要求该国境内的公司提供数据。因此,该模型可能会带来与境外窃密和宣传相关的风险。

第三方数据泄露是另一个需要关注的问题。DeepSeek 已经遭遇过一次泄露,暴露了超过 1,000,000 条记录,这可能会让人对这些 AI 工具的安全性产生疑虑。

AI 偏见

像 DeepSeek 这样的机器学习模型容易产生偏见。因为 AI 模型非常擅长识别并从人类可能察觉不到的细微模式中学习,它们可能会在训练数据中“吸收”无意识的偏见。当它们从这些带偏的数据中学习时,就可能延续并加剧不平等问题。

这种担忧在金融领域尤为突出。 由于金融机构在历史上曾向少数群体隐瞒机会,它们的历史数据往往呈现出显著偏差。若在这些数据集上训练 DeepSeek,可能会导致更进一步的带偏行为,例如 AI 因为某人的种族而非信用可靠性来拒绝贷款或按揭。

消费者信任

随着与 AI 相关的问题频繁出现在头条新闻中,公众对这些服务的怀疑情绪也在不断上升。如果金融科技企业不能以透明的方式妥善管理这些担忧,就可能削弱其与客户之间的信任

DeepSeek 在这方面可能会遇到一个独特的障碍。据报道,该公司只花了 6,000,000 美元就搭建了其模型,而且作为一家快速成长的中国公司,它可能会让人们想起那些影响 TikTok 的隐私担忧。公众未必愿意在自己的数据上信任一款预算较低、开发较快的 AI 模型,尤其是在中国政府可能对相关事务具有一定影响的情况下

如何确保安全且合乎伦理地部署 DeepSeek

这些伦理考量并不意味着金融科技公司不能安全地使用 DeepSeek,但它们强调了谨慎实施的重要性。组织可以通过遵循这些最佳实践,以合乎伦理且安全的方式部署 DeepSeek

在本地服务器上运行 DeepSeek

其中最重要的一步,是在本国的数据中心运行这款 AI 工具。尽管 DeepSeek 是一家中国公司,但其模型权重是开源的,这使得可以在美国服务器上运行,从而降低来自中国政府导致隐私泄露的担忧。

然而,并非所有数据中心都同样可靠。 理想情况下,金融科技企业应将 DeepSeek 托管在自有硬件上。当这不可行时,管理层应谨慎选择托管方,只与那些能够提供高可用性保障并具备安全标准(如 ISO 27001 和 NIST 800-53)的主体合作。

尽量减少对敏感数据的访问

在构建基于 DeepSeek 的应用时,金融科技公司应考虑该模型能够访问哪些类型的数据。AI 应当只能访问执行其功能所需的信息。对任何可访问但不需要的数据进行清理,去除任何不必要的 个人可识别信息(PII) 同样是理想之举。

当 DeepSeek 持有的敏感细节更少时,任何泄露造成的影响也会更小。尽量减少 PII 的收集也是保持合规的关键,例如遵守《通用数据保护条例》(GDPR)以及 Gramm-Leach-Bliley Act (GLBA)。

实施网络安全控制

像 GDPR 和 GLBA 这类法规通常也会要求采取保护措施,以防止泄露在最初发生。即便不受此类立法约束,DeepSeek 的泄露历史也凸显了需要额外安全防护措施

至少,金融科技企业应对所有 AI 可访问的数据在“静止时(at rest)”以及“传输中(in transit)”进行加密。定期开展渗透测试以发现并修复漏洞同样理想。

金融科技组织也应考虑对其 DeepSeek 应用进行自动化监控,因为这种自动化能够平均节省 2.2 million 美元的泄露成本,原因在于响应更快、更有效。

审计并监控所有 AI 应用

即便在遵循以上这些步骤之后,也必须保持警惕。在部署之前,对基于 DeepSeek 的应用进行审计,以查找偏见或安全漏洞的迹象。请记住,有些问题可能一开始并不容易察觉,因此需要持续复核。

建立一个专门的工作小组来监控该 AI 解决方案的结果,并确保其始终符合伦理且遵守任何相关法规。与客户在这项做法上保持透明同样很重要。这样的安抚有助于在一个本就颇为可疑的领域中建立信任。

金融科技公司必须考虑 AI 伦理

金融科技数据尤其敏感,因此该行业的所有组织都必须认真对待像 AI 这样的依赖数据的工具。DeepSeek 可能是一个有前景的业务资源,但前提是其使用必须遵循严格的伦理与安全指南。

当金融科技领导者理解了这种谨慎的必要性之后,他们就能确保其对 DeepSeek 的投资以及其他 AI 项目保持安全且公平

DEEPSEEK-9.55%
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论