在金融科技中部署DeepSeek AI的伦理考量


Devin Partida 是 ReHack 的执行主编。作为一名作者,她的作品曾刊登在 Inc.、VentureBeat、Entrepreneur、Lifewire、The Muse、MakeUseOf 等媒体上。


探索顶级金融科技新闻与活动!

订阅 FinTech Weekly 的通讯

由 JP Morgan、Coinbase、Blackrock、Klarna 等高管阅读


人工智能(AI)是当今 金融科技(fintech) 中最具前景但也最令人担忧的技术之一。如今 DeepSeek 已在 AI 领域引发震荡,它的具体潜力与风险点更需要被关注。

尽管 ChatGPT 在 2022 年将生成式 AI 推向主流,但当 DeepSeek 于 2025 年推出其 DeepSeek-R1 模型时,DeepSeek 把它带到了新的高度。

该算法是开源且免费的,但其表现已达到与付费的专有替代方案相近的水平。因此,对于希望借助 AI 获利的金融科技公司而言,这是一项诱人的商业机会,但它也带来了一些伦理问题。


推荐阅读:

*   **DeepSeek 的 R1 模型引发关于 AI 发展未来的争论**
*   **DeepSeek 的 AI 模型:对小型科技公司的机遇与风险**

数据隐私

与许多 AI 应用一样,数据隐私是一个令人担忧的问题。像 DeepSeek 这样的“大型语言模型(LLM)”需要大量信息,而在金融科技这一领域,这些数据中的很大一部分可能属于敏感信息。

DeepSeek 还增加了一个额外的复杂性:它是一家中国公司。中国政府可以访问所有由中国拥有的数据中心中的信息,或要求该国境内的公司提供数据。因此,该模型可能存在与海外间谍活动和宣传相关的风险。

第三方数据泄露也是另一个担忧点。DeepSeek 已经遭遇过一次泄露,暴露了超过 100 万条记录,这可能会引发对这些 AI 工具安全性的质疑。

AI 偏见

像 DeepSeek 这样的机器学习模型容易产生偏见。由于 AI 模型非常擅长发现并从人类可能忽略的细微模式中学习,它们可能会在训练数据中吸收无意识的偏见。当它们从这些带偏信息中学习时,就可能延续并加剧不平等问题。

这种担忧在金融领域尤其突出。 因为金融机构在历史上曾向少数群体隐匿机会,其历史数据中往往就体现出显著的偏见。用这些数据集训练 DeepSeek 可能导致进一步的带偏行为,例如基于某人的族裔而非信用资质来让 AI 拒绝贷款或按揭申请。

消费者信任

随着与 AI 相关的问题不断登上头条,人们对这些服务的怀疑情绪也越来越强。如果金融科技企业不能以透明方式处理这些担忧,这可能会削弱其与客户之间的信任

DeepSeek 在这里可能面临一个独特的障碍。据报道,该公司耗资仅 600 万美元就构建了其模型,而作为一家快速成长的中国公司,它可能会让人们想起曾影响 TikTok 的隐私担忧。公众可能不会热衷于在数据方面信任一款预算较低、开发较快的 AI 模型,尤其是当中国政府可能会对其产生某种影响时

如何确保安全且符合伦理地部署 DeepSeek

这些伦理考量并不意味着金融科技公司无法安全地使用 DeepSeek,但它们强调了审慎实施的重要性。组织可以通过遵循这些最佳实践,在伦理与安全层面部署 DeepSeek

在本地服务器上运行 DeepSeek

最重要的一步之一,是在本国的数据中心上运行这款 AI 工具。尽管 DeepSeek 是一家中国公司,但其模型权重是开放的,因此可以在美国服务器上运行,从而缓解来自中国政府隐私泄露的担忧。

然而,并非所有数据中心都同样可靠。 理想情况下,金融科技企业应将 DeepSeek 托管在自己的硬件上。当这不可行时,管理层应谨慎选择托管方,只与那些能提供高正常运行时间保障且具备安全标准的合作伙伴合作,例如 ISO 27001 和 NIST 800-53。

尽量减少对敏感数据的访问

在构建基于 DeepSeek 的应用时,金融科技公司应考虑模型能够访问哪些类型的数据。AI 只应能够访问执行其功能所必需的内容。对任何不需要的**个人可识别信息(PII)**进行清理处理同样理想。

当 DeepSeek 持有的敏感细节更少时,任何泄露造成的影响也会更小。尽量减少 PII 的收集也是保持合规的关键,例如遵守《通用数据保护条例》(GDPR)和《格雷姆-里奇-布莱利法案》(GLBA)等法律。

实施网络安全控制

像 GDPR 和 GLBA 这样的法规通常也会要求采取防护措施,以从根本上防止泄露发生。即便不受这类立法约束,DeepSeek 的泄露历史也凸显出需要额外安全保障

至少,金融科技企业应对所有 AI 可访问且在“静止时”和“传输中”的数据进行加密。定期进行渗透测试以发现并修复漏洞也同样理想。

金融科技组织还应考虑对其 DeepSeek 应用进行自动化监控,因为这种自动化能在平均意义上节省 2.2 百万美元的泄露成本,得益于更快且更有效的响应。

审计并监控所有 AI 应用

即使在完成这些步骤之后,也至关重要的是保持警惕。在部署基于 DeepSeek 的应用之前进行审计,查找偏见或安全漏洞的迹象。请记住,有些问题一开始可能并不明显,因此需要持续复查。

成立一个专门的工作小组来监控该 AI 解决方案的结果,并确保其持续符合伦理且遵守任何相关法规。就这一点,也最好对客户保持透明。这种安抚有助于在一个本就颇为可疑的领域中建立信任。

金融科技公司必须考虑 AI 伦理

金融科技数据尤其敏感,因此该领域的所有组织都必须认真对待依赖数据的工具(如 AI)。DeepSeek 可能是一个有前景的商业资源,但前提是其使用必须遵循严格的伦理与安全准则。

一旦金融科技领导者理解了这种审慎需求,他们就能够确保其对 DeepSeek 的投资以及其他 AI 项目仍然安全且公平

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论