在金融科技中部署DeepSeek AI的伦理考量


Devin Partida 是 ReHack 的主编。作为一名作者,她的作品曾刊登在 Inc.、VentureBeat、Entrepreneur、Lifewire、The Muse、MakeUseOf 等媒体,以及其他平台上。


发现顶级金融科技新闻和活动!

订阅 FinTech Weekly 的通讯

被 JP Morgan、Coinbase、Blackrock、Klarna 等的高管阅读


人工智能(AI)是当今 金融科技(fintech) 中最具前景、但也最令人担忧的技术之一。如今 DeepSeek 在 AI 领域引发震荡之后,它所带来的具体可能性与风险都需要引起关注。

尽管 ChatGPT 于 2022 年将生成式 AI 带入主流,但当其 DeepSeek-R1 模型在 2025 年发布时,DeepSeek 将其推向了新的高度。

该算法为开源且免费,但其表现已达到与付费专有替代方案相当的水平。因此,对希望借助 AI 获利的金融科技公司而言,它是一个诱人的商业机会,但同时也带来了一些伦理问题。


推荐阅读:

*   **DeepSeek 的 R1 模型引发关于 AI 开发未来的争论**
*   **DeepSeek 的 AI 模型:小型科技公司的机遇与风险**

数据隐私

与许多 AI 应用一样,数据隐私是一个令人担忧的问题。像 DeepSeek 这样的“大型语言模型(LLMs)”需要大量信息,而在金融科技这样的领域,其中许多数据可能是敏感的。

DeepSeek 还多了一个复杂因素:它是一家中国公司。中国政府可以访问所有由中国拥有的数据中心中的信息,或要求该国境内公司的提供数据。 因此,该模型可能带来与境外间谍活动和宣传有关的风险。

第三方数据泄露也是另一个担忧点。DeepSeek 已经遭遇过一次泄露,暴露了超过 100 万条记录,这可能会引发人们对这些 AI 工具安全性的质疑。

AI 偏见

像 DeepSeek 这样的机器学习模型容易产生偏见。由于 AI 模型擅长发现并从人类可能注意不到的细微模式中学习,它们可能会从训练数据中吸收无意识的偏见。当它们从这些带偏的信息中学习时,就可能延续并加剧不平等问题。

这种担忧在金融领域尤其突出。 因为金融机构在历史上一直对少数群体压制机会,其历史数据往往呈现出显著的偏见。使用这些数据集来训练 DeepSeek,可能会导致进一步的有偏行动,例如 AI 根据某人的族裔而非其信用度来拒绝贷款或房贷。

消费者信任

随着与 AI 相关的问题不断出现在头条新闻中,公众对这些服务的疑虑也在加深。如果金融科技企业不能以透明方式妥善管理这些担忧,就可能导致其与客户之间的信任被侵蚀

DeepSeek 可能在这里面临一个独特的门槛。据报道,该公司花费仅 600 万美元就构建了其模型,而且作为一家高速发展的中国公司,它可能会让人们联想到曾影响 TikTok 的隐私担忧。公众未必愿意把自己的数据交给一套预算较低、开发迅速的 AI 模型,尤其是在中国政府可能会产生一定影响的情况下

如何确保安全且合乎伦理地部署 DeepSeek

这些伦理考量并不意味着金融科技公司无法安全地使用 DeepSeek,但它们确实强调审慎落实的重要性。通过遵循这些最佳实践,组织可以以符合伦理且安全的方式部署 DeepSeek

在本地服务器上运行 DeepSeek

最重要的步骤之一,是在本土数据中心上运行这项 AI 工具。尽管 DeepSeek 是一家中国公司,但其模型权重是开放的,这使得在美国服务器上运行成为可能,从而减轻来自中国政府导致隐私泄露的担忧。

然而,并非所有数据中心都同样可靠。 理想情况下,金融科技企业应当把 DeepSeek 部署在自己的硬件上。当这不可行时,管理层应当谨慎选择托管方,只与那些能够提供高可用性保障并达到安全标准的服务商合作,例如 ISO 27001 和 NIST 800-53。

尽量减少对敏感数据的访问

在构建基于 DeepSeek 的应用时,金融科技公司应当考虑模型能够访问的数据类型。AI 只应当能够访问完成其功能所必需的内容。同样理想的是,清理任何不需要的 个人身份信息(PII)

当 DeepSeek 持有更少的敏感细节时,任何泄露造成的影响都会更小。尽量减少 PII 的收集也是保持遵从《通用数据保护条例》(GDPR)以及《格拉姆-里奇-布莱利法案》(GLBA)等法律的关键。

实施网络安全控制

诸如 GDPR 和 GLBA 之类的法规通常也要求采取防护措施,以防止泄露在最初就发生。即便不受这类立法约束,DeepSeek 过往的泄露记录也凸显了需要额外安全防护措施

至少,金融科技企业应当对所有 AI 可访问的数据在传输中和静态存储时进行加密。定期开展渗透测试以发现并修复漏洞同样理想。

金融科技组织也应考虑对其 DeepSeek 应用进行自动化监控,因为借助更快、更有效的响应,这类自动化平均可节省 220 万美元的泄露成本。

审计并监控所有 AI 应用

即使在完成这些步骤之后,仍然必须保持警惕。在部署之前,对基于 DeepSeek 的应用进行审计,检查是否存在偏见或安全漏洞。请记住,有些问题起初可能并不容易被察觉,因此需要持续复核。

组建一个专门的工作组来监控该 AI 解决方案的结果,并确保其始终符合伦理且满足任何适用法规。与客户对此做出透明沟通也很重要。这份安抚有助于在本就颇为可疑的领域建立信任。

金融科技公司必须考虑 AI 伦理

金融科技数据尤其敏感,因此该领域内所有组织都必须认真对待诸如 AI 之类的依赖数据的工具。DeepSeek 可能是一个有前景的商业资源,但前提是其使用必须遵循严格的伦理与安全准则。

一旦金融科技领导者理解了这种谨慎的必要性,他们就可以确保其对 DeepSeek 的投资以及其他 AI 项目保持安全且公平

DEEPSEEK-0.79%
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论