在金融科技中部署DeepSeek AI的伦理考量


德文·帕蒂达(Devin Partida)是 ReHack 的主编。作为一名撰稿人,她的作品曾出现在 Inc.、VentureBeat、Entrepreneur、Lifewire、The Muse、MakeUseOf 以及其他媒体上。


发现顶级金融科技新闻与活动!

订阅 FinTech Weekly 的通讯

供在 JP Morgan、Coinbase、Blackrock、Klarna 等机构工作的高管阅读


人工智能(AI)是当今 金融科技(fintech) 里最具前景、但也最令人担忧的技术之一。如今,DeepSeek 已在整个 AI 领域引发震动——它所带来的具体可能性与风险也更需要被关注。

尽管 ChatGPT 于 2022 年将生成式 AI 带入主流,但当其 DeepSeek-R1 模型在 2025 年发布时,DeepSeek 又把它推向了新的高度。

该算法是开源且免费的,但其表现已达到与付费的专有替代方案相近的水平。因此,这对希望借助 AI 抢占先机的金融科技公司来说是一个诱人的商业机会,但它也提出了一些道德层面的问题。


推荐阅读:

*   **DeepSeek 的 R1 模型引发了关于 AI 未来发展的争论**
*   **DeepSeek 的 AI 模型:对小型科技公司的机遇与风险**

数据隐私

与许多 AI 应用一样,数据隐私是一个令人担忧的问题。像 DeepSeek 这样的“大型语言模型(LLMs)”需要大量信息,而在金融科技这样的行业中,这些数据中的很多可能是敏感的。

DeepSeek 还多了一层复杂性:它是一家中国公司。中国政府可以访问所有由中国拥有的数据中心中的信息,或要求该国境内的公司提供数据。因此,该模型可能带来与对外间谍活动和宣传有关的风险。

第三方数据泄露也是另一个担忧点。DeepSeek 已经遭遇过一次泄露,暴露了超过 100 万条记录,这可能会对 AI 工具的安全性提出质疑。

AI 偏见

像 DeepSeek 这样的机器学习模型容易产生偏见。因为 AI 模型非常擅长捕捉并从人类可能忽略的细微模式中学习,它们可能会从训练数据中吸收无意识的偏见。当它们从这些带偏差的信息中学习时,就可能延续并加剧不平等问题。

这些担忧在金融领域尤为突出。 由于金融机构在历史上常常把机会拒之于少数群体之外,它们的历史数据中就体现出明显的偏见。用这些数据集训练 DeepSeek,可能导致进一步的带偏行动,例如 AI 基于一个人的族裔而不是信用状况来拒绝贷款或抵押贷款。

消费者信任

随着与 AI 相关的问题充斥头条,人们对这些服务的怀疑情绪也在不断上升。如果金融科技企业不能以透明的方式处理这些顾虑,那么这可能会侵蚀企业与其客户之间的信任。

DeepSeek 在这里可能面临一个独特的障碍。据报道,该公司仅花了 600 万美元就构建了它的模型;而作为一家快速增长的中国公司,它可能会让人想起曾影响 TikTok 的隐私担忧。公众可能不会热衷于信任一个低预算、快速开发的 AI 模型并将他们的数据交给它,尤其是在中国政府可能会产生一定影响的情况下

如何确保安全且合乎伦理地部署 DeepSeek

这些道德考量并不意味着金融科技公司无法安全地使用 DeepSeek,但它们强调了审慎实施的重要性。通过遵循这些最佳实践,组织可以以合乎伦理且安全的方式部署 DeepSeek

在本地服务器上运行 DeepSeek

其中最重要的一步,是在国内数据中心运行该 AI 工具。尽管 DeepSeek 是一家中国公司,但其模型权重是开放的,这使得它有可能在美国服务器上运行,从而降低来自中国政府的隐私泄露担忧。

然而,并非所有数据中心都同样可靠。 理想情况下,金融科技企业应将 DeepSeek 部署在自己的硬件上。若这不可行,管理层应谨慎选择托管方,仅与那些能够提供高可用性保障并达到安全标准的机构合作,例如 ISO 27001 和 NIST 800-53。

尽量减少对敏感数据的访问

在构建基于 DeepSeek 的应用时,金融科技公司应考虑该模型能够访问哪些类型的数据。AI 只能访问它为实现其功能所必需的内容。对任何不需要的**个人身份信息(PII)**进行清理也是理想选择。

当 DeepSeek 持有更少的敏感细节时,任何泄露造成的影响也会更小。尽量减少 PII 的收集同样是保持合规的关键,能够帮助企业遵守《通用数据保护条例》(GDPR)以及《格雷姆-里奇-比利利法案》(GLBA)等法律。

实施网络安全控制措施

像 GDPR 和 GLBA 这样的法规也通常会要求采取防护措施,以从源头上防止发生泄露。即便不在此类立法之外,DeepSeek 的泄露历史也凸显了需要额外安全防护的必要性

至少,金融科技公司应对所有可被 AI 访问的数据在传输中和静止时进行加密。定期开展渗透测试以发现并修复漏洞也同样理想。

金融科技组织还应考虑对其 DeepSeek 应用进行自动化监测,因为这种自动化能在平均意义上节省 220 万美元的泄露成本——得益于更快、更有效的响应。

审计并监测所有 AI 应用

即使在采取了这些步骤之后,仍然必须保持警惕。在部署基于 DeepSeek 的应用之前进行审计,检查是否存在偏见或安全漏洞的迹象。请记住,有些问题一开始可能并不明显,因此需要持续复核。

建立一个专门的工作小组来监测该 AI 解决方案的结果,并确保它持续保持合乎伦理并符合任何相关法规。与此同时,也最好对客户保持透明,告知你们会采取这种做法。这样的安抚有助于在一个本就颇具争议的领域中建立信任。

金融科技公司必须考虑 AI 伦理

金融科技数据尤其敏感,因此该领域的所有组织都必须认真对待依赖数据的工具(如 AI)。DeepSeek 可能是一种有前景的商业资源,但前提是其使用必须遵循严格的伦理与安全指南。

当金融科技领导者理解了对这种谨慎的重要性之后,他们就可以确保其 DeepSeek 投资以及其他 AI 项目保持安全且公平

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论