📢 GM!Gate 广场|4/5 热议:#假期持币指南
🌿 踏青还是盯盘?#假期持币指南 带你过个“松弛感”长假!
春光正好,你是选择在山间深呼吸,还是在 K 线里找时机?在这个清明假期,晒出你的持币态度,做个精神饱满的交易员!
🎁 分享生活/交易感悟,抽 5 位锦鲤瓜分 $1,000 仓位体验券!
💬 茶余饭后聊聊:
1️⃣ 休假心态: 你是“关掉通知、彻底失联”派,还是“每 30 分钟必刷行情”派?
2️⃣ 懒人秘籍: 假期不想盯盘?分享你的“挂机”策略(定投/网格/理财)。
3️⃣ 四月展望: 假期过后,你最看好哪个币种“春暖花开”?
分享你的假期姿态 👉 https://www.gate.com/post
📅 4/4 15:00 - 4/6 18:00 (UTC+8)
在金融科技中部署DeepSeek AI的伦理考量
Devin Partida 是 ReHack 的执行主编。作为一名撰稿人,她的作品曾刊登在 Inc.、VentureBeat、Entrepreneur、Lifewire、The Muse、MakeUseOf 等媒体以及其他媒体上。
发现顶级金融科技新闻与活动!
订阅 FinTech Weekly 的通讯
由 JP Morgan、Coinbase、Blackrock、Klarna 等高管阅读,并且还有更多
人工智能(AI)是当今**金融科技(fintech)**中最有前景、但也最引人担忧的技术之一。现在,DeepSeek 已在整个 AI 领域引发震荡,它的具体可能性与潜在陷阱都需要被高度关注。
尽管 ChatGPT 在 2022 年将生成式 AI 推向主流,但在 2025 年 DeepSeek-R1 模型发布之后,DeepSeek 又把这一领域带到了新的高度。
该算法是开源且免费的,但其表现已达到与付费的专有替代方案相当的水平。因此,它对于希望借助 AI 实现获利的金融科技公司来说是一个非常诱人的商业机会,但它也引发了一些伦理问题。
推荐阅读:
数据隐私
与许多 AI 应用一样,数据隐私是一个令人担忧的问题。像 DeepSeek 这样的“大型语言模型(LLMs)”需要大量信息,而在金融科技这样的行业中,这些数据中的相当一部分可能十分敏感。
DeepSeek 还增加了一个额外的复杂性:它是一家中国公司。中国政府可以访问由中国公司拥有的数据中心中的所有信息,或者要求该国境内的公司提供数据。因此,该模型可能会带来与境外窃密和宣传相关的风险。
第三方数据泄露是另一个需要关注的问题。DeepSeek 已经遭遇过一次泄露,暴露了超过 1,000,000 条记录,这可能会让人对这些 AI 工具的安全性产生疑虑。
AI 偏见
像 DeepSeek 这样的机器学习模型容易产生偏见。因为 AI 模型非常擅长识别并从人类可能察觉不到的细微模式中学习,它们可能会在训练数据中“吸收”无意识的偏见。当它们从这些带偏的数据中学习时,就可能延续并加剧不平等问题。
这种担忧在金融领域尤为突出。 由于金融机构在历史上曾向少数群体隐瞒机会,它们的历史数据往往呈现出显著偏差。若在这些数据集上训练 DeepSeek,可能会导致更进一步的带偏行为,例如 AI 因为某人的种族而非信用可靠性来拒绝贷款或按揭。
消费者信任
随着与 AI 相关的问题频繁出现在头条新闻中,公众对这些服务的怀疑情绪也在不断上升。如果金融科技企业不能以透明的方式妥善管理这些担忧,就可能削弱其与客户之间的信任。
DeepSeek 在这方面可能会遇到一个独特的障碍。据报道,该公司只花了 6,000,000 美元就搭建了其模型,而且作为一家快速成长的中国公司,它可能会让人们想起那些影响 TikTok 的隐私担忧。公众未必愿意在自己的数据上信任一款预算较低、开发较快的 AI 模型,尤其是在中国政府可能对相关事务具有一定影响的情况下。
如何确保安全且合乎伦理地部署 DeepSeek
这些伦理考量并不意味着金融科技公司不能安全地使用 DeepSeek,但它们强调了谨慎实施的重要性。组织可以通过遵循这些最佳实践,以合乎伦理且安全的方式部署 DeepSeek。
在本地服务器上运行 DeepSeek
其中最重要的一步,是在本国的数据中心运行这款 AI 工具。尽管 DeepSeek 是一家中国公司,但其模型权重是开源的,这使得可以在美国服务器上运行,从而降低来自中国政府导致隐私泄露的担忧。
然而,并非所有数据中心都同样可靠。 理想情况下,金融科技企业应将 DeepSeek 托管在自有硬件上。当这不可行时,管理层应谨慎选择托管方,只与那些能够提供高可用性保障并具备安全标准(如 ISO 27001 和 NIST 800-53)的主体合作。
尽量减少对敏感数据的访问
在构建基于 DeepSeek 的应用时,金融科技公司应考虑该模型能够访问哪些类型的数据。AI 应当只能访问执行其功能所需的信息。对任何可访问但不需要的数据进行清理,去除任何不必要的 个人可识别信息(PII) 同样是理想之举。
当 DeepSeek 持有的敏感细节更少时,任何泄露造成的影响也会更小。尽量减少 PII 的收集也是保持合规的关键,例如遵守《通用数据保护条例》(GDPR)以及 Gramm-Leach-Bliley Act (GLBA)。
实施网络安全控制
像 GDPR 和 GLBA 这类法规通常也会要求采取保护措施,以防止泄露在最初发生。即便不受此类立法约束,DeepSeek 的泄露历史也凸显了需要额外安全防护措施。
至少,金融科技企业应对所有 AI 可访问的数据在“静止时(at rest)”以及“传输中(in transit)”进行加密。定期开展渗透测试以发现并修复漏洞同样理想。
金融科技组织也应考虑对其 DeepSeek 应用进行自动化监控,因为这种自动化能够平均节省 2.2 million 美元的泄露成本,原因在于响应更快、更有效。
审计并监控所有 AI 应用
即便在遵循以上这些步骤之后,也必须保持警惕。在部署之前,对基于 DeepSeek 的应用进行审计,以查找偏见或安全漏洞的迹象。请记住,有些问题可能一开始并不容易察觉,因此需要持续复核。
建立一个专门的工作小组来监控该 AI 解决方案的结果,并确保其始终符合伦理且遵守任何相关法规。与客户在这项做法上保持透明同样很重要。这样的安抚有助于在一个本就颇为可疑的领域中建立信任。
金融科技公司必须考虑 AI 伦理
金融科技数据尤其敏感,因此该行业的所有组织都必须认真对待像 AI 这样的依赖数据的工具。DeepSeek 可能是一个有前景的业务资源,但前提是其使用必须遵循严格的伦理与安全指南。
当金融科技领导者理解了这种谨慎的必要性之后,他们就能确保其对 DeepSeek 的投资以及其他 AI 项目保持安全且公平。