合规中的人工智能不是黑箱——它是责任的考验:与Roman Eloshvili的访谈

Roman Eloshvili 是 ComplyControl 的创始人,这是一家面向金融机构的、由人工智能驱动的合规与反欺诈检测创业公司。


发现顶级金融科技新闻和活动!

订阅 FinTech Weekly 的新闻通讯

JP Morgan、Coinbase、Blackrock、Klarna 等高管都在阅读


合规中的 AI 到底在“测试”什么:技术,还是我们?

在金融服务行业,合规不再只是一个职能。它是一个正在施加压力的关键节点——监管、风险与运营在此交汇。当 AI 技术被引入到这一领域时,一个问题不断被重新提起:我们究竟能在多大程度上实现自动化?一旦出了问题,谁仍要承担责任?

人们很容易理解在欺诈检测与合规中使用 AI 的吸引力。金融机构面临着不断上升的要求:要处理海量数据、应对不断变化的威胁,并遵守不断调整的法规——同时又不能牺牲速度或准确性。自动化,尤其是由机器学习驱动的自动化,提供了一种减轻运营压力的方法。但与此同时,它也引发了更深层的担忧:治理、可解释性以及控制权。

这些矛盾并非停留在理论层面。 当金融机构把 AI 模型投入到传统由人类分析师承担的角色中时,这些问题正在实时发生。在幕后,新的风险正在浮现:误报、审计盲区,以及对用户和监管者来说仍然不透明的算法决策。

与此同时,合规领域的专业人士也被要求转变角色。过去他们需要手动检查每一笔交易,而现在他们要监督这些工具本身。这种从执行者到评估者的重塑,不仅需要新的技术能力,也需要更强的伦理与程序责任感。AI 可以扩展数据分析的规模;它可以标记出不一致之处。但它无法完整解释意图、理解语境,也无法真正承担责任。

认识到这些限制至关重要。能够比Roman Eloshvili 更擅长探索这些问题的人寥寥无几——他是英国合规技术公司 ComplyControl 的创始人。Roman 的工作正好处在风险、自动化与监督的交汇处——当算法效率遇上监管审视。

Roman 在该领域拥有超过十年的经验。他亲眼见证合规团队如何演变,以及 AI 如何重塑他们的工作流程与职责。他认为,AI 的承诺并不在于消除人类角色,而在于重塑它们——让机器应当处理的事情变得更清晰,同时也让人类仍必须掌握的责任更加明确。

这种转变不仅需要技术层面的升级。它还要求在责任归属上实现文化层面的重新对齐。透明的系统、可审计的流程,以及明确指派的人类责任——不再只是“功能项”,而是最低标准。当 AI 被引入关键基础设施时,它不仅仅是在解决问题。它还会引入一种新的决策类别,这种类别需要持续、积极且具有战略性的掌舵。

在这期 FinTech Weekly 的对话中,Roman 以务实的视角阐述了在合规与反欺诈预防中负责任地集成 AI 所需的条件。 他的观点并不把自动化视为必然,而是把它当作一种选择——一种需要持续的人类判断、清晰的运营边界,并且愿意追问“真正的信任归属在哪里”的选择。

我们很高兴在许多金融科技从业者都在追问“不是要不要采用 AI”,而是“如何在不失去金融系统最初之所以有效的标准的前提下采用 AI”的时候,分享他的见解。


1. 你在合规与技术的交汇处建立了职业生涯。你还记得最初意识到 AI 可能从根本上改变风险管理方式的那个时刻吗?

我不会说是某一个特定时刻改变了一切。更准确地说,这是一个逐步展开的过程。我职业生涯的大部分时间都在与成熟的欧洲银行合作,而我一直注意到的一点是:在数字银行解决方案方面,很多银行都远远落后。与更先进的金融科技枢纽相比,这种差距尤其明显。

几年前,当 AI 发展这一话题再次热起来时,我自然产生了兴趣并去了解。我在研究这项技术及其运作方式时意识到:人工智能有能力大幅改变银行处理合规的方式,让它们在某种程度上更接近现代、更敏捷的金融科技参与者。

这正是促使我在 2023 年创办公司的原因。合规与风险管理的复杂性每年都在继续增长。面对这一现实,我们的使命很简单:为金融公司提供由 AI 驱动的解决方案,帮助它们以更有效的方式应对这些不断累积的挑战。

2. 从你的职业视角来看,随着 AI 工具在合规与反欺诈检测方面变得越来越先进,人类专家的角色发生了怎样的变化?

在我先说任何内容之前,请允许我先直接回应一个观点。许多领域普遍存在一种担忧:AI 会不会取代人类从业者?就合规与风险专业人士而言,我的答案是“不”——至少在短期内不是。

尽管人工智能已经在改变我们的行业,但它远远达不到“万无一失”。因此,人类参与仍然是必不可少的因素。合规法规不断变化,总要有人在系统跟不上、或犯错时能够承担责任。以目前的技术水平来看,AI 仍难以清楚地解释自己的决策,因此它还不能被单独放任运行。尤其是在信任与透明度至关重要的领域。

话虽如此,AI 正在积极让合规流程变得更容易。例如,取决于具体配置,AI 系统现在可以标记可疑交易,甚至在请求进一步验证的同时暂时阻止交易。除非确实有事情看起来异常,否则没有必要让真正的人类逐一手动核查每一个细节。随着这些系统不断演进,它们将持续降低手工工作的需求,让团队把更多精力放到确实需要人类介入的更细致任务上。

我认为,我们将看到一种混合模式的兴起:合规专家也会越来越熟练地使用 AI 工具。他们将负责实施并维护 AI 系统,而 AI 则会通过理解复杂数据并给出建议来简化他们的工作。不过,最终的裁定仍将由人类承担。

3. 在处理如金融合规这类敏感领域时,你个人是如何应对“在决策中保持信任与问责”这一挑战的?

当然。正如我前面已经提到的,当你在合规中使用 AI 时,信任至关重要。

因此,我们构建的 AI 系统具备完全透明性。它们不会像“黑箱”那样运作——系统给出的每一项建议都基于可追溯的规则与数据。我们会保留完整的审计追踪,用以清楚解释每一个决策是如何作出的。这样的做法在与监管机构打交道时已经证明了极大的价值。

最终的决定权始终在合规官手中。AI 只是提出一个有充分依据的建议,人类可以很轻松地核查,然后再决定是否批准或拒绝。

4. 你的经验跨越了 10 年以上。随着 AI 变得更具自主性,你在职业生涯中对自动化和人类监督的心态是如何变化的,尤其是在现在?

当然。更广泛地说,关于 AI 采用的整体情况——这项技术进步得越多,我们就会逐步赋予它更高的自主性,只要它经过充分测试,并且持续证明自己可靠。

但真正变化得更明显的是:在这个等式中,人类专家所扮演的部分正在改变。合规官不再是对每一个案例进行微观管理,而是越来越多地扮演战略性监督者的角色。他们能够在很短时间内审阅一整批相似案例,验证系统的运行表现,并根据结果对模型进行微调。

换句话说,合规官的“事实上的”角色正从亲手完成工作,转向在 AI 为他们执行工作的同时管理 AI 系统。

5. 在 AI 驱动的风险管理工作中,你需要面对复杂的伦理问题。你个人是如何在设计或落地 AI 解决方案时,构建出负责任选择的框架的?

我们的做法围绕两个关键理念:明确的监督以及 Responsible AI(负责任 AI)原则。我们使用的每一个模型,都会指定一个负责主体。风险评估、绩效复核与合规检查都会定期进行。

我们也确保我们的系统是可审计的。如果算法作出了某个决策,那么这一过程就能够被审查并验证。透明性是我们对负责任 AI 开发的承诺中不可或缺的一部分。

6. 在你的成长过程中,关于在诸如反欺诈预防这类关键领域中过度依赖自动化的限制——或风险——你学到的最困难的一课是什么?

我们需要牢记的一点是:即便训练良好的模型仍可能“幻觉”——以微妙但严重的方式出错。

AI 可能会漏掉复杂的欺诈手法,或者触发过多的误报。这正是为什么把 AI 与人类专业知识结合如此重要——人类带来更灵活的判断能力,也更擅长以 AI 所无法做到的方式评估伦理以及整体语境。

两者的结合可以带来更好、更可靠的结果。AI 可以用来覆盖任务量的巨大规模并降低其复杂性;而人类则用于维持适当的准确性与信任水平。

7. 面向今天进入合规、风险管理或 AI 开发领域的年轻专业人士,你会建议他们培养哪些个人原则或习惯,以便在这样迅速变化的环境中取得成功并实现适应?

首先也是最重要的一点:永远不要停止学习。技术进步没有“暂停按钮”,你必须持续跟上,否则就会被落下。这里没有中间地带。

第二,要保持开阔的视野。随着 AI 的进步,角色之间的边界正在模糊——技术、金融与监管正变得难以区分。我坚信,拥有广泛的技能与开放的心态,将会是未来该领域专业人士最具决定性的特质。

第三——也是对前两点的自然延续——要具备适应能力。变化一直存在,而你能否快速调整,将成为你的一大优势。

最后,培养良好的沟通能力,并学会做一个团队合作者。正如我们已经讨论过的,合规处在商业、技术与法律的交汇点。因此,能够随时切换思路,并与来自这些不同领域的人沟通,将是一项非常宝贵的能力。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论