判决层:为什么人工智能在领导者更聪明之前并不聪明

Guillermo Delgado Aparicio 是 Nisum 的全球人工智能领导者。


发现顶级金融科技新闻和事件!

订阅金融科技周刊的新闻通讯

由摩根大通、Coinbase、黑石、Klarna 等高管阅读


金融科技中的人工智能涵盖了从欺诈检测和算法交易到动态信用评分和个性化产品推荐的一系列用例。然而,一份金融行为监管局的报告发现,在使用人工智能的75%的公司中,只有34%知道它的工作原理。

问题不仅仅是缺乏认知。这是对数据分析的力量和范围的深刻误解,正是人工智能的源头。生成式人工智能工具的广泛采用将这个话题带到了高管层。但许多决定如何实施人工智能的人并不理解其基础的微积分、统计学和高级算法原理。

以本福德定律为例,这是一条简单的统计原则,通过识别数字中的模式来检测欺诈。人工智能建立在同样的数学基础之上,只是规模扩大到数百万笔交易。抛开炒作,基础仍然是统计学和算法。

这就是为什么高层的人工智能素养很重要。无法区分分析何时结束的领导者,可能会过度信任他们不理解的系统,或出于恐惧而低估其潜力。历史也证明了当决策者误读技术时会发生什么:监管机构曾试图禁止国际IP电话,结果看到技术超越了规则。人工智能也在上演同样的动态。你不能阻止或盲目采用它;你需要判断力、背景知识以及负责任引导它的能力。

金融科技领导者必须弥合这些差距,才能负责任且有效地使用人工智能。这意味着理解分析何时结束、人工智能何时开始,培养引导这些系统的技能,以及运用明智的判断决定何时以及如何信任它们的输出。

人工智能的局限性、盲点与幻觉

分析利用过去和现在的数据来解释发生了什么以及为什么会发生。人工智能在此基础上发展,利用高级分析预测未来,并逐渐自动做出决策或采取行动。

凭借其卓越的数据处理能力,金融科技领导者很容易将人工智能视为他们的“魔法子弹”。但它不能解决所有问题。人类在模式识别方面仍具有天生优势,尤其是在数据不完整或“脏”时。人工智能可能难以理解人类能迅速把握的语境细微差别。

然而,认为不完美的数据会使人工智能变得无用是错误的。分析模型可以在数据不完整的情况下工作。但知道何时部署人工智能、何时依赖人类判断补充空白,才是真正的挑战。没有这种细致的监管,人工智能可能带来重大风险。

其中一个问题是偏见。当金融科技用旧数据训练人工智能时,往往会继承其中的偏见。例如,客户的名字可能无意中成为性别的代理,或姓氏暗示种族,从而在信用评分中产生偏差,这些偏差没有任何监管机构会认可。这些偏见隐藏在数学中,通常需要人为监督来发现和纠正。

当人工智能模型面对未曾训练过的情况时,可能会导致模型漂移。市场波动、监管变化、客户行为演变以及宏观经济变化都可能影响模型的有效性,若没有人为监控和重新校准。

当金融科技使用无法查看变量关系的黑箱模型时,校准难度会急剧上升。在这种情况下,他们失去了将知识传递给管理层决策者的可能性。此外,错误和偏见在不透明模型中隐藏,削弱了信任和合规性。

金融科技领导者需要了解的内容

德勤的一项调查发现,80%的受访者表示其董事会几乎没有人工智能方面的经验。但高管层不能把人工智能当作“技术团队的问题”。人工智能的责任在于领导层,这意味着金融科技领导者需要提升技能。

跨分析能力

在推出人工智能之前,金融科技领导者需要能够切换视角——关注数字、商业案例、运营和伦理——并看到这些因素如何交织影响人工智能的结果。他们需要理解模型的统计准确性与信用风险暴露之间的关系。并且要认识到,一个看似财务合理的变量(如还款历史)可能通过与受保护类别(如年龄或种族)的相关性引入社会或监管风险。

这种人工智能素养来自与合规官员一起解读法规、与产品经理讨论用户体验,以及与数据科学家审查模型结果,以捕捉漂移或偏见的迹象。

在金融科技中,100%的风险规避是不可能的,但通过跨分析能力,领导者可以识别值得承担的风险和可能侵蚀股东价值的风险。这项技能还增强了领导者识别和应对偏见的能力,不仅从合规角度,也从战略和伦理角度。

例如,假设一个基于人工智能的信用评分模型偏向某一客户群。解决这种不平衡不仅仅是数据科学的任务;它还关系到公司的声誉。对于致力于金融包容性或面临ESG审查的金融科技公司,仅仅符合法律规定是不够的。判断意味着知道什么是正确的,而不仅仅是允许的。

可解释性素养

可解释性是信任的基础。没有它,决策者、客户和监管者都会质疑模型为何得出特定结论。

这意味着高管必须能够区分可解释模型和需要事后解释(如SHAP值或LIME)的模型。当模型逻辑不清楚时,他们需要提出问题,并认识到“准确性”本身不能为黑箱决策提供充分理由。

偏见不是凭空出现的;它在模型训练和部署时若缺乏足够的监管就会出现。可解释性让领导者能够早期发现这些问题,并在造成损害之前采取行动。

人工智能就像飞机上的自动驾驶仪。大多数时候,它运行顺畅,但遇到风暴时,飞行员必须接管。在金融领域也是如此。当条件变化时,团队需要有能力停止交易、调整策略,甚至终止产品发布。可解释性与应急准备密不可分,确保高管理解人工智能,并在其规模化运行时保持控制。

概率模型思维

高管习惯于确定性决策,比如信用评分低于650时拒绝申请。但人工智能的工作方式不同,这是一个重大的思维范式转变。

对于领导者来说,概率思维需要具备三项能力:

*   解释风险范围,而非二元的“是/否”结果。
*   权衡预测的置信度与其他业务或监管考虑因素。
*   了解何时应覆盖自动化,应用人为判断。

例如,一个金融科技的概率人工智能模型可能会将某客户标记为高风险,但这并不一定意味着“拒绝”。可能意味着“进一步调查”或“调整贷款条件”。没有这种细微差别,自动化可能变成钝器,侵蚀客户信任,同时引发监管风险。

为什么判断层将决定金融科技的胜负

未来的金融科技不会由谁拥有最强大的人工智能模型来决定,而是由谁能用它们做出最敏锐的判断。随着人工智能的商品化,效率提升已成为基本要求。区分胜者的关键在于在算法遇到不确定性、风险和伦理灰色地带时,能及时介入。

判断层不是抽象概念。当高管决定暂停自动交易、推迟产品发布或覆盖不符合实际背景的风险评分时,这些都不是人工智能的失败,而是人类监管作为价值创造最后一道防线的证明。

战略一致性使判断成为制度化的过程。一个强有力的人工智能战略不仅制定技术路线图,还确保组织定期审视项目、升级团队的AI能力、确保数据架构到位,并将每次部署与明确的业务目标挂钩。从这个意义上说,判断不是偶发事件,而是融入运营模式,帮助高管推动基于价值的领导方式。

金融科技需要既懂得用人工智能实现速度和规模,又懂得用人类把控背景、细节和长远愿景的领导者。人工智能可以在秒内发现异常,但只有人类才能决定何时对数学模型提出异议、重新思考假设或冒险开拓增长的可能。这一判断层正是将人工智能从工具转变为优势的关键。

关于作者:

Guillermo Delgado 是 Nisum 的全球人工智能领导者兼深空生物学的首席运营官。拥有超过25年的生物化学、人工智能、空间生物学和创业经验,他为地球和太空的人类福祉开发创新解决方案。

作为企业战略顾问,他曾参与NASA的空间生物学人工智能愿景,并获得创新奖。他拥有佐治亚理工学院的人工智能理学硕士学位,并以优异成绩毕业。此外,作为大学教授,他教授过机器学习、大数据和基因组科学课程。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论