Maico Amorim 在 Unsplash 上的照片* * *《人工智能法案》仍然只是草案,但欧盟内部的投资者和企业主已经因可能的结果而感到不安。 它会阻止欧盟在全球领域成为有价值的竞争者吗?据监管者称,并非如此。但让我们看看正在发生什么。 《人工智能法案》与风险评估---------------------------------《人工智能法案》将人工智能带来的风险划分为不同的风险类别,但在此之前,它先将人工智能的定义进一步收窄,只纳入基于机器学习和逻辑的系统。 这不仅是为了将 AI 系统与更简单的软件区分开来,也帮助我们理解欧盟为何想要对风险进行分类。 不同的 AI 用途被归入**不可接受风险**、**高风险**以及 **低或最低风险**。落入不可接受风险类别的做法被视为**被禁止**。这类做法包括: * 涉及超出个人意识范围的技术的做法, * 试图利用人口中脆弱部分的做法, * 用于根据个人特征或行为对人进行分类的基于 AI 的系统, * 在公共空间使用生物识别进行身份识别的基于 AI 的系统。 有一些使用案例,尽管应被视为与纳入被禁止活动中的某些做法类似,但它们仍被归为“高风险”做法的类别。这些包括用于招聘工人,或用于评估并分析个人的信用状况(而这可能对 fintech 造成危险)。在这些情况下,创建或使用此类系统的所有企业都应当提交详细报告,以解释该系统如何运作,以及为避免对人造成风险所采取的措施,并尽可能保持透明。 一切看起来清晰且正确,但监管者仍需要解决一些问题。该法案看起来过于笼统-------------------------令多数企业主和投资者最担忧的方面之一,是对特定 AI 行业部门关注不足。 例如,生产并使用用于通用目的的基于 AI 的系统的那些公司,可能会被视为在使用“高风险”用例中的人工智能。 这意味着它们需要提交耗费时间和金钱的详细报告。由于中小企业并无例外,而且它们构成了欧洲经济体中最大的部分,它们可能会在长期内变得竞争力更弱。 而造成美国与欧洲 AI 公司之间差异、从而引发重大担忧的,正是这一点:事实上,欧洲不像美国那样拥有大型 AI 公司,因为欧洲的 AI 环境主要由中小企业和初创公司构建。 根据 appliedAI 进行的一项调查,绝大多数投资者会避开投资被标记为“高风险”的初创公司,正是因为这种分类所涉及的复杂性。 ChatGPT 改变了欧盟的计划--------------------------欧盟监管者本应在 4 月 19 日关闭该文件,但围绕基于 AI 系统的不同定义及其用例的讨论,延迟了最终草案的提交。 此外,科技公司表明,并非所有公司都同意该文件当前版本。 导致延误最多的关键点,是对**基础模型**与**通用目的 AI**之间的区分。 AI 基础模型的一个例子是 OpenAI 的 ChatGPT:这些系统使用大量数据进行训练,并且能够生成任何类型的输出。 通用目的 AI 包括那些能够适配不同用例与行业的系统。 欧盟监管者希望严格监管基础模型,因为它们可能带来更多风险,并对人们的生活产生负面影响。美国与中国如何监管 AI--------------------------------------如果我们看看欧盟监管者如何对待 AI,会有一个特别之处:监管者看起来不太愿意合作。 例如,在美国,拜登政府在设计潜在的监管框架之前,就先征求了公众对类似 ChatGPT 这类系统安全性的意见。 在中国,政府已经对 AI 和数据采集进行监管多年,其主要关切仍然是社会稳定。 到目前为止,似乎在 AI 监管方面处于较好位置的国家是英国,它选择的是一种“轻”方式——但众所周知,英国希望成为 AI 和 fintech 应用的领导者。 Fintech 与《人工智能法案》----------------------当谈到提供金融服务的公司和初创企业时,情况会更加复杂。 事实上,如果该法案将继续保持当前版本,那么 fintech 不仅需要符合现行的金融监管,还要符合这一新的监管框架。 将信用状况评估标记为高风险用例的事实,仅仅是 fintech 公司需要承担的负担之一,这会阻碍它们像迄今为止那样灵活,去募集投资并保持竞争力。 结论 -----------正如 Silo AI 的首席执行官 Peter Sarlin 指出的那样,问题不在监管,而在糟糕的监管。 过于笼统可能会损害创新,以及所有参与生产、分发和使用基于 AI 的产品与服务的公司。 如果欧盟投资者会担心一种标签所带来的潜在风险,即“某家初创公司或企业属于‘高风险’类别”,那么欧盟境内的 AI 生态可能会受到负面影响;而美国则在寻求公众意见以改进其技术,且中国已经对如何监管人工智能有了明确立场。 据 Apheris 联合创始人 Robin Röhm 称,可能的情景之一是初创公司将迁往美国——一个在区块链和加密货币方面也许有很多要失去的国家,但它可能会赢得 AI 竞赛。 * * *如果你想了解更多关于 fintech 的信息,并发现 fintech 新闻、活动与观点,请订阅 FTW Newsletter!
欧洲的人工智能:AI 法案可能意味着什么
Maico Amorim 在 Unsplash 上的照片
《人工智能法案》仍然只是草案,但欧盟内部的投资者和企业主已经因可能的结果而感到不安。
它会阻止欧盟在全球领域成为有价值的竞争者吗?
据监管者称,并非如此。但让我们看看正在发生什么。
《人工智能法案》与风险评估
《人工智能法案》将人工智能带来的风险划分为不同的风险类别,但在此之前,它先将人工智能的定义进一步收窄,只纳入基于机器学习和逻辑的系统。
这不仅是为了将 AI 系统与更简单的软件区分开来,也帮助我们理解欧盟为何想要对风险进行分类。
不同的 AI 用途被归入不可接受风险、高风险以及
低或最低风险。落入不可接受风险类别的做法被视为被禁止。
这类做法包括:
有一些使用案例,尽管应被视为与纳入被禁止活动中的某些做法类似,但它们仍被归为“高风险”做法的类别。
这些包括用于招聘工人,或用于评估并分析个人的信用状况(而这可能对 fintech 造成危险)。在这些情况下,创建或使用此类系统的所有企业都应当提交详细报告,以解释该系统如何运作,以及为避免对人造成风险所采取的措施,并尽可能保持透明。
一切看起来清晰且正确,但监管者仍需要解决一些问题。
该法案看起来过于笼统
令多数企业主和投资者最担忧的方面之一,是对特定 AI 行业部门关注不足。
例如,生产并使用用于通用目的的基于 AI 的系统的那些公司,可能会被视为在使用“高风险”用例中的人工智能。
这意味着它们需要提交耗费时间和金钱的详细报告。由于中小企业并无例外,而且它们构成了欧洲经济体中最大的部分,它们可能会在长期内变得竞争力更弱。
而造成美国与欧洲 AI 公司之间差异、从而引发重大担忧的,正是这一点:事实上,欧洲不像美国那样拥有大型 AI 公司,因为欧洲的 AI 环境主要由中小企业和初创公司构建。
根据 appliedAI 进行的一项调查,绝大多数投资者会避开投资被标记为“高风险”的初创公司,正是因为这种分类所涉及的复杂性。
ChatGPT 改变了欧盟的计划
欧盟监管者本应在 4 月 19 日关闭该文件,但围绕基于 AI 系统的不同定义及其用例的讨论,延迟了最终草案的提交。
此外,科技公司表明,并非所有公司都同意该文件当前版本。
导致延误最多的关键点,是对基础模型与通用目的 AI之间的区分。
AI 基础模型的一个例子是 OpenAI 的 ChatGPT:这些系统使用大量数据进行训练,并且能够生成任何类型的输出。
通用目的 AI 包括那些能够适配不同用例与行业的系统。
欧盟监管者希望严格监管基础模型,因为它们可能带来更多风险,并对人们的生活产生负面影响。
美国与中国如何监管 AI
如果我们看看欧盟监管者如何对待 AI,会有一个特别之处:监管者看起来不太愿意合作。
例如,在美国,拜登政府在设计潜在的监管框架之前,就先征求了公众对类似 ChatGPT 这类系统安全性的意见。
在中国,政府已经对 AI 和数据采集进行监管多年,其主要关切仍然是社会稳定。
到目前为止,似乎在 AI 监管方面处于较好位置的国家是英国,它选择的是一种“轻”方式——但众所周知,英国希望成为 AI 和 fintech 应用的领导者。
Fintech 与《人工智能法案》
当谈到提供金融服务的公司和初创企业时,情况会更加复杂。
事实上,如果该法案将继续保持当前版本,那么 fintech 不仅需要符合现行的金融监管,还要符合这一新的监管框架。
将信用状况评估标记为高风险用例的事实,仅仅是 fintech 公司需要承担的负担之一,这会阻碍它们像迄今为止那样灵活,去募集投资并保持竞争力。
结论
正如 Silo AI 的首席执行官 Peter Sarlin 指出的那样,问题不在监管,而在糟糕的监管。
过于笼统可能会损害创新,以及所有参与生产、分发和使用基于 AI 的产品与服务的公司。
如果欧盟投资者会担心一种标签所带来的潜在风险,即“某家初创公司或企业属于‘高风险’类别”,那么欧盟境内的 AI 生态可能会受到负面影响;而美国则在寻求公众意见以改进其技术,且中国已经对如何监管人工智能有了明确立场。
据 Apheris 联合创始人 Robin Röhm 称,可能的情景之一是初创公司将迁往美国——一个在区块链和加密货币方面也许有很多要失去的国家,但它可能会赢得 AI 竞赛。
如果你想了解更多关于 fintech 的信息,并发现 fintech 新闻、活动与观点,请订阅 FTW Newsletter!