如果美国在人工智能竞赛中“赢得”了,世界将会失去

Himanshu Tyagi 是印度科学研究院的教授,也是 Sentient 的联合创始人。


发现顶级金融科技新闻和事件!

订阅 FinTech Weekly 的通讯

由 JP Morgan、Coinbase、Blackrock、Klarna 等高管阅读


人工智能的承诺需要一种根本开放、去中心化和全球协作的方法。任何不足都可能导致未来变得脆弱、偏见和不稳定。

随着各国政府和科技巨头竞相主导人工智能,我们正走向一个危险且目光短浅的未来,一个由少数国家和公司决定塑造技术发展的未来,这将影响整个地球。我不禁对全球争夺 AI 霸权的局势感到日益不安。

这常被描述为一场高风险的对决——美国对中国,胜者掌握重塑人类未来的关键技术。作为一个在专业和学术上都深度投入 AI 多年的人士,我在这里要指出:这个叙事是极其有害的。由一个国家塑造 AI 发展的概念结构复杂,可能并非理想。

AI 的全球根源

事实是,没有哪个国家能孤立地构建 AI,甚至美国也不例外,根据斯坦福的 AI 指数报告,2023 年美国生产了 61 个著名模型。AI 的支柱:人才、硬件和数据,交织成一幅全球的织锦,没有哪个国家能单独解开并重新编织。

以人才为例,在美国的所有领先 AI 研究人员中,近 70% 出生或受教育于海外,印度和中国是主要来源。美国的 AI 初创公司中,有三分之二至少有一位移民创始人。试图将 AI 归为国家所有,同时排斥外国人才,就像在建一颗大脑时切断一半的神经元一样

硬件更是错综复杂。美国公司如 NVIDIA 设计 AI 芯片,但荷兰的 ASML 制造唯一的极紫外光(EUV)光刻机,用于蚀刻芯片。台湾的台积电制造超过 90% 的先进芯片,日本提供关键材料。关税和出口管制,比如中美贸易战中的措施,并不能确保控制权,反而扰乱了这张微妙的网络,增加了成本,阻碍了所有人的进步。

数据,AI 的生命线,更加顽固地具有全球性。因为多样化的全球数据对于构建最有效、最具普遍适用性的 AI 模型至关重要。

为何霸权是危险的

即使某个国家能够垄断 AI,也不应该。由美国主导的 AI 生态系统只会形成一个回声室,将西方偏见深植于全球使用的系统中。

如今,主要的大型语言模型(LLMs)常常反映出狭隘的全球视角,限制了它们有效服务多样化人群的能力。例如,主要基于单一数据源训练的语言模型,可能无法捕捉文化细微差别或其他地区的变化。这会降低 AI 的准确性和实用性。

更糟的是,单一国家掌控 AI 的控制权会引发零和的军备竞赛,带来深远的后果。中美争夺 AI 霸权的叙事,常被描述为 OpenAI 或 Anthropic 与 Deepseek 或 Manus 之间的竞争,随着政府的积极介入而升级。两国都在大量投资 AI,将其视为类似于 20 世纪核能力的战略资源。如果某个政府偏爱的公司获得最先进的 AI,他们就能控制一个具有变革性的全球资产,获得前所未有的经济和政治杠杆。

这种动态可能导致极端的审查和门控,超级大国决定访问 AI 工具和数据的权限。较小的国家可能被迫与美国或中国对齐,类似冷战时期核竞赛中的阵营划分。例如,非洲和东南亚国家可能依赖超级大国,放弃对自己 AI 未来的自主权。一个主导国家可以完全拒绝提供 AI 工具,孤立竞争对手,或向全球市场大量投放优先考虑其叙事和利益的系统。

这不是安全问题,而是导致不稳定的祸根。由 AI 驱动的自主武器可能引发“闪电战”,系统比人类更快升级冲突。一个主导大国可以利用 AI 进行全球监控或经济胁迫,制造不满和依赖。

为何开放是唯一的出路

构建公平的 AI 需要来自世界每个角落的贡献,但集中系统会带来不成比例的影响力。

例如,Anthropic 突然切断 Windsurf 访问其 Claude 3.x 模型的权限,没有事先合作或透明度,展示了封闭的 AI 提供商如何单方面把关键资源门控。此类行为不仅优先考虑企业控制而非集体进步,也限制了新兴参与者在共享基础设施上的建设能力。日益增长的数据本地化法律进一步复杂化访问,使得国际合作成为获得真正代表性数据集的唯一途径。

AI 增强了我们的创造力、工作效率,并帮助我们更快解决问题。但要确保这些生产力的提升惠及所有人,就必须采取全球化、开放和协作的方式。

如果发展仍集中在少数国家或公司手中,可能会阻碍创新,增加不平等,并将未来决策的关键权力集中在少数人手中。

开源模型打破垄断和封闭生态系统。当从班加罗尔到波哥大等地的开发者都能在同一基础上构建时,我们会迎来一波创造力的洪流,没有任何单一实体能匹敌。历史证明,开源项目,无论是软件还是科学,都因其能汇聚全球的人才和思想而繁荣。AI 也不例外。

去中心化同样至关重要。集中式系统脆弱,易受单点故障影响,也容易被滥用。去中心化的方法可以分散风险和责任。你只需看看最近的全球 ChatGPT 故障,就能看到当集中服务器崩溃时会发生什么。这对一些人来说很烦,但对其他人来说可能很严重。

但如果我们在医疗、基础设施、教育或应急响应等领域对 AI 的依赖更深呢?想象一下,不会因为某个国家拉开扳机或某家公司切换开关而崩溃的 AI 基础设施。这才是我们需要的未来——没有单一玩家掌握所有钥匙。

呼吁数字国际主义

因此,当有人问我,“谁应该领导 AI:美国还是中国?” 我的回答是复杂的。我们需要数字国际主义:共享工具、共享标准、共同责任。AI 不像石油或钢铁。它不是一种可以囤积的资源,也不是可以挥舞的武器。它是一项将重新定义我们生活、工作和解决世界最棘手问题的技术。因此,将其视为国家资产或企业战利品,误解了它的本质,也危及其未来。

欧盟的基于权利的 AI 法案、中国的国家驱动模式,以及美国的市场导向方法,各有优劣,但都不是全部答案。我们需要对话,而非统治。世界其他国家,印度、巴西、尼日利亚等,也在这项技术中拥有平等的权益。我们不能只信任某个国家,无论其多么善意,来决定未来。也不能让 AI 变成一种统治工具,而非推动进步的力量。

全球治理不意味着放弃控制,而是设定一个所有人都能受益的准入和问责基线。开源框架、透明开发和合作监督可以确保 AI 服务于人类,而非少数特权阶层。美国仍然可以领导,但不是通过囤积权力。 它可以以身作则,构建为全球服务、合作的系统,邀请参与而非排除。


( 关于作者:

Himanshu Tyagi 是印度科学研究院的教授,也是 Sentient 的联合创始人。他在信息论、AI 和密码学方面进行了基础性研究,并创立了多家涉及加密、AI 和通信的公司。Himanshu 致力于打造连接未来的技术和产品,在这个由 AI 和加密驱动的信息网络中实现人类的所有愿望。

他曾获得印度国家科学学院青年科学家奖,马里兰大学的早期职业杰出校友奖,曾担任《信息论学报》的副编辑,并在顶级会议上获得多项最佳论文奖。他出版了一本名为《信息论密码学》的书,由剑桥大学出版社出版。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论