如果美国在AI竞赛中“赢得”胜利,世界将会失去

Himanshu Tyagi 是印度科学研究院(Indian Institute of Science)的教授,也是 Sentient 的联合创始人。


发现顶级金融科技新闻与活动!

订阅 FinTech Weekly 的通讯

由 JP Morgan、Coinbase、Blackrock、Klarna 等高管阅读


AI 的承诺需要一种激进开放、去中心化、并在全球范围内协作的路径。否则,一切都将走向脆弱、带偏见且不稳定的未来。

当各国政府和科技巨头争相主导 AI 时,我们正走向一种危险且目光短浅的未来:少数国家和公司决定一种将塑造整个星球的技术的发展方向。我忍不住对“争夺 AI 霸权”的全球竞赛感到愈发不安。

这种叙事常被包装成一场高风险对决——美国 vs. 中国,胜者将宣告握有重塑人类未来的技术钥匙。作为一位在职业与学术层面都沉浸于 AI 多年的人,我必须指出:这种叙事存在危险的结构性缺陷。一个国家来塑造 AI 的发展路径这一概念,在结构上本就错综复杂,可能也并不理想。

AI 的全球根源

现实是,没有哪个国家能够在孤立状态下构建 AI——就连美国也不行。根据斯坦福大学的《AI 指数报告》,2023 年美国一共产出了 61 个引人注目的模型。AI 的三大支柱:人才、硬件和数据,交织在一张全球性的织锦之中,任何单一国家都无法凭一己之力拆开并重织。

以人才为例:在美国所有一线 AI 研究人员中,近 70% 的人出生于海外或在海外受教育;印度与中国是关键来源地。美国的三分之二 AI 初创公司至少有一位移民创始人。在将外来思维排斥在外的同时想要“民族化” AI,就像建造一颗大脑却切断其中一半的神经元

硬件的纠葛更为错综。像 NVIDIA 这样的美国公司设计 AI 芯片,但荷兰的 ASML 构建了用于蚀刻的唯一极紫外(Extreme Ultraviolet,EUV)光刻机。台湾的 TSMC 生产了超过 90% 的先进芯片,日本则提供关键材料。关税与出口管制——例如发生在美国与中国之间的贸易战中的做法——并不能确保控制权;它们只会扰乱这张脆弱的网,抬高成本并让所有人的进展停滞。

AI 的生命线——数据——同样更顽固地具有全球属性。因为构建最有效、且普适性最强的 AI 模型,离不开多样化、全球范围的数据。

为何“霸占”是危险的

即便一个国家真的能垄断 AI,也不应该。由美国主导的 AI 生态系统只会制造回音室,把西方偏见嵌入到那些被全球使用的系统之中。

如今,领先的大型语言模型(LLMs)往往反映的是全球视角中的一小部分,从而限制它们有效服务多元人群的能力。例如,主要在单一数据源上训练的语言模型,可能无法捕捉其他地区的文化细微差别或差异。这会降低 AI 的准确性与实用性。

更糟的是,一个国家握住 AI 的“方向盘”会推动一场零和式的军备竞赛,并带来深远后果。关于“美国—中国为 AI 霸权而竞逐”的叙事,往往被包装成 OpenAI 或 Anthropic 与 Deepseek 或 Manus 之间的较量,并且在政府的积极介入下不断升级。两国都在对 AI 进行重度投资,将其视为一种战略性资源,类似于 20 世纪的核能力。如果某个政府所青睐的公司获得了最先进的 AI,它们就可能控制一种具有变革性的全球资产,从而获得前所未有的经济与政治杠杆力。

这种格局可能导致极端的审查与把关:超级大国决定他人是否能获得 AI 工具与数据。随后,较小的国家可能被迫在美国或中国之间站队,映射冷战时期核竞赛中的阵营对立。举例来说,非洲和东南亚的国家可能会变得依赖超级大国,并在其 AI 未来上丧失自主权。一个霸权国家甚至可能完全扣住 AI 工具来孤立竞争对手,或向全球市场倾倒一套把自身叙事与利益放在首位的系统。

这不是安全;这是一套通向不稳定的“配方”。由 AI 驱动的自主武器可能引发“闪电战争”,系统把冲突升级的速度快到人类来不及干预。霸权强国还可能动用 AI 进行全球监控或经济胁迫,从而引发怨恨并制造依赖。

为何开放才是唯一出路

构建公平的 AI 需要来自世界各个角落的贡献,但中心化系统掌握着不成比例的杠杆力量。

例如,Anthropic 选择在没有事先协作或透明披露的情况下,突然切断 Windsurf 对其 Claude 3.x 模型的访问,表明封闭的 AI 提供方如何能够单方面对关键资源进行把关。这类行为不仅把企业控制置于集体进步之上,还会限制新兴参与者在共享基础设施之上构建的能力。日益严格的数据本地化法律也进一步复杂化了获取过程,使得国际协作成为真正形成具代表性数据集的唯一路径。

AI 能增强我们进行创造性思考、提高工作效率,并帮助我们更快解决问题。但要确保这些生产力增益惠及所有人,就必须采取一种全球化、开放且协作的方式。

如果开发仍然集中在少数国家(或少数公司)手中,我们将面临抑制创新、加剧不平等,并把关于这种增长未来的关键决策过度集中到太少的人手里。

开源模型打破垄断与围墙花园。当从 Bangalore(班加罗尔)到 Bogotá(波哥大)的开发者都能在同一基础上构建,我们就会获得一种任何单一实体都无法匹敌的创造力洪流。历史已经证明,无论是软件还是科学领域,开源项目都之所以蓬勃发展,是因为它们接入了一个全球性的“人才与思想”池。AI 也并不例外。

去中心化同样至关重要。中心化系统脆弱、易受单点故障影响,并且容易被滥用。去中心化的方法会分散风险与责任。你只需要看看最近全球发生的 ChatGPT 停机事件,就能知道当中心化服务器崩溃时会发生什么——对一些人来说只是烦人,对另一些人来说则很严重。

但如果我们对 AI 的依赖在医疗、基础设施、教育或紧急响应等领域变得更深呢?想象一种 AI 基础设施:即使某个国家拉动一个杠杆,或某家公司切换一个开关,它也不会崩塌。这就是我们需要的未来——一个不让任何单一参与者握有所有钥匙的未来。

呼吁数字国际主义

所以,当有人问我:“AI 应该由谁来领导:美国还是中国?”我的回答是有细微差别的。我们需要数字国际主义:共享工具、共享标准、共享责任。AI 并不像石油或钢铁。它不是一种可以囤积的资源,也不是一种可以被当作武器来使用的东西。它是一项将重新定义我们如何生活、如何工作、以及如何解决世界上最棘手问题的技术。因此,把它当作国家资产或企业奖杯来对待,会误解它的本质,并危及它的未来。

欧盟基于权利的《AI 法案》、中国由国家主导的模式,以及美国以市场为主导的做法,各自既有优势也有劣势,但没有任何一种是完整答案。我们需要的是对话,而不是霸权。世界其他地区——印度、巴西、尼日利亚以及更多地方——在这项技术上同样拥有切身利益。我们不能信任任何单一国家,即便它再“仁善”,也来拍板决定。我们也同样承担不起一种军备竞赛带来的后果:让 AI 成为支配工具,而不是走向进步的工具。

而全球治理并不意味着放弃控制。它意味着建立一种让所有人受益的、访问与问责的最低基线。开源框架、透明的开发,以及协作式的监督,可以确保 AI 服务于全人类,而不仅仅是少数特权群体。美国仍然可以发挥领导作用,但不能通过囤积权力来实现。 它可以通过示范来带路:建设与世界协作、也为世界所用的系统——邀请参与,而不是排除他人。


关于作者:

Himanshu Tyagi 是印度科学研究院的教授,也是 Sentient 的联合创始人。他开展了关于信息论、AI 与密码学的基础研究,并创办了多家横跨加密货币、AI 与通信领域的公司。Himanshu 致力于为连接未来打造技术与产品:在由 AI 与加密货币加速的信息网络之下,所有人类的愿望都将获得推动。

他获得了印度国家科学学院(Indian National Science Academy)青年科学家奖;获得了马里兰大学(University of Maryland)“早期职业杰出校友奖”(Early Career Distinguished Alumni Award);曾担任《信息理论汇刊》(Transactions on Information Theory)的副主编,并在顶级会议上获得了多项最佳论文奖。他出版了《信息论密码学》(Information-theoretic Cryptography)一书,出版社为剑桥大学出版社(Cambridge University Press)。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论