一直在深入研究一些悄然改变现代战争实际运作方式的东西,说实话,把所有细节拼在一起时,确实相当骇人。



所以在2026年2月,有一项名为Epic Fury的行动——以色列和美国基本上在一个真实的战斗区域里,对伊朗做了一次相当于“AI压力测试”的演练。但这里是大多数人忽略的点:这不仅仅关乎火力。它关乎把整个杀伤链——从传感器数据到决策,再到实际打击——压缩到几分钟,甚至几秒钟内。谁能攻破这种压缩,谁就赢得下一轮地缘政治的杠杆。

让我印象最深的是,主要科技公司对自身立场的转变竟然如此公开。OpenAI从一贯强调的“远离军事应用”的伦理立场,突然就落地了——大概率是我们这个时代最敏感的国防合同。他们在2月下旬左右宣布了这项安排:在机密网络上部署GPT模型,用于情报分析、翻译、作战模拟。公司声称他们是在“红线”内开展,但说实话:当你面对的可能是数以亿计的国防合同时,那些“红线”就会变得宽得多。

接着是Anthropic,他们走的是相反的路线。他们拒绝在原则上让步,也不愿同意五角大楼在自主武器和大规模监控方面的要求。结果?他们被贴上“供应链风险”的标签——这一称谓此前主要保留给像华为这样的公司。这对整个行业而言是一记令人不寒而栗的信号:坚持你的伦理,就看着自己对国防预算的准入权一夜之间消失吧。

不过关键在于:没人谈得足够多的一点是,这套方程里真正的力量并不掌握在模型公司手里。真正掌握在微软和谷歌手中。没有他们的云基础设施,那些再花哨的AI模型也不过是PowerPoint幻灯片。微软Azure几乎成了运行的中枢——在几个月内,以色列军方把他们的机器学习规模大约扩大了64倍。谷歌的Project Nimbus则提供了价值超过10亿美元的云基础设施。换句话说,这些公司在吸收真实的资金流,而模型提供方则背负声誉上的代价。若从冷静甚至有点犬儒的角度看,这样做还真是“聪明”。

真正让我感到不安的是像Lavender这样的以色列AI系统。它对加沙几乎每一名成年男性的行为模式进行分析,给他们打上“疑似武装分子评分”,并识别出数万名目标。随后Gospel实现了对目标建筑的自动化定位,而Where's Daddy则在要打击的时候做优化,以最大化伤亡。人工复核?每个目标只要几十秒。这就是一种算法化“杀戮工厂”的真实样貌——当决策过程不再需要承受摩擦时。

令人毛骨悚然的是,这种逻辑具备很强的可移植性。他们在加沙开发出来的技术,能够应用到任何地方——德黑兰、台北,或任何其他地点。它并不取决于具体地理位置;真正决定性的,是用于处理数据的数据管道,以及承载它的云基础设施。

从市场角度来看,我们正在见证一种你可以称之为“AI-云-国防复合体”的出现。它正在重塑投资者对科技股的思考方式。如今这不再只是关于OpenAI或微软这类面向消费者的公司,而是关于谁掌控下一代冲突的基础设施。那些愿意在伦理上作出妥协的公司,正获得稳定的、非周期性的现金流,从而在很大程度上把自己隔离在常规商业周期之外。

人们真正应该追问的是:在我们把更多杀伤链外包给少数大型模型与云公司之前,我们是否还有时间弄清楚——当算法化的建议变成轰炸坐标时,究竟谁才是实际责任人?因为如果你现在选择沉默,你本质上是在赌这种复杂性仍然能被控制住。但历史往往表明,事情并不会按这样的剧本发展。
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论