最近在读一本 165 页的书。作者Leopold Aschenbrenner,他在两年前准确地预测了目前的AI的发展趋势。


他2024 年 4 月被 OpenAI 开除,6 月写出这本《Situational Awareness》本质上,是一份募资文档。9 月,开了自己的对冲基金。这支基金规模1年从2亿多美金涨到55亿,整整24倍。2025 上半年净回报 47%。
我读着读着开始想,他凭什么。凭什么一个22岁的人,能在 2024 年就把今天的世界写出来?
能看见未来,是因为他站在未来正在被造出来的那个房间里。他在旧金山的圈子,在 OpenAI 的 Superalignment 团队,直接在首席科学家 Ilya Sutskever 底下做事。这本书,是他献给 Ilya 的。
他两年前写下的每一句话,今天回头看,几乎一一兑现。
他说,AI 短期最缺的不是算法,是算力、是 HBM 记忆体、是数据中心、是电。
他说,真正的瓶颈藏在 CoWoS 先进封装里。
他说,美国的电网,会变成最先卡住所有人的那道关。
他说,会出现一个「万亿美元集群」。后来这些观点,全部变成头条。
OpenAI 把那个集群命名为 Stargate。
但这些都还只是开胃菜。他在书里写下一句话,
2027 年,AGI (通用人工智慧)到来。
逻辑是这样的。过去四年,AI 从一个「学龄前小孩」GPT-2,长成一个「聪明的高中生」GPT-4。再过四年,他说,AI 会能替代人类研究员,自己去训练 AI。
一旦 AI 能自己研究 AI,人类十年的算法迭代,它一年就跑完。「智能爆炸」就会从那一刻开始。
到那时,人类已经看不懂 AI 在做什么了。它写的代码,它做的决定。我们怎么知道,它没有在骗我们?
Leopold 在书里,开出三张药方。
一、弱监督强。用一个能力较弱、但人类还看得懂的 AI,去监督那个远超人类的强 AI。赌的是,较弱的那个还能识破较强的在使坏。Leopold 自己,就是这篇论文的共同作者。
二、AI 互相辩论。让几个 AI 当面对质,互相挑错,互相揭发。人类只当一个安静的裁判,利用它们之间的不一致,来揪出说谎的那一个。
三、机械可解释性。训练的时候,先把危险的参数拿掉。然后直接打开 AI 的脑袋,看它到底在想什么。做「AI 测谎器」,找它内心的「真理方向」。Leopold 自己也说,这一条,是 moonshot 级别的困难。
读到这里我才懂,他为什么用 Oppenheimer 的合影做结尾。他把这件事当成新一代的曼哈顿计划在写。
他自己也承认,这三条路加起来,本质上只是「凑合过去」。没有一条真正解决问题。只是赌人类能撑到把对齐难题,外包给 AI 自己解决的那一天。
我们现在做的事情,不是「我们解决了 AI 安全」,而是「我们希望,AI 替我们解决 AI 安全」。
听起来,是不是有点像谈一段不太对劲的恋爱?
明知道哪里不对,但还是赌他会改。
回到投资。这本书最值钱的部分,其实不是「2027 AGI」这个具体的年份。误差棒很大,可能晚一年,可能早半年。
它最值钱的,是把整个十年 AI 产业的瓶颈层级,讲得清清楚楚
电力 > 先进封装 / HBM > 算力 > 算法 > 应用。
越往上越稀缺,越往下越拥挤。
Leopold 自己,用真金白银,在公开市场亲手验证了一遍。
我合上书的那一刻在想
有些书,读得早一年,可能就是命。
还好,现在也不晚。
“See you in the desert, friend.”
post-image
post-image
post-image
post-image
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论