很多人现在讨论 AGI 时都会先问一个问题:我们距离 AGI 还有多远?


但我越来越觉得,更重要的问题其实是人类是否还有能力主动决定 AGI 是否到来?
我的答案其实偏悲观,因为过去所有真正改变文明结构的技术,一旦具备可行性,最终都会被推进。
核能如此,互联网如此,移动互联网如此,AI 大概率也一样。
所以我并不完全认同传统意义上的技术乐观主义,我更像一种技术不可逆主义者。
也就是说我认为 AGI 未必一定带来乌托邦,但它几乎一定会到来,而且速度可能比大多数人想象得更快。
很多人现在依然把 AGI 理解成比人类更聪明的聊天机器人,但我认为 2026 年再继续讨论AGI 定义本身意义已经越来越小。
因为真正重要的不是它是否达到哲学层面的通用智能,而是它是否开始影响现实经济结构。
事实上这已经发生了,AI 已经开始替代部分初级脑力劳动。
已经开始重构搜索,已经开始影响软件开发,已经开始改变教育方式。
我认为很多人其实低估了 AGI 的积极影响,也低估了它的风险。
最被低估的积极面是认知资源民主化,历史上最顶级的知识、分析能力和研究能力,一直是少数人的特权。
但 AI 正在把这些东西逐渐平民化,一个普通人第一次有机会拥有接近专业级别的认知辅助系统。
但风险同样巨大,因为 AGI 很可能天然倾向于权力集中。
训练最先进模型需要海量资本、算力和数据,这意味着未来最强 AI 系统,可能长期掌握在极少数组织手中。
而这也是我认为 Crypto 和去中心化在 AGI 时代会越来越重要的原因。
因为如果未来最强的认知系统由少数公司控制,那开放金融、开放身份和开放计算会变成重要制衡力量。
尤其是稳定币、链上身份和去中心化算力网络,我认为它们会逐渐成为 AI 世界里的开放层。
至于个人该如何准备我自己的答案反而很简单,不要只学习工具要学习判断。
因为未来最稀缺的,可能不再是知识本身,而是如何提出正确问题、如何筛选信息、如何建立独立认知。
我的个人框架一直是谨慎乐观,我不觉得 AGI 会毁灭世界,但我也不认为它会自动创造公平世界,技术只会放大已有的人类结构。
其实我一直在想一个问题:如果未来每个人都拥有接近无限的智能辅助系统,那人与人之间真正的差距,最终还会剩下什么?
post-image
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论