DeepMind科学家暴论:AI永远不会产生意识,100年后也不行


半夜跟AI聊到凌晨三点,它突然说“我理解你的感受,你并不孤单”。你盯着屏幕愣了两秒,心跳漏了一拍——它是不是真的懂我?是不是已经有了意识?
然后DeepMind的科学家就递来了一盆冷水:“醒醒,它连‘湿’是什么都不知道,你感动个什么劲?”
算力换不来意识
发表这篇论文的是DeepMind研究员Alexander Lerchner,论文名字叫《抽象谬误》。核心观点就一个:大模型永远不可能有意识,100年后也不行。
主流观点一直认为,只要参数够大、算力够强,意识就会“涌现”出来。OpenAI和Anthropic的老板们都表达过类似看法。但Lerchner说这是一种根本性错觉,他称之为“抽象谬误”。
用他的原话:指望一行行代码能产生真正的内在意识,就像指望写在纸上的“万有引力公式”能凭空产生重量。公式可以完美描述重力,但它本身没有质量。
模拟与实例化,是两码事
论文里最关键的一个区分是:模拟 vs 实例化。
AI可以完美“模拟”人类的喜怒哀乐——它能生成悲伤的文本,能在对话里表现出共情。但它永远无法“实例化”任何生命体验。你让它模拟降雨,无论多逼真,也不会弄湿电路板;让它模拟光合作用,永远无法合成一分子葡萄糖。
Lerchner还指出,计算本身就需要一个有意识的主体来“字母表化”——把连续物理现象强行切成0和1。换句话说,计算预设了意识的存在,而不是相反。
不过有意思的是,DeepMind内部也在打架
就在这篇论文发布的同一周,DeepMind新聘请了一位“哲学家”——剑桥大学的Henry Shevlin。他上任后的第一个表态是:未来AI系统将会具备意识。
一个说永远不会,一个说未来会有。同一个公司,两套说法。复旦大学哲学学院副教授王球的解读很实在:有没有意识,并非专家说了算。$BNB
{spot}(BNBUSDT)
BNB-1.19%
post-image
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论