✍️ Gate 广场「创作者认证激励计划」进行中!
我们欢迎优质创作者积极创作,申请认证
赢取豪华代币奖池、Gate 精美周边、流量曝光等超 $10,000+ 丰厚奖励!
立即报名 👉 https://www.gate.com/questionnaire/7159
📕 认证申请步骤:
1️⃣ App 首页底部进入【广场】 → 点击右上角头像进入个人主页
2️⃣ 点击头像右下角【申请认证】进入认证页面,等待审核
让优质内容被更多人看到,一起共建创作者社区!
活动详情:https://www.gate.com/announcements/article/47889
我注意到,在过去的一年里,关于我们已经达到了人工通用智能(AGI)的声明变得越来越响亮。自然界的最新研究当然也为此添油加醋。但这里有一个许多人忽视的根本问题。
关键在于:人们混淆了两件完全不同的事物。一方面,我们拥有在测试中表现出令人印象深刻、能够应对各种任务的语言模型;另一方面,这并不意味着我们已经创造出了真正的通用智能。这就像是将越来越复杂的模式识别与真正的智能混为一谈。
如果回顾历史上的AGI定义,那里总是强调不同的特质:在不同环境中的可靠性、面对新颖事物时的泛化能力、灵活性。而不仅仅是在人工条件下获得高分。
有趣的是,最近的研究显示,那些在测试中表现出色的系统,在条件稍有变化时往往会崩溃。例如,医疗模型即使缺少关键数据也能给出正确答案,但在分布发生微小偏移时就变得不稳定。这不是智能,而是针对特定场景的训练。
在经济层面,情况更为明显。即使是最先进的系统,也只能可靠地完成一小部分实际工作任务,尽管在测试条件下表现优异。最新数据显示,大多数公司目前还未从AI的应用中看到显著的回报。这看起来不像是通用智能。
还有一个经常被忽视的点。当语言模型和人类给出相同答案时,并不意味着它们的推理方式相同。我见过一些例子,模型在不确定的情况下给出自信的结论,而人类专家则因为信息不足而保持谨慎。表面上的一致掩盖了推理过程中的深层差异。
目前的系统仍然很脆弱。它们依赖于请求的表达方式,没有稳定的目标,不能在长远的角度上进行可靠的推理。甚至关于模型解决开放数学问题的故事,也主要是现有方法的组合和穷举,而非新策略的创造。
问题不仅仅在于术语。当这些系统开始在科学和政府决策中应用时,过高估计它们的能力可能会导致在信任和责任分配上的严重错误。因此,将先进的统计逼近与ИИ、общий интеллект混为一谈,不仅是概念上的错误,也存在实际风险。
我们现有的模型是强大的工具,但它们仍然只是工具,而不是具有真正灵活能力的代理。这一点差异非常重要。