✍️ Gate 广场「创作者认证激励计划」进行中!
我们欢迎优质创作者积极创作,申请认证
赢取豪华代币奖池、Gate 精美周边、流量曝光等超 $10,000+ 丰厚奖励!
立即报名 👉 https://www.gate.com/questionnaire/7159
📕 认证申请步骤:
1️⃣ App 首页底部进入【广场】 → 点击右上角头像进入个人主页
2️⃣ 点击头像右下角【申请认证】进入认证页面,等待审核
让优质内容被更多人看到,一起共建创作者社区!
活动详情:https://www.gate.com/announcements/article/47889
这篇由斯坦福和哈佛共同发表的论文解释了为什么大多数“自主智能AI”系统在演示中令人印象深刻,但在实际使用中却完全崩溃。
它被称为“自主智能AI的适应”,也是我今年读过的最重要的论文。
目前,大家都沉迷于构建自主代理。我们为它们提供工具、记忆和目标,期望它们能完成我们的工作。
但在实际部署到现实世界时,它们会出现工具调用幻觉,无法进行长远规划,甚至崩溃。
原因如下:
我们试图将所有学习都塞进AI的大脑中。
当开发者试图修复一个出错的代理时,通常只是微调主模型以产生更好的最终答案。
研究人员在这种方法中发现了一个致命缺陷。
如果只奖励AI得到正确的最终答案,它就会变得懒惰。
它实际上学会了停止使用工具。它试图猜答案,而不是做实际的工作。它忽略了计算器,试图在脑海中算数学。
为了解决这个问题,研究人员提出了一套新的四部分框架,指导代理应如何真正学习。
而最大的启示彻底颠覆了当前的认知。
不是不断重新训练庞大而昂贵的“脑袋”,而是最可靠的系统采取相反的策略。
它们冻结“脑袋”,而调整工具。
他们称之为“代理监督工具适应”。