MIT研究:过度依赖AI聊天机器人或降低认知能力

robot
摘要生成中

研究表明过度依赖AI聊天机器人可能降低认知能力

近期,一项由麻省理工学院进行的深入研究揭示了在教育环境中使用大型语言模型(LLM)如ChatGPT对认知能力的潜在影响。这项为期4个月的研究涉及54名参与者,旨在探讨在撰写文章时使用LLM对大脑和认知能力的影响。

研究团队将参与者分为三组:使用LLM的组、使用搜索引擎的组和仅依靠大脑的组。参与者需在限定时间内完成不同主题的文章写作任务。研究采用了多种方法,包括脑电图(EEG)记录、自然语言处理分析和参与者访谈,以全面评估认知投入和神经激活情况。

结果显示,仅依靠大脑的参与者在写作方式上展现出更大的多样性,而LLM组的文章则呈现出明显的同质化趋势。LLM组在使用特定命名实体(如人名、地点等)方面远超其他两组。然而,由于时间限制,LLM和搜索引擎组的参与者往往更专注于复制和粘贴工具输出,而非融入原创想法。

脑电图分析揭示,随着外部支持的增加,大脑连接程度系统性降低。仅依靠大脑的组表现出最强、最广泛的神经网络连接,而LLM辅助组的整体神经耦合最弱。这一发现反映了不同组别采用的认知策略存在显著差异。

在后续实验中,从LLM转向仅依靠大脑的参与者表现出较弱的神经连接和较低的网络参与度。相反,从仅依靠大脑转向使用LLM的参与者展现出更强的记忆回忆能力,并重新激活了广泛的大脑区域。

访谈结果显示,LLM组对自己所写文章的归属感最低,且在引用自己刚写的内容方面表现不佳。超过83%的ChatGPT用户无法准确引用几分钟前写的文章内容。

这项研究虽然尚未经过同行评审,但其结果表明,在为期4个月的研究过程中,LLM组参与者在神经、语言和得分方面的表现均不如仅依靠大脑的对照组。研究人员指出,LLM的广泛使用可能会影响学习技能的提升,特别是对年轻用户而言。

研究团队强调,在确认LLM对人类有益之前,需要进行更长期的纵向研究,以深入了解AI聊天机器人对人类大脑的长期影响。这项研究的核心发现提醒我们,虽然AI工具如ChatGPT可能带来便利,但过度依赖可能会对认知能力产生负面影响。因此,在教育和日常使用中,应当谨慎平衡AI工具的使用与独立思考能力的培养。

MIT实验报告:过度依赖AI聊天机器人会降低思考能力

此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 6
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)