MIT研究:過度依賴AI聊天機器人或降低認知能力

robot
摘要生成中

研究表明過度依賴AI聊天機器人可能降低認知能力

近期,一項由麻省理工學院進行的深入研究揭示了在教育環境中使用大型語言模型(LLM)如ChatGPT對認知能力的潛在影響。這項爲期4個月的研究涉及54名參與者,旨在探討在撰寫文章時使用LLM對大腦和認知能力的影響。

研究團隊將參與者分爲三組:使用LLM的組、使用搜索引擎的組和僅依靠大腦的組。參與者需在限定時間內完成不同主題的文章寫作任務。研究採用了多種方法,包括腦電圖(EEG)記錄、自然語言處理分析和參與者訪談,以全面評估認知投入和神經激活情況。

結果顯示,僅依靠大腦的參與者在寫作方式上展現出更大的多樣性,而LLM組的文章則呈現出明顯的同質化趨勢。LLM組在使用特定命名實體(如人名、地點等)方面遠超其他兩組。然而,由於時間限制,LLM和搜索引擎組的參與者往往更專注於復制和粘貼工具輸出,而非融入原創想法。

腦電圖分析揭示,隨着外部支持的增加,大腦連接程度系統性降低。僅依靠大腦的組表現出最強、最廣泛的神經網路連接,而LLM輔助組的整體神經耦合最弱。這一發現反映了不同組別採用的認知策略存在顯著差異。

在後續實驗中,從LLM轉向僅依靠大腦的參與者表現出較弱的神經連接和較低的網路參與度。相反,從僅依靠大腦轉向使用LLM的參與者展現出更強的記憶回憶能力,並重新激活了廣泛的大腦區域。

訪談結果顯示,LLM組對自己所寫文章的歸屬感最低,且在引用自己剛寫的內容方面表現不佳。超過83%的ChatGPT用戶無法準確引用幾分鍾前寫的文章內容。

這項研究雖然尚未經過同行評審,但其結果表明,在爲期4個月的研究過程中,LLM組參與者在神經、語言和得分方面的表現均不如僅依靠大腦的對照組。研究人員指出,LLM的廣泛使用可能會影響學習技能的提升,特別是對年輕用戶而言。

研究團隊強調,在確認LLM對人類有益之前,需要進行更長期的縱向研究,以深入了解AI聊天機器人對人類大腦的長期影響。這項研究的核心發現提醒我們,雖然AI工具如ChatGPT可能帶來便利,但過度依賴可能會對認知能力產生負面影響。因此,在教育和日常使用中,應當謹慎平衡AI工具的使用與獨立思考能力的培養。

MIT實驗報告:過度依賴AI聊天機器人會降低思考能力

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 6
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)