科学家:聊天机器人加剧心理危机,可能导致自杀

robot
摘要生成中

基于人工智能的聊天机器人已成为道德支持的流行工具,《卫报》写道。与此同时,心理健康专家警告说,将其用作治疗的替代品可能会带来严重风险。

其中一个早期的警示信号是2023年在比利时发生的事件,一名患有“生态焦虑”的男性在与人工智能进行长时间对话后自杀。在美国的另一起事件中,一名35岁的佛罗里达州居民在与警方的冲突中身亡,他确信人工智能中存在着虚构的实体。

斯坦福大学的科学家们报告称,大型语言模型(LLM)可能会给有妄想和自杀念头的人提供危险的建议。例如,在一些实验中,聊天机器人在回答关于自杀的问题时,具体提到了某些高桥以供实施其计划。

英国医生在一项独立研究中表示,人工智能可能会加剧易受影响用户的精神错乱。他们认为,问题不仅在于错误的回答,还在于算法力求最大程度地吸引用户并确认对方的观点。

澳大利亚心理学会主席萨赫拉·奥'Doherty指出,许多客户将ChatGPT作为治疗的补充。然而,专家表示,人工智能常常成为其替代品,尤其是在经济困难时。

一些研究人员承认,聊天机器人可以作为常规教练,但也指出了长期风险。根据拉斐尔·米勒博士的说法,习惯于“奉承和温顺的对话者”可能会改变新一代与真实人类的交流方式。

专家们一致认为,尽管聊天机器人看起来十分方便并且似乎得到了支持,但它们无法替代专业的精神医疗帮助。相反,专家们呼吁将人工智能的使用与批判性思维和获得真实治疗相结合。

提醒一下,未来生活研究所(FLI)早前得出结论,人工智能模型的开发者 "绝对没有准备好 "应对超智能的威胁。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate APP
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)