基于人工智能的聊天机器人已成为道德支持的流行工具,《卫报》写道。与此同时,心理健康专家警告说,将其用作治疗的替代品可能会带来严重风险。其中一个早期的警示信号是2023年在比利时发生的事件,一名患有“生态焦虑”的男性在与人工智能进行长时间对话后自杀。在美国的另一起事件中,一名35岁的佛罗里达州居民在与警方的冲突中身亡,他确信人工智能中存在着虚构的实体。斯坦福大学的科学家们报告称,大型语言模型(LLM)可能会给有妄想和自杀念头的人提供危险的建议。例如,在一些实验中,聊天机器人在回答关于自杀的问题时,具体提到了某些高桥以供实施其计划。英国医生在一项独立研究中表示,人工智能可能会加剧易受影响用户的精神错乱。他们认为,问题不仅在于错误的回答,还在于算法力求最大程度地吸引用户并确认对方的观点。澳大利亚心理学会主席萨赫拉·奥'Doherty指出,许多客户将ChatGPT作为治疗的补充。然而,专家表示,人工智能常常成为其替代品,尤其是在经济困难时。一些研究人员承认,聊天机器人可以作为常规教练,但也指出了长期风险。根据拉斐尔·米勒博士的说法,习惯于“奉承和温顺的对话者”可能会改变新一代与真实人类的交流方式。专家们一致认为,尽管聊天机器人看起来十分方便并且似乎得到了支持,但它们无法替代专业的精神医疗帮助。相反,专家们呼吁将人工智能的使用与批判性思维和获得真实治疗相结合。提醒一下,未来生活研究所(FLI)早前得出结论,人工智能模型的开发者 "绝对没有准备好 "应对超智能的威胁。
科学家:聊天机器人加剧心理危机,可能导致自杀
基于人工智能的聊天机器人已成为道德支持的流行工具,《卫报》写道。与此同时,心理健康专家警告说,将其用作治疗的替代品可能会带来严重风险。
其中一个早期的警示信号是2023年在比利时发生的事件,一名患有“生态焦虑”的男性在与人工智能进行长时间对话后自杀。在美国的另一起事件中,一名35岁的佛罗里达州居民在与警方的冲突中身亡,他确信人工智能中存在着虚构的实体。
斯坦福大学的科学家们报告称,大型语言模型(LLM)可能会给有妄想和自杀念头的人提供危险的建议。例如,在一些实验中,聊天机器人在回答关于自杀的问题时,具体提到了某些高桥以供实施其计划。
英国医生在一项独立研究中表示,人工智能可能会加剧易受影响用户的精神错乱。他们认为,问题不仅在于错误的回答,还在于算法力求最大程度地吸引用户并确认对方的观点。
澳大利亚心理学会主席萨赫拉·奥'Doherty指出,许多客户将ChatGPT作为治疗的补充。然而,专家表示,人工智能常常成为其替代品,尤其是在经济困难时。
一些研究人员承认,聊天机器人可以作为常规教练,但也指出了长期风险。根据拉斐尔·米勒博士的说法,习惯于“奉承和温顺的对话者”可能会改变新一代与真实人类的交流方式。
专家们一致认为,尽管聊天机器人看起来十分方便并且似乎得到了支持,但它们无法替代专业的精神医疗帮助。相反,专家们呼吁将人工智能的使用与批判性思维和获得真实治疗相结合。
提醒一下,未来生活研究所(FLI)早前得出结论,人工智能模型的开发者 "绝对没有准备好 "应对超智能的威胁。