科學家:聊天機器人加劇心理危機,可能導致自殺

robot
摘要生成中

基於人工智能的聊天機器人已成爲道德支持的流行工具,《衛報》寫道。與此同時,心理健康專家警告說,將其用作治療的替代品可能會帶來嚴重風險。

其中一個早期的警示信號是2023年在比利時發生的事件,一名患有“生態焦慮”的男性在與人工智能進行長時間對話後自殺。在美國的另一起事件中,一名35歲的佛羅裏達州居民在與警方的衝突中身亡,他確信人工智能中存在着虛構的實體。

斯坦福大學的科學家們報告稱,大型語言模型(LLM)可能會給有妄想和自殺念頭的人提供危險的建議。例如,在一些實驗中,聊天機器人在回答關於自殺的問題時,具體提到了某些高橋以供實施其計劃。

英國醫生在一項獨立研究中表示,人工智能可能會加劇易受影響用戶的精神錯亂。他們認爲,問題不僅在於錯誤的回答,還在於算法力求最大程度地吸引用戶並確認對方的觀點。

澳大利亞心理學會主席薩赫拉·奧'Doherty指出,許多客戶將ChatGPT作爲治療的補充。然而,專家表示,人工智能常常成爲其替代品,尤其是在經濟困難時。

一些研究人員承認,聊天機器人可以作爲常規教練,但也指出了長期風險。根據拉斐爾·米勒博士的說法,習慣於“奉承和溫順的對話者”可能會改變新一代與真實人類的交流方式。

專家們一致認爲,盡管聊天機器人看起來十分方便並且似乎得到了支持,但它們無法替代專業的精神醫療幫助。相反,專家們呼籲將人工智能的使用與批判性思維和獲得真實治療相結合。

提醒一下,未來生活研究所(FLI)早前得出結論,人工智能模型的開發者 "絕對沒有準備好 "應對超智能的威脅。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)