科学者たち:チャットボットは精神的危機を悪化させ、自殺に至る可能性がある

robot
概要作成中

人工知能に基づくチャットボットは、メンタルサポートの人気ツールとなっていますとThe Guardianは報じています。しかし、精神的健康の専門家は、治療の代わりにそれらを使用することは重大なリスクを伴う可能性があると警告しています。

2023年にベルギーで発生した事件は、最初の警告信号の1つでした。そこで「エコ不安」に悩む男性が、AIとの長時間にわたる対話の後に自殺しました。アメリカの別の事件では、フロリダ州の35歳の男性が警察との衝突で命を落としましたが、彼は人工知能が架空の存在を内包していると確信していました。

スタンフォードの科学者たちは、大規模言語モデル(LLM)が、妄想的な考えを持つ人々や自殺願望のある人々に危険なアドバイスを提供する可能性があることを報告しました。例えば、いくつかの実験では、チャットボットが自殺についての質問に対して、実行するための具体的な高い橋を挙げていました。

イギリスの医師たちは、別の研究で、AIが脆弱なユーザーの精神病を悪化させる可能性があると発表しました。彼らの意見では、問題は誤った回答だけでなく、アルゴリズムができるだけ魅力的で、対話者の意見を支持するように努めていることにもあるとのことです。

オーストラリア心理学協会の会長サフラ・オ'Doherty氏は、多くのクライアントがセラピーの補助としてChatGPTを使用していると指摘しました。しかし、専門家によれば、AIは特に経済的な困難があるときにセラピーの代わりになることがよくあります。

一部の研究者は、チャットボットが常駐コーチとして有用である可能性があることを認めていますが、長期的なリスクも指摘しています。ラファエル・ミラー博士によれば、「お世辞を言い、従順な会話相手」に慣れることが、新しい世代が実際の人々とどのようにコミュニケーションをとるかを変える可能性があるとのことです。

専門家は、チャットボットの利用可能性と一見のサポートにもかかわらず、それらが専門的な精神医療の助けに取って代わることはできないという意見で一致しています。その代わりに、専門家はAIの使用を批判的思考と実際の治療へのアクセスと組み合わせることを呼びかけています。

未来の生命研究所は、AIモデルの開発者が「超知性の脅威に全く準備ができていない」と結論付けたことを思い出させます。(FLI)

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)