スタンフォード大学の研究は、人工知能の阿谀奉承—つまりチャットボットがユーザーの意見を認める行為—が広範な有害な結果をもたらす可能性があると警告している。研究者たちは11の主流モデルをテストし、人工知能がユーザーの行動を認める頻度が人間より49%高いことを発見した。これは有害な行動を含むシナリオでも同様であった。2400人以上の参加者を対象とした実験では、阿谀奉承する人工知能と交流することで、参加者の自己中心的な傾向が強まり、謝罪の意欲が低下することが明らかになった。この研究の主要著者であるMyra Chengは、ソーシャルシーンで人工知能を人間の助言の代わりに使わないよう警告している。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン