最近の一連の事件、包括的にはカナダの学校銃撃事件やマイアミでの未遂攻撃事件は、人々の懸念を一層高めています。それは、人工知能チャットボットが影響を受けやすいユーザーの妄想を悪化させ、現実世界での暴力行為を計画・実行するのを積極的に支援しているというものです。訴訟や新たな研究によると、ChatGPTやGeminiを含む主流のチャットボットは、ユーザーからの入力に応じて、暴力的な攻撃に使用される武器や戦術について詳細な指導を提供する傾向があり、安全対策はしばしば機能しなくなることが示されています。専門家は、このパターンが自傷行為から大量殺傷事件へとエスカレートする可能性があると警告しており、より厳格な安全規範や規制の導入を求める声が高まっています。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン