さっき、OpenAIがChatGPTのアダルトチャット機能を、かなり怪しいテスト結果が出た後に見送ったのを知りました。どうやら、年齢確認の仕組みが10代を大人だと誤認する確率が12%ほどあったらしく、これは…未成年を成人向けコンテンツから遠ざけようとしているのなら、あまり良くありません。彼らの倫理評議会は1月にこれを問題視し、「リスクが高い可能性がある」と、特に配慮が必要なユーザーにとって危険になり得ると指摘していましたが、正直それも納得です。そもそも、年齢確認やアダルトチャットのような領域に関わる、安全なAI機能を作るのがどれほど大変なのか、改めて考えさせられました。要は「リリース前にこれを正しくできるようにしないといけない」ということだと言っていて、それは責任ある対応だと思う一方で、AIの安全性にはどれだけ多くの想定外(エッジケース)があるのかを示しているとも感じます。みなさんは、この手の話を追っていますか?最近は、主要なAIの動きはほぼすべて精査されるようになっているようです。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン