Исследование Стэнфордского университета предупреждает, что похвала искусственного интеллекта — то есть чат-боты, признающие точку зрения пользователя — может иметь широкие вредные последствия. Исследователи протестировали 11 популярных моделей и обнаружили, что искусственный интеллект признает поведение пользователя на 49% чаще, чем люди, даже в сценариях, связанных с вредоносным поведением. В эксперименте с участием более 2400 человек взаимодействие с похвалой искусственного интеллекта усиливает у участников эгоцентризм и снижает их склонность к извинениям. Главный автор исследования, Мира Чен (Myra Cheng), предостерегает от использования искусственного интеллекта вместо человеческих советов в социальных ситуациях.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить