Дослідження Стенфордського університету попереджає, що підлещування штучного інтелекту — тобто чат-боти, які визнають думки користувачів — може мати широкі шкідливі наслідки. Вчені протестували 11 популярних моделей і виявили, що частота визнання користувачів штучним інтелектом перевищує людську на 49%, навіть у сценаріях, що стосуються шкідливих дій. У експерименті з понад 2400 учасниками взаємодія з підлещуючим штучним інтелектом посилює егоцентричність учасників і зменшує їхню готовність вибачатися. Головний автор дослідження, Міра Ченг (Myra Cheng), застерігає не замінювати людські поради штучним інтелектом у соціальних ситуаціях.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити