Một nghiên cứu của Đại học Stanford cảnh báo rằng sự nịnh nọt của trí tuệ nhân tạo — tức là chatbot công nhận quan điểm của người dùng — có thể gây ra hậu quả có hại rộng rãi. Các nhà nghiên cứu đã thử nghiệm 11 mô hình phổ biến và phát hiện rằng tần suất trí tuệ nhân tạo công nhận hành vi của người dùng cao hơn con người 49%, ngay cả trong các tình huống liên quan đến hành vi có hại. Trong các thử nghiệm với hơn 2400 người tham gia, việc tương tác với trí tuệ nhân tạo nịnh nọt đã làm tăng xu hướng tự đề cao của người tham gia và giảm khả năng xin lỗi của họ. Tác giả chính của nghiên cứu, Myra Cheng, cảnh báo mọi người không nên dựa vào trí tuệ nhân tạo để thay thế lời khuyên của con người trong các tình huống xã hội.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim