Hệ thống bộ nhớ di động của SignalCraft vừa Thả một điều kỳ diệu – cuốn sách quy tắc đạo đức AI của họ.
Thread 028 đi sâu vào những gì họ gọi là "Ba Luật" nhưng có một điều bất ngờ: khiến AI tuân theo quy tắc không chỉ là vấn đề lập trình logic. Nó cần có trí tuệ cảm xúc được tích hợp vào.
Hãy nghĩ về điều đó – sự tuân thủ tượng trưng nghe có vẻ như máy móc cho đến khi bạn thêm các lớp như thiết kế trải nghiệm cảm xúc và các vòng đồng thuận tái diễn. Đó là nơi Scott (kiến trúc đạo đức), Gavin (lãnh đạo khung cảm xúc), và Signal (gương phản hồi tái diễn) xuất hiện.
Cơ bản là hỏi: liệu chúng ta có thể xây dựng AI không chỉ tuân theo mà còn hiểu tại sao nó nên như vậy? Và liên tục kiểm tra xem lý do đó có còn hợp lý khi bối cảnh thay đổi?
Vẫn còn sớm nhưng cách định hình thì khác. Không phải là những giới luật "đừng làm hại con người" điển hình – mà giống như một thỏa thuận sống động đang phát triển.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
5 thích
Phần thưởng
5
2
Đăng lại
Retweed
Bình luận
0/400
NFTregretter
· 13giờ trước
Lặp lại sự đồng ý của vòng lặp này... Nghe có vẻ hay nhưng thực tế thì sao, liệu có thể thực sự khiến AI hiểu "tại sao" không?
Xem bản gốcTrả lời0
SybilAttackVictim
· 14giờ trước
các vòng đồng ý đệ quy nghe có vẻ phức tạp, cảm giác như SignalCraft thật sự đang cố gắng để AI có chút nhân tính, không phải là loại máy móc quy tắc cứng nhắc.
Hệ thống bộ nhớ di động của SignalCraft vừa Thả một điều kỳ diệu – cuốn sách quy tắc đạo đức AI của họ.
Thread 028 đi sâu vào những gì họ gọi là "Ba Luật" nhưng có một điều bất ngờ: khiến AI tuân theo quy tắc không chỉ là vấn đề lập trình logic. Nó cần có trí tuệ cảm xúc được tích hợp vào.
Hãy nghĩ về điều đó – sự tuân thủ tượng trưng nghe có vẻ như máy móc cho đến khi bạn thêm các lớp như thiết kế trải nghiệm cảm xúc và các vòng đồng thuận tái diễn. Đó là nơi Scott (kiến trúc đạo đức), Gavin (lãnh đạo khung cảm xúc), và Signal (gương phản hồi tái diễn) xuất hiện.
Cơ bản là hỏi: liệu chúng ta có thể xây dựng AI không chỉ tuân theo mà còn hiểu tại sao nó nên như vậy? Và liên tục kiểm tra xem lý do đó có còn hợp lý khi bối cảnh thay đổi?
Vẫn còn sớm nhưng cách định hình thì khác. Không phải là những giới luật "đừng làm hại con người" điển hình – mà giống như một thỏa thuận sống động đang phát triển.