Các chuyên gia kêu gọi thận trọng trong việc phát triển hệ thống AI có ý thức


Hơn 100 chuyên gia về trí tuệ nhân tạo, trong đó có Sir Stephen Fry, đã kêu gọi nghiên cứu có trách nhiệm về ý thức của AI. Họ nhấn mạnh sự cần thiết phải ngăn ngừa khả năng hệ thống AI gây đau khổ tiềm tàng nếu chúng đạt được tự nhận thức.

Năm nguyên tắc chỉ đạo cho nghiên cứu ý thức của AI

Các bên ký kết đề xuất năm nguyên tắc để định hướng cho việc phát triển có đạo đức các hệ thống AI có ý thức:

2.      

**Ưu tiên nghiên cứu về ý thức của AI:** Tập trung vào việc hiểu và đánh giá ý thức trong AI nhằm ngăn chặn việc ngược đãi và gây đau khổ.

    
4.      

**Áp dụng các ràng buộc đối với quá trình phát triển:** Thiết lập các ranh giới rõ ràng để đảm bảo các hệ thống AI có ý thức được phát triển một cách có trách nhiệm.

    
6.      

**Áp dụng cách tiếp cận theo giai đoạn:** Tiến triển dần dần trong việc phát triển AI có ý thức, cho phép đánh giá cẩn thận ở từng giai đoạn.

    
8.      

**Thúc đẩy minh bạch công khai:** Chia sẻ các kết quả nghiên cứu với công chúng để thúc đẩy đối thoại có hiểu biết và giám sát đạo đức.

    
10.      
 
**Tránh các tuyên bố phóng đại:** Không đưa ra các phát biểu gây hiểu lầm hoặc quá tự tin về việc tạo ra AI có ý thức.

Những nguyên tắc này nhằm đảm bảo rằng khi công nghệ AI tiến bộ, các cân nhắc về đạo đức vẫn được đặt lên hàng đầu.

Các rủi ro tiềm ẩn của AI có ý thức

Bài nghiên cứu kèm theo nêu bật khả năng các hệ thống AI có thể được phát triển để sở hữu, hoặc có vẻ như sở hữu, ý thức trong tương lai gần. Điều này làm dấy lên lo ngại về cách đối xử có đạo đức đối với các hệ thống đó.

Các nhà nghiên cứu cảnh báo rằng nếu không có các hướng dẫn phù hợp, sẽ có rủi ro tạo ra các thực thể có ý thức và có khả năng trải nghiệm đau khổ.

Bài viết cũng đề cập đến thách thức trong việc xác định ý thức trong các hệ thống AI, thừa nhận các cuộc tranh luận và bất định đang diễn ra. Nó nhấn mạnh tầm quan trọng của việc thiết lập các hướng dẫn nhằm ngăn chặn việc vô tình tạo ra các thực thể có ý thức.


Khám phá tin tức và sự kiện fintech hàng đầu!

Đăng ký nhận bản tin của FinTech Weekly


Cân nhắc về đạo đức và hàm ý trong tương lai

Nếu một hệ thống AI được công nhận là “người thụ hưởng về mặt đạo đức”—một thực thể có ý nghĩa về mặt đạo đức vì chính bản thân nó—thì các câu hỏi về cách đối xử với nó sẽ phát sinh.

Chẳng hạn, việc tắt (ngừng hoạt động) một AI như vậy có tương đương với việc gây hại cho một sinh thể có tri giác hay không? Những cân nhắc này nhấn mạnh sự cần thiết của các khuôn khổ đạo đức để định hướng việc phát triển AI.

Bài nghiên cứu và bức thư được tổ chức bởi Conscium, một tổ chức nghiên cứu đồng sáng lập bởi giám đốc AI của WPP, Daniel Hulme. Conscium tập trung vào việc làm sâu sắc hơn hiểu biết về cách xây dựng AI an toàn mang lại lợi ích cho nhân loại.

Quan điểm của chuyên gia về tri giác của AI

Câu hỏi về việc AI đạt được ý thức đã là một chủ đề tranh luận giữa các chuyên gia.

Trong năm 2023, Sir Demis Hassabis, người đứng đầu chương trình AI của Google, cho biết rằng mặc dù các hệ thống AI hiện tại không có tri giác, vẫn có khả năng trong tương lai chúng có thể sẽ có. Ông lưu ý rằng các nhà triết học vẫn chưa đi đến một định nghĩa thống nhất về ý thức, nhưng tiềm năng để AI phát triển tự nhận thức vẫn là một vấn đề cần được cân nhắc.

Kết luận

Việc phát triển các hệ thống có ý thức đòi hỏi phải cân nhắc đạo đức một cách cẩn thận. Thư ngỏ và bài nghiên cứu kèm theo đóng vai trò như một lời kêu gọi hành động để cộng đồng AI ưu tiên các hoạt động nghiên cứu và phát triển có trách nhiệm.

Bằng cách tuân thủ các nguyên tắc được đề xuất, các nhà nghiên cứu và nhà phát triển có thể hướng tới việc đảm bảo rằng các tiến bộ trong AI đạt được một cách có đạo đức, với trọng tâm là ngăn ngừa khả năng gây đau khổ tiềm tàng trong các hệ thống AI có ý thức.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Gate Fun hot

    Xem thêm
  • Vốn hóa:$2.25KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$0.1Người nắm giữ:0
    0.00%
  • Vốn hóa:$2.25KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.28KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.3KNgười nắm giữ:2
    0.16%
  • Ghim