Vitalik Buterin cảnh báo chúng ta cần có các phòng thủ phi tập trung để xử lý các rủi ro của trí tuệ nhân tạo

Người đồng sáng lập Ethereum Vitalik Buterin đã bày tỏ lo ngại về những nguy hiểm tiềm ẩn của các chương trình Trí tuệ Nhân tạo (AI) không được kiểm soát.

Trong bài đăng ngày 10 tháng 1 trên X, Buterin cảnh báo rằng trí tuệ nhân tạo được quản lý không đúng cách có thể tạo ra các thực thể thông minh tự nhân bản gây nguy hiểm cho nhân loại.

Anh ấy nói rằng:

“AI sai là tạo ra các hình thức mới của cuộc sống thông minh tự phân tử AI đúng là bộ giáp mecha cho tâm trí con người. Nếu chúng ta làm điều đầu tiên mà không có điều thứ hai, chúng ta đang rủi ro mất quyền tự quyết vĩnh viễn của con người. Nếu chúng ta làm điều thứ hai, chúng ta sẽ có một nền văn minh con người siêu thông minh thịnh vượng.”

Anh ấy giải thích rằng trong khi một số hệ thống AI, chẳng hạn như chatbot được thiết kế để cải thiện giao diện người dùng, là có ích, nhưng những hệ thống khác có thể dẫn đến những rủi ro đáng kể. Cụ thể, các đại lý AI hoạt động tự động trong thời gian dài có thể cuối cùng sẽ thách thức sự kiểm soát của con người và làm suy yếu xã hội.

Để giảm thiểu những rủi ro này, Buterin đề xuất tập trung vào các hệ thống trí tuệ nhân tạo bổ sung cho trí tuệ con người, biến chúng thành các công cụ tăng cường khả năng tổng hợp thay vì thay thế chúng.

Theo anh ấy, phương pháp như vậy sẽ biến trí tuệ nhân tạo thành một công cụ mạnh mẽ để nâng cao khả năng của con người mà vẫn tránh các rủi ro không cần thiết.

d/Acc

Một phần quan trọng của chiến lược của anh ấy liên quan đến khái niệm của Tăng tốc Phòng thủ Phi tập trung và Dân chủ (d/Acc). Cách tiếp cận này nhấn mạnh vào việc phát triển các công cụ phi tập trung để đối phó với những mối đe dọa liên quan đến trí tuệ nhân tạo đang nổi lên.

Buterin đã phác thảo ý tưởng này trong một bài đăng trên blog gần đây, mô tả d/Acc như một khung nhằm phân quyền các công nghệ phòng thủ. Mục tiêu là tăng cường khả năng tự bảo vệ cho cá nhân và cộng đồng khỏi những nguy cơ tiềm ẩn do sự tiến bộ nhanh chóng của trí tuệ nhân tạo.

Chiến lược này cho phép phân phối quyền lực công nghệ dân chủ hơn bằng cách đặt khả năng phòng thủ vào tay cộng đồng. Ví dụ, các hệ thống phi tập trung có thể giám sát, chống lại, hoặc thậm chí là làm trung hòa các hoạt động AI có hại mà không phụ thuộc vào sự kiểm soát từ trên xuống từ phía chính phủ hoặc các công ty.

Buterin đã giải thích rằng d/Acc có thể phục vụ như một biện pháp bảo vệ trong các tình huống mà công nghệ AI tiến bộ một cách không đoán trước được. Hơn nữa, sự dân chủ hóa của phòng thủ đảm bảo rằng không có một thực thể duy nhất nào có thể thống trị hoặc khai thác tiềm năng của AI tiên tiến, tạo ra một hệ sinh thái công nghệ cân bằng và mạnh mẽ hơn.

Người đồng sáng lập Ethereum cũng nhấn mạnh trách nhiệm đạo đức của các nhà phát triển trong lĩnh vực đang phát triển nhanh này. Ông cho rằng các phương pháp phi tập trung như d/Acc nâng cao sự an toàn tập thể và khuyến khích sự minh bạch và cộng tác trong phát triển trí tuệ nhân tạo.

Buterin viết:

“Một ý tưởng rất thân thiện với việc pháp lý là đặt trách nhiệm cho chủ sở hữu hoặc người vận hành bất kỳ thiết bị nào mà trí tuệ nhân tạo chiếm đóng (ví dụ, bằng cách hack) trong quá trình thực hiện một hành động gây hại một cách thảm khốc. Điều này sẽ tạo ra động lực rất rộng để làm việc chăm chỉ để làm cho cơ sở hạ tầng của thế giới (đặc biệt là máy tính và sinh học) càng an toàn càng tốt.”

Được đề cập trong bài viết này
ETH-3.86%
X-4.58%
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)