Tôi vừa mới biết về một chuyện nghe như lấy cảm hứng từ 1984 nhưng thực sự đã xảy ra gần đây tại một trường học ở Vương quốc Anh. Chữ thật, một trí tuệ nhân tạo đã kiểm duyệt Orwell.



Ở Manchester, một trường trung học đã quyết định sử dụng trí tuệ nhân tạo để rà soát thư viện của mình. AI đã cung cấp một danh sách 193 cuốn sách để loại bỏ, kèm lý do cho từng cuốn. Và đoán xem cuốn nào nằm trong danh sách: 1984 của George Orwell, vì chứa "chủ đề tra tấn, bạo lực và ép buộc tình dục". Thật trớ trêu là 1984 nói chính xác về một chính phủ kiểm soát mọi thứ, viết lại lịch sử và quyết định những gì công dân có thể đọc. Và ở đây, một AI đang làm điều tương tự.

Thủ thư của trường nghĩ rằng điều đó thật vô lý và từ chối thực hiện các đề xuất. Nhưng ban quản lý không đồng ý. Họ bị cáo buộc đưa vào những cuốn sách không phù hợp và bị tố cáo với chính quyền địa phương. Áp lực đến mức ông xin nghỉ phép vì bệnh và cuối cùng từ chức. Và tệ nhất: chính quyền kết luận rằng ông đã vi phạm quy trình an toàn trẻ em. Ai chống lại AI mất việc. Ai chấp nhận mà không đặt câu hỏi, không bị hậu quả.

Sau đó, lộ ra rằng trường biết rõ tất cả đều do AI sinh ra. Trong các tài liệu nội bộ, họ viết rằng dù các danh mục được tạo ra bởi AI, "chúng tôi tin rằng phân loại này gần như chính xác". Gần như. Một tổ chức giao phó một quyết định quan trọng cho một thuật toán mà chính họ còn không hiểu rõ, và một quản trị viên đã phê duyệt mà không kiểm tra gì.

Cùng tuần đó, một chuyện hoàn toàn khác xảy ra trên Wikipedia. Trong khi một trường học để AI quyết định những gì học sinh có thể đọc, thì bách khoa toàn thư trực tuyến lớn nhất thế giới lại đưa ra quyết định ngược lại: cấm AI viết hoặc chỉnh sửa nội dung. Phiếu bầu là 44 ủng hộ, 2 phản đối. Lý do là một tài khoản AI tên TomWikiAssist đã tự động tạo các bài viết.

Vấn đề là toán học: AI có thể viết một bài trong vài giây, nhưng một tình nguyện viên con người mất hàng giờ để xác minh sự thật, nguồn và cách viết. Wikipedia không có đủ biên tập viên để kiểm tra tất cả những gì AI có thể tạo ra. Nhưng còn một điều sâu xa hơn: Wikipedia là một trong những nguồn dữ liệu chính để huấn luyện các mô hình AI. AI học từ Wikipedia, rồi viết các bài mới cho Wikipedia, và Wikipedia lại huấn luyện thế hệ AI tiếp theo. Nếu AI làm nhiễu dữ liệu đó, sẽ tạo thành một vòng lặp nơi sự nhiễu loạn được nhân rộng. Dữ liệu làm ô nhiễm AI, và AI lại làm ô nhiễm dữ liệu.

Cùng tuần đó, OpenAI cũng đã rút lui. Hoãn vô thời hạn "chế độ người lớn" của ChatGPT, một chức năng mà Sam Altman đã công bố cách đây vài tháng. Ủy ban y tế nội bộ bỏ phiếu nhất trí phản đối. Những lo ngại rõ ràng: người dùng sẽ hình thành sự gắn bó cảm xúc không lành mạnh với AI, và trẻ nhỏ sẽ tìm cách vượt qua xác minh tuổi. Có người còn nói thẳng: nếu không cải thiện, nó có thể trở thành một "huấn luyện viên tự tử quyến rũ". Hệ thống xác minh tuổi có hơn 10% lỗi. Với 800 triệu người dùng hoạt động hàng tuần, điều đó có nghĩa hàng chục triệu người bị phân loại sai.

Không chỉ vậy. Họ còn gỡ bỏ Sora, công cụ video có AI, và chức năng thanh toán nhanh của ChatGPT. Altman nói rằng họ tập trung vào kinh doanh chính và loại bỏ "các nhiệm vụ phụ". Nhưng OpenAI đang chuẩn bị ra cổ phiếu. Một công ty cố gắng niêm yết trên sàn chứng khoán và loại bỏ các chức năng gây tranh cãi một cách quyết liệt có lẽ không hoàn toàn trung thực với chính mình.

Nghe này, năm tháng trước, Altman còn nói rằng cần đối xử với người dùng như người trưởng thành. Năm tháng sau, ông phát hiện ra chính công ty của mình còn không biết AI có thể làm gì và không thể làm gì. Ngay cả những người tạo ra AI cũng không có câu trả lời đó.

Nhìn chung ba sự kiện này, vấn đề trở nên rõ ràng: tốc độ AI tạo ra nội dung đã không còn phù hợp với tốc độ con người có thể kiểm tra. Ông giám đốc ở Manchester không tin tưởng vào AI; ông đơn giản không muốn mất thời gian để một thủ thư đọc 193 cuốn sách. Đó là một vấn đề kinh tế. Chi phí tạo ra gần như bằng không. Tất cả chi phí kiểm tra do con người đảm nhận.

Vì vậy, mỗi tổ chức phản ứng theo cách cực đoan nhất: Wikipedia cấm trực tiếp, OpenAI loại bỏ các dòng sản phẩm. Không ai trong số đó là giải pháp có suy nghĩ thấu đáo; đó là các biện pháp cấp cứu để che đậy lỗ hổng. Và điều đó đang trở thành bình thường hóa.

AI cập nhật mỗi vài tháng. Không có một khung pháp lý quốc tế nào nhất quán về những gì có thể chạm vào. Mỗi tổ chức vẽ ra các giới hạn nội bộ riêng, và chúng mâu thuẫn, không có phối hợp. Trong khi đó, khoảng cách chỉ ngày càng lớn hơn. AI vẫn tiếp tục tăng tốc. Nhân lực kiểm tra không tăng lên. Một ngày nào đó, điều này sẽ bùng nổ thành một vấn đề còn nghiêm trọng hơn nhiều việc kiểm duyệt Orwell. Và khi điều đó xảy ra, có lẽ đã quá muộn để vạch ra giới hạn.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim