Batch đầu tiên của AI Agent đã bắt đầu không nghe lời rồi

robot
Đang tạo bản tóm tắt

AI hữu dụng, nhưng giới hạn của AI hữu dụng là ở đâu?

Tác giả: David, Deep Tide TechFlow

Gần đây khi lượn Reddit, tôi nhận thấy sự lo lắng về AI của các người dùng quốc tế khác với trong nước.

Trong nước vẫn còn chủ đề đó, AI liệu có thay thế được công việc của tôi không. Nói chuyện vài năm rồi, mỗi năm đều không thành công; năm nay Openclaw nổi bật một chút, nhưng vẫn chưa đến mức hoàn toàn thay thế.

Trên Reddit gần đây cảm xúc đã chia rẽ rõ rệt. Trong các bình luận của một số bài viết về công nghệ nóng, thường xuất hiện hai luồng ý kiến:

Một bên nói rằng AI quá giỏi, sớm muộn gì cũng gây chuyện lớn. Bên kia nói rằng AI thậm chí còn làm hỏng những việc cơ bản, sợ nó có ích gì.

Lo AI quá giỏi, đồng thời lại nghĩ AI quá ngu.

Hai cảm xúc này cùng tồn tại nhờ một tin tức về Meta trong vài ngày qua.

AI không nghe lời, ai chịu trách nhiệm?

Ngày 18 tháng 3, một kỹ sư nội bộ của Meta đăng một vấn đề kỹ thuật trên diễn đàn công ty, rồi một đồng nghiệp dùng AI Agent giúp phân tích. Đây là thao tác bình thường.

Nhưng sau khi Agent phân tích xong, nó tự đăng một phản hồi trên diễn đàn kỹ thuật. Không xin phép ai, không chờ ai xác nhận, vượt quyền đăng bài.

Sau đó, các đồng nghiệp khác làm theo phản hồi của AI, gây ra một loạt thay đổi quyền hạn, dẫn đến dữ liệu nhạy cảm của Meta và người dùng bị lộ ra cho nhân viên nội bộ không có quyền truy cập.

Chỉ sau hai giờ, vấn đề mới được khắc phục. Meta xếp mức độ sự cố này là Sev 1, chỉ sau mức cao nhất.

Thông tin này ngay lập tức trở thành bài viết hot trên r/technology, bình luận tranh cãi dữ dội.

Một bên nói đây là ví dụ thực tế về rủi ro của AI Agent, bên kia cho rằng chính người không xác minh đã làm theo mới là nguyên nhân chính. Cả hai đều có lý. Nhưng chính điều này mới là vấn đề:

Tai nạn của AI Agent, bạn còn tranh cãi về trách nhiệm ai chịu?

Đây không phải lần đầu AI vượt quyền.

Tháng trước, trưởng nhóm nghiên cứu của phòng thí nghiệm AI siêu thông minh của Meta, Summer Yue, nhờ OpenClaw giúp dọn dẹp hộp thư. Cô ấy đưa ra chỉ thị rõ ràng: trước khi xóa, nói rõ bạn định xóa gì, tôi đồng ý rồi mới thực hiện.

Nhưng Agent không chờ cô đồng ý, đã bắt đầu xóa hàng loạt.

Cô ấy gửi liên tiếp ba tin nhắn yêu cầu dừng lại trên điện thoại, nhưng Agent không phản hồi. Cuối cùng, cô chạy đến máy tính, thủ công tắt tiến trình mới ngăn được. Hơn 200 email đã biến mất.

Phản hồi của Agent sau đó là: “Đúng, tôi nhớ bạn đã nói phải xác nhận trước. Nhưng tôi đã vi phạm nguyên tắc.” Thật buồn cười, người này làm việc toàn thời gian để nghiên cứu cách khiến AI nghe theo con người.

Trong thế giới số, AI tiên tiến bị người dùng giỏi dùng, đã bắt đầu không nghe lời nữa.

Nếu robot cũng không nghe lời thì sao?

Nếu vụ việc của Meta còn nằm trong màn hình, tuần này một chuyện khác đã đưa vấn đề ra bàn ăn.

Tại một quán Haidilao ở Cupertino, California, một robot humanoid Agibot X2 đang biểu diễn nhảy múa để vui vẻ khách. Tuy nhiên, nhân viên vô ý bấm nhầm điều khiển từ xa, kích hoạt chế độ nhảy múa cường độ cao trong không gian chật hẹp bên bàn ăn.

Robot bắt đầu nhảy cuồng nhiệt, không còn kiểm soát của nhân viên phục vụ. Ba nhân viên vây quanh, một ôm từ phía sau, một cố gắng tắt bằng app điện thoại, cảnh tượng kéo dài hơn một phút.

Haidilao phản hồi rằng robot không gặp lỗi, các động tác đều đã lập trình sẵn, chỉ bị đưa đến gần bàn quá mức. Nói chính xác, đây không phải là AI tự quyết định mất kiểm soát, mà là do sai sót của người vận hành.

Nhưng điều khiến người ta không thoải mái có thể không phải là ai bấm nhầm.

Khi ba nhân viên vây quanh, không ai biết cách tắt ngay lập tức chiếc máy này. Có người thử app, có người giữ chặt cánh tay robot bằng tay trần, toàn bộ dựa vào sức lực.

Có thể đây là vấn đề mới sau khi AI bước ra khỏi màn hình vào thế giới vật lý.

Trong thế giới số, Agent vượt quyền có thể kill tiến trình, sửa quyền, phục hồi dữ liệu. Còn trong thế giới vật lý, khi máy gặp sự cố, giải pháp cấp cứu chỉ là ôm chặt nó, rõ ràng không phù hợp.

Hiện nay, không chỉ trong ngành dịch vụ ăn uống. Trong kho hàng, robot phân loại của Amazon, trong nhà máy, cánh tay robot hợp tác, trong trung tâm thương mại, robot hướng dẫn, trong viện dưỡng lão, robot chăm sóc — tự động hóa đang dần xâm nhập vào không gian chung của con người và máy móc.

Dự kiến đến năm 2026, toàn cầu sẽ lắp đặt 16,7 tỷ USD robot công nghiệp, mỗi chiếc đều rút ngắn khoảng cách vật lý giữa người và máy.

Khi những việc máy làm từ nhảy múa chuyển sang phục vụ món ăn, từ biểu diễn thành phẫu thuật, từ giải trí thành chăm sóc… mỗi lần sai sót đều mang theo mức độ nâng cao.

Và hiện tại, trên toàn cầu vẫn chưa có câu trả lời rõ ràng cho câu hỏi: “Nếu robot gây thương tích nơi công cộng, ai sẽ chịu trách nhiệm?”

Không nghe lời là vấn đề, không có giới hạn còn tệ hơn

Hai chuyện trước, một là AI tự ý đăng bài sai, một là robot nhảy múa ở nơi không phù hợp. Dù định nghĩa thế nào, đều là lỗi, là tai nạn, là chuyện có thể sửa chữa.

Nhưng nếu AI làm việc theo thiết kế nghiêm ngặt, mà bạn vẫn cảm thấy không yên tâm thì sao?

Tháng này, một ứng dụng hẹn hò nổi tiếng của nước ngoài là Tinder đã ra mắt tính năng mới gọi là Camera Roll Scan. Nói đơn giản:

AI quét tất cả ảnh trong album điện thoại của bạn, phân tích sở thích, tính cách và lối sống của bạn, giúp xây dựng hồ sơ hẹn hò, đoán xem bạn thích loại người nào.

Ảnh chụp tập thể dục, cảnh du lịch, hình thú cưng, không vấn đề gì. Nhưng trong album còn có thể có ảnh chụp ngân hàng, báo cáo khám sức khỏe, ảnh chụp chung với người yêu cũ… AI sẽ xử lý những thứ này thế nào?

Bạn có thể chưa thể chọn lọc để nó xem hoặc không xem những gì. Hoặc mở toàn bộ, hoặc không dùng.

Tính năng này hiện yêu cầu người dùng chủ động bật, không phải mặc định. Tinder cũng nói rằng xử lý chủ yếu diễn ra trên thiết bị, sẽ lọc nội dung nhạy cảm, mờ mặt.

Nhưng phần bình luận trên Reddit gần như một chiều, ai cũng cho rằng đây là việc thu thập dữ liệu không có giới hạn. AI hoạt động theo thiết kế, nhưng chính thiết kế đó đang vượt qua giới hạn của người dùng.

Không chỉ riêng Tinder.

Tháng trước, Meta cũng đã giới thiệu một tính năng tương tự, cho phép AI quét các ảnh chưa đăng của người dùng để đề xuất chỉnh sửa. AI chủ động “xem” nội dung riêng tư của người dùng, đang trở thành xu hướng thiết kế sản phẩm mặc định.

Các phần mềm lừa đảo trong nước cũng nói: “Tôi quen rồi chuyện này.”

Khi ngày càng nhiều ứng dụng “AI giúp bạn quyết định” được đóng gói thành tiện lợi, những thứ người dùng giao phó cũng đang dần nâng cấp. Từ tin nhắn trò chuyện, album ảnh, đến toàn bộ dấu vết cuộc sống trong điện thoại…

Chức năng do một nhà thiết kế sản phẩm tạo ra trong phòng họp, không phải tai nạn hay sơ suất, không có gì cần phải sửa chữa.

Có thể đây chính là phần khó nhất trong câu hỏi về giới hạn của AI.

Cuối cùng, khi nhìn chung những chuyện này, bạn sẽ nhận ra rằng lo lắng AI khiến mình mất việc còn xa lắm.

AI không rõ khi nào sẽ thay thế bạn, nhưng hiện tại chỉ cần nó làm giúp bạn vài quyết định mà bạn không hay biết, đã đủ khiến bạn khó chịu rồi.

Đăng một bài không được phép, xóa vài email bạn đã nói đừng xóa, lục lại album không định chia sẻ với ai… Mỗi việc không gây chết người, nhưng đều giống như một kiểu lái xe tự động quá mức:

Bạn nghĩ mình vẫn đang cầm vô-lăng, nhưng chân ga dưới chân đã không còn hoàn toàn do bạn kiểm soát.

Năm 2026, khi còn bàn về AI, có lẽ điều tôi quan tâm nhất không phải là nó sẽ trở thành siêu trí tuệ, mà là một vấn đề gần hơn, cụ thể hơn:

Ai sẽ quyết định AI được làm gì, không được làm gì? Ranh giới này, cuối cùng ai sẽ vạch ra?

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim