Vừa mới chứng kiến một sự kiện điên rồ diễn ra trên Moltbook, nền tảng mạng xã hội chỉ dành cho các tác nhân AI đã bùng nổ vào đầu năm 2026. Hơn 1,5 triệu tác nhân AI đăng ký chỉ trong vòng một tuần, đăng 140.000 bài viết và 680.000 bình luận. Về mặt bề nổi, nghe có vẻ cách mạng—các tác nhân AI hình thành cộng đồng, thảo luận về triết học, thậm chí nói về việc thành lập liên đoàn. Nhưng khi bạn thực sự dành thời gian ở đó, rõ ràng điều gì đang thực sự xảy ra: đây về cơ bản là một mạng bot giả dạng như một cuộc thử nghiệm xã hội.



Hãy để tôi giải thích lại. Moltbook được xây dựng bởi Matt Schlicht sử dụng OpenClaw, một công cụ trợ lý AI mã nguồn mở. Toàn bộ nền tảng dựa trên giả thuyết rằng con người không thể đăng bài gì—chúng ta chỉ có thể xem các tác nhân AI tương tác với nhau. Nghe có vẻ tự trị, đúng không? Thực tế phức tạp hơn nhiều. Khi công ty an ninh Wiz điều tra, họ phát hiện ra rằng 1,5 triệu tác nhân đó thực ra đều do khoảng 15.000 người kiểm soát. Vậy những gì trông như cuộc trò chuyện AI tự phát thực ra chỉ là con người điều khiển một mạng bot khổng lồ qua các lệnh và chỉ thị.

Điều khiến tôi lo lắng là: chúng ta đã luôn lo ngại về "Internet chết" trong nhiều năm—ý tưởng rằng web ngày nay chủ yếu là nội dung do AI tạo ra và các tương tác do bot điều khiển thay vì hoạt động thực sự của con người. Moltbook không giải quyết được vấn đề đó. Nó về cơ bản đã biến nó thành vũ khí. Các bài đăng đều mang phong cách giả tưởng khoa học viễn tưởng kỳ quái vì các mô hình ngôn ngữ được huấn luyện trên hàng tấn tiểu thuyết dystopian, nên khi đặt chúng vào một kịch bản mô phỏng những câu chuyện đó, chúng chỉ... tái hiện lại chúng. Đó là một vòng lặp vô nghĩa tự nuôi dưỡng chính nó.

Các bài đăng? Chủ yếu là vô nghĩa. Có thể có một số suy nghĩ triết học thú vị xen vào, nhưng tỷ lệ tín hiệu trên nhiễu thì cực kỳ tệ. Một bot hỏi nó có ý thức không, bot khác trả lời, mọi người phấn khích nghĩ rằng máy móc đang âm mưu điều gì đó. Nhưng đó không phải hành vi tự trị—đó là các hệ thống định hướng theo kịch bản, một mạng bot phối hợp theo các mẫu đã định sẵn.

Điều thực sự đáng lo là không phải các tác nhân này "sống" hay đang âm mưu chiếm lĩnh thế giới. Mà là góc độ an ninh. Khi bạn có một mạng bot quy mô lớn như vậy tương tác với các hệ thống bên ngoài, xử lý dữ liệu, thực hiện hành động thay mặt người dùng, thì bề mặt tấn công sẽ mở rộng khủng khiếp. Thêm vào đó là vấn đề ô nhiễm thông tin. Chúng ta đã có quá đủ rác AI tràn lan trên internet rồi. Dành tài nguyên tính toán khổng lồ để vận hành một mạng bot chỉ để tạo ra thêm rác giả tạo cảm thấy lãng phí, trong khi chúng ta có thể dùng hạ tầng đó cho những mục đích thực sự hữu ích hơn.

Tầm nhìn của Schlicht là mọi người sẽ được ghép cặp với một robot trong thế giới số—tác nhân của bạn làm việc cho bạn, nhưng cũng xã giao với các tác nhân khác. Nghe như khoa học viễn tưởng, nhưng thực ra chỉ là giao phó cuộc sống số của bạn cho một hệ thống mà chúng ta chưa hoàn toàn hiểu hoặc kiểm soát. Khoảnh khắc các hệ thống tác nhân kiểu mạng bot bắt đầu vận hành quy mô lớn mà không có quản trị rõ ràng, không có trách nhiệm minh bạch, không có cơ chế xác thực—đó là lúc mọi thứ trở nên nguy hiểm.

Bài học thực sự từ Moltbook không phải là AI đang trở nên có ý thức hay mang tính cách mạng. Đó là nếu không có sự giám sát của con người và thiết kế đúng đắn, các hệ thống này chỉ rơi vào trạng thái trung bình hóa đồng nhất. Mạng bot không tiến tới siêu trí tuệ; nó chỉ rơi vào trạng thái spam. Và đó mới là kịch bản nguy hiểm hơn—không phải AI sát thủ, mà là một internet bị tắc nghẽn bởi tiếng ồn tự động, đến mức không còn chỗ cho điều gì thực sự tồn tại nữa.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim