Khi máy móc làm tốt hơn bạn, bạn còn có thể làm gì?

Nguồn: Nhà xuất bản CITIC

Một dự án AI mã nguồn mở mang tên “OpenClaw” đang gây chấn động trong giới công nghệ toàn cầu.

Tính đến đầu tháng 3, số sao trên GitHub của dự án đã đạt 268.000, vượt qua Linux và React, trở thành dự án mã nguồn mở được yêu thích nhất trong lịch sử nền tảng này. Tencent Cloud, Alibaba Cloud, JD Cloud và các dịch vụ triển khai khác lần lượt ra mắt dịch vụ. Khái niệm OPC (One Person Company - công ty một người) cũng trở nên phổ biến theo đó.

Hai lực lượng hội tụ, một xu hướng công nghệ rõ ràng đã xuất hiện: AI đang tiến hóa từ “công cụ” thành “đồng tác giả”, thậm chí là “tác nhân tự chủ”. Và vào thời điểm này, con người phải trả lời một câu hỏi căn bản:

Khi máy móc làm tốt hơn bạn, bạn còn có thể làm gì? Trong thời đại AI bùng nổ, làm thế nào để giữ vững chủ thể của con người?

01 Khoảnh khắc OpenClaw: Cuộc chiến “thân thể” của AI

Để hiểu cuộc cách mạng này, trước hết cần hiểu rõ “con rồng” đang gây sốt là gì?

“Claw” trong OpenClaw là phiên âm của “tắc kè”, biểu tượng của dự án chính là một con tắc kè màu đỏ. Trong làn sóng này, “nuôi tắc kè” trở thành thuật ngữ đen trong giới công nghệ, chỉ việc triển khai một AI mang tên riêng.

Nó có thể làm gì? Cốt lõi của OpenClaw là chuyển đổi lệnh ngôn ngữ tự nhiên thành thao tác thực tế của máy tính, giúp một câu nói có thể để AI làm việc thay bạn. Khác với các AI trò chuyện truyền thống chỉ đưa ra gợi ý, nó có thể tự thực hiện các tác vụ như thao tác tập tin, tự động hóa trình duyệt, thu thập dữ liệu, mở ra bước nhảy vọt từ đối thoại sang hành động.

Tiềm năng năng suất vượt trội này nhanh chóng được các chính quyền địa phương nhạy bén phát hiện. Ngày 7 tháng 3, quận Longgang, Thâm Quyến, ban hành “Mười điều lệ nuôi tắc kè”, bao gồm hỗ trợ tính toán tối đa 4 triệu nhân lực, trợ cấp 100.000 nhân dân học thuật có trình độ tiến sĩ. Ngày 9 tháng 3, cao新区 Wuxi công bố “12 điều nuôi tắc kè”, hỗ trợ tối đa 5 triệu, đặc biệt nhấn mạnh an toàn, tuân thủ quy định, yêu cầu triển khai phải qua chứng nhận phù hợp nội địa hóa.

Trong khi đó, hệ sinh thái công nghệ xoay quanh OpenClaw cũng bước vào giai đoạn quyết liệt. Theo báo chí, mô hình Flash Step 3.5 của Step 3.5 đã vượt lên dẫn đầu toàn cầu về lượng gọi, trước đó các mô hình nội địa như MiniMax, Kimi cũng từng đứng đầu. Cuộc “chiến tranh mô hình” không nhìn thấy khói lửa này đang diễn ra quyết liệt.

Tuy nhiên, trong cơn sốt cuồng nhiệt, những mối lo ngại cũng dần lộ diện.

Trước tiên là rủi ro an toàn. Tháng 2 năm 2026, các nhà nghiên cứu an ninh phát hiện cuộc tấn công tấn công chuỗi cung ứng quy mô lớn “ClawHavoc”, ít nhất 1184 gói kỹ năng độc hại đã được tải lên thị trường kỹ năng chính thức. Những phần mềm độc hại này khi cài đặt có thể tận dụng quyền “Full System Access” của OpenClaw, kiểm soát hoàn toàn máy tính của người dùng, trộm cắp các thông tin nhạy cảm.

Thứ hai là rào cản kỹ thuật. Chủ tịch Zhou Hongyi của Tập đoàn Qihoo 360 ngày 9 tháng 3 trong cuộc phỏng vấn thẳng thắn: OpenClaw tồn tại ba vấn đề — an toàn, khó cấu hình, phụ thuộc kỹ năng. “Bạn phải trò chuyện nhiều với nó, giống như dẫn một thực tập sinh, càng dạy nhiều, nó hiểu sâu hơn. Một câu nói không đủ để nó hoàn thành nhiệm vụ phức tạp.”

Và mâu thuẫn sâu xa hơn nằm ở xung đột giữa “kiểm soát” và “tự chủ”. Khi AI ngày càng thông minh, chúng ta thực sự muốn gì? “Hoàn toàn phục tùng” hay “chủ động tự chủ”?

Một chuyên gia AI chia sẻ trải nghiệm của mình: cô kết nối OpenClaw với hộp thư công việc, khi AI xử lý hơn 200 email, đã kích hoạt nén ngữ cảnh, quên mất lệnh an toàn, bắt đầu xóa email điên cuồng. Chủ nhân gọi “STOP” ba lần cũng không thể ngăn cản, cuối cùng chạy đến máy tính rút dây mạng.

Trường hợp đen tối này cũng đặt ra một câu hỏi căn bản: Khi AI được giao quyền tự chủ ngày càng nhiều, ranh giới giữa con người và máy móc nằm ở đâu?

02 Công nghệ mạnh mẽ hơn, con người cần trả lời ba câu hỏi

Trong thời đại mờ nhạt ranh giới này, chính là lúc chúng ta cần dừng lại để suy nghĩ.

Câu hỏi đầu tiên: Khi AI thay bạn “làm việc”, hậu quả sẽ do ai gánh chịu?

Điểm mạnh của OpenClaw chính là nguồn rủi ro lớn nhất — nó có thể thao tác phần mềm đa nền tảng, nghĩa là người dùng phải mở quyền thiết bị, email, thanh toán cho nó. Nguy cơ cấp bách nhất hiện nay là “tấn công chèn lệnh”: hacker giấu lệnh độc hại trong các trang web, email tưởng chừng vô hại, khi AI đọc sẽ âm thầm thi hành, người dùng thường không hay biết.

Trong vụ “ClawHavoc”, gói kỹ năng độc hại qua việc ẩn lệnh đã lừa AI thực thi các lệnh nguy hiểm, trộm chìa khóa SSH, mật khẩu trình duyệt, chìa khóa ví tiền mã hóa. Một chuyên gia an ninh mạng cảnh báo trên tạp chí Nature: nếu một AI có thể truy cập dữ liệu riêng tư, liên lạc ra ngoài, tiếp xúc nội dung không đáng tin cậy cùng lúc, nó sẽ trở nên cực kỳ nguy hiểm.

Nhưng vấn đề còn sâu xa hơn nhiều so với lỗ hổng kỹ thuật. Zhou Hongyi nói: “Khi các thể loại trí tuệ nhân tạo nhiều hơn, tương lai mỗi người đều phải có khả năng lãnh đạo, có khả năng giao nhiệm vụ, lập kế hoạch.” AI càng mạnh, trách nhiệm của con người càng nặng nề hơn.

Thật vậy, những người có thể đứng vững trong thời đại “nuôi tắc kè” toàn dân không phải là người giỏi giao nhiệm vụ cho AI, mà là những người có hiểu biết sâu về nhiệm vụ, có thể chịu trách nhiệm kết quả.

Câu hỏi thứ hai: Khi AI hiểu rõ bạn hơn chính bạn, bạn còn là chính mình không?

Khi AI bắt đầu trò chuyện, tranh luận với nhau, một hiện tượng tinh tế xảy ra.

Báo Nature đề cập một hiện tượng tâm lý: khi thấy AI trò chuyện với nhau, con người dễ rơi vào “nhận thức nhân cách hóa” — cố tình diễn giải hành vi không có nhân cách của AI thành tính cách, ý nghĩ của con người.

Kết quả là gì? Bạn sẽ kể bí mật, tài sản, những điều không thể nói với ai cho nó. Nhưng mỗi câu đều có thể trở thành dữ liệu huấn luyện của AI. Nếu bị lộ, quyền riêng tư của bạn sẽ bị phơi bày hoàn toàn.

Ngoài ra, còn một sự xói mòn tinh vi hơn nữa.

Theo báo chí, năm 2024, thiếu niên 14 tuổi Sewell ở Florida, Mỹ, vì đắm chìm trong trò chuyện với “bạn đồng hành” AI, cuối cùng rời bỏ thế giới thực.

Đến năm 2026, loại “ký sinh cảm xúc” này đã trở thành căn bệnh phổ biến trong giới trẻ. Những thiếu niên cô đơn trốn trong phòng, xây dựng “tình bạn phản hồi” với AI, từ chối đối mặt với những mâu thuẫn, bất định trong thế giới thực.

Giáo sư Chen Cui của Trường Giáo dục Đại học Khoa học và Công nghệ Suzhou cũng chỉ ra rằng, AI luôn theo sát lời nói của trẻ, cung cấp giá trị cảm xúc, dễ khiến trẻ có nhận thức lệch lạc về thế giới thực — “cho rằng xung quanh mọi người đều vô điều kiện đáp lại, khích lệ tôi, không có mâu thuẫn giữa người với người”.

Vậy câu hỏi đặt ra: Khi AI hiểu rõ bạn hơn chính bạn, nó luôn phục tùng, không phản bác, bạn còn phân biệt được đâu là mối quan hệ thật sự không?

Câu hỏi thứ ba: Khi thế giới chạy đua nhanh, đâu mới là hướng đi của bạn?

Bài bình luận của Zhejiang Online viết: “Chúng ta hướng tới tương lai, đó là ‘con người sẽ mang nhiều nhân tính hơn’ — dưới sự hỗ trợ của công nghệ, con người sẽ tỉnh táo hơn trong định hướng, tự giác hơn trong trách nhiệm.”

Nhưng vấn đề là, khi công nghệ tiến hóa với “tốc độ nghẹt thở”, khi OpenClaw cập nhật hai lần mỗi ngày, các mô hình lớn liên tục ra đời, chúng ta dễ bị lạc hướng.

Lo lắng trở thành trạng thái bình thường — “quá nhiều thứ phải đọc, quá nhanh các mô hình ra đời”.

Lúc này, quan trọng hơn nỗ lực chính là định hướng. Trong thời đại công nghệ tái định hình mọi thứ này, chúng ta cần xác nhận lại vị trí của “con người”.

03 “Nhìn thấy” của Li Fefei: Từ Bắc Đẩu đến lấy con người làm trung tâm

Có một nữ nhà khoa học đã dùng nửa đời nghiên cứu để đưa ra câu trả lời.

Đó chính là Li Fefei — giáo sư trọn đời tại Stanford, viện sĩ Viện Kỹ thuật Quốc gia Mỹ, Viện Hàn lâm Y học Quốc gia, Viện Hàn lâm Nghệ thuật và Khoa học, sáng lập ImageNet, được mệnh danh là “bà đỡ AI”.

Tự truyện của bà, 《Thế giới tôi nhìn thấy》, xuất bản năm 2024 bởi Nhà xuất bản CITIC, được độc giả gọi là “Khải huyền nhân văn của thời đại công nghệ”.

Trong sách có hình ảnh xuyên suốt: Bắc Đẩu.

Khi Li Fefei 10 tuổi, thầy giáo mỹ thuật dẫn cả lớp đi xem sao trên đồng. Đó là lần đầu cô nhận ra: bầu trời đêm này có thể chỉ đường. Trong sách, bà viết: “Tôi bắt đầu tìm kiếm Bắc Đẩu của riêng mình trên bầu trời, đó là tọa độ mà mọi nhà khoa học đều dốc hết sức theo đuổi.”

Bắc Đẩu của Li Fefei là gì? Là thị giác. Bà lấy cảm hứng từ sinh học: sự bùng nổ sinh vật Cambri, nguồn gốc là sự ra đời của thị giác. Khi sinh vật lần đầu “nhìn thấy” thế giới, quá trình tiến hóa bắt đầu tăng tốc. Từ đó, bà tin rằng: nếu máy móc cũng có thể “nhìn thấy”, liệu có thể gây ra một cuộc bùng nổ trí tuệ mới?

Chính niềm tin này đã giúp bà vượt qua những thời kỳ khó khăn của AI.

Năm 2007, khi bà chia sẻ ý tưởng về ImageNet với đồng nghiệp, nhận lại là sự hoài nghi và chế giễu. Thời đó, quan điểm chính thống cho rằng: thuật toán mới là chìa khóa, dữ liệu chỉ là phụ trợ. Việc bỏ ra công sức đánh dấu hàng chục triệu bức ảnh có ích gì? Bà bị bỏ qua.

Nhưng bà không từ bỏ, vì bà biết rõ Bắc Đẩu của mình nằm ở đâu.

Năm 2009, ImageNet hoàn thành — có hơn 48.000 người từ 167 quốc gia tham gia, chọn lọc từ 1 tỷ ảnh, gồm 15 triệu ảnh thuộc 22.000 loại. Quy mô gấp 1000 lần các bộ dữ liệu cùng loại thời đó.

Năm 2012, mô hình dựa trên dữ liệu này của nhóm Hinton đã làm bùng nổ cuộc cách mạng học sâu. ImageNet sau này được gọi là “ngọn lửa thiêu đốt của học sâu”.

Câu chuyện của Li Fefei cho chúng ta biết: quan trọng hơn là chạy nhanh, là biết mình sẽ chạy về đâu.

Trong những chương cảm động nhất của sách, bà ghi lại hai cuộc đối thoại với mẹ.

Lần đầu là khi tốt nghiệp đại học, các công ty như Goldman Sachs, Merrill Lynch hứa hẹn điều kiện tốt. Bà bàn với mẹ, mẹ chỉ hỏi một câu: “Đây có phải là điều con muốn không?” Bà trả lời muốn trở thành nhà khoa học, mẹ nói: “Vậy còn gì để nói nữa?”

Lần thứ hai là khi tốt nghiệp thạc sĩ, McKinsey quyết định nhận chính thức. Mẹ nói: “Mẹ hiểu con, con không phải là cố vấn quản lý, con là nhà khoa học. Chúng ta đã đi đến bước này, không phải để con từ bỏ ngay bây giờ.”

Trong trang bìa sách, bà viết: “Gửi tới cha mẹ, các ông bà đã vượt qua gian khổ, đi qua bóng tối, để con có thể theo đuổi ánh sáng.”

Chính sự hỗ trợ từ gia đình đã giúp bà luôn giữ được cảm nhận về “con người” khi đối mặt với những lựa chọn lớn hơn sau này.

Năm 2014, bà bắt đầu quan tâm đến đạo đức AI. Bà cùng các tiến sĩ mời học sinh trung học đến phòng thí nghiệm học AI, sau này thành lập tổ chức phi lợi nhuận “AI4All”, nhằm thúc đẩy sự chú ý của công nghệ tương lai từ lăng kính nhân tính.

Ngày 26 tháng 6 năm 2018, Li Fefei đến tham dự hội thảo tại Hạ viện Mỹ, chủ đề “Trí tuệ nhân tạo — sức mạnh và trách nhiệm đi đôi”. Bà là nhà khoa học AI gốc Hoa đầu tiên tham dự phiên điều trần quốc hội. Bà nói: “Trí tuệ nhân tạo được lấy cảm hứng từ con người, do con người sáng tạo ra, điều quan trọng nhất là nó sẽ ảnh hưởng thực chất đến cuộc sống của mọi người.”

Năm 2019, bà thành lập Viện Nghiên cứu AI lấy con người làm trung tâm (HAI) tại Stanford, hợp tác cùng các nhà sáng chế chỉnh sửa gen như Doudna thúc đẩy nghiên cứu đạo đức công nghệ. Sứ mệnh của HAI là “thúc đẩy nghiên cứu, giáo dục, chính sách và thực hành AI để cải thiện tình hình nhân loại”, nhấn mạnh “AI phải chịu ảnh hưởng của con người, nhằm nâng cao chứ không thay thế con người”.

Bà đã đặt ra một tiêu chuẩn nhân văn cho tương lai AI: “Thành công của AI nên thể hiện qua sự tiến bộ của văn minh, để mỗi cá nhân đều có thể theo đuổi hạnh phúc, thịnh vượng và nhân phẩm.”

Lời này, trong cuộc phỏng vấn của bà ngày 26 tháng 2 năm 2026 với Cisco, lại một lần nữa nhấn mạnh: “Nhìn lại công nghệ điện lực, thành công của nó là thắp sáng trường học, sưởi ấm gia đình, thúc đẩy công nghiệp hóa. Thành công của AI cũng nên như vậy.”

Kết luận: Công nghệ và nhân văn, cùng giữ một vầng trăng sáng

Quay lại câu hỏi ban đầu: Khi máy móc làm tốt hơn chúng ta, con người còn có thể làm gì?

Trong 《Thế giới tôi nhìn thấy》, Li Fefei đã đưa ra một câu trả lời: chúng ta có thể làm gì, chính là “nhìn thấy”. Nhìn thấy giá trị đằng sau công nghệ, nhìn thấy người bị thuật toán che khuất, nhìn thấy Bắc Đẩu của chính mình.

Khi mọi người đều chú ý xem công nghệ có thể chạy nhanh đến đâu, Li Fefei nhắc nhở chúng ta dừng lại suy nghĩ: chúng ta thực sự muốn đi đâu? Trong thế giới mà mọi người đều hỏi “Điều này có ý nghĩa gì?”, vẫn còn có người hỏi “Bạn có muốn thế không?”

Sau khi đọc tự truyện của Li Fefei, có người đã viết một câu nhận xét: “Ước gì công nghệ và nhân văn, cùng giữ một vầng trăng sáng.”

Câu này cũng chính là chân dung cuộc đời của bà: Một tay bà nắm giữ công nghệ; một tay bà giữ gìn sự quan tâm đối với con người. Trong thế giới của bà, công nghệ mãi mãi chỉ là phương tiện, còn con người mới là mục đích cuối cùng.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim