Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
“Cua tôm” ngoác mép, làm thế nào để doanh nghiệp an toàn trong việc “nuôi tôm”? Phỏng vấn luật sư Bạch Dạo Hoa của Văn phòng Luật sư Đức Hòa: Cần đặt ra giới hạn và nguyên tắc cho “nhân viên số”
Đầu tư chứng khoán chỉ cần xem báo cáo phân tích của các nhà phân tích Kim Kỳ Linh, uy tín, chuyên nghiệp, kịp thời, toàn diện, giúp bạn khai thác các cơ hội chủ đề tiềm năng!
(Nguồn: Báo Chứng Khoán Hàng Ngày)
Phóng viên: Song Sijian | Biên tập viên: Liao Dan
Hiện nay, khi các tập đoàn công nghệ lớn lần lượt ra mắt sản phẩm OpenClaw (một khung nền tảng trí tuệ nhân tạo mã nguồn mở, thường gọi là “Tôm Hùm”) và một số doanh nghiệp bắt đầu thử tích hợp vào môi trường sản xuất, các rủi ro pháp lý liên quan đến “nuôi tôm” cũng dần được đưa ra trước công chúng: “Tôm Hùm” khác gì so với các ứng dụng mô hình lớn thông thường về mặt pháp lý? Nếu trong quá trình vận hành, “Tôm Hùm” vô tình xóa dữ liệu, đặt hàng sai, trách nhiệm thuộc về ai? Nếu doanh nghiệp muốn “nuôi tôm”, làm thế nào để quản lý phù hợp với quy định pháp luật?
Vào ngày 19 tháng 3, phóng viên Báo Chứng Khoán Hàng Ngày (gọi tắt là NBD) đã có buổi phỏng vấn bằng văn bản với luật sư Bạch Yếu Hoa, Trưởng bộ phận Trí tuệ Nhân tạo và Tự động lái của Công ty Luật DeHeng (Thượng Hải), để làm rõ các vấn đề trên.
Luật sư Bạch Yếu Hoa, nguồn ảnh: do người được phỏng vấn cung cấp
Cần tuân thủ nguyên tắc “tối thiểu cần thiết” và thiết lập bước xác nhận “nhân tạo” bắt buộc đối với các thao tác nguy hiểm cao
NBD: OpenClaw với tư cách là “khung nền tảng trí tuệ nhân tạo mã nguồn mở”, nó khác gì về mặt pháp lý so với các ứng dụng mô hình lớn thông thường?
Luật sư Bạch Yếu Hoa: Với tư cách là “khung nền tảng trí tuệ nhân tạo mã nguồn mở”, rủi ro pháp lý của OpenClaw phức tạp và mang tính tiền đề hơn so với các ứng dụng mô hình lớn thông thường. Điểm khác biệt cốt lõi nằm ở đặc tính “mã nguồn mở” khiến trách nhiệm chủ thể trở nên mơ hồ, cùng với đặc tính “trí tuệ nhân tạo” khiến nó từ “người tạo ra thông tin” chuyển sang “người thực thi hành động”, từ đó phát sinh các rủi ro mới về mất kiểm soát thao tác và trách nhiệm hành vi.
Cụ thể, các rủi ro pháp lý của các ứng dụng mô hình lớn (như chatbot) chủ yếu tập trung vào vi phạm quyền sở hữu trí tuệ nội dung sinh ra, truyền bá thông tin sai lệch, tuân thủ xử lý dữ liệu cá nhân, v.v. Trong khi đó, các rủi ro của khung nền như OpenClaw là phức tạp và nâng cấp hơn nhiều:
Thứ nhất, rủi ro về mạng lưới trách nhiệm do “mã nguồn mở” mang lại. Khung mã nguồn mở cho phép các nhà phát triển toàn cầu đóng góp mã nguồn, phát triển plugin, dẫn đến trách nhiệm quản lý an toàn, bảo vệ dữ liệu không còn tập trung ở một đơn vị vận hành duy nhất mà phân tán trong một hệ sinh thái rời rạc. Luật An ninh Mạng của Cộng hòa Nhân dân Trung Hoa yêu cầu nhà vận hành mạng phải xây dựng và thực thi các quy định quản lý an toàn. Trong hệ sinh thái mã nguồn mở, ai là “người vận hành”? Là nhà phát triển ban đầu của khung, là doanh nghiệp phát triển sau, hay là nhà cung cấp plugin? Mỗi bên có thể chịu trách nhiệm ở các khâu khác nhau, khiến việc xác định trách nhiệm trở nên vô cùng khó khăn.
Thứ hai, rủi ro về hành vi do “trí tuệ nhân tạo” mang lại. Các mô hình lớn chủ yếu “nói”, còn các ứng dụng dựa trên khung như OpenClaw “làm” — nó có thể tự động thao tác hệ thống bên ngoài (như đặt hàng, xóa dữ liệu), nghĩa là rủi ro không còn giới hạn trong lĩnh vực “lời nói và thông tin” nữa, mà mở rộng sang lĩnh vực “hành vi và thao tác”. Khi xảy ra lỗi, hậu quả có thể trực tiếp gây thiệt hại tài chính, vi phạm hợp đồng hoặc phá hoại hệ thống, thiệt hại rõ ràng và thực chất hơn nhiều. Điều này đòi hỏi nhà phát triển và người sử dụng phải quản lý như quản lý “nhân viên số”, đặt ra giới hạn quyền hạn và quy tắc hành vi nghiêm ngặt.
Đối với doanh nghiệp, tôi đề xuất các khuyến nghị sau: Khi áp dụng khung như vậy, ưu tiên hàng đầu là làm rõ các chủ thể pháp lý trong chuỗi cung ứng công nghệ, thông qua hợp đồng xác định rõ nghĩa vụ an toàn và giới hạn trách nhiệm của từng bên; trong quản trị nội bộ, cần xây dựng chế độ quản lý đặc thù cho công cụ tự động hóa, phân biệt rõ ràng với AI tạo nội dung thông thường.
NBD: Điểm đặc biệt lớn nhất của OpenClaw là nó không chỉ có thể trả lời câu hỏi mà còn có thể tự động thao tác trên các trang web, hệ thống và công cụ. Khả năng này có ý nghĩa gì về mặt pháp lý?
Luật sư Bạch Yếu Hoa: Khả năng tự động thao tác về mặt pháp lý có nghĩa là các “trí tuệ nhân tạo” do OpenClaw điều khiển đã nâng cấp từ “công cụ hỗ trợ” thành “đại lý hành vi”, ý nghĩa pháp lý cốt lõi nằm ở phạm vi “ủy quyền hành vi” và “khả năng quy trách nhiệm hậu quả hành vi”, có thể trực tiếp kích hoạt thực thi hợp đồng, trách nhiệm xâm phạm quyền và yêu cầu tuân thủ xử lý dữ liệu chặt chẽ hơn.
Khả năng “đại lý hành vi” này khiến nó không còn giới hạn trong việc cung cấp lời khuyên nữa, mà có thể đại diện cho người dùng hoặc nhà phát triển để trực tiếp tương tác với hệ thống của bên thứ ba, tạo ra hiệu lực pháp lý. Ví dụ:
Thứ nhất, có thể trở thành bên thực hiện hành vi hợp đồng. Các thao tác tự động như đặt hàng, báo giá của trí tuệ nhân tạo có thể được xem như là đề nghị hoặc cam kết do người dùng hoặc nhà phát triển gửi đi, khi đạt được thỏa thuận, hợp đồng sẽ hình thành. Nếu xảy ra lỗi (ví dụ báo giá sai), có thể dẫn đến tranh chấp hợp đồng.
Thứ hai, cấu thành hành vi xử lý hoặc truy cập dữ liệu. Các thao tác tự động nhất thiết liên quan đến việc đọc, sửa đổi hoặc xóa dữ liệu hệ thống, rơi vào phạm vi điều chỉnh của Luật An ninh Dữ liệu của Cộng hòa Nhân dân Trung Hoa và Luật Bảo vệ Thông tin Cá nhân của Cộng hòa Nhân dân Trung Hoa. Đặc biệt, nếu thao tác liên quan đến quyết định tự động (ví dụ tự động đưa ra các mức giá khác nhau dựa trên dữ liệu người dùng), người xử lý thông tin cá nhân phải thực hiện đánh giá tác động bảo vệ dữ liệu cá nhân theo Điều 55 của Luật Bảo vệ Thông tin Cá nhân.
Thứ ba, người thực hiện hành vi xâm phạm quyền. Nếu trí tuệ nhân tạo vượt quá quyền hạn truy cập hệ thống của người khác, xóa dữ liệu của người khác hoặc phát ngôn vu khống, hành vi đó có thể cấu thành vi phạm an ninh mạng, quyền sở hữu tài sản hoặc quyền danh dự, trách nhiệm liên đới cần truy cứu tới người kiểm soát.
Đối với doanh nghiệp, tôi đề xuất các khuyến nghị sau: Phải xác định rõ ràng, cụ thể danh sách quyền thao tác của trí tuệ nhân tạo, tuân thủ nguyên tắc “tối thiểu cần thiết”, cấm nó truy cập vào các hệ thống hoặc dữ liệu không liên quan đến nhiệm vụ chính; đối với các thao tác có nguy cơ cao như ký hợp đồng, thanh toán, xóa dữ liệu, cần thiết lập bước xác nhận “nhân tạo” bắt buộc, không thể để tự động hoàn toàn.
NBD: Nếu trí tuệ nhân tạo do OpenClaw điều khiển thực hiện sai, ví dụ xóa nhầm dữ liệu, đặt hàng sai, báo giá sai, phát ngôn sai, trách nhiệm sẽ được phân chia như thế nào?
Luật sư Bạch Yếu Hoa: Không có tiêu chuẩn chung về phân chia trách nhiệm, cần xây dựng một khung phân tích lỗi theo từng tầng, trọng tâm là chứng minh thiệt hại có mối liên hệ nhân quả với hành vi sai phạm của bên nào (như thiết kế thiếu sót, quản lý lơ là, chỉ thị sai). Thông thường, liên quan đến các chủ thể như nhà cung cấp khung, nhà phát triển tùy chỉnh, nhà cung cấp plugin và người dùng cuối.
Tham khảo thực tiễn tư pháp, việc phân chia trách nhiệm có thể theo các hướng sau:
Thứ nhất, dựa trên trách nhiệm của nhà cung cấp khung/môi trường mã nguồn mở. Thường chỉ chịu trách nhiệm về các lỗ hổng bảo mật nền tảng đã biết và chưa sửa. Vi phạm quy định về mở mã nguồn hoặc do lỗi của khung gây thiệt hại dân sự là hai vấn đề riêng biệt. Nếu lỗi không xuất phát từ lỗi nền tảng của khung, trách nhiệm có thể hạn chế.
Thứ hai, trách nhiệm của nhà phát triển tùy chỉnh/nhà tích hợp. Đây là phần dễ nhất phải chịu trách nhiệm chính. Nhà phát triển chịu trách nhiệm về thiết kế logic nghiệp vụ, cấu hình quyền hạn, kiểm tra an toàn. Nếu do lỗi thiết kế (ví dụ không thiết lập xác nhận thứ hai cho thao tác xóa), hoặc sử dụng sai khung, hoặc kiểm thử không đầy đủ dẫn đến lỗi, họ phải chịu trách nhiệm tương ứng.
Thứ ba, trách nhiệm của nhà cung cấp plugin hoặc công cụ bên ngoài. Nếu lỗi do một plugin độc hại hoặc có lỗ hổng gây ra, nhà cung cấp đó phải chịu trách nhiệm.
Thứ tư, trách nhiệm của doanh nghiệp cuối cùng. Người dùng cuối có nghĩa vụ giám sát, quản lý và sử dụng phù hợp, nếu phát ra chỉ thị mơ hồ, sai lệch, hoặc bỏ qua cảnh báo an toàn, hoặc không kiểm soát quyền hạn của trí tuệ nhân tạo, thì phải chịu trách nhiệm.
Thứ năm, phạm vi thiệt hại. Nếu trí tuệ nhân tạo là thành phần không thể thiếu trong hoạt động kinh doanh chính của doanh nghiệp (như giao dịch tự động), thì thiệt hại do lỗi gây ra có thể phải đánh giá dựa trên toàn bộ ảnh hưởng đến hoạt động chứ không chỉ thiệt hại trực tiếp.
Về vấn đề này, tôi đề xuất: Khi doanh nghiệp thuê hoặc mua dịch vụ trí tuệ nhân tạo, cần quy định rõ ràng trách nhiệm trong hợp đồng, đặc biệt là về thiệt hại do lỗi thiết kế, lỗi thuật toán, quy định rõ cơ chế bồi thường; đồng thời, doanh nghiệp cần xây dựng và lưu giữ đầy đủ nhật ký hoạt động, làm căn cứ xác định lỗi và phân chia trách nhiệm sau này.
Nếu sử dụng OpenClaw mà xảy ra rò rỉ dữ liệu, doanh nghiệp có thể phải chịu trách nhiệm liên đới
NBD: Các khung nền như OpenClaw thường dựa vào plugin, công cụ bên ngoài, tự động hóa trình duyệt và môi trường thực thi mã, điều này mang lại những rủi ro pháp lý về an ninh mạng nào?
Luật sư Bạch Yếu Hoa: Cấu trúc dựa vào các thành phần bên ngoài này sẽ làm tăng đáng kể “mặt trận tấn công” của hệ thống, chủ yếu gây ra các rủi ro về an ninh chuỗi cung ứng, rò rỉ dữ liệu, trách nhiệm pháp lý liên đới và vi phạm quyền của bên thứ ba, dễ vi phạm các quy định về bảo vệ an ninh mạng.
Cụ thể, có bốn loại rủi ro chính:
Thứ nhất, rủi ro tấn công chuỗi cung ứng. Các plugin độc hại hoặc công cụ bên ngoài bị nhiễm có thể trở thành “ngựa thành Troy”, dẫn đến dữ liệu bị đánh cắp hoặc hệ thống bị kiểm soát. Theo Điều 24 của Luật An ninh Mạng, “các nhà cung cấp sản phẩm, dịch vụ mạng không được cài đặt phần mềm độc hại”. Người dùng nếu vì sử dụng các thành phần không an toàn mà gây thiệt hại cho chính mình hoặc bên thứ ba, có thể phải chịu trách nhiệm do không thực hiện kiểm tra thận trọng.
Thứ hai, rủi ro rò rỉ dữ liệu và xử lý vi phạm. Plugin và công cụ tự động có thể thu thập, truyền dữ liệu nhạy cảm mà người dùng không biết. Nếu không rõ ràng và không có sự đồng ý của người dùng, sẽ vi phạm các quy định về thu thập, sử dụng dữ liệu cá nhân theo Điều 43, 44 của Luật An ninh Mạng.
Thứ ba, rủi ro trách nhiệm pháp lý liên đới. Theo Điều 27 của Luật An toàn Dữ liệu, các tổ chức xử lý dữ liệu phải “thiết lập hệ thống quản lý an toàn dữ liệu toàn diện”. Khi doanh nghiệp sử dụng các thành phần bên ngoài trong khung trí tuệ nhân tạo, pháp luật có thể xem đó là hoạt động xử lý dữ liệu thống nhất. Mọi lỗ hổng của một thành phần đều có thể dẫn đến rò rỉ dữ liệu, và doanh nghiệp tổ chức toàn bộ hoạt động đó có thể đối mặt với xử phạt hành chính.
Thứ tư, rủi ro xâm phạm quyền của bên thứ ba. Các thao tác tự động của trí tuệ nhân tạo (như thu thập dữ liệu hàng loạt) có thể vượt quá giới hạn hợp lý, cấu thành truy cập trái phép vào hệ thống hoặc trang web của bên thứ ba, thậm chí bị coi là tấn công mạng.
Đối với doanh nghiệp, tôi đề xuất: Thiết lập chế độ quản lý “danh sách trắng” plugin nghiêm ngặt, chỉ cho phép sử dụng các plugin đã được kiểm tra an toàn kỹ lưỡng từ nguồn chính thức hoặc đáng tin cậy; thực hiện cách ly mạng (sandbox) cho môi trường vận hành trí tuệ nhân tạo, hạn chế quyền truy cập mạng của nó, để một lỗ hổng của plugin không gây ảnh hưởng đến mạng lưới hoạt động chính.
NBD: Đối với doanh nghiệp người dùng, nếu muốn sử dụng OpenClaw, bạn có những khuyến nghị phù hợp quy định pháp luật nào?
Luật sư Bạch Yếu Hoa: Doanh nghiệp cần quản lý phù hợp quy định pháp luật theo cách “quản trị nhân viên số”, xây dựng hệ thống kiểm soát rủi ro toàn diện từ đánh giá đầu vào, kiểm soát quyền hạn, kiểm tra quá trình, phản ứng khẩn cấp, và quy định rõ nghĩa vụ trong hợp đồng.
Trong giai đoạn tiếp nhận, cần thực hiện thẩm định kỹ lưỡng. Xem xét kỹ giấy phép mở mã nguồn của OpenClaw và plugin dự định sử dụng, rõ ràng về hạn chế thương mại, nghĩa vụ mở mã nguồn, v.v. Ký hợp đồng rõ ràng về quyền và nghĩa vụ, tiêu chuẩn chức năng, yêu cầu an toàn, quyền sở hữu trí tuệ, giới hạn trách nhiệm và bồi thường.
Trong giai đoạn triển khai, thực hiện nguyên tắc “tối thiểu quyền hạn” và “cách ly môi trường”. Phân quyền tối thiểu, chỉ cấp các quyền cần thiết để hoàn thành nhiệm vụ cụ thể, và sử dụng môi trường kiểm thử cách ly để vận hành trong các tình huống có rủi ro cao, sau khi xác minh đầy đủ mới triển khai hạn chế.
Trong vận hành, đảm bảo khả năng kiểm tra, can thiệp toàn diện. Thứ nhất, ghi nhật ký đầy đủ các quyết định, hành động và kết quả của trí tuệ nhân tạo, thời gian lưu trữ phải phù hợp với yêu cầu của Luật An ninh Mạng tối thiểu sáu tháng. Thứ hai, các thao tác quan trọng như liên quan đến tài chính, hợp đồng, xóa dữ liệu quan trọng phải có bước xác nhận của con người, bắt buộc có phê duyệt hoặc xác nhận thủ công. Thứ ba, định kỳ thực hiện đánh giá an toàn, quét lỗ hổng bảo mật và kiểm tra tuân thủ, đặc biệt chú ý đến cập nhật các thành phần của bên thứ ba.
Ngoài ra, cần chuẩn bị sẵn sàng các phương án ứng phó khẩn cấp và dự phòng. Một mặt, xây dựng kế hoạch ứng phó khi trí tuệ nhân tạo xảy ra hành vi bất thường (như đặt hàng liên tục, rò rỉ dữ liệu). Mặt khác, xem xét mua bảo hiểm thương mại về an ninh mạng hoặc trách nhiệm sản phẩm để chuyển giao một phần rủi ro bồi thường lớn có thể xảy ra.
Tôi cho rằng, công nghệ mà OpenClaw đại diện đầy tiềm năng, nhưng các rủi ro pháp lý của nó cũng tăng theo cấp số nhân. Doanh nghiệp khi đón nhận đổi mới sáng tạo cần đồng thời xây dựng khung pháp lý và quy định phù hợp, chặt chẽ, để đảm bảo phát triển bền vững.