Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Bắt đầu với Hợp đồng
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Các nhà phê bình chế nhạo tuyên bố của Anthropic Các phòng thí nghiệm AI Trung Quốc đang đánh cắp dữ liệu của họ
Những nhà phê bình chế giễu tuyên bố của Anthropic về việc các phòng thí nghiệm AI Trung Quốc đánh cắp dữ liệu của họ
Jason Nelson
Thứ Ba, ngày 24 tháng 2 năm 2026 lúc 7:40 sáng GMT+9 3 phút đọc
Trong bài viết này:
ANTH.PVT
Anthropic đã cáo buộc ba phòng thí nghiệm AI Trung Quốc trích xuất hàng triệu phản hồi từ chatbot Claude của họ để đào tạo các hệ thống cạnh tranh, một hành động mà công ty cho rằng vi phạm điều khoản dịch vụ và làm yếu kiểm soát xuất khẩu của Mỹ.
Trong một bài đăng trên blog đăng ngày thứ Hai, Anthropic cho biết họ đã xác định được “chiến dịch quy mô công nghiệp” của các nhà phát triển AI DeepSeek, Moonshot và MiniMax nhằm trích xuất khả năng của Claude thông qua phương pháp chưng cất mô hình. Công ty cáo buộc các phòng thí nghiệm này đã tạo ra hơn 16 triệu cuộc trao đổi bằng khoảng 24.000 tài khoản giả mạo.
Thông báo của Anthropic đã gây ra sự hoài nghi và chế giễu trên X, nơi các nhà phê bình đặt câu hỏi về quan điểm của họ khi xem xét cách các mô hình AI lớn, bao gồm Claude, được đào tạo, phản ánh cuộc tranh luận rộng hơn về sở hữu trí tuệ, bản quyền và sử dụng hợp lý.
“Bạn đào tạo trên internet mở rồi gọi đó là ‘tấn công chưng cất’ khi người khác học hỏi từ bạn,” Tory Green, đồng sáng lập công ty hạ tầng AI IO.Net, viết. “Các phòng thí nghiệm thích giảng dạy ‘nghiên cứu mở’ đột nhiên khóc về việc truy cập mở.”
“Ohhh không, IP riêng tư của tôi, làm sao dám ai đó dùng nó để đào tạo mô hình AI, chỉ có Anthropic mới có quyền sử dụng IP của người khác, không thể chấp nhận được!” một người dùng X khác viết.
Chưng cất là phương pháp đào tạo AI trong đó một mô hình nhỏ hơn học từ các đầu ra của một mô hình lớn hơn.
Trong bối cảnh an ninh mạng, nó cũng có thể mô tả các cuộc tấn công trích xuất mô hình, nơi kẻ tấn công sử dụng quyền truy cập hợp pháp để hệ thống một cách có hệ thống và sử dụng phản hồi của nó để đào tạo một mô hình cạnh tranh.
“Các chiến dịch này ngày càng tăng về cường độ và mức độ tinh vi,” Anthropic viết ngày thứ Hai. “Thời gian để hành động là rất hạn chế, và mối đe dọa vượt ra ngoài bất kỳ công ty hay khu vực nào. Việc đối phó sẽ đòi hỏi hành động nhanh chóng, phối hợp giữa các bên trong ngành, các nhà hoạch định chính sách và cộng đồng AI toàn cầu.”
“Chưng cất có thể hợp pháp: các phòng thí nghiệm AI sử dụng nó để tạo ra các mô hình nhỏ hơn, rẻ hơn cho khách hàng của họ,” Anthropic viết trong một bài đăng khác trên X. “Nhưng các phòng thí nghiệm nước ngoài trộm cắp mô hình của Mỹ có thể loại bỏ các biện pháp bảo vệ, đưa khả năng của mô hình vào hệ thống quân sự, tình báo và giám sát của họ.”
Vào tháng 6, Reddit đã kiện Anthropic, cáo buộc công ty này đã trích xuất hơn 100.000 bài đăng và bình luận và sử dụng dữ liệu đó để tinh chỉnh Claude.
Reddit kiện Anthropic về việc trích xuất dữ liệu trái phép
Vụ kiện này gia nhập các vụ kiện chống lại OpenAI, Meta và Google về việc trích xuất quy mô lớn nội dung trực tuyến mà không có sự cho phép.
“[Có] mặt công khai cố gắng làm thân thiện với người tiêu dùng bằng các tuyên bố về chính nghĩa và tôn trọng giới hạn và luật pháp, và mặt riêng tư bỏ qua bất kỳ quy tắc nào cản trở nỗ lực làm giàu của họ,” vụ kiện của Reddit nói.
Anthropic cho biết họ đang mở rộng khả năng phát hiện, thắt chặt xác minh tài khoản, chia sẻ thông tin tình báo với các phòng thí nghiệm và cơ quan chức năng khác, và thêm các biện pháp bảo vệ để hạn chế các nỗ lực chưng cất trong tương lai.
“Nhưng không công ty nào có thể giải quyết vấn đề này một mình,” Anthropic viết. “Như chúng tôi đã đề cập ở trên, các cuộc tấn công chưng cất quy mô lớn đòi hỏi phản ứng phối hợp trong ngành AI, các nhà cung cấp đám mây và các nhà hoạch định chính sách.”
Điều khoản và Chính sách quyền riêng tư
Bảng điều khiển quyền riêng tư
Thêm thông tin