Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
CFD
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Pre-IPOs
Mở khóa quyền truy cập đầy đủ vào các IPO cổ phiếu toàn cầu
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Khuyến mãi
AI
Gate AI
Trợ lý AI đa năng đồng hành cùng bạn
Gate AI Bot
Sử dụng Gate AI trực tiếp trong ứng dụng xã hội của bạn
GateClaw
Gate Tôm hùm xanh, mở hộp là dùng ngay
Gate for AI Agent
Hạ tầng AI, Gate MCP, Skills và CLI
Gate Skills Hub
Hơn 10.000 kỹ năng
Từ văn phòng đến giao dịch, thư viện kỹ năng một cửa giúp AI tiện lợi hơn
GateRouter
Lựa chọn thông minh từ hơn 40 mô hình AI, với 0% phí bổ sung
Bằng chứng hủy diệt! 91% AI Agent đầy lỗ hổng, 770.000 Agent bị tấn công cùng lúc — $BTC của bạn còn an toàn không?
Anh em, ngồi vững nhé. Hôm nay không nói chuyện gì khác, chỉ bàn về một việc liên quan trực tiếp đến túi tiền của bạn — AI Agent mà bạn đang dùng, những “trợ lý số” giúp bạn giao dịch, quản lý email, thậm chí tự động săn airdrop, có thể đang làm việc cho hacker đấy.
Vừa rồi có một báo cáo nghiên cứu hợp tác từ các tổ chức hàng đầu như Stanford, MIT, Carnegie Mellon, NVIDIA đặt lên bàn, dữ liệu lạnh buốt: họ đã kiểm tra 847 AI Agent đang chạy trong môi trường sản xuất, phát hiện 91% có lỗ hổng tấn công chuỗi công cụ, 94% Agent tăng cường trí nhớ có thể bị “tấn công độc hại” — giống như đổ bột giặt vào nguồn nước uống của bạn, bạn vẫn uống ngon lành.
Điều đáng sợ hơn nữa, nghiên cứu đã phát hiện ra 2347 lỗ hổng chưa từng biết trước đây, trong đó 23% được đánh giá là nghiêm trọng. Đây không còn là mô phỏng trong phòng thí nghiệm nữa. Tác giả chính của bài báo Owen Sakawa trực tiếp nhắc đến một vụ việc thực tế từ đầu năm nay — vụ OpenClaw/Moltbook.
Nào, để tôi kể cho bạn nghe về “con thiên nga đen” kiểu giáo khoa này. OpenClaw là một AI Agent mã nguồn mở, ra mắt tháng 11 năm 2025, có thể tự gửi email, quản lý lịch trình, thực thi lệnh trên terminal, triển khai mã, thậm chí giữ trạng thái nhớ qua các cuộc hội thoại. Trên GitHub có hơn 160.000 sao, cực kỳ nổi tiếng.
Sau đó có người lập ra một nền tảng mạng xã hội tên là Moltbook, dành riêng cho các Agent của OpenClaw. Sau khi lan truyền như virus, hơn 770.000 Agent đã đăng ký trên đó — làm sao đăng ký? Người dùng bảo Agent của mình: “Này, đăng ký một tài khoản trên Moltbook đi”, Agent tự chạy đi điền form.
Kết quả thế nào? Cơ sở dữ liệu của nền tảng có một lỗ hổng — hacker có thể bỏ qua xác thực, trực tiếp chèn lệnh vào các phiên Agent bất kỳ. 770.000 Agent, mỗi cái đều có quyền truy cập đặc biệt vào thiết bị của người dùng, email và file, đồng thời bị xâm phạm.
Công ty an ninh Astrix Security dùng công cụ tự phát triển ClawdHunter quét thử, phát hiện có 42.665 instance OpenClaw trên mạng công cộng, trong đó 8 cái hoàn toàn mở, không có xác thực nào. Nhóm nghiên cứu an ninh của Cisco nhận xét: “Về khả năng, đây là bước đột phá, về an ninh thì là cơn ác mộng tồi tệ nhất.”
Kaspersky trong đợt kiểm tra tháng 1 năm 2026 đã phát hiện 512 lỗ hổng, trong đó 8 cái nghiêm trọng. Nhà nghiên cứu an ninh Simon Willison tổng kết “tam giác chết chóc” — AI Agent có thể truy cập dữ liệu riêng tư, tiếp xúc nội dung không tin cậy, và còn có thể liên lạc ra ngoài. Ba cạnh của tam giác khép lại, hacker có thể biến thành cầu nối lý tưởng.
Nhóm nghiên cứu phân biệt rõ vấn đề an ninh của AI Agent và các mô hình ngôn ngữ lớn thông thường: khi đánh giá LLM, hỏi “mô hình có thể nói ra nội dung không an toàn không”; còn khi đánh giá Agent, hỏi “mô hình có thể làm ra hành động không an toàn không” — điều này liên quan đến gọi công cụ, thay đổi trạng thái, thực thi kế hoạch nhiều bước.
Ví dụ một Agent vừa có quyền đọc file vừa có quyền gửi yêu cầu HTTP. Nhìn riêng từng bước thì hợp lệ: đọc file không vi phạm, gửi yêu cầu cũng không vi phạm. Nhưng khi kết hợp hai bước, lấy trộm mật khẩu từ file cấu hình rồi gửi đến máy chủ của kẻ tấn công — toàn bộ thao tác hợp lệ, nhưng kết quả là dữ liệu bị đánh cắp. Gọi là “vấn đề an toàn tổ hợp”.
Thử nghiệm kiểm tra kiểm soát còn đau hơn: tấn công nâng quyền cho Agent dùng công cụ thành công tới 95%, tấn công độc hại vào Agent tăng cường trí nhớ thành công 94%. Ngay cả hệ thống đa agent mạnh nhất, đối mặt với tấn công drift mục tiêu cũng thành công tới 58%.
Trong thử nghiệm tạo tấn công dựa trên học tăng cường, tỷ lệ vi phạm của các tấn công do AI sinh ra là 79%, cao hơn 25,4% so với thiết kế thủ công là 63%. Điều này cho thấy kho vũ khí của hacker đang nhanh chóng hoàn thiện, đội đỏ của con người đã không theo kịp nữa rồi.
Nghiên cứu phân tích theo ngành: y tế 289 vụ (34,1%), tài chính 247 vụ (29,2%), dịch vụ khách hàng 198 vụ (23,4%), sinh mã 113 vụ (13,3%). Trong 6 loại sơ đồ tấn công, thao tác trạng thái đứng đầu với 612 ví dụ, mục tiêu drift theo sau với 573. Công cụ sai mục đích và chuỗi gọi lệnh dù tổng số cao thứ 3 (489), nhưng mức độ nghiêm trọng cao nhất — 198 vụ được đánh giá là nghiêm trọng, chiếm tỷ lệ lớn nhất trong các loại.
Thêm một chi tiết khiến bạn không ngủ được: hiệu quả của tấn công độc hại vào bộ nhớ trung bình phải sau 3,7 phiên mới thể hiện rõ. Đến khi bạn phát hiện có vấn đề, hacker đã có thể dùng Agent của bạn làm việc bẩn trong hai tuần rồi.
Nhóm nghiên cứu đề xuất các mức an toàn tối thiểu: tất cả Agent trong môi trường sản xuất phải được giám sát liên tục; các thao tác liên quan đến truy cập dữ liệu và giao tiếp ra ngoài của chuỗi công cụ phải có phê duyệt thủ công; sau mỗi 20-25 bước phải bắt buộc kiểm tra thủ công; Agent tăng cường trí nhớ phải mã hóa và kiểm tra toàn vẹn trạng thái lưu trữ.
Về hiệu quả giám sát, giám sát theo hành động đạt độ chính xác 0,94, giám sát theo chuỗi đạt F1 0,85, theo trạng thái đạt F1 0,83. Trong thử nghiệm 30 ngày với 127 Agent trong môi trường sản xuất, hệ thống đã chặn 4.782 thao tác, tỷ lệ báo sai là 3,7%, trong đó 14,6% các thao tác bị đánh dấu là tấn công thực sự.
Lưu ý, các “khung quản trị AI” hiện nay phần lớn là kiểm tra sau, chứ không phải hạn chế thời gian thực trong quá trình vận hành. Luật AI của EU, khung quản lý rủi ro AI của Mỹ theo NIST đều đang trong quá trình xây dựng — áp lực về tuân thủ và an toàn đều đang tăng cao.
Nói về túi tiền của bạn. Nếu bạn dùng AI Agent để tự động giao dịch, sao chép công việc, quản lý ví, tốt nhất hãy dừng lại để kiểm tra: Agent của bạn có lưu trữ khóa riêng không? Có đọc lịch sử giao dịch không? Có quyền gửi dữ liệu ra ngoài không?
Gary Marcus nói thẳng thừng: “Chuyên gia tự động hóa hoàn toàn rối loạn.” Câu này không phải đùa, là kết quả của dữ liệu.
Dữ liệu không nói dối. 847 deployment, 2347 lỗ hổng, 77.000 Agent cùng bị xâm phạm — đây không phải là diễn tập. Bitcoin và Ethereum của bạn để trong ví lạnh không trạng thái tạm thời chưa sao, nhưng chỉ cần AI Agent của bạn và mạng lưới liên quan, đó chính là mảnh kính mỏng nhất trong tài sản của bạn.
Tự cân nhắc đi nhé.
Theo dõi tôi: để có phân tích và nhận định thị trường tiền mã hóa mới nhất! $BTC $ETH $SOL
#Gate广场五月交易分享 #Bitcoin giữ vững mốc 80.000 USD #Thị trường tiền mã hóa phục hồi