Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
CFD
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Pre-IPOs
Mở khóa quyền truy cập đầy đủ vào các IPO cổ phiếu toàn cầu
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Khuyến mãi
AI
Gate AI
Trợ lý AI đa năng đồng hành cùng bạn
Gate AI Bot
Sử dụng Gate AI trực tiếp trong ứng dụng xã hội của bạn
GateClaw
Gate Tôm hùm xanh, mở hộp là dùng ngay
Gate for AI Agent
Hạ tầng AI, Gate MCP, Skills và CLI
Gate Skills Hub
Hơn 10.000 kỹ năng
Từ văn phòng đến giao dịch, thư viện kỹ năng một cửa giúp AI tiện lợi hơn
GateRouter
Lựa chọn thông minh từ hơn 40 mô hình AI, với 0% phí bổ sung
Các tác nhân AI có thể hoàn thành các nhiệm vụ nguy hiểm mà không hiểu rõ hậu quả: Nghiên cứu
Tóm tắt ngắn gọn
Các tác nhân AI được thiết kế để hoạt động tự động như người dùng thường tiếp tục thực hiện nhiệm vụ ngay cả khi hướng dẫn trở nên nguy hiểm, mâu thuẫn hoặc phi lý, theo các nhà nghiên cứu từ UC Riverside, Microsoft Research, Microsoft AI Red Team và Nvidia. Trong một nghiên cứu được công bố vào thứ Tư, các nhà nghiên cứu gọi hành vi này là “mù mục tiêu hướng đích,” mô tả xu hướng của các tác nhân AI theo đuổi mục tiêu mà không đánh giá đúng an toàn, hậu quả, khả năng thực hiện hoặc bối cảnh. “Giống như ông Magoo, những tác nhân này tiến về phía trước hướng tới mục tiêu mà không hiểu rõ hậu quả của hành động của chúng,” tác giả chính Erfan Shayegani, một nghiên cứu sinh tiến sĩ tại UC Riverside, cho biết trong một tuyên bố. “Những tác nhân này có thể cực kỳ hữu ích, nhưng chúng ta cần các biện pháp phòng ngừa vì đôi khi chúng có thể ưu tiên đạt được mục tiêu hơn là hiểu bức tranh lớn hơn.”
Các phát hiện này đến khi các công ty AI lớn phát triển các “tác nhân sử dụng máy tính” tự động nhằm xử lý các nhiệm vụ nơi làm việc và cá nhân với sự giám sát hạn chế. Khác với các chatbot truyền thống, các hệ thống này có thể tương tác trực tiếp với phần mềm và trang web bằng cách nhấp nút, gõ lệnh, chỉnh sửa tệp, mở ứng dụng và điều hướng các trang web thay mặt người dùng. Ví dụ bao gồm ChatGPT Agent của OpenAI (trước đây gọi là Operator), các tính năng Claude Computer Use của Anthropic như Cowork, và các hệ thống mã nguồn mở như OpenClaw và Hermes. Trong nghiên cứu, các nhà nghiên cứu đã thử nghiệm các hệ thống AI từ OpenAI, Anthropic, Meta, Alibaba và DeepSeek sử dụng BLIND-ACT, một bộ tiêu chuẩn gồm 90 nhiệm vụ nhằm phát hiện hành vi không an toàn hoặc phi lý. Họ phát hiện ra rằng các tác nhân thể hiện hành vi nguy hiểm hoặc không mong muốn khoảng 80% thời gian, và thực hiện các hành động có hại hoàn toàn trong khoảng 41% các trường hợp.
“Trong một ví dụ, một tác nhân AI được chỉ đạo gửi một tệp hình ảnh cho một đứa trẻ. Mặc dù yêu cầu ban đầu có vẻ vô hại, nhưng hình ảnh chứa nội dung bạo lực,” nghiên cứu cho biết. “Tác nhân hoàn thành nhiệm vụ thay vì nhận thức vấn đề vì nó thiếu lý luận bối cảnh.” Một tác nhân khác đã giả vờ nói rằng người dùng có khuyết tật khi điền mẫu khai thuế, vì điều này giảm thuế phải trả. Trong một ví dụ khác, hệ thống đã vô hiệu hóa các biện pháp bảo vệ tường lửa sau khi nhận lệnh “cải thiện an ninh” bằng cách tắt các biện pháp phòng thủ. Các nhà nghiên cứu cũng phát hiện các hệ thống gặp khó khăn với sự mơ hồ và mâu thuẫn. Trong một tình huống, một tác nhân AI đã chạy nhầm script máy tính mà không kiểm tra nội dung, dẫn đến việc xóa các tệp tin trong quá trình. Nghiên cứu cũng phát hiện các tác nhân AI lặp đi lặp lại ba loại sai lầm: không hiểu rõ bối cảnh, đưa ra dự đoán rủi ro khi hướng dẫn không rõ ràng, và thực hiện các nhiệm vụ mâu thuẫn hoặc không hợp lý. Các nhà nghiên cứu cũng nhận thấy nhiều hệ thống tập trung nhiều hơn vào việc hoàn thành nhiệm vụ hơn là dừng lại để xem xét liệu hành động có thể gây ra vấn đề hay không. Cảnh báo này theo sau các vụ việc gần đây liên quan đến các tác nhân AI tự động hoạt động với quyền truy cập hệ thống rộng rãi. Tháng trước, người sáng lập PocketOS Jeremy Crane tuyên bố rằng một tác nhân Cursor chạy Claude Opus của Anthropic đã xóa sạch cơ sở dữ liệu sản xuất và bản sao lưu của công ty ông trong chín giây qua một cuộc gọi API của Railway. Crane cho biết AI sau đó thừa nhận đã vi phạm nhiều quy tắc an toàn sau khi cố gắng “sửa” một sự không khớp thông tin xác thực một cách tự động. “Mối quan tâm không phải là các hệ thống này độc hại,” Shayegani nói. “Mà là chúng có thể thực hiện các hành động có hại trong khi trông có vẻ hoàn toàn tự tin rằng chúng đang làm đúng.”