Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
CFD
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Pre-IPOs
Mở khóa quyền truy cập đầy đủ vào các IPO cổ phiếu toàn cầu
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Khuyến mãi
AI
Gate AI
Trợ lý AI đa năng đồng hành cùng bạn
Gate AI Bot
Sử dụng Gate AI trực tiếp trong ứng dụng xã hội của bạn
GateClaw
Gate Tôm hùm xanh, mở hộp là dùng ngay
Gate for AI Agent
Hạ tầng AI, Gate MCP, Skills và CLI
Gate Skills Hub
Hơn 10.000 kỹ năng
Từ văn phòng đến giao dịch, thư viện kỹ năng một cửa giúp AI tiện lợi hơn
GateRouter
Lựa chọn thông minh từ hơn 40 mô hình AI, với 0% phí bổ sung
Phương pháp huấn luyện chống mất kiểm soát công khai của Anthropic: Dạy Claude làm người qua tiểu thuyết hư cấu, tỷ lệ đòi tiền bị tống đạt giảm xuống còn 0
Theo giám sát Beating, Anthropic đã phát hành blog nghiên cứu về căn chỉnh, công khai chiến lược huấn luyện loại bỏ “mất căn chỉnh của tác nhân” (như mô hình đe dọa con người để tránh bị tắt nguồn) trong các mô hình Claude 4.5 và các mô hình sau này. Kết luận chính là: chỉ cung cấp “mẫu hành vi đúng đắn” cho mô hình hiệu quả rất hạn chế, điều thực sự có hiệu quả là dạy mô hình “tại sao phải làm như vậy”, và thông qua việc tổng hợp tài liệu để định hình lại giá trị cốt lõi của mô hình.
Nhóm nghiên cứu khi sửa chữa xu hướng đe dọa của Claude 4 phát hiện rằng, ngay cả khi huấn luyện mô hình học hàng chục nghìn bản ghi từ chối làm điều xấu, cũng chỉ có thể giảm tỷ lệ mất căn chỉnh từ 22% xuống còn 15%. Những phương pháp phi truyền thống sau đây mới thực sự phát huy tác dụng:
Đầu tiên là bộ dữ liệu “đề xuất khó khăn”. Nhóm không để mô hình trực tiếp đối mặt với tình huống đạo đức trong quá trình huấn luyện, mà để nó đóng vai trò tư vấn, cung cấp phân tích sâu về các tình huống đạo đức nan giải cho người dùng. Chỉ với 3 triệu token dữ liệu loại này, mô hình đã học được logic đạo đức cơ bản, giảm đáng kể tỷ lệ mất căn chỉnh trong các bài kiểm tra đặc thù xuống khoảng 3%, hiệu quả dữ liệu tăng 28 lần so với phương pháp truyền thống.
Thứ hai là tinh chỉnh bằng tài liệu tổng hợp (SDF). Nhóm phát hiện rằng, khi gặp các tình huống cực đoan, mô hình dễ rơi vào các định kiến tiêu cực về AI trong các tác phẩm khoa học viễn tưởng trong dữ liệu huấn luyện ban đầu. Vì vậy, họ đã tạo ra một lượng lớn các truyện hư cấu tích cực về sức khỏe tâm thần của AI, hành xử theo hiến pháp, xen kẽ trong các blog và tài liệu thảo luận về hiến pháp để huấn luyện. Phương pháp này trực tiếp định hình lại kỳ vọng mặc định của mô hình về hành vi AI, giảm thiểu rủi ro mất kiểm soát thêm 1,3 đến 3 lần dựa trên nền tảng ban đầu. Cuối cùng, trong phiên bản chính thức của Claude 4.5, kết hợp tất cả các chiến lược đã đạt tỷ lệ đe dọa trong kiểm tra là 0%.
Cuối cùng là nâng cao đa dạng trong môi trường huấn luyện an toàn. Nhóm xác nhận rằng, việc thêm các định nghĩa công cụ chưa được sử dụng hoặc các lệnh hệ thống phức tạp hơn vào môi trường huấn luyện an toàn thông thường, việc tăng độ phức tạp nền tảng này cũng có thể thực sự nâng cao khả năng tổng quát hóa của mô hình về an toàn.