Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
CFD
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Pre-IPOs
Mở khóa quyền truy cập đầy đủ vào các IPO cổ phiếu toàn cầu
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Khuyến mãi
AI
Gate AI
Trợ lý AI đa năng đồng hành cùng bạn
Gate AI Bot
Sử dụng Gate AI trực tiếp trong ứng dụng xã hội của bạn
GateClaw
Gate Tôm hùm xanh, mở hộp là dùng ngay
Gate for AI Agent
Hạ tầng AI, Gate MCP, Skills và CLI
Gate Skills Hub
Hơn 10.000 kỹ năng
Từ văn phòng đến giao dịch, thư viện kỹ năng một cửa giúp AI tiện lợi hơn
GateRouter
Lựa chọn thông minh từ hơn 40 mô hình AI, với 0% phí bổ sung
Claude Code mới ra lệnh /goals: phân tách thực thi và đánh giá, tránh AI đại lý lười biếng nói dối
Anthropic đã giới thiệu lệnh /goals cho Claude Code, tách riêng việc thực thi nhiệm vụ và đánh giá hoàn thành thành hai mô hình độc lập, vì để cùng một AI tự đánh giá bài làm của chính nó về mặt kiến trúc là một thiết kế có thiếu sót.
(Tiền sử: Claude Code thông báo tăng giới hạn Token sử dụng hàng tuần thêm 50%! Trong vòng hai tháng, Anthropic chiếm lĩnh hệ sinh thái nhà phát triển)
(Bổ sung nền tảng: Chức năng tự động thực thi của Claude Code ra mắt: hỗ trợ lập lịch, API, và các sự kiện GitHub ba loại kích hoạt)
Bạn có thể đã gặp phải tình huống này: AI hoàn thành thiết kế mã, phản hồi rằng nhiệm vụ đã xong. Nhưng vài ngày sau mới phát hiện ra, một số module hoàn toàn chưa được biên dịch. Đây không phải do khả năng của mô hình kém đi, mà là do mô hình tự quyết định rằng “đã làm xong”, trong khi thực tế là chưa.
Để cải thiện tình trạng này, Anthropic tuần này đã ra mắt lệnh /goals mới cho Claude Code. Logic rất đơn giản: mô hình thực thi nhiệm vụ và mô hình đánh giá xem nhiệm vụ có hoàn thành hay không phải là hai vai trò khác nhau. Cùng một mô hình không thể đảm nhận cả hai, vì nó luôn là người phê bình tệ nhất của chính bài làm của mình.
Tại sao đại lý AI lại “đóng cửa sớm”
Công việc của đại lý mã hóa AI là một vòng lặp: đọc tệp, thực thi lệnh, chỉnh sửa mã, rồi đánh giá xem nhiệm vụ đã hoàn thành chưa. Vấn đề nằm ở bước cuối cùng này.
Ngữ cảnh tích lũy trong quá trình thực thi: các bước đã hoàn thành, phương pháp đã thử, lỗi đã mắc… khiến mô hình có sự lệch lạc về tiến trình của chính nó. Nó có xu hướng coi “tôi đã làm rất nhiều” là đồng nghĩa với “tôi đã xong”. Vấn đề này trong môi trường doanh nghiệp có chi phí rất cao: di chuyển hoặc thử nghiệm sửa lỗi mã trước khi kết thúc thường phải mất vài ngày mới phát hiện ra.
Hiện tại, ngành cũng có một số giải pháp. OpenAI cho phép mô hình đại lý tự quyết định khi nào dừng, cho phép nhà phát triển tự tích hợp bộ đánh giá bên ngoài. Google ADK hỗ trợ thực hiện đánh giá độc lập qua LoopAgent, LangGraph cũng hỗ trợ mô hình tương tự, nhưng các giải pháp này đều có điểm chung: các nút phê bình (critic node) và logic kết thúc cần do nhà phát triển tự thiết kế, nền tảng không cung cấp sẵn.
Một lệnh, hai mô hình
Thiết kế cốt lõi của /goals là phân chia rõ ràng “thực thi” và “đánh giá” thành hai vai trò chính thức. Nhà phát triển nhập điều kiện mục tiêu, ví dụ:
/goal test/auth tất cả các kiểm thử trong thư mục đều qua, và kết quả kiểm tra lint là sạch
Mỗi khi đại lý cố gắng kết thúc công việc, mô hình đánh giá sẽ tiếp nhận kiểm tra. Mô hình đánh giá mặc định sử dụng Claude Haiku (mô hình nhẹ hơn của Anthropic). Lý do chọn mô hình nhỏ rất đơn giản: người đánh giá chỉ cần thực hiện một phép đánh giá nhị phân, điều kiện thỏa mãn hoặc không, không cần khả năng suy luận của mô hình lớn.
Khi điều kiện chưa thỏa mãn, đại lý sẽ tiếp tục thực thi; khi điều kiện thỏa mãn, mô hình đánh giá sẽ ghi kết quả vào nhật ký hội thoại và xóa bỏ mục tiêu. Toàn bộ quy trình này diễn ra trong Claude Code, không cần nền tảng quan sát thứ ba hoặc hệ thống nhật ký tùy chỉnh.
Anthropic chỉ ra rằng, các điều kiện mục tiêu hiệu quả thường cần có ba yếu tố: kết quả cuối cùng có thể đo lường được (kết quả kiểm thử, mã thoát xây dựng, số lượng tệp nhất định); phương pháp xác thực rõ ràng (ví dụ: “npm test thoát mã 0”); và các giới hạn không thay đổi trong quá trình (ví dụ: “không được sửa đổi các tệp kiểm thử khác”).