Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Pre-IPOs
Mở khóa quyền truy cập đầy đủ vào các IPO cổ phiếu toàn cầu
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Khuyến mãi
AI
Gate AI
Trợ lý AI đa năng đồng hành cùng bạn
Gate AI Bot
Sử dụng Gate AI trực tiếp trong ứng dụng xã hội của bạn
GateClaw
Gate Tôm hùm xanh, mở hộp là dùng ngay
Gate for AI Agent
Hạ tầng AI, Gate MCP, Skills và CLI
Gate Skills Hub
Hơn 10.000 kỹ năng
Từ văn phòng đến giao dịch, thư viện kỹ năng một cửa giúp AI tiện lợi hơn
GateRouter
Lựa chọn thông minh từ hơn 30 mô hình AI, với 0% phí bổ sung
Thuế Trung Quốc của Claude: hỏi cùng nội dung tiêu tốn nhiều token hơn 65% so với tiếng Anh, trong khi OpenAI chỉ nhiều hơn 15%
Theo giám sát Beating, nhà nghiên cứu AI Aran Komatsuzaki đã dịch bài báo nổi tiếng của Rich Sutton 「Bài học đắng lòng」 (The Bitter Lesson) sang 9 ngôn ngữ, rồi đưa vào các công cụ phân tách từ (tokenizer) của 6 mô hình OpenAI, Gemini, Qwen, DeepSeek, Kimi, Claude 6, để đo lượng token tiêu thụ dựa trên văn bản tiếng Anh gốc làm chuẩn, xem các ngôn ngữ tiêu thụ gấp bao nhiêu lần trên từng mô hình. Kết quả: cùng một nội dung hỏi Claude bằng tiếng Trung, lượng token tiêu thụ là 1,65 lần chuẩn; dùng OpenAI chỉ 1,15 lần. Tiếng Hindi trên Claude còn tệ hơn, vượt quá 3 lần chuẩn. Trong 6 mô hình so sánh, Anthropic xếp cuối cùng.
Việc dịch sẽ làm thay đổi độ dài của văn bản, nên tỷ lệ so sánh với tiếng Anh không hoàn toàn chính xác. Nhưng đáng tin cậy hơn là thể hiện của cùng một đoạn tiếng Trung trên các mô hình khác nhau (vẫn dựa trên cùng một chuẩn): Kimi chỉ tiêu thụ 0,81 lần (ít hơn cả tiếng Anh), Qwen 0,85 lần, còn Claude lên tới 1,65 lần. Nội dung hoàn toàn giống nhau, sự khác biệt chỉ do hiệu quả của công cụ phân tách từ. Các mô hình Trung Quốc xử lý tiếng Trung còn tiết kiệm hơn tiếng Anh, cho thấy vấn đề không nằm ở chính tiếng Trung, mà ở việc công cụ phân tách từ có tối ưu cho ngôn ngữ đó hay không.
Đối với người dùng, token nhiều hơn sẽ làm API tốn kém hơn trực tiếp, thời gian chờ đợi trả lời của mô hình lâu hơn, và cửa sổ ngữ cảnh cũng nhanh hết hơn. Hiệu quả của công cụ phân tách từ phụ thuộc vào tỷ lệ các ngôn ngữ trong dữ liệu huấn luyện: dữ liệu tiếng Anh nhiều, từ tiếng Anh được nén hiệu quả hơn; dữ liệu không phải tiếng Anh ít, chỉ có thể cắt nhỏ hơn nhiều. Kết luận của Aran: ai có thị trường lớn hơn, người đó tiêu thụ token ít hơn.