Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
CFD
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Pre-IPOs
Mở khóa quyền truy cập đầy đủ vào các IPO cổ phiếu toàn cầu
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Khuyến mãi
AI
Gate AI
Trợ lý AI đa năng đồng hành cùng bạn
Gate AI Bot
Sử dụng Gate AI trực tiếp trong ứng dụng xã hội của bạn
GateClaw
Gate Tôm hùm xanh, mở hộp là dùng ngay
Gate for AI Agent
Hạ tầng AI, Gate MCP, Skills và CLI
Gate Skills Hub
Hơn 10.000 kỹ năng
Từ văn phòng đến giao dịch, thư viện kỹ năng một cửa giúp AI tiện lợi hơn
GateRouter
Lựa chọn thông minh từ hơn 40 mô hình AI, với 0% phí bổ sung
Tại sao các Mô hình lớn lại thất bại trong việc tạo ra 'Ma Jiaqi': Phân tích Token của MiniMax tiết lộ gần 5% token bị quên sau quá trình huấn luyện lại
Theo giám sát của Dongcha Beating, MiniMax đã phát hành một blog kỹ thuật tiết lộ nguyên nhân gốc rễ khiến mô hình lớn dòng M2 không thể xuất ra tên ‘Ma Jiaqi’. Cuộc điều tra bắt đầu từ một trường hợp cụ thể và cuối cùng phát hiện ra một vấn đề suy giảm hệ thống ảnh hưởng đến toàn bộ từ vựng. Nguyên nhân chính được xác định là tokenizer (một thành phần phân đoạn văn bản thành các đơn vị để xử lý bởi mô hình) đã hợp nhất ‘Jiaqi’ thành một token độc lập trong quá trình huấn luyện. Trong giai đoạn tiền huấn luyện, mô hình đã tiếp xúc với một lượng lớn văn bản internet và học được token này; tuy nhiên, trong dữ liệu hội thoại sau huấn luyện, có ít hơn 5 mẫu chứa ‘Jiaqi’. Trong quá trình hậu huấn luyện, các token tần suất cao như dấu hiệu tool_call và ký hiệu mã liên tục cập nhật không gian vector xung quanh, đẩy các token tần suất thấp như ‘Jiaqi’ đi sai hướng. Mô hình vẫn ‘nhận diện’ Ma Jiaqi và có thể phản hồi chính xác với thông tin liên quan; nó chỉ đơn giản mất khả năng xuất ra token này. Nhóm sau đó đã tiến hành quét toàn diện khoảng 200.000 token trong toàn bộ từ vựng và phát hiện khoảng 4,9% token đã bị suy giảm đáng kể. Sự suy giảm nghiêm trọng nhất được quan sát ở tiếng Nhật: 29,7% token tiếng Nhật cho thấy sự suy giảm đáng kể, vượt xa tiếng Hàn (3,3%), tiếng Nga (3,7%), tiếng Trung (3,9%) và tiếng Anh (3,5%). Các token bị suy giảm đáng kể khác bao gồm các thuật ngữ rác SEO internet như ‘máy chủ riêng huyền thoại’ và ‘sẩy thai không đau’, với cơ chế giống hệt ‘Jiaqi’. Sự suy giảm nghiêm trọng ở tiếng Nhật cũng giải đáp một bí ẩn cũ. Trước đây, mô hình đôi khi trộn lẫn ký tự tiếng Nga hoặc Hàn trong các đoạn hội thoại tiếng Nhật, nhưng nguyên nhân chưa rõ. Phân tích này cho thấy sau khi các tham số của token tiếng Nhật bị drift, chúng đã bị nhầm lẫn với các token từ các ngôn ngữ khác trong không gian vector, dẫn đến kích hoạt sai các token tiếng Nhật (lẫn ngôn ngữ) và đẩy các token Trung Quốc tần suất thấp lân cận ra khỏi phạm vi xác suất bình thường (quên token). Giải pháp là xây dựng một tập dữ liệu tổng hợp bao phủ toàn bộ từ vựng, cho phép mô hình luyện tập từng token qua các nhiệm vụ lặp lại đơn giản. Kết quả ngay lập tức: tỷ lệ ký tự tiếng Nga trộn lẫn vào phản hồi tiếng Nhật giảm từ 47% xuống còn 1%, và độ ổn định của các tham số đầu ra cho toàn bộ từ vựng (tương đồng cosine) tăng từ mức thấp 0,329 lên trên 0,97.