Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
CFD
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Pre-IPOs
Mở khóa quyền truy cập đầy đủ vào các IPO cổ phiếu toàn cầu
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Khuyến mãi
AI
Gate AI
Trợ lý AI đa năng đồng hành cùng bạn
Gate AI Bot
Sử dụng Gate AI trực tiếp trong ứng dụng xã hội của bạn
GateClaw
Gate Tôm hùm xanh, mở hộp là dùng ngay
Gate for AI Agent
Hạ tầng AI, Gate MCP, Skills và CLI
Gate Skills Hub
Hơn 10.000 kỹ năng
Từ văn phòng đến giao dịch, thư viện kỹ năng một cửa giúp AI tiện lợi hơn
GateRouter
Lựa chọn thông minh từ hơn 40 mô hình AI, với 0% phí bổ sung
Nhóm của He Kaiming ELF: Mô hình khuếch tán ngôn ngữ cuối cùng đã chạy thành công
Theo giám sát Beating, nhóm của Hạ Khải Minh tại MIT đã phát hành mô hình khuếch tán ngôn ngữ ELF (Embedded Language Flows). Nó không theo đuổi con đường dự đoán token tiếp theo theo kiểu GPT nữa, mà thay vào đó đưa việc sinh văn bản vào không gian embedding liên tục, chỉ chuyển đổi trở lại thành token rời rạc ở bước cuối cùng.
Mô hình khuếch tán đã trở nên thành thạo trong sinh hình ảnh, nhưng áp dụng vào văn bản vẫn còn khá gượng gạo: hình ảnh vốn là tín hiệu liên tục tự nhiên, còn ngôn ngữ thì gồm các token rời rạc. Trước đây, nhiều mô hình khuếch tán liên tục cho văn bản, hoặc là liên tục đưa token vào trong quá trình sinh, hoặc là cần một bộ giải mã độc lập bổ sung. Cách làm của ELF sạch hơn: phần lớn các bước chỉ xử lý trong không gian vector liên tục, và bước cuối cùng dùng mạng chia sẻ trọng số để hoàn tất quá trình rời rạc hóa.
Kết quả thử nghiệm cũng gây ấn tượng mạnh. Trong đánh giá sinh ngẫu nhiên OpenWebText, ELF-B với 105 triệu tham số đạt khoảng 24.1 điểm Gen. PPL sau 32 bước lấy mẫu, vượt qua nhiều mô hình dựa trên khuếch tán ngôn ngữ rời rạc và liên tục. Quan trọng hơn, ELF-B chỉ sử dụng khoảng 45 tỷ token huấn luyện, trong khi các phương pháp đối chiếu thường vượt quá 500 tỷ, ít hơn khoảng một cấp độ về số lượng token huấn luyện. Kết quả này ít nhất cho thấy, con đường khuếch tán liên tục trong mô hình ngôn ngữ không bị “tắc nghẽn” bởi tính rời rạc của ngôn ngữ, các vấn đề trước đó có thể xuất phát từ giao diện mô hình và thiết kế quá trình lấy mẫu.