Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Pre-IPOs
Mở khóa quyền truy cập đầy đủ vào các IPO cổ phiếu toàn cầu
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Google DeepMind mở mã nguồn gia đình mô hình đa phương thức Gemma 4
Tin ME, ngày 3 tháng 4 (UTC+8), Google DeepMind gần đây đã mở mã nguồn gia đình mô hình đa phương thức Gemma 4.
Dòng mô hình này hỗ trợ đầu vào văn bản và hình ảnh (mô hình nhỏ còn hỗ trợ âm thanh), tạo ra đầu ra văn bản, bao gồm các biến thể tiền huấn luyện và tinh chỉnh theo hướng dẫn, cửa sổ ngữ cảnh tối đa lên đến 256K token, và hỗ trợ hơn 140 ngôn ngữ.
Mô hình sử dụng hai kiến trúc là mật độ (Dense) và chuyên gia hỗn hợp (MoE), gồm bốn kích thước là E2B, E4B, 26B A4B và 31B.
Các khả năng cốt lõi bao gồm suy luận hiệu suất cao, mở rộng xử lý đa phương thức, tối ưu hóa trên thiết bị, mở rộng cửa sổ ngữ cảnh, nâng cao khả năng mã hóa và trí tuệ nhân tạo, cũng như hỗ trợ hệ thống gợi ý gốc.
Về mặt kỹ thuật, mô hình sử dụng cơ chế chú ý hỗn hợp, các lớp toàn cục dùng các cặp khóa-giá trị thống nhất và RoPE tỷ lệ (p-RoPE).
Trong đó, mô hình E2B và E4B sử dụng công nghệ nhúng theo lớp (PLE), số tham số hiệu quả ít hơn tổng số tham số.
Trong khi đó, mô hình MoE 26B A4B chỉ kích hoạt 3.8B tham số trong quá trình suy luận, tốc độ chạy gần bằng mô hình 4B tham số.
(Nguồn: InFoQ)