Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
CFD
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Pre-IPOs
Mở khóa quyền truy cập đầy đủ vào các IPO cổ phiếu toàn cầu
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Khuyến mãi
AI
Gate AI
Trợ lý AI đa năng đồng hành cùng bạn
Gate AI Bot
Sử dụng Gate AI trực tiếp trong ứng dụng xã hội của bạn
GateClaw
Gate Tôm hùm xanh, mở hộp là dùng ngay
Gate for AI Agent
Hạ tầng AI, Gate MCP, Skills và CLI
Gate Skills Hub
Hơn 10.000 kỹ năng
Từ văn phòng đến giao dịch, thư viện kỹ năng một cửa giúp AI tiện lợi hơn
GateRouter
Lựa chọn thông minh từ hơn 40 mô hình AI, với 0% phí bổ sung
GPT-5.5 '9.7T Tham số' Được đánh giá lại: Đã chỉnh sửa thành Khoảng 1.5T
Theo giám sát của Beating, các nhà nghiên cứu AI Lawrence Chan và Benno Sturgeon đã công bố một bài đánh giá về bài báo của Nhà khoa học chính của Pine AI, Li Bojie, có tiêu đề ‘Khảo sát kiến thức không nén: Ước lượng số lượng tham số của các mô hình ngôn ngữ lớn dạng hộp đen dựa trên khả năng thực tế.’ Bài báo gốc ước tính GPT-5.5 khoảng 9.7T, Claude Opus 4.7 khoảng 4.0T, và o1 khoảng 3.5T bằng cách sử dụng 1.400 câu hỏi đố vui để ‘đo lường’ các mô hình mã nguồn đóng. Các người đánh giá tin rằng trong khi phương pháp này có giá trị, các số liệu ban đầu đã bị thổi phồng đáng kể do tiêu chí chấm điểm và chất lượng câu hỏi. Vấn đề chính nằm ở ‘điểm sàn.’ Bài báo gốc chia các câu hỏi thành bảy cấp độ độ khó, và khi một mô hình trả lời quá nhiều câu sai ở một mức độ nhất định, điểm số có thể trở thành âm; tuy nhiên, mã thực tế đã kéo điểm tối thiểu cho mỗi cấp độ về 0. Điều này đã làm phóng đại khoảng cách hiệu suất của các mô hình tiên tiến trên các câu hỏi khó và làm tăng thêm số lượng tham số suy ra. Bài báo khẳng định điều này không được xử lý theo cách đó, nhưng mã và kết quả công bố đã sử dụng cách xử lý này. Sau khi loại bỏ ‘điểm sàn,’ độ dốc phù hợp giảm từ 6.79 xuống còn 3.56. Độ dốc này có thể hiểu là ‘mỗi điểm tăng trong điểm số, mức tăng tham số sẽ được chuyển đổi như thế nào’; một độ dốc nhỏ hơn cho thấy rằng sự khác biệt điểm số cùng mức không còn tương ứng với sự khác biệt tham số quá mức nữa. Giá trị R² giảm từ 0.917 xuống còn 0.815, cho thấy đường cong phù hợp ‘điểm số với số lượng tham số’ không còn ổn định như trong bài báo gốc. Khoảng dự đoán 90% mở rộng từ 3.0 lần lên 5.7 lần, cho thấy biên độ sai số rộng hơn và các con số điểm đơn lẻ không nên được coi là chính xác. Bài đánh giá cũng chỉ ra rằng 131 trong số 1.400 câu hỏi có sự mơ hồ hoặc câu trả lời sai, chiếm 9.4%. Các vấn đề chủ yếu tập trung ở các câu hỏi khó, được dùng để phân biệt các mô hình mã nguồn đóng tiên tiến như GPT-5.5 và Claude Opus 4.7. Theo tiêu chí đã chỉnh sửa của họ, GPT-5.5 đã giảm từ 9659B xuống còn 1458B, với khoảng dự đoán 90% từ 256B đến 8311B; Claude Opus 4.7 giảm từ 4042B xuống còn 1132B; và GPT-5 giảm từ 4088B xuống còn 1330B. Các người đánh giá cũng nhấn mạnh rằng 1.5T không nên coi là số lượng tham số thực sự của GPT-5.5. Một kết luận chính xác hơn là phương pháp ‘đo lường đố vui’ này rất nhạy cảm với chi tiết chấm điểm và chất lượng câu hỏi, và các con số như 9.7T không thể trực tiếp dùng làm thước đo trọng số cho các mô hình mã nguồn đóng.