Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
CFD
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Promosi
AI
Gate AI
Partner AI serbaguna untuk Anda
Gate AI Bot
Gunakan Gate AI langsung di aplikasi sosial Anda
GateClaw
Gate Blue Lobster, langsung pakai
Gate for AI Agent
Infrastruktur AI, Gate MCP, Skills, dan CLI
Gate Skills Hub
10RB+ Skills
Dari kantor hingga trading, satu platform keterampilan membuat AI jadi lebih mudah digunakan
GateRouter
Pilih secara cerdas dari 40+ model AI, dengan 0% biaya tambahan
Muon diam-diam "kelaparan" 25% neuron: Setelah Aurora diperbaiki, efisiensi data meningkat seratus kali lipat
Menurut pemantauan Beating Monitoring, Tilde Research menemukan bahwa optimizer Muon yang digunakan oleh model-model terkemuka seperti DeepSeek V4, Kimi K2.5, GLM-5 memiliki cacat tersembunyi: ia menyebabkan lebih dari seperempat neuron lapisan MLP mati permanen pada awal pelatihan. Tim ini merancang optimizer pengganti bernama Aurora dan merilisnya secara open source. Sebuah model 1,1B hanya dengan sekitar 100B token, mampu menyamai performa Qwen3-1.7B yang dilatih dengan 36T token pada benchmark pemahaman bahasa seperti HellaSwag dan Winogrande.
Masalahnya terletak pada sifat matematis Muon saat memproses matriks bobot MLP. Pada awal pelatihan, sebagian neuron secara kebetulan menerima sinyal gradien yang lemah. Optimizer tradisional seperti AdamW akan menormalkan setiap parameter secara bertahap, sehingga secara alami meratakan perbedaan ini; tetapi langkah ortogonalisasi Muon akan meneruskan sinyal lemah tersebut tanpa perubahan. Neuron yang lemah terus mendapatkan pembaruan yang lemah, menjadi semakin tidak aktif, membentuk siklus kematian “yang kuat semakin kuat”. Pada langkah ke-500 pelatihan, lebih dari seperempat neuron secara substansial mati, membuang kapasitas parameter yang sia-sia.
Versi perbaikan sebelumnya, NorMuon, mencoba mengatasi ini dengan memaksa meratakan amplitudo pembaruan setiap baris, tetapi dengan mengorbankan ortogonalitas matriks pembaruan (yang membuat setiap langkah pembaruan seefisien mungkin dan merupakan keunggulan utama Muon), sehingga mengurangi presisi optimisasi. Aurora menggabungkan “pembaruan merata” dan “ortogonalitas” sebagai kendala bersama, menggunakan iterasi bergantian untuk memenuhi keduanya secara bersamaan: memastikan setiap neuron mendapatkan kesempatan belajar yang adil tanpa mengorbankan presisi pembaruan.
Aurora yang tanpa tuning parameter hanya membutuhkan biaya komputasi 6% lebih banyak dari Muon, sehingga dapat langsung menggantikan. Dalam pengujian skor optimisasi modded-nanoGPT, Aurora mencapai rekor baru dalam 3175 langkah. Keunggulan Aurora juga akan semakin besar seiring dengan peningkatan lebar MLP; semakin tinggi faktor skalanya, semakin besar perbaikannya.
Kode dan model pra-pelatihan 1,1B sudah dirilis secara open source.