Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
CFD
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Promosi
AI
Gate AI
Partner AI serbaguna untuk Anda
Gate AI Bot
Gunakan Gate AI langsung di aplikasi sosial Anda
GateClaw
Gate Blue Lobster, langsung pakai
Gate for AI Agent
Infrastruktur AI, Gate MCP, Skills, dan CLI
Gate Skills Hub
10RB+ Skills
Dari kantor hingga trading, satu platform keterampilan membuat AI jadi lebih mudah digunakan
GateRouter
Pilih secara cerdas dari 40+ model AI, dengan 0% biaya tambahan
Tim ELF dari He Kai Ming: Model Penyebaran Bahasa Akhirnya Berfungsi
Menurut pemantauan Beating, tim MIT Hao Kai Ming merilis model penyebaran bahasa ELF (Embedded Language Flows).
Ini tidak mengikuti jalur prediksi token berikutnya ala GPT yang autoregresif, melainkan menempatkan pembuatan teks ke dalam ruang embedding kontinu, dan baru di langkah terakhir dikonversi kembali ke token diskrit.
Model penyebaran sudah matang dalam pembuatan gambar, tetapi untuk teks selalu terasa aneh: gambar secara alami adalah sinyal kontinu, sedangkan bahasa terdiri dari token diskrit. Sebelumnya, banyak model teks penyebaran kontinu harus secara berulang memperkenalkan supervisi tingkat token dalam jalur generasi, atau membutuhkan dekoder terpisah tambahan. Pendekatan ELF lebih bersih: sebagian besar langkah hanya melakukan denoising di ruang vektor kontinu, dan langkah terakhir menggunakan jaringan berbobot berbagi untuk menyelesaikan diskritisasi.
Hasil eksperimen juga sangat mengesankan. Dalam evaluasi generasi tanpa syarat OpenWebText, ELF-B dengan 105 juta parameter mencapai sekitar 24,1 Gen. PPL dengan 32 langkah sampling, mengungguli berbagai baseline model bahasa penyebaran diskrit dan kontinu. Lebih penting lagi, ELF-B hanya menggunakan sekitar 45B token pelatihan, sementara metode pembanding biasanya lebih dari 500B, sehingga pelatihan token berkurang sekitar satu tingkat magnitudo. Hasil ini setidaknya menunjukkan bahwa jalur penyebaran kontinu dalam pemodelan bahasa tidak terhalang oleh “diskretisasi bahasa”, dan masalah sebelumnya lebih mungkin terletak pada antarmuka pemodelan dan desain sampling.