Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
CFD
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Promosi
AI
Gate AI
Partner AI serbaguna untuk Anda
Gate AI Bot
Gunakan Gate AI langsung di aplikasi sosial Anda
GateClaw
Gate Blue Lobster, langsung pakai
Gate for AI Agent
Infrastruktur AI, Gate MCP, Skills, dan CLI
Gate Skills Hub
10RB+ Skills
Dari kantor hingga trading, satu platform keterampilan membuat AI jadi lebih mudah digunakan
GateRouter
Pilih secara cerdas dari 40+ model AI, dengan 0% biaya tambahan
Mengapa Model Besar Gagal Menghasilkan 'Ma Jiaqi': Analisis Token MiniMax Mengungkapkan Hampir 5% Token Lupa Setelah Pelatihan
Menurut pemantauan oleh Dongcha Beating, MiniMax merilis sebuah blog teknis yang mengungkap penyelidikan penyebab utama ketidakmampuan model besar seri M2 untuk mengeluarkan nama ‘Ma Jiaqi’. Penyelidikan dimulai dari sebuah kasus tertentu dan akhirnya mengungkap masalah degradasi sistemik yang mempengaruhi seluruh kosakata. Penyebab utama diidentifikasi sebagai tokenizer (komponen yang memotong teks menjadi unit untuk pemrosesan model) yang menggabungkan ‘Jiaqi’ menjadi token tersendiri selama pelatihan. Pada fase pra-pelatihan, model menghadapi sejumlah besar teks dari internet dan mempelajari token ini; namun, dalam data dialog pasca-pelatihan, terdapat kurang dari 5 sampel yang mengandung ‘Jiaqi’. Selama pasca-pelatihan, token dengan frekuensi tinggi seperti penanda tool_call dan simbol kode terus memperbarui ruang vektor di sekitarnya, mendorong token dengan frekuensi rendah seperti ‘Jiaqi’ ke arah yang salah. Model masih ’ mengenali’ Ma Jiaqi dan dapat merespons dengan informasi terkait secara akurat; ia hanya kehilangan kemampuan untuk mengeluarkan token ini. Tim kemudian melakukan pemindaian menyeluruh terhadap sekitar 200.000 token dalam seluruh kosakata dan menemukan bahwa sekitar 4,9% token mengalami degradasi yang signifikan. Degradasi paling parah diamati pada bahasa Jepang: 29,7% token Jepang menunjukkan degradasi yang signifikan, jauh melebihi Korea (3,3%), Rusia (3,7%), Cina (3,9%), dan Inggris (3,5%). Token lain yang mengalami degradasi signifikan termasuk istilah sampah SEO internet seperti ‘server pribadi legendaris’ dan ‘keguguran tanpa rasa sakit’, dengan mekanisme yang identik dengan ‘Jiaqi’. Degradasi parah pada bahasa Jepang ini juga menyelesaikan sebuah misteri lama. Sebelumnya, model kadang-kadang mencampurkan karakter Rusia atau Korea dalam dialog Jepang, tetapi penyebabnya tidak diketahui. Analisis ini menunjukkan bahwa setelah drift parameter token Jepang, mereka menjadi bingung dengan token dari bahasa lain dalam ruang vektor, yang menyebabkan aktivasi yang salah dari token Jepang (campur bahasa) dan mendorong token Cina berfrekuensi rendah di sekitarnya keluar dari rentang probabilitas normal (lupa token). Solusinya adalah membangun dataset sintetis yang mencakup seluruh kosakata, memungkinkan model berlatih setiap token melalui tugas pengulangan sederhana. Hasilnya langsung terlihat: proporsi karakter Rusia yang tercampur dalam respons Jepang turun dari 47% menjadi 1%, dan stabilitas parameter output untuk seluruh kosakata (kemiripan kosinus) meningkat dari nilai terendah 0,329 menjadi di atas 0,97.