Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
CFD
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Promosi
AI
Gate AI
Partner AI serbaguna untuk Anda
Gate AI Bot
Gunakan Gate AI langsung di aplikasi sosial Anda
GateClaw
Gate Blue Lobster, langsung pakai
Gate for AI Agent
Infrastruktur AI, Gate MCP, Skills, dan CLI
Gate Skills Hub
10RB+ Skills
Dari kantor hingga trading, satu platform keterampilan membuat AI jadi lebih mudah digunakan
GateRouter
Pilih secara cerdas dari 40+ model AI, dengan 0% biaya tambahan
Perpustakaan operator GPU sumber terbuka DeepSeek DeepGEMM memperbarui versi besar, menambahkan Mega MoE yang menggabungkan lima langkah perhitungan MoE menjadi satu kernel
Berita ME News, 16 April (UTC+8), menurut pemantauan Beating dari Dongcha, DeepSeek hari ini merilis pembaruan terbesar sejak peluncuran DeepGEMM open source. Perpustakaan operator GPU ini yang dirilis selama “Minggu Open Source” tahun lalu pada bulan Februari, awalnya hanya untuk perkalian matriks FP8, kini diperluas menjadi perpustakaan operator lengkap yang mencakup bagian penting inferensi model besar, mendukung berbagai presisi matriks seperti FP8, FP4, BF16, serta operator khusus seperti MoE dan penilaian perhatian. Penambahan utama adalah Mega MoE. Arsitektur MoE (ahli campuran) adalah dasar dari model seperti DeepSeek V3, yang selama inferensi memerlukan lima langkah berturut-turut: distribusi EP, transformasi linier lapisan pertama, aktivasi SwiGLU, transformasi linier lapisan kedua, dan penggabungan EP. Pendekatan tradisional melibatkan pemanggilan lima kernel terpisah secara berurutan, di mana setiap panggilan harus menunggu langkah sebelumnya selesai dan data dipindahkan di memori GPU. Mega MoE menggabungkan kelima langkah ini menjadi satu kernel, memungkinkan komunikasi NVLink dan perhitungan Tensor Core berjalan bersamaan, mengurangi waktu tunggu dan pemindahan data di tengah proses. Saat ini hanya mendukung kombinasi presisi FP8×FP4, membutuhkan PyTorch 2.9 atau versi lebih baru, tim menyatakan masih dalam proses optimisasi, dan data perbandingan performa akan diumumkan nanti. Penambahan lain termasuk: perkalian matriks presisi campuran FP8×FP4, operator penilaian perhatian FP4 yang mendukung MTP lebih besar (Indexer), PDL (programmatic dependency launch, sebuah optimisasi penjadwalan GPU yang mengurangi latensi startup kernel), kecepatan JIT yang lebih cepat, dan berbagai optimisasi untuk operasi matriks MoE. Pembaruan ini juga menyesuaikan dengan tata letak data MoE dari DeepEPv2. Dalam penjelasan PR disebutkan secara khusus: “Rilis ini hanya terkait pengembangan DeepGEMM dan tidak terkait dengan rilis model internal.” (Sumber: BlockBeats)