Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
DeepSeek kembali merilis makalah baru
Dalam industri yang sangat menantikan model andalan generasi baru DeepSeek V4, tim DeepSeek diam-diam merilis sebuah makalah akademik baru. Makalah ini ditulis bersama oleh DeepSeek, Peking University, dan Tsinghua University, dengan mengarahkan fokus penelitiannya ke salah satu bagian kunci yang menentukan penerapan praktis model skala besar—kecepatan inferensi—untuk menyediakan serangkaian solusi sistem tingkat dasar yang efisien bagi agen AI yang semakin kompleks. Secara spesifik, makalah baru ini memperkenalkan sebuah sistem inferensi inovatif bernama DualPath, yang secara khusus dioptimalkan untuk kinerja inferensi model skala besar (LLM) dalam beban kerja berbasis agen. Dengan memperkenalkan mekanisme “pembacaan KV-Cache jalur ganda” (mirip cache memori), pendistribusian ulang beban jaringan penyimpanan dilakukan, sehingga throughput inferensi offline meningkat hingga 1,87 kali, dan jumlah agen yang berjalan per detik pada layanan online rata-rata meningkat 1,96 kali. Pada bagian pendahuluan, makalah ini menyebutkan bahwa model skala besar sedang berevolusi dengan cepat—dari robot percakapan satu putaran dan model inferensi independen—menjadi sistem agen: mampu merencanakan sendiri, memanggil alat, dan menyelesaikan tugas dunia nyata melalui interaksi multi-putaran. Perubahan paradigma penerapan ini mendorong terjadinya transformasi besar pada beban kerja inferensi model skala besar: dari interaksi tradisional manusia–model skala besar, beralih ke interaksi manusia–model skala besar–lingkungan, dengan jumlah putaran interaksi dapat mencapai puluhan bahkan ratusan putaran.