Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Google merilis panduan pelatihan pengembang TPU Ironwood generasi ketujuh, penjelasan lengkap tentang optimisasi kinerja tingkat sistem
Berita ME News, 2 April (UTC+8), Google baru-baru ini merilis panduan pengembangan untuk TPU Ironwood generasi ketujuh. Panduan ini bertujuan membantu pengembang memanfaatkan secara maksimal kinerja sistem TPU Ironwood, agar dapat melatih dan men-deploy model AI terdepan secara efisien. TPU Ironwood dirancang sebagai infrastruktur AI kustom yang memenuhi kebutuhan komputasi model dengan triliunan parameter, yang membangun sistem lengkap dengan teknologi seperti interkoneksi antar chip (ICI), switch optik (OCS), jaringan pusat data (DCN), dan memori bandwidth tinggi terintegrasi (HBM), mendukung hingga 9.216 chip. Artikel ini secara rinci memperkenalkan berbagai strategi optimisasi penting untuk perangkat keras ini, termasuk: memanfaatkan unit perkalian matriks (MXU) yang mendukung pelatihan FP8 secara native untuk meningkatkan throughput; menggunakan perpustakaan kernel JAX yang dioptimalkan khusus untuk TPU, Tokamax, yang memproses tensor tidak beraturan dalam model konteks panjang dan model ahli campuran melalui “perhatian cipratan” dan “perkalian matriks grup Megablox”; memanfaatkan core jarang (SparseCore) generasi keempat untuk mengalihkan operasi komunikasi kolektif guna menyembunyikan latensi; mengoptimalkan alokasi SRAM cepat TPU (VMEM) secara rinci untuk mengurangi stagnasi memori; serta memilih strategi partisi terbaik (seperti FSDP, TP, EP) berdasarkan skala model, arsitektur, dan panjang urutan. (Sumber: InFoQ)