Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
【AI+NVDA】Nvidia Dilaporkan Akan Meluncurkan Chip Inferensi AI di Konferensi GTC Apa Perbedaannya dengan Chip Blackwell dan Rubin?
Nvidia (AS: NVDA, Nvidia) akan mengadakan konferensi GTC tahunan, menurut laporan media asing yang mengutip sumber, CEO Nvidia Jensen Huang diperkirakan akan mengumumkan sebuah chip yang fokus pada “inferensi” pada acara tersebut, yang digunakan untuk menjalankan model, bukan untuk melatih model.
Laporan menyebutkan bahwa ini akan menjadi produk baru pertama yang diluncurkan setelah Nvidia menandatangani perjanjian lisensi teknologi non-eksklusif senilai 20 miliar dolar AS dengan startup chip AI Groq pada Desember tahun lalu, setelah pendiri dan tim inti Groq bergabung dengan Nvidia.
Groq dikenal karena mengembangkan Unit Pemrosesan Bahasa (Language Processing Unit, LPU), yang mampu merespons query AI yang kompleks dengan kecepatan tinggi. Tiga bulan setelah kesepakatan tersebut, Nvidia diperkirakan akan meluncurkan LPU berbasis arsitektur Groq yang akan bekerja sama dengan GPU flagship Vera Rubin yang akan datang, untuk bersaing dengan pesaing dan mendukung rangkaian produk baru yang berkaitan dengan aplikasi AI.
Laporan menyebutkan bahwa selama tiga tahun terakhir, nilai pasar Nvidia yang besar sebagian besar didukung oleh GPU-nya yang menjadi tulang punggung industri AI generatif, digunakan untuk melatih model seperti ChatGPT dari OpenAI. Huang berpendapat bahwa satu sistem dapat digunakan untuk melatih model AI baru sekaligus menjalankan chatbot dan alat pengkodean berbasis model tersebut. Perusahaan teknologi besar telah menginvestasikan ratusan miliar dolar dalam pengembangan sistem ini, sekaligus juga mengembangkan chip AI khusus mereka sendiri. Selain itu, dengan semakin kompleksnya alat AI, seperti agen cerdas, Huang mungkin harus meninggalkan gagasan bahwa “satu GPU dapat menangani semua beban kerja.”
Chip inferensi baru berbasis SRAM, bukan memori HBM
Di sisi lain, karena harga memori HBM yang mahal dan pasokan yang semakin terbatas, produsen memori seperti SK Hynix dan Micron mungkin kesulitan memenuhi kebutuhan AI. Sistem flagship Nvidia, Blackwell dan Rubin, bergantung pada memori bandwidth tinggi untuk memproses beban data besar yang digunakan oleh model AI.
Sumber mengungkapkan bahwa chip serupa Groq dari Nvidia ini akan menggunakan Static Random Access Memory (SRAM) alih-alih Dynamic Random Access Memory (DRAM) yang digunakan oleh HBM. SRAM lebih mudah diperoleh dan lebih cocok untuk mempercepat tugas inferensi AI.
Nvidia tidak berkomentar mengenai laporan tersebut.