Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
「Generasi Baru AI」 dari GPU ke LPU: Nvidia Melancarkan Serangan Besar-besaran pada Chip Inferensi, Jensen Huang Kembali Mengamankan Langkah Kunci
「Generasi Baru AI」 Dari GPU ke LPU: Nvidia Melancarkan Serangan Besar-besaran ke Pasar Chip Inferensi, Huang Renxun Kembali Menyusun Strategi Kunci
Pada dini hari tanggal 17 Maret, di GTC 2026, CEO Nvidia Huang Renxun memperkenalkan senjata baru—Groq 3 LPU, yang secara besar-besaran menyerang pasar chip inferensi.
Industri AI telah berubah arah. Beberapa tahun lalu, semua orang sibuk “melatih model”—memberi data ke GPU, menunggu kecerdasan muncul. Saat itu, GPU Nvidia adalah satu-satunya raja, tak tergoyahkan. Tapi dua tahun terakhir, agen cerdas berbondong-bondong memasuki pasar, Manus menjadi terkenal, OpenClaw mendominasi layar, vendor model dan penyedia layanan cloud mulai menghasilkan uang dari penjualan token, Cerebras dengan slogan “lebih cepat, lebih murah” mulai mengikis wilayah yang didominasi Nvidia selama bertahun-tahun.
Industri akhirnya menyadari: pelatihan masih berlanjut, tetapi “inferensi” telah menjadi arus utama. Nvidia tentu tidak akan melewatkan peluang pasar ini, mereka juga ingin memotong bagian dari kue inferensi. Pada dini hari tanggal 17 Maret, di GTC 2026, Huang Renxun memperkenalkan senjata baru—Groq 3 LPU, yang secara besar-besaran menyerang pasar chip inferensi. Ia juga mengumumkan sejumlah angka: pada akhir 2027, pendapatan tahunan dari lini produk Blackwell dan Rubin akan mencapai 1 triliun dolar, dua kali lipat dari prediksi enam bulan lalu.
Mengelola Pelatihan dan Inferensi Secara Bersamaan
Nvidia secara resmi meluncurkan platform Vera Rubin, yang dilengkapi dengan 7 chip berbeda, yaitu Rubin GPU, Vera CPU, ConnectX-9 SuperNIC, BlueField-4 DPU, Switch NVLink 6, Spectrum-X 102.4T CPO, dan integrasi baru Groq 3 LPU.
“LPU” adalah singkatan dari “Language Processing Unit”, yaitu unit pemrosesan bahasa, sebuah chip akselerator inferensi AI khusus. Gabungan Rubin GPU dan Groq LPU akan meningkatkan throughput saat ini dari 100 token per detik menjadi 1500 token per detik atau lebih, mendukung skenario interaksi agen AI secara sempurna.
Nvidia juga meluncurkan sebuah rak penuh yang didedikasikan untuk menampung akselerator Groq baru—Groq LPX. Menurut Ian Buck, Wakil Presiden untuk Komputasi Skala Besar dan Kinerja Tinggi Nvidia, Groq LPX akan meningkatkan performa decoding “setiap lapisan model AI per token” dan memungkinkan Rubin melayani bidang frontier AI berikutnya: sistem multi-agen, yang membutuhkan performa interaktif saat memproses model dengan triliunan parameter dan dalam jendela konteks jutaan token.
Keinginan Nvidia terhadap pasar chip inferensi bukanlah hal baru, melainkan sudah dipersiapkan sejak lama. Pada Desember 2025, perusahaan ini mengakuisisi aset teknologi inti Groq seharga sekitar 20 miliar dolar, pendirinya bergabung dengan Nvidia, dan Groq 3 LPU adalah hasil publikasi pertama setelah akuisisi tersebut.
Berdasarkan prediksi model dari Goldman Sachs Global Investment Research, pangsa pengiriman chip AI non-GPGPU di server AI akan menunjukkan tren kenaikan yang jelas, diperkirakan akan meningkat dari 36% pada 2024 menjadi 45% pada 2027, sementara pangsa pengiriman GPGPU diperkirakan akan menurun dari 64% pada 2024 menjadi 55% pada 2027.
Senior Analis InSemi Research Qin Fengwei menjelaskan kepada wartawan bahwa GPU akan lebih kompetitif dalam pelatihan model besar di platform dasar dan skenario dengan kebutuhan umum yang tinggi (seperti cloud publik), sedangkan ASIC (termasuk TPU, DPU, NPU, LPU) akan lebih unggul dalam tahap deployment model dan skenario inferensi, karena skenario ini menuntut efisiensi energi dan latensi respons yang lebih tinggi.
“Jadi, peluncuran LPU oleh Nvidia adalah langkah strategis untuk memenuhi permintaan daya komputasi AI yang beralih dari ‘pelatihan’ ke ‘inferensi’. Ini adalah langkah penting untuk menutup kekurangan mereka. Dengan penataan produk yang lebih rinci, mereka merespons perubahan pasar dan tantangan dari pesaing,” kata Zhang Xiaorong, Direktur Institut Riset Teknologi Mendalam.
Menurut laporan media, rencana Nvidia untuk menghadapi meningkatnya permintaan inferensi telah membuahkan hasil. Bulan lalu, OpenAI mengumumkan telah mencapai kesepakatan dengan Nvidia untuk membeli chip dengan kemampuan inferensi khusus.
Upgrade Ekosistem dari Chip ke Pabrik
Beberapa tahun terakhir, AI generatif telah memicu ledakan pasar. Pelatihan model besar menjadi lubang hitam kekuatan komputasi mutlak. Dengan dominasi GPU, Nvidia meraup sebagian besar keuntungan dari gelombang panas ini, kinerja dan kapitalisasi pasar melonjak, dan mereka mendapatkan keuntungan besar.
Namun, seiring parameter model memasuki fase efek marjinal yang menurun, pelatihan model besar mulai melambat setelah dua tahun kejar-kejaran. Mulai 2025, pusat perhatian beralih—ke agen cerdas dan rekayasa konteks. Sinyal paling langsung adalah: OpenClaw merebut platform media sosial, menembus batas dari dunia teknologi ke masyarakat umum, masuk ke aliran informasi orang biasa.
Agen cerdas adalah faktor utama yang mendorong pertumbuhan permintaan pasar inferensi, dengan fokus utama pada inferensi, bukan pelatihan. Hal ini didukung oleh berbagai studi dan analisis industri. Jadi, saat kemampuan AI berkembang dari tahap pelatihan model besar dasar ke pengembangan agen cerdas yang membangun workflow, kebutuhan daya komputasi AI beralih dari pelatihan ke inferensi.
Sebagai pemain utama dalam infrastruktur AI, Nvidia juga harus mengikuti tren pasar dan melakukan perubahan, termasuk peningkatan ekosistem secara menyeluruh.
Dalam GTC kali ini, selain meluncurkan LPU, Nvidia juga bekerja sama dengan tim yang dipimpin oleh Peter Steinberger, pendiri OpenClaw, mengumpulkan para ahli keamanan dan komputasi top, dan meluncurkan arsitektur referensi NeMoClaw. Arsitektur ini mengintegrasikan teknologi OpenShell, mekanisme perlindungan jaringan, dan kemampuan routing privasi, memungkinkan perusahaan menjalankan sistem agen cerdas secara aman di lingkungan privat mereka.
Nvidia bahkan meluncurkan desain referensi pabrik AI Vera Rubin DSX, yang mengajarkan cara merancang, membangun, dan mengoperasikan seluruh tumpukan infrastruktur pabrik AI, termasuk komputasi, jaringan Ethernet Spectrum-X Nvidia, dan penyimpanan, untuk mencapai performa cluster yang dapat diulang, diperluas, dan optimal.
Huang Renxun menyatakan, “Di era AI, token cerdas adalah mata uang baru, dan pabrik AI adalah infrastruktur dasar untuk menghasilkan token ini. Melalui desain referensi Vera Rubin DSX AI Factory dan Omniverse DSX Blueprint (cetakan digital), kami menyediakan fondasi untuk membangun pabrik AI dengan produktivitas tertinggi di dunia, mempercepat waktu pendapatan pertama, dan memaksimalkan skala serta efisiensi energi.”
Mengenai bagaimana proporsi GPU flagship Nvidia akan berubah setelah peluncuran LPU, wartawan dari Huaxia Times telah mewawancarai pihak Nvidia. Hingga saat ini, mereka belum memberikan tanggapan. “Perluasan pasar chip inferensi Nvidia tidak berarti bisnis GPU akan terganggu; sebaliknya, kolaborasi dengan LPU akan membuka peluang pasar yang lebih luas,” kata Zhang Xiaorong.
Ahli tamu dari Think Tank, Yuan Bo, menunjukkan bahwa dalam jangka pendek, GPU akan tetap mendominasi pasar berkat kemampuan adaptasi yang kuat dan hambatan ekosistem, terutama dalam skenario pelatihan AI. Dalam jangka panjang, kedua jalur ini tidak sepenuhnya bertentangan, melainkan akan menyatu dan membentuk stratifikasi pasar. “Secara perangkat keras, GPU akan mengintegrasikan inti khusus yang lebih kuat, sementara chip khusus akan menambah kemampuan pemrograman. Di pasar, diperkirakan akan terbentuk pola di mana inovasi utama didominasi oleh platform umum dan chip khusus yang mendalam dalam skala inferensi,” ujarnya.
Di pasar ASIC, sudah berkumpul sejumlah pesaing Nvidia, termasuk Cerebras dari luar negeri, serta Cambricon, Huawei, dan Suiyuan Technology dari China. Zhang Xiaorong berpendapat bahwa langkah Nvidia memasuki bidang chip inferensi adalah tantangan sekaligus katalis bagi produsen domestik, menciptakan situasi kompleks yang meliputi “penekanan” dan “pemaksaan”. Hal ini akan mempercepat perombakan industri dan peningkatan teknologi.