Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Dari GPU ke LPU: Nvidia melancarkan serangan besar-besaran ke chip inferensi, Jensen Huang kembali mengamankan langkah kunci
华夏时报记者 石飞月 北京报道
Arah industri AI berubah. Beberapa tahun lalu, semua orang mati-matian “melatih model”—memberi data ke GPU, menunggu ia tumbuh menjadi kecerdasan; pada saat itu, GPU NVIDIA adalah satu-satunya raja, tak ada yang bisa menggoyahnya. Namun dalam dua tahun terakhir, agen-agen AI berbondong-bondong menyerbu pasar: Manus menjadi viral, OpenClaw mendominasi pemberitaan, produsen model dan penyedia layanan cloud mulai menghasilkan uang dengan menjual token. Cerebras dkk mengibarkan bendera “lebih cepat, lebih murah,” mengoyak celah di peta yang selama bertahun-tahun dikuasai NVIDIA.
Kalangan industri akhirnya menyadari: pelatihan masih terus berlangsung, tetapi “inferensi” telah menjadi arus utama. NVIDIA tentu tidak akan melewatkan peluang pasar ini. Untuk “kue inferensi” ini, mereka juga ingin mengambil satu potong. Pada dini hari 17 Maret di GTC 2026, CEO NVIDIA Huang Renxun meluncurkan senjata baru—Groq 3 LPU—melancarkan serangan besar ke pasar chip inferensi. Bersamaan dengan itu, ia melontarkan rangkaian angka: hingga akhir 2027, dua lini produk Blackwell dan Rubin akan mencapai pendapatan tahunan 1 triliun dolar AS, dua kali lipat dari perkiraan enam bulan sebelumnya.
Menangani pelatihan dan inferensi sekaligus
Kali ini NVIDIA secara resmi meluncurkan platform Vera Rubin, yang semuanya dipasangi 7 jenis chip, yaitu Rubin GPU, Vera CPU, ConnectX-9 SuperNIC, BlueField-4 DPU, NVLink 6 Switch, Spectrum-X 102.4T CPO, serta Groq 3 LPU yang baru diintegrasikan.
“LPU” adalah singkatan dari “Language Processing Unit”, yaitu unit pemrosesan bahasa. Ini adalah chip akselerasi inferensi AI khusus. Rubin GPU yang dikombinasikan dengan Groq LPU akan mendorong throughput saat ini 100 token per detik menjadi 1500 token per detik atau bahkan lebih, sehingga sepenuhnya mendukung skenario interaksi agen AI.
NVIDIA juga meluncurkan satu rak lengkap khusus untuk menampung akselerator Groq generasi baru—Groq LPX. Menurut Ian Buck, Wakil Presiden Senior NVIDIA untuk Superkomputer dan komputasi berperforma tinggi, Groq LPX akan meningkatkan performa decoding “setiap lapisan model AI per token,” dan membuat Rubin dapat melayani bidang terdepan berikutnya dalam kecerdasan buatan: sistem multi-agen. Sistem-sistem ini perlu memberikan performa interaktif saat menjalankan model dengan puluhan triliun parameter inferensi, sembari beroperasi pada jendela konteks jutaan token.
NVIDIA berambisi pada pasar chip inferensi tidak dimulai dari hari ini, melainkan sudah disiapkan sejak lama. Pada Desember 2025, perusahaan itu membeli aset teknologi inti Groq dengan harga sekitar 20 miliar dolar AS. Pendiri Groq kemudian bergabung dengan NVIDIA. Groq 3 LPU adalah hasil publik pertama setelah akuisisi tersebut.
Berdasarkan prediksi model dari divisi riset investasi global Goldman Sachs, pada chip AI untuk server AI, pangsa pengiriman chip non-GPGPU diperkirakan menunjukkan tren kenaikan yang jelas. Diperkirakan akan meningkat bertahap dari 36% pada 2024 menjadi 45% pada 2027, sementara pangsa pengiriman chip GPGPU diperkirakan turun bertahap dari 64% pada 2024 menjadi 55% pada 2027.
Analis senior InSemi Research, Qin Fengwei, kepada reporter surat kabar ini menjelaskan bahwa GPU akan lebih kompetitif dalam basis pelatihan model skala besar dan skenario dengan tuntutan generalitas lebih tinggi (seperti cloud publik), serta skenario komputasi paralel. Sementara itu, ASIC (termasuk TPU, DPU, NPU, LPU, dll.) relatif lebih unggul pada fase deployment model, dan dalam skenario inferensi, karena skenario-skenario tersebut menuntut efisiensi energi dan latensi respons yang lebih tinggi.
“Jadi, ketika NVIDIA meluncurkan LPU, itu adalah penataan strategis untuk menanggapi kebutuhan komputasi AI yang bergeser dari ‘pelatihan’ ke ‘inferensi’. Ini adalah langkah kunci untuk menutup celah. Dengan penataan produk yang lebih terperinci, mereka merespons perubahan pasar dan tantangan dari para pesaing.” kata Zhang Xiaorong, Ketua Lembaga Riset Teknologi Mendalam, kepada reporter surat kabar ini.
Menurut laporan media, rencana NVIDIA untuk memenuhi kebutuhan inferensi yang terus meningkat telah mendatangkan hasil. Bulan lalu, OpenAI menyatakan bahwa mereka telah mencapai kesepakatan dengan NVIDIA untuk membeli chip yang memiliki “kemampuan inferensi khusus.”
Peningkatan ekosistem dari chip ke pabrik
Dalam beberapa tahun terakhir, AI generatif meledakkan pasar; pelatihan model skala besar menjadi lubang hitam kekuatan komputasi yang absolut. Dengan dominasi GPU yang mutlak, NVIDIA menikmati sebagian besar keuntungan gelombang panas tersebut. Kinerja dan nilai pasar keduanya melonjak, menghasilkan keuntungan berlimpah.
Namun, ketika persaingan jumlah parameter model masuk ke fase penurunan efek marjinal, pelatihan model skala besar akhirnya melambat setelah dua tahun berlari kencang. Mulai 2025, poros persaingan mulai bergeser—agen AI dan rekayasa konteks naik ke posisi utama. Isyarat paling langsung adalah: OpenClaw menaklukkan platform media sosial, menerobos dari kalangan komunitas teknologi hingga menembus arus informasi masyarakat umum.
Agen AI adalah salah satu faktor kunci yang mendorong pertumbuhan kebutuhan pasar inferensi. Skenario utamanya lebih menekankan inferensi, bukan pelatihan; pandangan ini didukung secara jelas oleh berbagai penelitian otoritatif dan analisis industri. Karena itu, ketika kemampuan AI berevolusi dari tahap pelatihan model dasar menuju agen yang fokus pada pembangunan workflow, pusat kebutuhan komputasi AI telah bergeser dari pelatihan ke inferensi.
Sebagai pemain nomor satu dalam infrastruktur dasar AI, NVIDIA tentu juga harus mengikuti arus pasar dan melakukan perubahan—bahkan dalam skala peningkatan ekosistem secara keseluruhan.
Pada konferensi GTC kali ini, selain meluncurkan LPU, NVIDIA juga menggandeng tim yang diwakili oleh Peter Steinberger, pendiri OpenClaw. Mereka mengumpulkan sejumlah ahli keamanan dan komputasi kelas atas, serta meluncurkan arsitektur referensi NeMoClaw. Arsitektur ini memuat teknologi OpenShell, mekanisme perlindungan jaringan, dan kemampuan privasi routing, yang memungkinkan perusahaan menjalankan sistem agen AI dengan aman di lingkungan privat mereka sendiri.
Bahkan, NVIDIA meluncurkan desain referensi Vera Rubin DSX AI Factory. Desain ini mengajarkan cara merancang, membangun, dan mengoperasikan seluruh tumpukan infrastruktur pabrik AI, mencakup komputasi, jaringan NVIDIA Spectrum-XEthernet, serta penyimpanan, untuk mencapai performa klaster yang dapat diulang, dapat diperluas, dan paling optimal.
Huang Renxun mengatakan: “Di era AI, token cerdas adalah mata uang baru, dan pabrik AI adalah infrastruktur untuk menghasilkan token-token itu. Melalui desain referensi Vera Rubin DSX AI Factory dan Omniverse DSX Blueprint (digital twin blueprint), kami sedang menyediakan fondasi untuk membangun pabrik AI dengan produktivitas tertinggi di dunia, mempercepat waktu untuk pendapatan pertama, serta memaksimalkan skala dan efisiensi energi.”
Adapun setelah meluncurkan LPU, bagaimana perubahan porsi GPU andalan NVIDIA, 《华夏时报》 bertanya kepada pihak NVIDIA. Hingga naskah ini diturunkan, belum ada tanggapan yang diterima. “Masuknya NVIDIA ke pasar chip inferensi tidak berarti bisnis GPU akan terdampak. Sebaliknya, melalui sinergi dengan LPU, mereka justru akan memperoleh ruang pasar yang lebih luas.” kata Zhang Xiaorong.
Pakar yang ditunjuk oleh Zizang Intelligent Think Tank, Yuan Bo, menyatakan bahwa dalam jangka pendek, GPU mendominasi pasar berkat adaptabilitas yang kuat pada berbagai skenario dan penghalang ekosistem. Terutama dalam skenario pelatihan AI. Namun dalam jangka panjang, dua jalur ini tidak sepenuhnya berseberangan, melainkan akan menuju integrasi dan segmentasi pasar. “Dari sisi perangkat keras, GPU akan mengintegrasikan inti khusus yang lebih kuat, sedangkan chip khusus juga akan menambah kemampuan yang dapat diprogram. Di pasar, diperkirakan akan terbentuk pola berlapis, dengan satu lapisan di mana inovasi dominan dan platform serbaguna dipimpin oleh mereka, serta lapisan lain berupa chip khusus yang mendalami inferensi skala besar.”
Di pasar ASIC, sebenarnya telah berkumpul sejumlah pesaing NVIDIA, termasuk Cerebras dari luar negeri, Cambrain (寒武纪) dari Tiongkok, Huawei, serta SrecTech (燧原科技), dll. Zhang Xiaorong berpendapat bahwa langkah NVIDIA memasuki bidang chip inferensi adalah sekaligus tantangan dan katalis bagi produsen domestik; ini akan membentuk situasi kompleks yang berisi “tekanan” dan “dorongan paksa” secara bersamaan. Hal ini akan mempercepat perombakan industri dan peningkatan teknologi.