Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
黄仁勋 membentuk "Ekonomi Token" NVIDIA menyambut era agen cerdas
17 Maret dini hari, pembukaan konferensi GTC Nvidia—yang dijuluki “AI Super Bowl” dan “AI Spring Festival”—kembali membawa “Pimpinan AI”, pendiri sekaligus CEO Nvidia, Huang Renxun, berdiri di pusat panggung, dengan badai teknologi yang memperbarui batas-batas fisik.
Nvidia mengumumkan bahwa Vera Rubin (arsitektur chip terbaru) saat ini sudah memiliki tujuh chip baru yang sepenuhnya masuk ke produksi massal; platform Vera Rubin sedang membuka era Agentic AI, membangun pabrik AI terbesar di dunia.
Secara spesifik, produk chip tersebut meliputi: NVIDIA Vera CPU (Nvidia telah melangkah ke CPU server), NVIDIA Rubin GPU (produk andalan GPU), NVIDIA NVLink 6 (chip switch NVLink generasi ke-6, interkoneksi di dalam chip), NVIDIA ConnectX-9 SuperNIC (SuperNIC), NVIDIA BlueField-4 DPU (chip penyimpanan), NVIDIA Spectrum-6 (chip switch Ethernet, mendukung teknologi CPO), serta NVIDIA Groq 3 LPU terintegrasi baru (chip pertama setelah akuisisi Groq).
Dapat dilihat, dalam keluarga chip ini tidak hanya ada produk CPU dan GPU yang biasa dikenal, tetapi juga LPU dari Groq, serta produk lengkap seperti chip penyimpanan dan chip switch. Chip-chip ini juga dapat membentuk 5 rak yang menjalankan layanan di pusat data.
“Vera Rubin adalah lompatan lintas generasi—tujuh chip terobosan, lima rak, satu komputer super raksasa—untuk memberi tenaga pada setiap tahap AI,” kata Huang Renxun, “seiring peluncuran Vera Rubin, titik balik Agentic AI sudah tiba, dan akan membuka pembangunan infrastruktur terbesar dalam sejarah.”
Dalam pidatonya, Huang Renxun juga memprediksi bahwa pendapatan dari chip AI Blackwell dan Rubin hingga akhir tahun 2027 akan mencapai 1 triliun dolar AS. Dibandingkan prediksi penjualan 500 miliar dolar AS pada Oktober tahun lalu, itu sudah berlipat dua.
Konferensi peluncuran ini bisa disebut “tiada bandingannya”. Ini tidak hanya soal GPU, dan bukan sekadar upgrade teknologis tertentu; Huang Renxun menegaskan kembali ekonomi “Token” dan menerapkan teori “kue lapis lima tingkat” AI.
Satu tren adalah bahwa raksasa-raksasa terus mengumpulkan kemampuan, menutup celah kekurangan, memperluas ke hulu dan hilir, sehingga membentuk benteng yang jauh lebih kuat. Tahap di mana persaingan hanya bertumpu pada satu jenis chip, performa, dan adu kemampuan secara tunggal sudah berlalu; kini kompetisi sistemik skala penuh sedang berlangsung.
Revolusi Total Vera Rubin: dari single-chip ke era sistem-level
Sebagai penerus lintas generasi Blackwell, Nvidia menetapkan bahwa arsitektur Rubin (R100) akan diproduksi massal pada paruh kedua 2026. Pada lapisan inti dasar, arsitektur ini sepenuhnya beralih ke proses TSMC 3nm (N3P). Arsitektur ikoniknya, Vera CPU (berbasis arsitektur Olympus buatan sendiri dengan 88 core) dan Rubin GPU, melalui teknologi NVLink-C2C 1.8 TB/s, mewujudkan integrasi satu paket dalam arti fisik.
Desain kopel ketat “anti-PCIe” ini membuat daya komputasi tidak lagi dibatasi oleh tautan tradisional. Pada presisi NVFP4, performa inferensi single GPU naik menjadi 50 PFlops, sedangkan performa pelatihan mencapai 35 PFlops. Efisiensi inferensi skala besar meningkat hingga lebih dari 5 kali dibanding Blackwell.
Pada tingkat skenario aplikasi, Rubin didesain khusus untuk “Agentic AI” dan inferensi long-context—jantung pabrik digital. Ia memperkenalkan Transformer Engine 3.0 dan platform penyimpanan Inference Context Memory. Dengan mengalihkan beban manajemen penyimpanan ke BlueField-4 DPU, memungkinkan agen AI memproses relasi konteks puluhan ribu Token, serta melakukan penalaran logika multi-langkah dan keputusan real-time. Platform ini dilengkapi jaringan Spectrum-X Ethernet Photonics yang mendukung teknologi silikon-fotonik (CPO). Total bandwidth interkoneksi internal satu rak NVL72 mencapai 260 TB/s—setara beberapa kali total bandwidth lintas negara internet global.
Nvidia juga meluncurkan rak Vera CPU, yang dibangun berdasarkan infrastruktur liquid cooling ber-kepadatan tinggi berbasis Nvidia MGX. Rak ini mengintegrasikan 256 Vera CPU untuk menyediakan kapasitas yang dapat diperluas dan hemat energi, serta memiliki performa single-thread kelas dunia. Bersama rak komputer berbasis GPU, mereka menyediakan fondasi CPU untuk Agentic AI skala besar dan reinforcement learning—efisiensi Vera dua kali lipat CPU tradisional, dengan kecepatan meningkat 50%.
Saat ini, pelanggan yang bekerja sama dengan Nvidia untuk menerapkan Vera CPU mencakup Alibaba, ByteDance, Meta, dan Oracle Cloud Infrastructure, serta CoreWeave, Lambda, Nebius, dan Nscale. Vera sudah sepenuhnya masuk produksi, dan akan mulai pengiriman pada paruh kedua tahun ini.
Pusat data tradisional dan infrastruktur AI kini menghadapi transformasi baru. Huang Renxun mengatakan: “Di era AI, Token pintar adalah mata uang baru, dan pabrik AI adalah infrastruktur yang menghasilkan Token-token tersebut. Melalui desain referensi Vera Rubin DSX AI Factory dan Omniverse DSX Blueprint (blueprint kembar digital), kami menyediakan fondasi untuk membangun pabrik AI dengan produktivitas tertinggi di dunia, mempercepat waktu hingga pendapatan pertama, serta memaksimalkan skala dan efisiensi energi.”
Chip inferensi Groq LPU: membangun kekaisaran komputasi hybrid bersama GPU
Mari lihat chip Groq yang sangat dinantikan.
Pada akhir 2025, Nvidia—dengan otorisasi strategis senilai 20 miliar dolar AS dan integrasi mendalam—menghadirkan arsitektur Groq LPU (Language Processing Unit) yang merupakan “pesawat pencegat supersonic” untuk memburu latensi dengan presisi dan membuka era interaksi real-time.
Nvidia menyatakan bahwa peluncuran Groq 3 LPX (rak) kali ini menandai tonggak dalam komputasi akselerasi. Rak LPX berisi 256 prosesor LPU dan memiliki SRAM on-chip 128GB serta bandwidth ekspansi 640 TB/s. Saat dipasang bersama Vera Rubin NVL72, Rubin GPU dan LPU meningkatkan kecepatan dekode dengan komputasi bersama atas setiap lapisan model AI, sehingga menyediakan komputasi untuk setiap Token keluaran.
Pada saat yang sama, LPX menggunakan desain full liquid cooling dan dibangun berdasarkan infrastruktur MGX, sehingga terintegrasi secara mulus ke pabrik AI Vera Rubin generasi berikutnya, dan akan tersedia pada paruh kedua tahun ini.
Memasuki era inferensi, Nvidia—di luar GPU—menggabungkan arsitektur baru untuk secara signifikan meningkatkan efisiensi.
Dari sisi arsitektur teknis, Groq LPU meninggalkan desain “spekulatif” seperti manajemen cache kompleks, prediksi branch, dan instruction reordering di GPU tradisional. Sebagai gantinya, ia menggunakan arsitektur pipeline yang deterministik. Desain ini sepenuhnya memindahkan kompleksitas perangkat keras ke tingkat kompiler, sehingga aliran data di dalam chip berlangsung seperti ban berjalan presisi, tanpa jitter yang tidak terkontrol.
Pada skenario aplikasi dunia nyata, rak LPX yang didukung teknologi Nvidia sedang menjadi “penyelamat” satu-satunya untuk “Agentic AI” dan “interaksi suara real-time”. Dalam sistem bantuan mengemudi otomatis atau robot trading frekuensi tinggi, setiap fluktuasi komputasi pada level milidetik dapat menyebabkan kegagalan keputusan; sementara daya komputasi deterministik LPU menjamin waktu eksekusi tugas selalu konstan.
Untuk rantai agen Agent yang kompleks yang memerlukan penalaran multi-langkah bahkan melibatkan ratusan pemanggilan model, LPU dapat memangkas rangkaian “pemikiran berantai” yang awalnya butuh beberapa menit menjadi hanya beberapa detik. Dengan demikian, AI dapat melakukan percakapan dan kolaborasi real-time yang natural dan lancar seperti manusia. Untuk menopang paradigma komputasi baru ini, Nvidia menyematkan unit LPU ke dalam ekosistem CUDA miliknya yang luas melalui teknologi NVFusion. Melalui arsitektur yang disaggregated (model terurai), bobot hasil pelatihan dari GPU dapat dijadwalkan cepat ke array inferensi LPU.
Dengan dukungan kemampuan ini, Nvidia memisahkan pelatihan dan inferensi, membangun kekaisaran komputasi hybrid: GPU bertanggung jawab di belakang layar untuk pelatihan model parameter triliunan dan prapemrosesan teks panjang; sedangkan array LPU di garis depan pertahanan menyerang dengan rasio efisiensi energi 10 kali lebih tinggi daripada lawan dan respons yang sangat cepat, menguasai pasar inferensi real-time skala triliunan secara resmi menandai kedatangan era “inferensi instan”.
Cangkang “Lobster” versi Nvidia hadir: merangkul era agen
Sementara itu, Nvidia merilis serangkaian kemajuan penting yang berpusat pada agen AI (Agent), model terbuka, dan aplikasi lintas industri. Rilis yang paling mendapat perhatian pengembang adalah stack perangkat lunak NemoClaw yang ditujukan untuk komunitas OpenClaw. Dalam waktu baru-baru ini, proyek open source OpenClaw dengan cepat menjadi populer di komunitas pengembang, dan banyak pihak di industri melihatnya sebagai embrio “sistem operasi AI pribadi”.
Huang Renxun juga memberikan penilaian yang sangat tinggi terhadap OpenClaw. “OpenClaw membuka kepada semua orang gerbang ke frontier AI berikutnya, dan menjadi proyek open source yang tumbuh paling cepat dalam sejarah,” kata Huang Renxun. “Berbeda dengan aplikasi AI tradisional, tujuan OpenClaw adalah membuat agen AI tetap berjalan terus seperti aplikasi, sehingga dapat merencanakan tugas secara mandiri, memanggil tool, dan menyelesaikan alur kerja yang kompleks.”
Dalam kerangka ini, NemoClaw menyediakan seperangkat kapabilitas perangkat lunak dasar, sehingga pengembang dapat memasang model NVIDIA Nemotron melalui satu perintah, serta lingkungan runtime OpenShell yang baru dirilis, dan menambahkan kemampuan kontrol keamanan serta privasi untuk agen AI. Berkat lingkungan sandbox isolasi yang disediakan oleh OpenShell, agen AI dapat mematuhi strategi keamanan dan aturan privasi yang telah ditetapkan saat mengakses tool dan data, sehingga selain meningkatkan efisiensi juga memastikan keamanan data.
NemoClaw juga mendukung pemanggilan campuran model lokal dan model cloud. Pengembang dapat menjalankan model Nemotron pada perangkat khusus pengguna, sambil mengakses model frontier di cloud melalui privacy routing. Dengan demikian, sambil menjaga privasi data, mereka memperoleh kemampuan komputasi yang lebih kuat. Nvidia menyatakan bahwa NemoClaw dapat berjalan pada berbagai platform komputasi khusus, termasuk PC dan laptop yang dilengkapi GPU GeForce RTX, workstations RTX PRO, serta sistem DGX Station dan DGX Spark, untuk menyediakan daya komputasi yang stabil bagi agen AI yang beroperasi sepanjang waktu.
Sambil mendorong perkembangan platform agen AI, Nvidia juga mempercepat pembangunan ekosistem model terbuka. Pada konferensi ini, Nvidia mengumumkan pembentukan Nemotron Coalition (Nemotron alliance), yang bekerja sama dengan banyak laboratorium AI terkemuka serta institusi pengembang model di seluruh dunia untuk bersama-sama mendorong pengembangan model frontier terbuka.
Selain kerja sama di tingkat ekosistem, Nvidia juga memperluas lini produk model terbuka multi-seri untuk mendukung perkembangan berbagai bidang seperti agen AI, kecerdasan fisik, dan riset medis. Di antaranya, model seri NVIDIA Nemotron 3 semakin memperkuat kemampuan pemahaman multimodal, serta meluncurkan berbagai versi seperti Ultra, Omni, dan VoiceChat. Model terkait mampu memproses informasi bahasa, visual, dan suara sekaligus. Dengan demikian, agen AI tidak hanya dapat melakukan percakapan natural, tetapi juga menyelesaikan tugas penalaran yang kompleks, serta mengekstrak informasi penting dari berbagai sumber data seperti video dan dokumen.
Di samping agen AI di dunia digital, Nvidia juga mendorong kecerdasan buatan memasuki dunia nyata. Model baru yang dirilis kali ini mencakup berbagai model dasar untuk robot dan sistem mengemudi otomatis. Contohnya, NVIDIA Isaac GR00T N1.7 adalah model tindakan berbasis visi-bahasa yang ditujukan untuk robot humanoid, yang dapat mendukung robot untuk melakukan persepsi, penalaran, dan keputusan tindakan di lingkungan nyata.
NVIDIA Alpamayo 1.5 ditujukan untuk skenario mengemudi otomatis, meningkatkan kemampuan inferensi kendaraan melalui navigational prompts, dukungan multi-kamera, serta parameter kamera yang dapat dikonfigurasi; sementara NVIDIA Cosmos 3 yang akan segera dirilis disebut sebagai model dasar pertama yang menyatukan “pembuatan dunia, inferensi fisika, dan simulasi aksi”. Diharapkan model ini dapat membantu robot dan sistem mengemudi otomatis menyelesaikan pelatihan serta pengambilan keputusan di lingkungan yang kompleks.
Dari platform agen AI hingga ekosistem model terbuka, lalu ke aplikasi seperti robot, mengemudi otomatis, dan ilmu kehidupan, Nvidia secara bertahap sedang membangun sistem teknologi AI yang mencakup dunia digital dan dunia fisik. Dengan semakin banyak pengembang dan perusahaan yang bergabung dengan ekosistem model terbuka dan agen AI, sistem ini juga diharapkan dapat terus mendorong inovasi dan penerapan kecerdasan buatan di seluruh dunia.