Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Percakapan dengan Wakil Presiden Bisnis Nvidia: Saat "ChatGPT" untuk robot sedang tiba
Memahami posisi NVIDIA hari ini mungkin lebih sulit daripada sebelumnya, tetapi perusahaan yang memengaruhi perkembangan banyak bidang AI ini tetap menarik untuk dieksplorasi dalam menggambarkan masa depan AI.
Sinyal perluasan bisnis NVIDIA menjadi semakin jelas. Pada konferensi GTC kali ini, NVIDIA merilis produk yang mencakup akselerator pusat data, rak, produk jaringan, dan berbagai model sumber terbuka. Kata kunci seperti CUDA, GPU, LPU (Unit Pemrosesan Bahasa), pabrik AI, robot, mengemudi otomatis, dan model sumber terbuka sering disebutkan dalam pidato CEO Jensen Huang. Perusahaan yang terkenal dengan GPU ini kini tampaknya lebih tepat digambarkan sebagai penyedia infrastruktur AI atau pabrik AI yang mencakup berbagai aspek.
Bahkan di bagian akselerator pusat data saja, jenis produk NVIDIA menjadi semakin beragam. Selain platform Rubin berbasis GPU, sebuah LPU juga ditambahkan. LPU, yang sebelumnya merupakan ASIC (Sirkuit Terintegrasi Khusus Aplikasi), dan GPU umum berada di dua kubu berbeda, tetapi setelah NVIDIA memperoleh lisensi Groq, kedua jenis chip ini mulai digabungkan.
Di luar 60% bisnis yang melayani perusahaan cloud besar, tampaknya ada bagian bisnis baru yang lebih kompleks, yaitu 40%. Dalam AI fisik, pengemudian otomatis dan robot menjadi dua fokus utama. Untuk mengimplementasikan AI fisik, NVIDIA tidak hanya memproduksi hardware, tetapi juga platform mengemudi otomatis dan model.
Memahami posisi NVIDIA hari ini mungkin lebih sulit daripada sebelumnya, tetapi perusahaan yang memengaruhi perkembangan banyak bidang AI ini tetap menarik untuk dieksplorasi dalam menggambarkan masa depan AI. Selama konferensi GTC, wartawan Caixin melakukan wawancara dengan Ian Buck, Wakil Presiden untuk Komputasi Skala Besar dan Berkinerja Tinggi NVIDIA, serta Rev Lebaredian, Wakil Presiden untuk Omniverse dan Teknologi Simulasi, untuk mencoba memahami ide dan pertimbangan di balik produk NVIDIA, serta membahas fenomena heterogenisasi chip, strategi NVIDIA dalam membangun AI fisik, dan mengapa momen “ChatGPT” untuk robot sedang tiba.
Mengapa GPU masih dominan
Berdasarkan teknologi Groq, NVIDIA meluncurkan chip LPU Groq 3 dan Groq 3 LPX untuk platform rack pada konferensi GTC ini. Menurut penjelasan, Groq 3 LPX yang digunakan bersama CPU dan GPU Rubin dapat meningkatkan throughput inferensi per megawatt hingga 35 kali lipat, dan akan diintegrasikan ke dalam pabrik AI Vera Rubin generasi berikutnya pada paruh kedua tahun ini.
Keberadaan Groq 3 membuat GPU tidak lagi menjadi satu-satunya bentuk akselerator pusat data NVIDIA. Sebelumnya, bagaimana GPU menghadapi tantangan ASIC telah menjadi topik diskusi panjang. Akhir tahun lalu, NVIDIA menandatangani perjanjian non-eksklusif dengan Groq terkait hak kekayaan intelektual, dan mengakuisisi pendiri Groq Jonathan Ross, Presiden Sunny Madra, serta anggota tim inti lainnya, yang dipandang sebagai langkah menghadapi tantangan pasar. Inferensi dengan latensi rendah adalah keunggulan utama LPU Groq. Dengan memasukkan LPU ke dalam portofolio produk, apa yang ingin dilakukan NVIDIA?
Menurut penjelasan Jensen Huang, setiap token dari model yang berbeda skala memiliki karakteristik berbeda. Untuk kebutuhan utama saat ini, Rubin tetap menjadi platform penting, tetapi muncul pasar niche baru. Model yang semakin besar, konteks yang semakin panjang, berarti kecepatan inferensi harus sangat cepat. Kombinasi chip baru ini memungkinkan memenuhi berbagai kebutuhan komputasi.
Ian Buck memberikan penjelasannya. Ia mengatakan bahwa Groq 3 LPU bisa dianggap sebagai “peningkatan paket” untuk Rubin. LPU memiliki SRAM yang sangat cepat dan mampu melakukan perhitungan floating point dengan cepat. Namun, ada batasannya; jika hanya menggunakan LPU untuk menjalankan model dengan triliunan parameter, mungkin membutuhkan puluhan rak, yang sulit dilakukan secara skala besar, biaya tinggi, dan efisiensi infrastruktur rendah. Tetapi jika melalui satu rak LPX, LPU dan rak Rubin dapat bekerja sama, menggabungkan keunggulan kedua chip, sehingga semua perhitungan perhatian dapat dilakukan di GPU, dan semua operasi matriks model pakar dapat dilakukan di LPU.
“Untuk sebagian besar pasar AI saat ini, seperti chatbot dan sistem rekomendasi, sebagian besar akan tetap dilayani oleh Rubin, dan LPU tidak akan menggantikan skenario ini. Tetapi untuk beban kerja AI cerdas generasi berikutnya, dengan model triliunan parameter, konteks puluhan ribu token, dan kecepatan ribuan token per detik, kombinasi kedua chip ini menjadi mungkin,” kata Ian Buck.
Selain NVIDIA, perusahaan GPU lain seperti AMD juga mencoba berbagai chip berbeda. Pada akhir Februari, AMD menandatangani kerja sama dengan Meta yang mencakup desain chip semi-kustom. Awal bulan ini, CEO AMD Dr. Su menjelaskan bahwa infrastruktur AI menjadi semakin kompleks, dengan berbagai beban kerja—baik pelatihan maupun inferensi, model besar maupun kecil—yang membutuhkan jenis komputasi berbeda. “Di tahap berikutnya dari infrastruktur AI, tidak ada satu chip tunggal yang bisa melakukan semuanya dengan optimal; ini adalah dunia heterogen. Kita juga harus mempertimbangkan harga per watt, dan menginginkan efisiensi tinggi saat menjalankan beban kerja AI secara massal. ASIC akan tetap memiliki tempat dalam kebutuhan komputasi,” katanya. Pandangan Su sejalan dengan penjelasan Jensen Huang tentang biaya komputasi dan diversifikasi beban kerja AI.
Namun, seiring chip menuju heterogenisasi, akankah ASIC semakin banyak digunakan dan menantang posisi GPU yang dapat diprogram dan bersifat umum? Terutama ketika beberapa ASIC yang dioptimalkan untuk beban kerja tertentu menawarkan keunggulan kecepatan dan biaya.
Menurut Ian Buck, ini adalah soal bagaimana menyeimbangkan kebutuhan komputasi spesifik dan inovasi platform yang dapat diprogram. Ini menyangkut sejauh mana produsen bersedia melakukan desain yang lebih khusus. “Kami bisa membuat ASIC khusus untuk GPT-OSS, dan dalam kondisi ekstrem, menjalankan model langsung di chip. Saya yakin ini akan efisien. Tapi model dan cara implementasinya akan tetap tertanam di silikon, yang akan menghalangi upaya pengoptimalan lebih lanjut, termasuk optimasi perangkat lunak, sehingga GPT-OSS tidak bisa dibuat lebih cepat, lebih cerdas, atau lebih scalable,” katanya.
Ian Buck juga menjelaskan bahwa DeepSeek-R1 dirilis setahun lalu, dan sejak itu efisiensi model semakin meningkat karena seluruh dunia belajar metode baru dan membuat model campuran (mixture of experts) berjalan lebih efisien di GPU. “Ini menjadi mungkin karena chip-chip ini terbuka dan dapat dikonfigurasi, dan orang menemukan metode baru untuk menjalankan model campuran, seperti tensor parallelism, wide expert parallelism, pipeline parallelism, serta transisi dari FP16 ke FP8, FP4. Kemampuan platform yang dapat diprogram memberi peluang peningkatan performa hingga beberapa kali lipat, memungkinkan GPU umum berjalan lebih cepat, biaya lebih rendah, dan pendapatan meningkat.”
Ian Buck memberi contoh bahwa tim pengembang perangkat lunak NVIDIA yang berjumlah sekitar 400 orang menghabiskan sekitar 4 bulan dan 120.000 jam simulasi GPU untuk mempercepat DeepSeek-R1. Mereka menemukan 38 cara optimasi perangkat lunak, sehingga performa DeepSeek-R1 di GPU yang sama meningkat empat kali lipat—hanya melalui optimasi perangkat lunak, manfaat yang dihasilkan meningkat empat kali lipat.
“Kami bisa melakukan optimasi sangat spesifik untuk berbagai beban kerja, bahkan menanamkan model langsung ke dalam chip, tetapi ini akan melewatkan peluang untuk mengembangkan algoritma dan teknologi baru. Kami juga menemukan bahwa sekitar 95% dari optimasi dan teknologi berbasis platform yang dapat diprogram ini akan berlaku untuk semua model dalam ekosistem, membantu model berikutnya menjadi lebih cerdas,” kata Ian Buck.
Mengenai apakah Groq juga akan masuk ke ekosistem CUDA, Ian Buck menyatakan bahwa meskipun generasi pertama LPU belum memungkinkan, mereka berencana membuka lingkungan pemrograman LPU di masa mendatang, dan akan mempertimbangkan apakah akan menggunakan CUDA atau cara lain untuk membuka akses.
Membangun fondasi untuk AI fisik
Dalam konferensi GTC ini, NVIDIA mengumumkan banyak berita terkait AI fisik. Untuk robot, NVIDIA meluncurkan kerangka simulasi Isaac, model sumber terbuka Cosmos dan Isaac GROOT, yang digunakan untuk pengembangan, pelatihan, dan deployment robot industri. Cosmos 3 adalah model dasar dunia yang pertama yang menggabungkan pembuatan dunia sintetik, inferensi AI fisik, dan simulasi gerak. Untuk pengemudian otomatis, NVIDIA meluncurkan model inferensi VLA (Visual Action Language) Alpamayo 1.5, yang meningkatkan kemampuan inferensi mobil otomatis.
Dalam bidang AI fisik, NVIDIA tidak lagi hanya menyediakan hardware komputasi, tetapi juga melakukan lebih banyak pengembangan perangkat lunak, termasuk mendalamkan model dan membuka sumber model tersebut.
Rev Lebaredian mengatakan bahwa saat ini, open source menjadi sangat penting. NVIDIA telah berinvestasi besar dalam penelitian dan teknologi sumber terbuka, terutama untuk AI fisik, karena pembangunan AI fisik tidak bisa dilakukan oleh satu perusahaan sendiri. Untuk mewujudkan momen “ChatGPT” untuk robot, semua orang harus berkontribusi. Karena NVIDIA berada di pusat ekosistem AI dan menjadi penghubung semua pihak, pekerjaan ini harus dimulai dari NVIDIA.
Rev Lebaredian menjelaskan bahwa pengembangan model dunia yang mendalam didasarkan pada hukum fisika, bukan sekadar bahasa. Cosmos bersifat sumber terbuka, memungkinkan perusahaan mana pun menjalankan dan menggunakan model ini di komputer mereka untuk berbagai keperluan. Selain model, NVIDIA juga menyediakan data, kerangka kerja, dan blueprint yang diperlukan untuk pembuatan model. “Ini dilakukan karena saat ini, kita masih jauh dari AI fisik dan robot yang sempurna, dan kekuatan sumber terbuka diperlukan untuk mendorong kemajuan. Banyak perusahaan model dunia menggunakan Cosmos untuk pelatihan dan evaluasi, sehingga AI bisa menjadi guru bagi AI lainnya.”
Dalam perkembangan AI fisik di berbagai bidang, Rev Lebaredian menyatakan bahwa tantangan pengemudian otomatis telah beralih dari bidang ilmiah ke bidang rekayasa, hanya tinggal memperbesar skala dan mencari cara agar semakin banyak mobil bisa berjalan di jalan. Tetapi untuk robot umum, tantangannya berbeda. Robot umum menghadapi tantangan di semua aspek, seperti belum adanya tubuh robot yang baik, tangan yang memadai, dan bagian fisik lainnya yang masih perlu perbaikan di sensor, penggerak, motor, dan baterai.
Rev Lebaredian menyatakan bahwa bahkan jika tubuh robot yang sempurna dibangun, robot tersebut tidak akan langsung bisa digunakan. Masih banyak insinyur yang harus menghabiskan waktu untuk memprogram robot agar bisa melakukan tugas sederhana. Saat ini, industri berada di titik penting, dengan teknologi yang cukup untuk membuat otak robot menjadi berguna, dan momen “ChatGPT” untuk robot semakin dekat. Hubungan antara teknologi dan aplikasi sudah mulai terbentuk, misalnya dengan menggunakan kemampuan inferensi untuk membuat agen di Cosmos menghasilkan data yang diperlukan untuk melatih robot.