Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
CEO Nvidia Jensen Huang tentang apa yang akan datang untuk ledakan AI
Sebelum Jensen Huang bahkan tiba di pintu masuk jaket kulitnya di GTC tahun ini, Nvidia $NVDA -0,70% sudah mulai menjual mitos tersebut. Soundtrack pra-acara terdengar mencurigakan seperti dibuat khusus untuk sebuah penobatan — lirik tentang hal-hal menakjubkan yang datang tepat waktu, legenda yang sedang dibuat, masa depan yang muncul sesuai jadwal; lagu-lagu bahkan yang tidak bisa dikenali Shazam. (Demo AI pertama hari itu mungkin saja adalah playlist-nya.) Setengah ruangan mengangkat ponsel untuk menyambut kedatangan Huang seperti Silicon Valley telah memesan pertunjukan arena sendiri. Untuk satu sore, arena San Jose Sharks milik kekuatan yang berbeda. Karena Huang naik ke panggung dan melakukan apa yang paling dia kuasai: mengubah pidato produk menjadi sidang zonasi untuk masa depan.
Pendiri Nvidia membuka GTC dengan janji akan menampilkan “setiap lapisan” AI, lalu menghabiskan beberapa jam berikutnya berargumen bahwa perusahaan ini tidak hanya menjual chip ke pasar yang sedang panas. Tidak. Perusahaan ingin mendefinisikan seluruh infrastruktur ekonomi AI: komputasi, jaringan, penyimpanan, perangkat lunak, model, pabrik, dan — karena kehalusan sudah jelas tidak musim ini — mungkin bahkan pusat data (masih teoretis) di luar angkasa.
Pidato utama menyebar pengumuman ke segala arah, tetapi pesan utamanya lebih terfokus. Huang ingin investor, pelanggan, dan pesaing mendengar empat hal dengan jelas: permintaan AI masih meningkat cukup cepat untuk membenarkan pengeluaran yang luar biasa; inferensi kini menjadi pusat pertempuran; agen harus keluar dari chatbot dan masuk ke mesin sehari-hari kantor; dan setelah emas digital AI, mungkin ada era baru AI fisik, di mana robot, sistem otonom, dan perangkat lunak industri membakar lebih banyak data dan infrastruktur. Kamu tidak bisa mengeja Nvidia tanpa AI.
Huang memulai di tempat biasanya dia mulai ketika pasar mulai bertanya-tanya apakah benteng Nvidia suatu saat bisa bocor: perangkat lunak. Dia menghabiskan awal pidato mengingatkan semua orang bahwa CUDA berumur 20 tahun, bahwa basis terpasang Nvidia ada “di setiap cloud” dan “setiap perusahaan komputer.” Perisai terkuat Nvidia tetaplah ekosistem perangkat lunak yang mengelilingi silikon, bukan kotak hijau itu sendiri.
Logika itu membentuk sisa pidato. Huang menyoroti data terstruktur, menyebutnya sebagai “kebenaran dasar” dari komputasi perusahaan, dan mengatakan bahwa AI akhirnya dapat memanfaatkan lautan informasi tak terstruktur — PDF, video, suara, semua barang bekas perusahaan yang telah disimpan selama bertahun-tahun tanpa benar-benar tahu cara mencari atau memonetisasi. Waspadalah, dunia; Nvidia juga ingin mengklaim database.
GTC bukan lagi tentang chip yang lebih cepat dan lebih baik. Pidato besar tahun ini tentang upaya Nvidia menjadi perusahaan yang menguasai ekonomi kerja AI itu sendiri — chip, penyimpanan, jaringan, lapisan orkestrasi, kembar digital, politik model terbuka, runtime agen, dan apa pun yang datang setelah pusat data saat Bumi mulai terasa penuh. GTC 2026 adalah pidato inferensi, pidato agen, dan pidato pabrik AI, dengan perangkat keras sebagai bukti bukan cerita.
Yah, itu angka besar
Keunggulan terbesar Huang adalah angka. Dia menandai ulang tahun ke-20 CUDA, menyebutnya sebagai roda penggerak di balik komputasi yang dipercepat, mengatakan permintaan komputasi telah meningkat “1 juta kali lipat dalam beberapa tahun terakhir,” dan menaikkan taruhan dengan menyatakan bahwa dia sekarang melihat peluang pendapatan minimal $1 triliun dari 2025 hingga 2027, naik dari angka $500 miliar yang sebelumnya dia kaitkan dengan Blackwell dan Rubin hingga 2026. Saham Nvidia ditutup naik 1,6% pada hari Senin, yang terdengar seperti persetujuan tanpa konversi penuh.
Angka itu — dan kerangka Huang — mungkin memang menjadi prinsip pengorganisasian utama pidato ini. Nvidia ingin investor dan pelanggan mendengar, secara terbuka dan dengan volume tinggi, bahwa pembangunan ini masih awal, masih meluas, dan masih cukup besar untuk membuat pengeluaran saat ini terlihat seperti uang muka. Angka itu juga melakukan pekerjaan pembersihan diam-diam. Nvidia telah menghabiskan berbulan-bulan menjawab pertanyaan-pertanyaan umum yang muncul setiap kali sebuah perusahaan menjadi kasir utama dalam pesta pengeluaran modal: Berapa lama ini akan bertahan? Apa yang terjadi saat hyperscalers menemukan agama tentang biaya? Berapa banyak fase berikutnya yang bocor ke chip kustom dan alternatif yang lebih murah?
Jawaban Huang adalah memperlebar pandangan — membuat pasar menjadi lebih besar dan beban kerja menjadi lebih rumit. Dia mengatakan “inflexi inferensi telah tiba,” dan membangun bagian tengah pidato berdasarkan argumen sederhana: AI sekarang dapat melakukan pekerjaan produktif. Dan begitu itu terjadi, gambaran permintaan berubah. Melatih model besar dan mengagumi mereka tidak akan pernah menjadi tahap akhir. Semuanya masuk ke produksi, di mana meter tidak pernah berhenti berjalan.
Ini — ini! — adalah pendapatanmu, katanya, mengubah pusat data menjadi uang dan tagihan listrik menjadi takdir. Nvidia sibuk mempromosikan realitas yang sangat meningkat sehingga hampir bisa ditagih, dan ruangan masih penuh orang yang mencoba memutuskan apakah demo itu transenden atau hanya sedikit lebih mahal.
Token ada di mana-mana dalam pidato utama — dalam video pembuka, dalam grafik performa, dalam argumen ekonomi. Intinya, masa depan nilai AI terletak pada menghasilkan output yang berguna secara terus-menerus, yang berarti inferensi menjadi bagian dari tumpukan di mana biaya, latensi, dan throughput mulai benar-benar penting. Huang mempromosikan ketergantungan. Dia ingin pelanggan berpikir dalam kampus gigawatt, rak terintegrasi, anggaran megawatt, dan kurva throughput token, bukan dalam server yang bisa mereka campur dan cocokkan sesuka hati.
Inferensi menjadi pusat perhatian
Mungkin salah satu garis paling tajam dari pidato utama juga yang paling sederhana: “Inflexi inferensi telah tiba.” Nvidia tahu dunia mulai tertarik pada perangkat keras inferensi yang lebih murah dan ramping. Baik. Perusahaan ingin menjual itu juga.
Huang membagi inferensi menjadi dua tahap — prefill dan decode — dan menyusun sistem di mana chip Vera Rubin Nvidia menangani pekerjaan prefill, sementara silikon dari Groq menangani decode, langkah yang benar-benar mengeluarkan jawaban. Itu penting; inferensi adalah tempat bab berikutnya Nvidia menjadi lebih rumit. Melatih membuat perusahaan kaya. Melayani ratusan juta pengguna secara real-time adalah tempat pelanggan mulai bertanya tentang biaya, latensi, dan apakah mereka benar-benar membutuhkan silikon yang sama untuk setiap langkah.
Jawaban Huang adalah klasik Nvidia. Jangan pertahankan GPU secara terpisah; telan seluruh tumpukan. Dia menggambarkan Vera Rubin sebagai “lompatan generasi” yang dibangun di sekitar tujuh chip dan lima sistem rak skala, dengan Nvidia mengklaim platform ini dapat melatih model campuran pakar besar dengan seperempat jumlah GPU dibandingkan Blackwell dan memberikan throughput inferensi hingga 10 kali lipat per watt dengan biaya per token sepersepuluhnya. Dia juga menggunakan pidato utama untuk melihat ke masa depan platform Feynman, karena di Nvidia, generasi berikutnya selalu berdiri di sayap sebelum generasi saat ini selesai membungkuk.
Huang tidak mempromosikan bagian yang lebih cepat, melainkan ketergantungan yang lebih besar. Nvidia mengumumkan desain referensi pabrik AI Vera Rubin DSX, alat simulasi DSX untuk merencanakan pabrik AI sebelum dibangun, dan menu komponen penyimpanan, jaringan, dan sistem yang lebih luas yang dimaksudkan beroperasi sebagai mesin terintegrasi secara vertikal. Pesan yang tidak bisa diabaikan: Berhenti memikirkan server, mulai memikirkan kampus. Atau, jika Nvidia, mulai kirim faktur seperti utilitas.
Agen meninggalkan panggung demo
Jika pitch perangkat keras tentang menjaga Nvidia tetap di pusat inferensi, pitch perangkat lunak adalah tentang memastikan AI perusahaan tidak menjadi pesta orang lain. Huang mengatakan “100% Nvidia” sekarang menggunakan Claude Code, Codex, dan Cursor; orang tidak lagi bertanya siapa, apa, kapan, di mana, dan bagaimana AI. Mereka memintanya untuk menciptakan. Untuk melakukan. Maaf, perusahaan chatbot — AI sekarang diperlakukan lebih sebagai sistem kerja daripada sekadar keisengan percakapan.
Huang menghabiskan hari untuk memastikan bahwa sistem kerja itu berjalan di seluruh tumpukan Nvidia. Perusahaan meluncurkan OpenClaw dan NemoClaw untuk komunitas OpenClaw — bekerja sama dengan perusahaan yang terlalu tren — mendorong Toolkit Agen dan runtime OpenShell, dan mengandalkan AI-Q, yang dimaksudkan untuk mengarahkan kueri dan mengurangi biaya lebih dari 50% melalui campuran hybrid model frontier dan model terbuka Nvidia.
Ada perlindungan strategis tersembunyi di balik semua keterbukaan itu.
Nvidia meluncurkan Nemotron Coalition bersama Black Forest Labs, Cursor, LangChain, Mistral, Perplexity, Reflection AI, Sarvam, dan Thinking Machines Lab, dengan proyek pertama yang akan mendukung keluarga model Nemotron 4 yang akan datang. Bacalah subteksnya, dan cukup jelas bahwa Nvidia tidak ingin masa depan perangkat lunak AI terbagi rapi antara beberapa vendor model tertutup besar dan tumpukan perangkat keras komoditas di bawahnya. Nvidia ingin berperan di lapisan model terbuka juga — bagian yang menentukan siapa yang bisa membangun, menyetel, dan memiliki AI di luar tembok laboratorium terbesar.
Gagasan kekaisaran menjadi lebih besar
Dan kemudian, karena Huang tidak pernah bertemu metafora yang tidak bisa dia tingkatkan, pidato utama meluas dari pusat data ke hampir setiap industri terkait yang bisa ditemukannya.
Huang telah memperluas cerita Nvidia di luar asisten digital selama beberapa waktu, dan GTC tahun ini mendorong tema itu lebih keras lagi. Nvidia mengumumkan Blueprint Pabrik Data AI Fisik bersama Microsoft $MSFT -0,14% Azure dan Nebius yang bertujuan mengotomatisasi bagaimana data pelatihan dihasilkan, ditingkatkan, dan dievaluasi untuk robotika, agen AI visi, dan kendaraan otonom. Pesan utamanya cukup sederhana: Data dunia nyata langka, kasus pinggirannya menyebalkan, dan data sintetis plus simulasi dapat mengubah komputasi menjadi bahan baku yang dibutuhkan sistem ini.
Huang juga menampilkan preview GR00T N2, model dasar robot generasi berikutnya berbasis riset DreamZero yang diklaim perusahaan lebih dari dua kali lipat keberhasilannya dibanding model VLA terkemuka dalam tugas baru di lingkungan baru. Chatbot membuat Wall Street bersemangat. AI fisik adalah bagian yang bisa menjaga pesta infrastruktur tetap berjalan selama bertahun-tahun, karena robot, sistem industri, dan mesin otonom tidak hanya membutuhkan model — mereka membutuhkan data pelatihan tak berujung, simulasi, jaringan, sensor, dan komputasi tepi.
Huang bahkan membawa Olaf dari Disney $DIS +1,66% ke panggung, sebuah bagian kecil dari pertunjukan AI fisik yang menyampaikan poin utama dengan lebih bersih daripada slide arsitektur lain yang benar-benar bisa dilakukan. Nvidia mengatakan Disney telah melatih Olaf dan robot BDX +0,85% mereka dengan simulator fisika yang dipercepat GPU yang dibangun di atas kerangka Nvidia Warp dan terintegrasi ke Newton, dan Olaf akan debut di Disneyland Paris pada 29 Maret.
Nvidia juga memastikan kendaraan otonom tetap berada di kartu bingo semua orang. Perusahaan mengatakan BYD, Geely, Isuzu, dan Nissan sedang membangun kendaraan Level 4 yang siap pakai di atas platform DRIVE Hyperion-nya, sementara Uber $UBER +4,19% dijadwalkan meluncurkan robotaxi berbasis Nvidia di Los Angeles dan San Francisco pada paruh pertama 2027 sebelum memperluas ke 28 pasar pada 2028. Otonomi hampir terlalu cocok dengan argumen Huang yang lebih luas: fase berikutnya AI akan bergerak melalui dunia fisik, yang berarti lebih banyak sensor, simulasi, jaringan, komputasi tepi, dan, dengan nyaman untuk Nvidia, perangkat keras yang lebih mahal di mana-mana.
Huang bahkan melangkah lebih jauh dan mengatakan Nvidia akan ke luar angkasa, dengan sistem berbasis Vera Rubin di masa depan yang ditujukan untuk pusat data orbit dan operasi ruang otonom. Tentu, itu terdengar seperti orang yang baru saja menyadari masih ada beberapa sektor yang belum tersentuh. Tapi juga terdengar seperti perusahaan yang bertekad menjadikan “infrastruktur AI” berarti hampir semua mesin mahal yang terlihat. Nvidia tetap raja chip, tentu. Tapi Huang tidak lagi terdengar sangat tertarik dengan gelar itu sendiri. Perusahaannya berusaha naik tingkat dari pemasok chip menjadi arsitek pabrik, vendor sistem operasi, dan pengumpul tol untuk dunia di mana AI melakukan lebih banyak pekerjaan dan pusat data yang terbatas daya menjadi mesin penghasil pendapatan yang diukur dalam token per watt.
Sampai Huang selesai, pidato utama terasa lebih besar dari kalender peluncuran. Ia seperti peta kekaisaran. Ya, ada DLSS 5 untuk grafis, perangkat lunak industri baru, kemitraan edge telekomunikasi, dan banjir perangkat pengembang. Tapi pesan yang tahan lama dan jauh lebih besar adalah: Nvidia ingin AI berhenti dipahami hanya sebagai kategori perangkat lunak dan mulai diperlakukan sebagai proyek infrastruktur skala utilitas, dengan perangkat keras dan perangkat lunak Nvidia tertanam di setiap lapisan.
Itulah pesan Jensen Huang yang sangat khas. Bagian yang mengganggu bagi pesaing adalah bahwa, setidaknya untuk saat ini, dia masih memiliki banyak pelanggan yang bersedia membangun di sekitarnya.