Wall Street Commentary on GTC: In NVIDIA's Definition, Computing Power is Revenue, Token is the New Commodity

Tanya AI · Bagaimana Penurunan Biaya Token Secara Signifikan Mendorong Perluasan Permintaan AI?

Konferensi tahunan GTC Nvidia mengirimkan sinyal inti: logika bisnis kekuatan komputasi AI sedang mengalami rekonstruksi fundamental—Token telah menjadi komoditas baru besar, dan kekuatan komputasi adalah pendapatan.

Manajemen Nvidia di GTC kali ini menaikkan proyeksi visibilitas penjualan pusat data dari sebelumnya 500 miliar dolar (sampai 2026) secara signifikan menjadi lebih dari 1 triliun dolar (akumulasi dari 2025 hingga 2027), dan secara tegas menyatakan bahwa penjualan CPU Vera independen dan solusi rak LPX akan dihitung secara terpisah di luar angka tersebut. Wall Street memandang konferensi ini sebagai penguatan yang kuat terhadap keberlanjutan siklus AI Nvidia.

Menurut Chase Wind Trading, laporan terbaru dari JPMorgan menunjukkan bahwa angka ini berarti ada ruang kenaikan minimal 50 hingga 70 miliar dolar relatif terhadap ekspektasi konsensus pasar terhadap pendapatan pusat data tahun 2026-2027—sehingga terdapat potensi upside setidaknya 500 hingga 700 miliar dolar.

Laporan Bank of America secara langsung mengutip pernyataan manajemen Nvidia—“Token adalah komoditas baru besar, kekuatan komputasi sama dengan pendapatan”—dan menunjukkan bahwa sistem Blackwell telah menurunkan biaya per Token hingga 35 kali dibandingkan generasi Hopper sebelumnya, dan seri Rubin yang akan datang diperkirakan akan menurunkan biaya ini lagi sebesar 2 hingga 35 kali, tergantung pada jenis beban kerja dan konfigurasi arsitektur.

Dalam kerangka naratif Nvidia, kurva penurunan biaya Token yang terus-menerus ini adalah kekuatan utama yang mendorong ekspansi skala permintaan.

Visibilitas Permintaan Melipatganda, Didukung oleh Pelanggan Skala Besar dan Pasar Perusahaan

Manajemen Nvidia mengungkapkan bahwa pesanan pembelian dengan tingkat kepercayaan tinggi untuk sistem Blackwell dan Vera Rubin telah melebihi 1 triliun dolar, dua kali lipat dari angka 500 miliar dolar yang diumumkan pada GTC pusat data Oktober 2025. Mereka juga menyatakan bahwa pesanan tambahan dan backlog tahun 2027 diperkirakan akan terus bertambah selama 6 hingga 9 bulan ke depan.

Struktur permintaan menunjukkan diversifikasi: sekitar 60% berasal dari penyedia cloud skala besar (penggunaan AI internal sedang beralih dari beban kerja rekomendasi/pencarian ke model bahasa besar), sisanya sekitar 40% tersebar di perusahaan AI cloud native CUDA, mitra cloud Nvidia, AI berdaulat, serta pelanggan industri dan perusahaan.

Bank of America menunjukkan bahwa proyeksi baru sebesar 1 triliun dolar ini secara umum sejalan dengan ekspektasi sebelumnya dari Wall Street terhadap pendapatan pusat data selama tiga tahun sebesar sekitar 970 miliar dolar, dan juga memvalidasi logika yang sama dengan proyeksi lama 500 miliar dolar Oktober 2025 yang diverifikasi sekitar 450 miliar dolar.

Perlu dicatat bahwa manajemen Nvidia dalam konferensi ini juga banyak membahas kebutuhan percepatan beban kerja perusahaan tradisional.

Nvidia mengumumkan kerjasama dengan IBM (untuk mempercepat WatsonX), Google Cloud (percepatan BigQuery, menghemat biaya sekitar 76% untuk Snap), Dell (platform data AI), dan meluncurkan dua pustaka dasar CUDA-X, yaitu cuDF dan cuVS.

JPMorgan berpendapat bahwa arah ini “sangat diremehkan pasar”—logikanya adalah, Hukum Moore semakin tidak berlaku, akselerasi khusus domain adalah satu-satunya jalan alternatif yang layak, yang akan memperluas pasar yang dapat dijangkau Nvidia di luar siklus pelatihan/penalaran AI.

Integrasi Groq LPU: Peluncuran Produk Terpenting di Tingkat Arsitektur

JPMorgan menilai bahwa integrasi Groq 3 LPU dengan Vera Rubin adalah “peluncuran produk terpenting di tingkat arsitektur” di GTC ini.

Arsitektur inferensi yang terpisah ini menggabungkan GPU Rubin (melalui throughput tinggi, 288GB HBM4, bandwidth 22TB/s, 50 PFLOPS NVFP4) dengan LPU Groq (dekode latensi rendah, SRAM on-chip 500MB, bandwidth SRAM 150TB/s, 1.2 PFLOPS FP8): proses pre-filling dilakukan di Rubin, bagian attention decoding juga berjalan di Rubin, sementara jaringan feedforward/pembuatan Token dialihkan ke LPU Groq.

Rak LPX mengintegrasikan 256 LPU, menyediakan 128GB SRAM gabungan, bandwidth memori 40PB/s, dan kapasitas inferensi 315 PFLOPS, diperkirakan akan diluncurkan pada kuartal ketiga 2026.

Manajemen Nvidia menyatakan bahwa untuk beban kerja yang membutuhkan kecepatan Token sangat tinggi (seperti pembuatan kode, komputasi teknik, inferensi konteks panjang), sekitar 25% dari konsumsi daya pusat data akan dialokasikan ke LPX, sementara sisanya 75% akan menggunakan konfigurasi Vera Rubin NVL72 murni.

Data dari Bank of America menunjukkan bahwa sistem Rubin yang dipadukan dengan rak SRAM LPX dapat meningkatkan efisiensi beban kerja berlatensi rendah kelas atas hingga 35 kali dibandingkan generasi sebelumnya. JPMorgan menambahkan bahwa arsitektur ini secara langsung menjawab kontradiksi mendasar bahwa satu prosesor tidak dapat mengoptimalkan throughput (terbatas FLOPS) dan latensi (terbatas bandwidth) secara bersamaan, sehingga Nvidia dapat bersaing secara efektif di pasar inferensi tingkat tinggi yang sebelumnya didominasi oleh ASIC.

Pengembangan Kabel Serat dan CPO Secara Paralel, Tidak Mengandalkan Satu Pilihan

Manajemen Nvidia secara tegas menanggapi persaingan antara kabel serat dan optik terintegrasi (CPO) di konferensi ini, dan mengonfirmasi bahwa kedua jalur akan didorong secara bersamaan.

Pada generasi Vera Rubin saat ini, rak Oberon menggunakan kabel tembaga untuk ekstensi ke NVL72 dan ekstensi optik ke NVL576; switch Ethernet optik terkemas Spectrum-6 SPX sudah diproduksi massal, dikembangkan bersama TSMC, dan manajemen menyatakan bahwa efisiensi daya optik meningkat 5 kali lipat dibandingkan transceiver pluggable tradisional, serta ketahanan meningkat 10 kali lipat.

Untuk Rubin Ultra (setengah kedua 2027), rak Kyber akan menggunakan ekstensi NVLink berbasis kabel tembaga (maksimal 144 GPU), dan juga menyediakan opsi pertukaran NVLink berbasis CPO sebagai alternatif. Feynman (2028) akan secara eksplisit mendukung kedua jalur ekstensi, baik kabel tembaga maupun CPO, dan dilengkapi Spectrum-7 (204T, CPO) untuk ekstensi lateral.

Securities Bank of America menekankan bahwa adopsi switch ekstensi CPO/pertukaran ekstensi lateral sepenuhnya bersifat opsional bagi pelanggan, yang dapat terus menggunakan kabel tembaga sampai mereka merasa waktu yang tepat. JPMorgan menilai bahwa konfirmasi kedua jalur ini sesuai dengan prediksi sebelumnya, dan memperkirakan bahwa ekstensi kabel tembaga akan tetap dominan di konfigurasi NVL72/NVL144 setidaknya hingga 2027, sementara CPO secara bertahap akan memperbesar pangsa di ekstensi lateral dan konfigurasi NVL576+.

Vera CPU: Sumber Pendapatan Baru Bernilai Miliar Dolar untuk AI Cerdas

Manajemen Nvidia secara tegas menyatakan bahwa bisnis independen Vera CPU “sudah dipastikan akan menjadi bisnis bernilai puluhan miliar dolar,” dan Bank of America menunjukkan bahwa aliran pendapatan ini belum sepenuhnya tercakup dalam ekspektasi pasar saat ini, sehingga merupakan kontribusi tambahan.

Vera CPU dilengkapi 88 inti Olympus ARM buatan sendiri, sistem memori LPDDR5X dengan bandwidth 1.2TB/s (dengan konsumsi daya setengah dari CPU server tradisional), dan terhubung ke GPU melalui NVLink-C2C dengan kecepatan 1.8TB/s (setara 7 kali PCIe Gen 6). Rak Vera CPU mengintegrasikan 256 CPU cair pendingin, mendukung lebih dari 22.500 lingkungan CPU secara bersamaan.

Manajemen menegaskan bahwa CPU sedang menjadi bottleneck dalam ekspansi AI cerdas—pembelajaran penguatan dan alur kerja agen cerdas membutuhkan banyak lingkungan CPU untuk menguji dan memverifikasi output model GPU. Meta telah melakukan deployment skala besar generasi Grace sebelumnya, dan Vera akan menggantikan pada 2027.

JPMorgan menilai bahwa pendapatan CPU ini bersifat margin tinggi, dapat diulang, dan akan disebar secara bersamaan dengan deployment rak GPU di pabrik AI, membentuk hubungan struktural dengan kurva akselerasi AI cerdas yang sedang didorong Nvidia.

Peta jalan produk diperpanjang hingga 2028, dengan ritme rilis arsitektur tahunan yang terus diperkuat

Nvidia menegaskan kembali ritme peluncuran platform tahunan: Blackwell (2024) → Blackwell Ultra (2025) → Rubin (2026) → Rubin Ultra (2027) → Feynman (2028).

Rubin Ultra akan menggunakan konfigurasi GPU 4-chip, dilengkapi 1TB HBM4e, dan menambahkan chip LPU LP35 (pertama kali memperkenalkan kekuatan komputasi NVFP4). Rak Kyber mendukung hingga 144 GPU per domain NVLink (generasi ketujuh NVLink, 3.6Tb/s per GPU, bandwidth agregat NVL576 1.5Pb/s).

Detail Feynman melebihi ekspektasi pasar:

GPU baru menggunakan proses TSMC A16 (1.6nm), memperkenalkan teknologi stacking chip dan HBM kustom; CPU baru bernama Rosa (mengambil nama Rosalind Franklin), dirancang khusus untuk orkestrasi beban kerja agen cerdas lintas GPU, LPU, penyimpanan, dan jaringan; LPU baru bernama LP40, dikembangkan bersama tim Groq internal Nvidia; juga termasuk DPU BlueField-5, kartu jaringan super ConnectX-10, NVLink 8, dan Spectrum-7 (204T, CPO).

JPMorgan berpendapat bahwa platform terintegrasi vertikal Nvidia (yang kini mencakup tujuh chip, lima sistem rak, dan tumpukan perangkat lunak) sulit ditiru, dan percepatan kebutuhan inferensi serta ekspansi pasar yang didorong oleh percepatan beban kerja tradisional secara struktural mendukung siklus pengeluaran modal AI yang lebih berkelanjutan dari yang diperkirakan pasar saat ini.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan