Tidak hanya GPU! Nvidia(NVDA.US)GTC 2026 meluncurkan seri baru LPU, CPU, dan produk lainnya untuk penataan lengkap pusat data AI di setiap tahap

robot
Pembuatan abstrak sedang berlangsung

Pada hari Senin waktu Timur AS, NVIDIA (NVDA.US) secara resmi membuka konferensi GTC di San Jose, California, dan langsung mengumumkan beberapa chip dan platform baru secara bersamaan, mulai dari generasi baru unit pemrosesan bahasa Nvidia Groq3 (LPU), hingga server lengkap yang dirancang khusus untuk bersaing dengan Intel (INTC.US) dan AMD (AMD.US), yaitu Vera CPU.

Diketahui, NVIDIA kali ini meluncurkan lima server lengkap besar yang ditujukan untuk berbagai kebutuhan di pusat data AI.

Salah satu pengumuman paling penting adalah chip Nvidia Groq3. Pada bulan Desember tahun lalu, NVIDIA mengakuisisi teknologi terkait Groq dengan nilai kesepakatan sebesar 20 miliar dolar AS, dan mengintegrasikan pendiri Groq Jonathan Ross, presiden Sunny Madra, serta tim inti ke dalam perusahaan.

Processor Groq khusus untuk inferensi AI—yaitu bagian inti dari menjalankan model AI. Ketika pengguna memasukkan perintah di ChatGPT, Claude, atau Gemini dan mendapatkan balasan, di balik layar adalah teknologi inferensi yang bekerja.

Berbeda dengan GPU umum NVIDIA yang dapat digunakan untuk pelatihan maupun menjalankan model, peluncuran Groq3 menandai bahwa perusahaan secara resmi memiliki chip inferensi khusus untuk memenuhi kebutuhan pasar AI yang sedang beralih dari pelatihan model ke penerapan model.

Ian Buck, Wakil Presiden untuk Komputasi Skala Besar dan Berkinerja Tinggi NVIDIA, menjelaskan bahwa meskipun GPU mendukung kapasitas memori yang lebih besar, memori LPU Groq3 memiliki kecepatan akses yang lebih cepat. Dengan menggabungkan keunggulan keduanya, platform baru Groq3LPX hadir—server lengkap ini mengintegrasikan 128 Groq3LPU yang berdiri sendiri, dan saat bekerja sama dengan rak Vera Rubin NVL72, throughput per megawatt dapat meningkat 35 kali lipat, dengan potensi keuntungan 10 kali lipat.

“Arsitektur LPX yang dioptimalkan untuk model dengan triliunan parameter dan konteks hingga jutaan token, melengkapi sempurna Vera Rubin, dan memaksimalkan efisiensi antara konsumsi daya, memori, dan kekuatan komputasi. Terobosan dalam throughput per watt dan performa token ini akan mendorong layanan inferensi model triliunan parameter kelas atas, membuka peluang pertumbuhan baru bagi semua penyedia layanan AI,” tegas NVIDIA dalam pernyataan resmi.

Peluncuran server LPX ini secara efektif menjawab kekhawatiran pasar bahwa NVIDIA mungkin kehilangan keunggulan akibat munculnya startup chip inferensi baru. Sementara itu, rak CPU Vera yang berdiri sendiri juga menarik perhatian—menggunakan 256 chip Vera yang didinginkan cair, sistem klaster ini menandai pertama kalinya NVIDIA memisahkan Vera CPU dari “Vera Rubin Superchip” (yang terdiri dari 1 Vera CPU dan 2 Rubin GPU).

Seiring munculnya AI agen cerdas, nilai strategis CPU semakin menonjol. Ketika AI agen perlu melakukan tugas seperti browsing web atau mengekstrak data dari tabel, performa CPU langsung menentukan efisiensi eksekusi. Dalam skenario seperti data mining dan rekomendasi personalisasi yang membutuhkan analisis konteks untuk GPU, CPU juga memainkan peran yang tak tergantikan.

“Vera adalah CPU terbaik yang dirancang khusus untuk beban kerja AI agen cerdas,” kata Buck. “Kami mendefinisikan ulang arsitektur CPU—dengan inti Olympus yang dirancang NVIDIA khusus untuk AI, mampu merespons lebih cepat dalam kondisi ekstrem, dan cocok untuk semua skenario pembelajaran penguatan.”

Ini bukan kali pertama NVIDIA terjun ke bidang CPU. Bulan lalu, melalui kesepakatan dengan Meta (META.US), mereka akan mengerahkan klaster CPU Grace generasi sebelumnya dalam skala terbesar dalam sejarah. Peluncuran Vera secara independen ini menandai bahwa NVIDIA secara resmi menetapkan strategi “GPU + CPU” sebagai penggerak utama, menantang dominasi Intel dan AMD di pasar pusat data.

Selain produk-produk tersebut, NVIDIA juga menampilkan sistem server penyimpanan Bluefield-4STX (dengan peningkatan performa dibanding solusi tradisional) dan server jaringan Spectrum-6SPX.

Dengan meningkatnya kebutuhan platform AI, lini produk baru NVIDIA diperkirakan akan semakin mendorong pendapatan dari bisnis pusat data. Pada tahun fiskal 2026, pendapatan pusat data mereka mencapai 19,35 miliar dolar AS, meningkat pesat dari 11,62 miliar dolar AS pada tahun fiskal 2025. Dari total belanja modal AI sebesar 650 miliar dolar AS yang direncanakan oleh raksasa seperti Amazon (AMZN.US), Google (GOOGL.US), Meta, dan Microsoft (MSFT.US) tahun ini, NVIDIA tidak diragukan lagi akan mendapatkan bagian yang cukup besar.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan