Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Lonjakan Permintaan Daya Komputasi Reasoning, Perusahaan Rantai Industri Mempercepat Ekspansi
Securities Daily Reporter Wang Jingru
Seiring teknologi kecerdasan buatan generatif yang secara bertahap beralih dari “pelatihan model” ke penerapan komersial skala besar, konsumsi daya yang berfokus pada pelatihan secara bertahap beralih ke kebutuhan daya yang berkelanjutan yang didominasi oleh inferensi. Pada 17 Maret, CEO NVIDIA Jensen Huang menyatakan di konferensi GTC bahwa titik balik pasar inferensi AI telah tiba, AI telah sepenuhnya memasuki tahap inferensi dan eksekusi dari tahap pelatihan, dan permintaan daya inferensi mengalami ledakan eksponensial.
“Seiring peningkatan skala aplikasi kecerdasan buatan generatif, kecepatan pertumbuhan kebutuhan daya inferensi mungkin jauh melebihi daya pelatihan. Di satu sisi, permintaan aplikasi meledak, AI generatif dan aplikasi agen cerdas mempercepat penerapan, interaksi pengguna yang tinggi frekuensi membawa permintaan inferensi yang eksponensial; di sisi lain, teknologi seperti chip inferensi khusus, pendinginan cairan, dan interkoneksi optik terus berkembang, secara signifikan meningkatkan efisiensi daya dan kemampuan paralel, membangun dasar untuk penerapan skala besar,” kata Zhang Pengyuan, peneliti di Shenzhen Qianhai PaiPai Network Fund Sales Co., Ltd., kepada wartawan Securities Daily.
Menurut prediksi dari lembaga industri, pentingnya daya inferensi terus meningkat. International Data Corporation (IDC) memperkirakan bahwa pada 2027, proporsi daya inferensi di China akan menembus 70% dari total daya. Huang Chao, pendiri dan CEO China IDC Circle, menyatakan bahwa pada 2026, agen industri akan memasuki tahap perkembangan yang beragam, dan aplikasi daya akan beralih dari “berbasis pelatihan” ke “berbasis inferensi”, dan periode ledakan permintaan daya inferensi akan segera tiba.
Menghadapi pertumbuhan cepat kebutuhan daya inferensi, perusahaan rantai industri domestik mempercepat pengembangan teknologi dan penataan produk. Di tingkat chip, banyak produsen meluncurkan chip yang dioptimalkan untuk skenario inferensi. Dibandingkan dengan chip pelatihan tradisional, chip inferensi lebih menekankan pengendalian konsumsi daya, efisiensi biaya, dan fleksibilitas penerapan, sehingga memiliki ruang aplikasi yang luas di cloud dan edge.
Sebagai contoh, Shenzhen Cloud Tian Lifi Technology Co., Ltd. (selanjutnya disebut “Cloud Tian Lifi”) berfokus pada NPU, menetapkan jalur teknologi GPNPU untuk chip daya besar di skenario inferensi cloud, dan melakukan optimasi mendalam pada matriks, unit vektor, tingkat penyimpanan, dan pemanfaatan bandwidth efektif, dengan tujuan menurunkan biaya token secara eksponensial dan mempercepat penerapan model besar secara massal dan inklusif.
Pada 2025, Cloud Tian Lifi mencapai pendapatan operasional sebesar 1,308 miliar yuan, meningkat 42,57% dari tahun sebelumnya. Pejabat terkait dari Cloud Tian Lifi mengatakan kepada wartawan Securities Daily, “Bagi perusahaan, seiring kompetisi industri beralih dari skala pelatihan ke efisiensi inferensi, biaya pengiriman, dan kemampuan menghasilkan uang dari sistem, siapa yang dapat lebih awal menyelaraskan perangkat keras, penyimpanan, dan perangkat lunak, akan memiliki peluang lebih besar untuk menguasai era inferensi.”
Di tingkat server dan sistem, produsen terkemuka juga terus meluncurkan platform daya yang dioptimalkan untuk skenario inferensi. Misalnya, Inspur Electronics Information Industry Co., Ltd. meluncurkan server inferensi YuanNao R1 yang mampu mendukung 16 kartu PCIe double-width standar per mesin, dan dapat langsung menerapkan model DeepSeek-671B; serta server inferensi CPU YuanNao yang dapat dengan cepat menerapkan dan menjalankan model inferensi generasi baru seperti DeepSeek-R132B dan QwQ-32B.
Sementara itu, pembangunan infrastruktur daya juga semakin dipercepat. Dulu, banyak pusat komputasi pintar domestik mengadopsi model pembangunan terpadu pelatihan dan inferensi. Pada 12 Maret, Cloud Tian Lifi memenangkan proyek pembangunan infrastruktur kekuatan produksi baru berbasis AI yang mendukung penetrasi AI di Zhanjiang, Guangdong, yang difokuskan pada tugas inferensi AI, terutama untuk berbagai skenario industri, menyediakan contoh penerapan AI untuk industri tradisional domestik.
General Manager He Li dari Beijing Zhi Yu Zhi Shan Investment Management Co., Ltd. berpendapat bahwa dalam perubahan ini, chip inferensi berkinerja tinggi, HBM, dan perangkat lunak lengkap akan menjadi yang pertama mendapatkan manfaat dari ledakan daya. Skenario inferensi menuntut latensi rendah, throughput tinggi, dan efisiensi energi yang tinggi, sehingga arsitektur khusus seperti LPU dan ASIC akan mempercepat penggantian unit komputasi umum, dan teknologi penyimpanan seperti HBM4 akan menjadi kunci untuk mengatasi hambatan bandwidth. Selain itu, daya komputasi dari pusat data ke edge semakin menyebar, dengan kebutuhan untuk rak inferensi berkapasitas tinggi dan teknologi pendinginan canggih, serta optimisasi kompilasi seperti kuantisasi model dan kompresi parameter, akan mendorong industri beralih dari tumpukan perangkat keras ke kolaborasi perangkat keras dan perangkat lunak.