Apakah Google “salah menyudutkan”? Rantai pasokan penyimpanan ramai angkat suara: permintaan AI belum turun, kekurangan struktural masih terus berlanjut

robot
Pembuatan abstrak sedang berlangsung

Tanya AI · Mengapa algoritme kompresi Google tidak mampu menekan lonjakan kebutuhan penyimpanan?

Google baru-baru ini meluncurkan algoritme kompresi TurboQuant, yang mengklaim dapat mengurangi penggunaan cache penting model besar dalam jumlah setidaknya 6 kali. Kabar ini sempat membuat industri penyimpanan panik.

Namun, pada konferensi puncak MemoryS 2026, sejumlah perusahaan pembuat penyimpanan seperti Samsung Electronics, Yangtze Memory, Kioxia, dan SanDisk, serta perusahaan komputasi awan dan chip, ramai memberikan pernyataan. Mereka berpendapat bahwa seiring percepatan penerapan kecerdasan buatan, kebutuhan penyimpanan masih terus didorong ke level tertinggi baru, dan kondisi kekurangan pasokan mungkin berlanjut.

Seorang peserta konferensi mengatakan kepada reporter First Financial bahwa meskipun sebagian teknologi meningkatkan efisiensi pemrosesan data, skala aplikasi AI secara keseluruhan justru membuat kebutuhan nyata atas penyimpanan tetap bertumbuh. “Dalam dua hari ini saya bertemu 20 gelombang orang, dan setiap orang bertanya kepada saya apakah ada stok. Pada tahap inferensi, kebutuhan penyimpanan mengalami pertumbuhan eksponensial.”

“AI dengan cepat menggerogoti kapasitas produksi penyimpanan.” kata Tai Wei, General Manager CFM untuk pasar flash, dalam pertemuan tersebut. Data yang diungkapkan di tempat menunjukkan bahwa pada 2026, porsi server AI dalam pengiriman server secara keseluruhan akan menembus angka 20%, sehingga konfigurasi penyimpanan makin terdorong.

Ia mengatakan bahwa inferensi AI mendorong eSSD menjadi pasar aplikasi terbesar untuk NAND pada 2026. Sebaliknya, pasar ponsel tampil datar, tetapi AI di sisi perangkat (end-side) berpotensi menjadi pendorong pertumbuhan baru. Mobil sebagai salah satu arah aplikasi penting LPDDR juga menjadi salah satu skenario penting untuk penerapan AI.

Seiring aplikasi kecerdasan buatan bergeser dari pelatihan model ke penggunaan aktual yang lebih sering, tuntutan perusahaan terhadap kecepatan pembacaan data dan kemampuan respons meningkat secara jelas. “Penyimpanan performa tinggi tidak lagi sekadar pilihan yang boleh ada atau tidak, melainkan fondasi inti untuk efisiensi pengambilan keputusan sistem dan skala.” kata Zhang Shiwan, Wakil Presiden Eksekutif Samsung Electronics. Samsung berencana meluncurkan perangkat penggerak EDSFF dengan ketebalan hanya 1T pada 2026 hingga 2027. Solusi ini dapat meningkatkan berkali-kali total kapasitas dan bandwidth per satu rak, sehingga memaksimalkan efisiensi operasi ruang.

Tan Hong, penanggung jawab divisi solid-state drive Yangtze Memory, juga menegaskan bahwa saat ini ketersediaan GPU cluster “hanya sekitar 50%”, dan efisiensi pembacaan data penyimpanan telah menjadi faktor penting yang membatasi kemampuan komputasi untuk dimaksimalkan. Ia mengatakan bahwa dengan meningkatkan efisiensi pembacaan dan pemanggilan data, dapat mengurangi pemborosan kemampuan komputasi.

Kioxia SSD Chief Technical Executive Officer, Fukuda Kouichi, juga menyatakan bahwa seiring AI berpindah dari pelatihan ke aplikasi aktual, “penyimpanan menjadi bottleneck kunci”, dengan lonjakan kebutuhan yang paling terlihat datang dari skenario inferensi.

Di tengah pertumbuhan kebutuhan, penyesuaian dari sisi pasokan semakin memperparah situasi yang menegang.

Tai Wei mengatakan bahwa karena siklus ekspansi kapasitas penyimpanan mencapai 18 hingga 24 bulan, “kekurangan pasokan dalam jangka pendek sulit diredakan, dan ketidaksesuaian struktural telah menjadi kebiasaan.” Para produsen memprioritaskan kapasitas untuk produk terkait AI yang memiliki margin lebih tinggi; kapasitas produk konsumen tertekan, dan persediaan industri telah turun ke tingkat yang lebih rendah.

Pan Jiancheng, CEO Phison, memberikan penilaian yang lebih langsung: “Flash tetap akan kekurangan pasokan, dan akan kekurangan untuk waktu yang lama.”

Umpan balik dari sisi sistem juga menunjukkan sumber daya yang semakin menipis. Zeob Jingxiang, pakar teknis senior pada kernel Sistem Operasi Tencent Cloud, mengatakan bahwa seiring pertumbuhan kecerdasan buatan yang mengerek kapasitas DRAM, “sumber daya memori semakin ketat.”

“Ini bukan sekadar reaksi balik siklus yang sederhana, melainkan pergeseran paradigma berdurasi panjang. Teknologi penyimpanan sedang bergeser dari inovasi mikro menuju revolusi arsitektur; konsep seperti CXL, komputasi-dalam-memori (compute-storage one) dan komputasi dekat dengan memori (near-memory computing) sedang dipercepat untuk masuk ke pemakaian komersial.” Tai Wei juga mengingatkan, bahwa di balik kemeriahan tetap perlu tetap jernih; ia menyarankan agar sisi pasokan secara rasional menambah produksi, sisi permintaan merencanakan lebih awal dan menyediakan secara beragam, serta beralih dari pembelian penyimpanan yang pasif menjadi optimalisasi penyimpanan yang proaktif.

(Magang Zhu Lingjie juga berkontribusi pada artikel ini)

(Artikel ini berasal dari First Financial)

Bacaan terkait

Sebuah makalah memicu anjloknya saham chip penyimpanan, “momen DeepSeek” Google sudah datang?

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan