CITIC Securities: Terus Memandang Baik Tren Pertumbuhan Inovasi Penyimpanan

CITIC Securities dalam laporan risetnya menyebutkan, pada era Agent AI, kapasitas penyimpanan (storage power) menjadi inti, mendorong industri penyimpanan mengalami pergeseran paradigma jangka panjang. Dari sisi penawaran-permintaan, inferensi AI mendorong konsumsi Token meningkat tajam; KV Cache kemudian meningkat secara linier; ledakan permintaan yang tidak sinkron dengan ekspansi kapasitas produsen asli menyebabkan kelangkaan menjadi kondisi yang umum. Diperkirakan ketidakseimbangan penawaran-kebutuhan yang terjadi (supply tidak mencukupi) akan terus berlanjut hingga 2027, sementara kenaikan harga akan berlangsung sepanjang seluruh tahun 2026. Dari sisi teknis, di tengah latar belakang kekurangan ekstrem HBM dan DRAM serta biaya yang tinggi, para pemasok membagikan solusi inovasi NAND untuk membantu menanggung tekanan kebutuhan kapasitas memori. CITIC Securities terus memandang tren pertumbuhan yang inovatif pada penyimpanan secara positif.

Berikut teks lengkapnya

Penyimpanan | Melihat tren perkembangan penyimpanan dari Konferensi Pasar Flash

Pada era Agent AI, kapasitas penyimpanan (storage power) menjadi inti, mendorong industri penyimpanan mengalami pergeseran paradigma jangka panjang. Dari sisi penawaran-permintaan, inferensi AI mendorong konsumsi Token meningkat tajam; KV Cache kemudian meningkat secara linier; ledakan permintaan yang tidak sinkron dengan ekspansi kapasitas produsen asli menyebabkan kelangkaan menjadi kondisi yang umum. Diperkirakan ketidakseimbangan penawaran-kebutuhan yang terjadi (supply tidak mencukupi) akan terus berlanjut hingga 2027, sementara kenaikan harga akan berlangsung sepanjang seluruh tahun 2026. Dari sisi teknis, di tengah latar belakang kekurangan ekstrem HBM dan DRAM serta biaya yang tinggi, para pemasok membagikan solusi inovasi NAND untuk membantu menanggung tekanan kebutuhan kapasitas memori. Kami terus menilai positif tren pertumbuhan inovasi penyimpanan.

Konferensi Pasar Flash Tiongkok 2026 diadakan, berfokus pada peluang inovasi penyimpanan dan peningkatan rantai industri di era AI.

Pada 27 Maret 2026, acara tahunan industri penyimpanan global CFMS MemoryS 2026 diadakan di Shenzhen. Sebagai konferensi level penentu arah industri, edisi kali ini mengusung tema inti “Melewati siklus, melepaskan nilai”, dengan fokus mendalam pada inovasi teknologi dan peningkatan kolaborasi rantai industri. Acara ini menarik puluhan perusahaan teratas global seperti Samsung Electronics, Microchip Technology, Kioxia, Solidigm, Intel, Tencent Cloud, dan lain-lain, mencakup seluruh tahapan rantai industri mulai dari pabrikan chip penyimpanan, desain pengendali, manufaktur modul, hingga layanan berbasis cloud. Konferensi ini menjalankan dua jalur secara paralel, yaitu forum kelas atas dan pameran teknologi, sambil menelaah prospek tren kondisi industri yang berkembang. Fokusnya pada ledakan kebutuhan capacity (power) di bawah lonjakan token/KV Cache pada era Agent AI. Diskusi mendalam juga membahas perubahan inovasi penyimpanan yang didorong AI lainnya, termasuk terobosan pada SSD PCIe 5.0/6.0, teknologi QLC berkapasitas sangat besar, serta banyak aspek lain, sekaligus menampilkan lebih dari 100 produk inovatif.

▍ Inferensi AI mendorong ledakan kebutuhan penyimpanan; ketidakseimbangan struktural menjadi kondisi yang umum. Diperkirakan ketidakseimbangan antara penawaran dan permintaan setidaknya akan terus berlanjut hingga 2027, dengan kenaikan harga sepanjang seluruh tahun 2026.

Dari sisi permintaan: menurut data pasar flash China CFM, pengiriman server pada 2026 tumbuh YoY +15%. Pangsa server AI dalam total pengiriman server akan menembus 20%. Model besar berpindah dari tahap pelatihan ke tahap inferensi; meledaknya aplikasi Agent menyebabkan konsumsi Token meningkat tajam. Ketika panjang sekuens meningkat dari 1k menjadi 128k token, penggunaan KV Cache naik dari 0.5GB menjadi 64GB (BF/FP16, per permintaan). Dalam skenario long context + high concurrency, kebutuhan penyimpanan meningkat secara linier seiring token/jumlah konkurensi. CFM memprediksi kapasitas HBM pada 2025/2026 masing-masing akan tumbuh YoY lebih dari +90%/+35%. Bersamaan dengan KV Cache yang turun ke level lebih rendah (downward) ditambah kekurangan pasokan HDD yang mendorong limpahan permintaan, eSSD menjadi downstream terbesar NAND pada 2026 (pangsa meningkat hingga 37%).

Dari sisi penawaran: ketidaksesuaian siklus ekspansi kapasitas membuat kelangkaan dan kenaikan harga bertahan dalam jangka panjang. Produsen penyimpanan pada umumnya menerapkan strategi menjaga harga tetap stabil, dengan memprioritaskan advanced capacity untuk produk penyimpanan AI bermargin tinggi. Menurut CFM, proporsi kapasitas DRAM yang relatif lebih canggih, termasuk HBM/DDR5/LP5X/6, meningkat dari kurang dari 50% pada 2024 menjadi 85%+ pada 2026. Kapasitas proses matang dan kapasitas kelas konsumsi terus tertekan. Persediaan industri turun dari 10~12 minggu pada Oktober~Desember 2023, menjadi 8~10 minggu pada Agustus~Oktober 2024, dan pada 2026 turun menjadi 4 minggu, jatuh di bawah garis aman historis. Siklus ekspansi kapasitas penyimpanan berlangsung 18~24 bulan; pada 26H2 tidak mungkin muncul titik balik pasokan. Microchip Technology berpendapat bahwa barulah pada 2027 kelangkaan penyimpanan akan menjadi “momen paling gelap”. Mulai 25H2, harga penyimpanan mengalami kenaikan tingkat epik. CFM memprediksi DRAM dan NAND ASP akan terus mengalami kenaikan sepanjang seluruh tahun 2026. Pada era inferensi AI, kapasitas penyimpanan menjadi inti; penyimpanan mengalami pergeseran paradigma jangka panjang, menuju pertumbuhan super, bukan sekadar rebound siklis.

▍ Rantai industri penyimpanan mempercepat restrukturisasi nilai.

Pada konferensi GTC baru-baru ini, NVIDIA menekankan “Token factory economics”. Makna intinya adalah memperkuat posisi strategis penyimpanan dalam infrastruktur AI, sekaligus berarti batas plafon profitabilitas industri penyimpanan akan dibuka dalam jangka panjang. Menurut data CFM, ASP produk eSSD pada 26Q1 sudah mencapai lebih dari 2 kali ASP NAND kelas konsumsi. Bagi produsen penyimpanan, kuncinya terletak pada upgrade media dan restrukturisasi skala arsitektur sistem. Pembahasan pada presentasi forum kali ini terutama berfokus pada pasar enterprise. Bagi vendor solusi penyimpanan, fokus industri bergeser dari “siapa yang paling murah” menjadi “siapa yang bisa mendapatkan barang (pasokan)”. Sementara itu, perusahaan-perusahaan terkemuka seperti Phison Electronics sedang mempercepat transformasi menuju “modul khusus bernilai tambah tinggi” yang didukung pengendali yang dirancang sendiri, serta memperluas SSD enterprise, untuk mendefinisikan ulang nilai penyimpanan dan melepaskan diri dari pola ketergantungan pada stok berbiaya rendah.

▍ Tren penyimpanan AI cloud (enterprise): ledakan QLC berkapasitas besar dan evolusi antarmuka yang cepat, membentuk ulang mesin komputasi.

AI sedang mempercepat transisi dari tahap “training” ke tahap “inferensi”. Rasio server inferensi terhadap server training di masa depan diperkirakan dapat mencapai setinggi 10:1 hingga 50:1. Saat ini, karena kendala bandwidth penyimpanan, ketersediaan (utilisasi) GPU cluster hanya sekitar 46% hingga 50%. Upgrade memori (VRAM) menjadi kebutuhan inti. Selain itu, pada puncak acara ini, banyak pemasok membagikan fungsi pembagian ulang alokasi yang mendukung kolaborasi penyimpanan dan komputasi. Peran eSSD berpindah dari “wadah data pasif” menjadi “mesin komputasi” inti dan “lapisan memori tambahan”. Di sisi training, dengan memanfaatkan checkpoint yang disimpan di QLC eSSD berkapasitas sangat besar, efisiensi operasi GPU dapat ditingkatkan secara signifikan. Di sisi inferensi, eSSD menangani tugas seperti manajemen status konteks yang sangat besar, kueri pada database vektor, serta pemuatan model yang dipecah, melalui cache berlapis KV Cache. Data hasil pengujian menunjukkan bahwa dengan mengalihmuat KV cache ke SSD, dan menghilangkan perhitungan prefill, waktu generasi token pertama (TTFT) dapat diturunkan hingga 41 kali. Penyimpanan enterprise sedang menunjukkan tren teknis berikut:

Menghadapi kebutuhan cache meluap (spillover) untuk volume besar data AI dan KV Cache, QLC berkerapatan tinggi menjadi media kunci. Solusi QLC ultra-berkapasitas skala ratusan TB menjadi pilihan utama. Kioxia (245.76TB), TD (245TB), dan SanDisk (hingga skema SN670 berkapasitas 256TB) juga menampilkan produk QLC ultra-besar skala ratusan TB, yang sangat mengoptimalkan efisiensi ruang dan TCO.

Chip pengendali bergerak menuju “koordinasi lunak dan keras”, mengisi kekurangan pada media. Untuk skenario inferensi yang menimbulkan frekuensi tinggi baca-tulis acak dan tekanan bandwidth akibat KV Cache, chip pengendali sedang dinaikkan levelnya secara proaktif. Ping Tou Ge Zhen Yue 510 melalui dukungan asli protokol ZNS serta kerja sama sistem-level, membantu QLC masuk ke penggunaan komersial secara masal; total pengiriman melebihi 500 ribu keping. VeriSilicon Technology memperkenalkan teknologi seperti mesin akselerasi KV dan predictive prefetch, sehingga pengendali berubah dari “pengangkut data” menjadi pengatur sumber daya cerdas yang aktif.

Iterasi antarmuka yang sangat cepat dan inovasi liquid cooling, untuk menyesuaikan klaster GPU super-besar hingga ratusan ribu. Menghadapi tantangan penyerapan data yang masif dan panas berkerapatan tinggi pada klaster ribuan, puluhan ribu, hingga ratusan ribu kartu. Samsung menampilkan SSD solid-state 16-channel PCIe 6.0 PM1763, dengan peningkatan performa input/output secara loncatan hingga 2.0 kali; FADU’s PCIe Gen6 controller “Lhotse” sudah tape-out, dan performa baca sekuensial akan mencapai 28.5GB/s.

▍ Tren penyimpanan AI terminal (kelas konsumsi): akselerasi AI di sisi perangkat diwujudkan, komputasi dan penyimpanan menyatu untuk memecahkan bottleneck penggunaan memori.

Lingkungan di sisi perangkat sangat menuntut biaya BOM perangkat keras, konsumsi daya sistem, dan penggunaan memori DRAM. Oleh karena itu, melalui “penggabungan penyimpanan dan komputasi”, penjadwalan cerdas pada perangkat lunak maupun perangkat keras, serta teknologi cache tingkat lanjut, memindahkan beban inferensi dari memori (DRAM) ke flash (NAND) menjadi tambahan penting untuk mengatasi bottleneck penerapan model besar di sisi perangkat saat ini.

AI PC dan model besar lokal: teknologi Hybrid menurunkan tekanan lonjakan kebutuhan kapasitas DRAM. Menjalankan model besar dengan puluhan miliar atau ratusan miliar parameter pada sisi perangkat adalah tantangan besar untuk memori. Jiangbo Long meluncurkan unit pemrosesan penyimpanan yang dipasangkan SPU 5nm dan iSA storage agent. Dalam penyetelan bersama dan validasi, mereka mencapai deployment lokal model 397B pada host PC, serta menurunkan penggunaan DRAM hampir 40% pada skenario konteks sekitar 256K. Phison Electronics meluncurkan Phison Hybrid AI SSD dan teknologi aiDAPTIV+, yang diperkirakan dapat mengurangi penggunaan DRAM lebih dari 50%, sehingga biaya tetap terkendali dan inferensi lokal tetap aman.

Kendaraan cerdas dan edge computing: menuju arsitektur sentralisasi pool (centralized pooling) dan basis platform terpadu. Kecerdasan yang mewujud (embodied intelligence) dan sistem mengemudi cerdas tingkat lanjut mengajukan kebutuhan kolaborasi global pada arsitektur dasar. XPeng Motors menyatakan dengan jelas bahwa dalam kapasitas komputasi tertinggi hingga 2250 TOPS, bandwidth DRAM telah menjadi bottleneck inti keterlambatan inferensi; era mobil LPDDR6 berbasis kendaraan akan segera datang, dan penyimpanan NAND di kendaraan sedang beralih dari pulau-pulau domain yang terpisah menuju sentralisasi pool dan software-defined.

Smartphone dan AIoT Internet of Things: penurunan yang dalam untuk antarmuka berkecepatan tinggi dan teknologi cache tingkat lanjut. Untuk kebutuhan kecepatan respons dan daya tahan baterai pada perangkat mobile serta perangkat wearable yang baru muncul, Microchip Technology akan segera meluncurkan generasi baru pengendali UFS 4.1 SM 2755, dan mempercepat penataan untuk pasar AIoT seperti jam tangan pintar/kacamata. SanDisk menggunakan teknologi SmartSLC cache untuk mencapai performa throughput tinggi pada konsumsi daya sekitar 2W saja dengan menjalankan UFS 4.1. Jiangbo Long mendorong penerapan teknologi HLC cache tingkat lanjut pada sisi embedded untuk menurunkan biaya BOM terminal.

▍ Faktor risiko:

Risiko ekonomi makro global yang lesu; permintaan dari hilir tidak sesuai ekspektasi; inovasi tidak sesuai ekspektasi; perubahan lingkungan industri internasional dan meningkatnya risiko sengketa perdagangan; risiko kemajuan upgrade kapasitas komputasi tidak sesuai ekspektasi; belanja modal vendor cloud tidak sesuai ekspektasi, dan lain-lain.

▍ Strategi investasi:

Kami memandang positif tren industri komputasi penyimpanan (storage-compute) di bawah peningkatan kapasitas penyimpanan pada era Agent AI: komputasi dekat (near-memory computing) sedang dalam kondisi sangat tinggi; kami juga melihat positif rantai industri HBM dan CUBE. Pada saat yang sama, ketika penyimpanan mengalami kelangkaan, semua penyimpanan arus utama hingga segmen niche akan mengalami kelangkaan dan kenaikan harga. Beberapa vendor melaporkan bahwa kenaikan 26Q2 masih relatif serupa secara month-to-month. Kami memperkirakan ketidakseimbangan penawaran-kebutuhan (supply tidak mencukupi) setidaknya akan berlanjut hingga akhir 2027. Rekomendasi utama: perusahaan modul penyimpanan, dengan kemampuan lonjakan kinerja jangka pendek yang kuat; perusahaan produsen penyimpanan serta perusahaan desain yang dekat dengan produsen asli.

(Sumber: Jiemian News)

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan