Memahami Secara Mendalam Kolam Keuntungan dan Pola Industri dari Hierarki Penyimpanan AI

AI Penyimpanan dapat dibagi menjadi enam lapisan,

  1. SRAM di chip

  2. HBM

  3. DRAM motherboard

  4. Lapisan pooling CXL

  5. SSD tingkat perusahaan

  6. NAS dan penyimpanan objek cloud

Lapisan ini didasarkan pada lokasi penyimpanan, semakin ke bawah semakin jauh dari unit komputasi, dan kapasitas penyimpanan semakin besar.

Pada tahun 2025, keenam lapisan ini (SRAM di chip komputasi, harus menghilangkan nilai embedded) totalnya sekitar 229 miliar dolar AS, di mana DRAM menyumbang setengah, HBM 15%, SSD 11%.

Situasi keuntungan, setiap lapisan sangat terkonsentrasi di oligopoli, tiga teratas umumnya memiliki pangsa pasar lebih dari 90%.

Profit pool ini dapat dibagi menjadi tiga kategori,

  1. Pool margin tinggi di lapisan silikon (HBM, SRAM embedded, SSD QLC)

  2. Pool margin tinggi yang baru di lapisan interkoneksi (CXL)

  3. Pool pertumbuhan berantai skala di lapisan layanan (NAS, penyimpanan objek cloud)

Ketiga jenis pool ini berbeda sifatnya, tingkat pertumbuhannya berbeda, dan juga memiliki keunggulan kompetitif yang berbeda.

Mengapa penyimpanan dibagi menjadi lapisan?

Karena CPU yang bertanggung jawab mengontrol dan GPU yang bertanggung jawab menghitung, hanya memiliki cache sementara, yaitu SRAM di chip. Ruang cache ini terlalu kecil, hanya cukup untuk menyimpan parameter sementara, tidak cukup untuk model besar.

Di luar kedua chip ini, diperlukan memori eksternal yang lebih besar untuk menyimpan model besar dan konteks inferensi.

Prosesnya sangat cepat, data yang dipindahkan antar lapisan penyimpanan memiliki latensi dan konsumsi energi, ini adalah masalah terbesar.

Jadi, saat ini ada tiga arah,

  1. Menggabungkan HBM, menumpuk memori di samping GPU, memperpendek jarak pemindahan

  2. CXL, pooling memori ke tingkat rak, berbagi kapasitas

  3. Menggabungkan komputasi dan penyimpanan di wafer yang sama, integrasi komputasi dan penyimpanan

Ketiga arah ini menentukan bentuk setiap lapisan profit pool dalam lima tahun ke depan.

Berikut adalah rincian lapisan-lapisan tersebut,

L0 SRAM di chip: Profit pool eksklusif TSMC

SRAM (Static Random-access Memory) adalah cache internal CPU/GPU, tertanam di setiap chip, tidak diperdagangkan secara terpisah.

Pasar SRAM chip independen hanya sekitar 1-1,7 miliar dolar AS, pemimpin pasar adalah Infineon (sekitar 15%), Renesas (sekitar 13%), ISSI (sekitar 10%), pasar kecil.

Profit pool bagian ini di TSMC, setiap generasi chip AI harus membeli lebih banyak wafer untuk menambah SRAM.

Dan lebih dari 70% wafer proses canggih di dunia dimiliki oleh TSMC. Setiap H100, B200, TPU v5 dan lain-lain, akhirnya menjadi pendapatan TSMC.

L1 HBM: Pool keuntungan terbesar di era AI

HBM (High Bandwidth Memory) adalah memori bandwidth tinggi yang menggunakan proses TSV (Through Silicon Via) untuk menumpuk DRAM secara vertikal, kemudian dikemas dengan CoWoS dan ditempelkan di samping GPU.

HBM hampir menentukan seberapa besar model yang bisa dijalankan oleh akselerator AI. SK Hynix, Micron, Samsung hampir 100% pangsa pasar.

Hingga kuartal pertama 2026, pangsa pasar terbaru adalah: SK Hynix 57-62%, Samsung 22%, Micron 21%. SK Hynix mendapatkan sebagian besar pesanan dari perusahaan seperti NVIDIA, menjadi pemasok dominan saat ini.

Laporan keuangan kuartal pertama 2026 dari Micron menyebutkan bahwa TAM (Total Addressable Market) HBM akan tumbuh dengan CAGR sekitar 40%, dari sekitar 35 miliar dolar AS tahun 2025 menjadi 100 miliar dolar AS tahun 2028, lebih cepat dua tahun dari prediksi sebelumnya.

Keunggulan utama HBM adalah margin keuntungan yang sangat tinggi. Kuartal pertama 2026, margin laba operasi SK Hynix mencapai rekor 72%.

Alasan keuntungan tinggi,

  1. Proses TSV mengorbankan sebagian kapasitas DRAM tradisional, menjaga HBM tetap dalam kondisi kekurangan pasokan;

  2. Tingkat keberhasilan packaging canggih sulit ditingkatkan, sebelumnya pangsa pasar Samsung turun dari 40% menjadi 22% karena faktor ini;

  3. Pemasok utama memperluas kapasitas dengan hati-hati, dan pada kuartal pertama 2026, harga jual rata-rata DRAM (ASP) meningkat lebih dari 60% secara QoQ, menunjukkan posisi pasar penjual yang jelas.

Di antara tiga raksasa, SK Hynix didorong kuat oleh HBM, pendapatan operasinya tahun 2025 mencapai 47,21 triliun won Korea, pertama kalinya melampaui Samsung Electronics, dan pada kuartal pertama 2026 dengan margin laba operasi 72%, bahkan melampaui TSMC (58,1%) dan NVIDIA (65%).

Micron memiliki prospek pertumbuhan sangat tinggi, Bank of America (BofA) pada Mei 2026 menaikkan target harga sahamnya secara signifikan menjadi 950 dolar AS. Samsung, dengan produksi massal HBM4 yang terus berjalan, memiliki ruang terbesar untuk pangsa pasar yang kembali meningkat.

L2 DRAM motherboard

Lapisan ini biasanya disebut RAM modul.

DRAM motherboard mencakup produk memori seperti DDR5, LPDDR, GDDR, MR-DIMM, dan lain-lain, saat ini merupakan bagian terbesar dari penjualan pasar penyimpanan AI, dengan total pasar global sekitar 121,83 miliar dolar AS pada 2025.

Samsung, SK Hynix, dan Micron tetap menguasai sebagian besar pasar. Data terbaru kuartal keempat 2025 menunjukkan Samsung memegang pangsa pasar 36,6%, SK Hynix 32,9%, Micron 22,9%.

Saat ini, kapasitas beralih ke HBM yang lebih menguntungkan, menjaga margin keuntungan dan kekuasaan penetapan harga memori. Meskipun margin produk DRAM motherboard konvensional tidak setinggi HBM, pasar secara keseluruhan terbesar.

L3 Pooling CXL

CXL (Compute Express Link) memungkinkan pooling DRAM dari satu server motherboard ke seluruh rak.

Setelah CXL 3.x, semua memori dalam satu rak dapat dibagikan dan dijadwalkan secara bersama oleh beberapa GPU, sesuai kebutuhan. Mengatasi masalah saat inferensi AI, seperti cache KV, basis data vektor, dan indeks RAG yang tidak muat atau sulit dipindahkan.

Modul memori CXL tahun 2024 hanya sekitar 1,6 miliar dolar AS, diperkirakan mencapai 23,7 miliar dolar AS pada 2033. Tampaknya, tetap didominasi oleh Samsung, SK Hynix, dan Micron.

Di lapisan ini, Astera Labs memproduksi retimer antara CXL dan PCIe serta pengontrol memori cerdas, menguasai sekitar 55% pangsa pasar sub ini. Pendapatan kuartal terakhir mencapai 308 juta dolar AS, meningkat 93% YoY, margin laba kotor non-GAAP 76,4%, laba bersih YoY meningkat 85%. Sangat menguntungkan.

L4 SSD NVMe tingkat perusahaan: penerima manfaat terbesar di era inferensi

SSD NVMe tingkat perusahaan adalah medan utama untuk checkpoint pelatihan AI, indeks RAG, offload KV cache, dan cache bobot model. SSD QLC kapasitas besar telah benar-benar mengusir HDD dari danau data AI.

Pada 2025, pasar SSD tingkat perusahaan sekitar 26,1 miliar dolar AS, CAGR 24%, diperkirakan mencapai 76 miliar dolar AS pada 2030.

Pola pasar, seperti biasa, dikuasai oleh tiga raksasa.

Berdasarkan pendapatan kuartal keempat 2025, pangsa pasar adalah: Samsung 36,9%, SK Hynix (termasuk Solidigm) 32,9%, Micron 14,0%, Kioxia 11,7%, SanDisk 4,4%. Lima besar sekitar 90%.

Perubahan terbesar di lapisan ini adalah ledakan SSD QLC dalam skenario inferensi AI. Anak perusahaan Hynix, Solidigm, dan Kioxia telah memproduksi produk kapasitas 122 TB per disk, di mana cache KV dan indeks RAG untuk inferensi AI mulai meluas dari HBM ke SSD.

Dari sudut pandang profit pool, SSD tingkat perusahaan tidak memiliki margin laba setinggi HBM, tetapi menikmati keuntungan dari kapasitas dan ekspansi inferensi.

Hynix dan Kioxia adalah target yang relatif murni. Samsung dan SK Hynix menikmati manfaat dari tiga lapisan: HBM, DRAM, dan NAND, menjadikannya perusahaan platform penyimpanan AI yang lebih komprehensif.

L5 NAS dan penyimpanan objek cloud: pool pertumbuhan data

NAS dan penyimpanan objek cloud adalah lapisan terluar untuk danau data AI, data pelatihan, cadangan arsip, dan kolaborasi lintas tim. Pada 2025, NAS sekitar 39,6 miliar dolar AS (CAGR 17%), penyimpanan objek cloud sekitar 9,1 miliar dolar AS (CAGR 16%).

Pemain utama penyimpanan file tingkat perusahaan adalah NetApp, Dell, HPE, Huawei; untuk usaha kecil dan menengah adalah Synology, QNAP. Untuk penyimpanan objek cloud, berdasarkan pangsa IaaS, AWS sekitar 31-32%, Azure 23-24%, Google Cloud 11-12%, ketiganya sekitar 65-70%.

Lapisan ini keuntungan utamanya berasal dari pengelolaan jangka panjang, data keluar jaringan, dan penguncian ekosistem.

Ringkasan,

  1. Porsi DRAM terbesar tetapi margin keuntungan terendah 30-40%; porsi HBM hanya sepertiga dari DRAM, margin keuntungan berlipat ganda di atas 60%; pool re-timer CXL paling kecil, margin keuntungan tertinggi di atas 76%. Semakin dekat ke unit komputasi, semakin langka dan menguntungkan.

  2. Pertumbuhan profit pool terutama dari tiga sumber, HBM (CAGR 28%), SSD tingkat perusahaan (CAGR 24%), pooling CXL (CAGR 37%).

  3. Setiap lapisan memiliki hambatan bisnis berbeda, HBM bergantung pada hambatan teknologi, TSV, CoWoS, dan peningkatan yield; CXL bergantung pada IP dan sertifikasi, retimer sebagai pemasok tunggal; layanan bergantung pada biaya switching.

4-3,95%
TSM-1,35%
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Disematkan