Memahami Secara Mendalam Kolam Keuntungan dan Pola Industri dari Hierarki Penyimpanan AI

null

Penulis: Godot

Penyimpanan AI dapat dibagi menjadi enam lapisan,

  1. SRAM di chip

  2. HBM

  3. DRAM motherboard

  4. Lapisan pooling CXL

  5. SSD tingkat perusahaan

  6. NAS dan penyimpanan objek cloud

Lapisan ini didasarkan pada lokasi penyimpanan, semakin ke bawah semakin jauh dari unit komputasi, dan kapasitas penyimpanan semakin besar.

Pada tahun 2025, keenam lapisan ini (SRAM di chip komputasi, harus menghapus nilai embedded) totalnya sekitar 229 miliar dolar AS, di mana DRAM menyumbang setengah, HBM 15%, SSD 11%.

Situasi keuntungan, setiap lapisan sangat terkonsentrasi di oligopoli, tiga teratas umumnya memiliki pangsa pasar lebih dari 90%.

Kita dapat membagi kolam keuntungan ini menjadi tiga kategori,

  1. Kolam margin tinggi di tingkat chip silikon (HBM, SRAM embedded, SSD QLC)

  2. Kolam margin tinggi yang baru di lapisan interkoneksi (CXL)

  3. Kolam pengganda skala di lapisan layanan (NAS, penyimpanan objek cloud)

Ketiga jenis kolam ini berbeda sifatnya, kecepatan pertumbuhannya berbeda, dan juga memiliki keunggulan kompetitif yang berbeda.

Mengapa penyimpanan dibagi menjadi lapisan?

Karena CPU yang bertanggung jawab mengontrol dan GPU yang bertanggung jawab melakukan komputasi, keduanya hanya memiliki cache sementara, yaitu SRAM di chip.

Ruang cache ini terlalu kecil, hanya cukup untuk menyimpan parameter sementara, tidak cukup untuk model besar.

Di luar kedua chip ini, diperlukan memori eksternal yang lebih besar untuk menyimpan model besar dan konteks inferensi.

Prosesnya sangat cepat, data yang dipindahkan antar lapisan penyimpanan memiliki latensi dan konsumsi energi, ini adalah masalah terbesar.

Jadi, saat ini ada tiga arah,

  1. Menumpuk HBM, menempatkan memori di samping GPU, memperpendek jarak pemindahan

  2. CXL, pooling memori ke tingkat rak, berbagi kapasitas

  3. Menggabungkan komputasi dan penyimpanan pada satu wafer, integrasi komputasi dan penyimpanan

Ketiga arah ini menentukan bentuk kolam keuntungan setiap lapisan dalam lima tahun ke depan.

Berikut adalah pembagian lapisan secara spesifik,

L0 SRAM di chip: kolam keuntungan eksklusif TSMC

SRAM (Static Random-access Memory, memori acak statis) adalah cache internal CPU/GPU, tertanam di setiap chip, tidak diperdagangkan secara terpisah.

Pasar chip SRAM independen hanya sekitar 1-1,7 miliar dolar AS, pemimpin pasar adalah Infineon (sekitar 15%), Renesas (sekitar 13%), ISSI (sekitar 10%), pasar kecil.

Kolam keuntungan bagian ini di TSMC, setiap generasi chip AI untuk menambah SRAM, harus membeli lebih banyak wafer.

Dan lebih dari 70% wafer proses canggih di dunia berada di tangan TSMC. Setiap H100, B200, TPU v5 dan lain-lain, luas SRAM-nya akhirnya menjadi pendapatan TSMC.

L1 HBM: Kolam keuntungan terbesar di era AI

HBM (High Bandwidth Memory, memori bandwidth tinggi) adalah memori bandwidth tinggi yang menggunakan proses TSV (Through Silicon Via) untuk menumpuk DRAM secara vertikal, kemudian dikemas dengan CoWoS dan ditempelkan di samping GPU.

HBM hampir menentukan seberapa besar model yang bisa dijalankan oleh akselerator AI. SK Hynix, Micron, Samsung hampir 100% pangsa pasar.

Hingga kuartal pertama 2026, pangsa pasar terbaru adalah: SK Hynix 57-62%, Samsung 22%, Micron 21%, SK Hynix mendapatkan sebagian besar pembelian dari perusahaan seperti NVIDIA, menjadi pemasok dominan saat ini.

Laporan keuangan kuartal pertama 2026 dari Micron menyebutkan, TAM (Total Addressable Market) HBM akan tumbuh dengan CAGR sekitar 40%, dari sekitar 35 miliar dolar AS tahun 2025 menjadi 100 miliar dolar AS tahun 2028, dan waktu mencapai 100 miliar dolar lebih cepat dua tahun dari prediksi sebelumnya.

Keunggulan utama HBM adalah margin keuntungan yang sangat tinggi. Kuartal pertama 2026, margin laba operasi SK Hynix mencapai rekor 72%.

Alasan keuntungan tinggi,

  1. Proses TSV mengorbankan sebagian kapasitas DRAM tradisional, menjaga pasokan HBM tetap ketat;

  2. Tingkat keberhasilan packaging canggih sulit ditingkatkan, sebelumnya Samsung menurunkan pangsa dari 40% menjadi 22% karena pengaruh ini;

  3. Pemasok utama memperluas kapasitas dengan hati-hati, dan pada kuartal pertama 2026, harga jual rata-rata DRAM (ASP) meningkat lebih dari 60% secara QoQ, menunjukkan posisi pasar penjual yang jelas.

Di antara tiga raksasa, SK Hynix didorong kuat oleh HBM, pendapatan laba operasinya tahun 2025 mencapai 47,21 triliun won Korea, pertama kalinya melampaui Samsung Electronics, dan pada kuartal pertama 2026 dengan margin laba operasinya 72%, bahkan melampaui TSMC (58,1%) dan NVIDIA (65%).

Micron memiliki prospek pertumbuhan sangat tinggi, Bank of America (BofA) pada Mei 2026 menaikkan target harga sahamnya secara signifikan menjadi 950 dolar AS. Samsung, dengan produksi massal HBM4 yang terus berjalan, memiliki ruang terbesar untuk kenaikan pangsa pasar.

L2 DRAM motherboard

Lapisan ini adalah yang biasa kita sebut RAM modul.

DRAM motherboard mencakup produk DDR5, LPDDR, GDDR, MR-DIMM dan lain-lain, saat ini merupakan bagian terbesar dari penjualan pasar penyimpanan AI, dengan total pasar global sekitar 121,83 miliar dolar AS pada 2025.

Samsung, SK Hynix, Micron tetap menguasai sebagian besar pasar. Data terbaru kuartal keempat 2025 menunjukkan Samsung memegang pangsa pasar 36,6%, SK Hynix 32,9%, Micron 22,9%.

Saat ini kapasitas beralih ke HBM yang lebih menguntungkan, menjaga margin keuntungan dan kekuasaan penetapan harga memori secara umum. Margin keuntungan produk tunggal DRAM motherboard tidak setinggi HBM, tetapi pasar secara keseluruhan terbesar.

L3 Pooling layer CXL

CXL (Compute Express Link) memungkinkan pooling DRAM dari satu server motherboard ke seluruh rak.

Setelah CXL 3.x, semua memori dalam satu rak dapat dibagikan dan dijadwalkan secara bersama oleh beberapa GPU, sesuai kebutuhan. Mengatasi masalah saat inferensi AI, seperti cache KV, basis data vektor, dan indeks RAG yang tidak muat dan tidak bisa dipindahkan.

Modul memori CXL tahun 2024 hanya sekitar 1,6 miliar dolar AS, diperkirakan mencapai 23,7 miliar dolar AS pada 2033. Tampaknya, tetap didominasi oleh Samsung, SK Hynix, Micron.

Di lapisan ini, Astera Labs memproduksi retimer antara CXL dan PCIe serta pengontrol memori cerdas, menguasai sekitar 55% pangsa pasar sub ini. Pendapatan kuartal terbaru mencapai 308 juta dolar AS, meningkat 93% YoY, margin laba kotor non-GAAP 76,4%, laba bersih YoY meningkat 85%. Sangat menguntungkan.

L4 SSD NVMe tingkat perusahaan: penerima manfaat terbesar di era inferensi

SSD NVMe tingkat perusahaan adalah medan utama untuk checkpoint pelatihan AI, indeks RAG, offload cache KV, dan cache bobot model. SSD QLC kapasitas besar telah benar-benar mengusir HDD dari danau data AI.

Pada 2025, pasar SSD tingkat perusahaan sekitar 26,1 miliar dolar AS, CAGR 24%, diperkirakan mencapai 76 miliar dolar AS pada 2030.

Pola pasar, seperti biasa, tetap dikuasai oleh tiga raksasa.

Berdasarkan pendapatan kuartal keempat 2025, pangsa pasar adalah: Samsung 36,9%, SK Hynix (termasuk Solidigm) 32,9%, Micron 14,0%, Kioxia 11,7%, SanDisk 4,4%. Lima besar sekitar 90%.

Perubahan terbesar di lapisan ini adalah ledakan SSD QLC dalam skenario inferensi AI. Anak perusahaan Hynix, Solidigm, dan Kioxia telah memproduksi produk kapasitas 122 TB per disk, dan cache KV serta indeks RAG untuk inferensi AI mulai meluas dari HBM ke SSD.

Dari sudut pandang kolam keuntungan, SSD tingkat perusahaan tidak memiliki margin laba setinggi HBM, tetapi menikmati dua manfaat dari kapasitas besar dan ekspansi inferensi.

Hynix dan Kioxia adalah target yang relatif murni. Samsung dan SK Hynix menikmati manfaat dari tiga lapisan HBM + DRAM + NAND, menjadi perusahaan platform penyimpanan AI yang lebih komprehensif.

L5 NAS dan penyimpanan objek cloud: kolam pengganda data

NAS dan penyimpanan objek cloud adalah lapisan terluar untuk danau data AI, korpus pelatihan, cadangan arsip, kolaborasi lintas tim. Pada 2025, NAS sekitar 39,6 miliar dolar AS (CAGR 17%), penyimpanan objek cloud sekitar 9,1 miliar dolar AS (CAGR 16%).

Pemain utama penyimpanan file tingkat perusahaan adalah NetApp, Dell, HPE, Huawei; untuk usaha kecil dan menengah adalah Synology, QNAP. Berdasarkan pangsa pasar IaaS, AWS sekitar 31-32%, Azure sekitar 23-24%, Google Cloud sekitar 11-12%, ketiganya sekitar 65-70%.

Lapisan ini keuntungan utamanya berasal dari pengelolaan jangka panjang, data keluar jaringan, dan penguncian ekosistem.

Ringkasan,

  1. Papan DRAM terbesar tetapi margin keuntungan terendah 30-40%; papan HBM hanya sepertiga dari DRAM, tetapi margin keuntungan berlipat ganda di atas 60%; papan re-timer CXL paling kecil, margin keuntungan tertinggi di atas 76%. Semakin dekat ke unit komputasi, semakin langka dan menguntungkan.

  2. Pertumbuhan kolam keuntungan terutama dari tiga sumber, HBM (CAGR 28%), SSD tingkat perusahaan (CAGR 24%), pooling CXL (CAGR 37%).

  3. Setiap lapisan memiliki hambatan bisnis berbeda, HBM bergantung pada hambatan teknologi, TSV, CoWoS, dan peningkatan yield; CXL bergantung pada IP dan sertifikasi, retimer sebagai pemasok tunggal; layanan bergantung pada biaya switching.

4-9,02%
TSM1,7%
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Disematkan