Hiểu rõ lợi nhuận trong tầng lưu trữ AI và cấu trúc ngành nghề trong một bài viết

null

Tác giả: Goto Godot

Lưu trữ AI có thể phân thành sáu lớp,

  1. SRAM trên chip

  2. HBM

  3. DRAM trên bo mạch chủ

  4. Tầng pooling CXL

  5. SSD cấp doanh nghiệp

  6. NAS và lưu trữ đối tượng đám mây

Cấu trúc này dựa trên vị trí lưu trữ, càng xuống dưới càng xa đơn vị tính toán, dung lượng lưu trữ càng lớn.

Đến năm 2025, tổng quy mô của sáu lớp này (SRAM trên chip tính trong chip tính toán, cần loại bỏ giá trị nhúng) khoảng 229 tỷ USD, trong đó DRAM chiếm một nửa, HBM chiếm 15%, SSD chiếm 11%.

Tình hình lợi nhuận, mỗi lớp đều cực kỳ tập trung vào các tập đoàn thống trị, ba lớp đầu đều có thị phần trên 90%.

Có thể chia các hồ lợi nhuận này thành ba loại,

  1. Hồ lợi nhuận cao của lớp chip silicon (HBM, SRAM nhúng, SSD QLC)

  2. Hồ lợi nhuận cao mới nổi của tầng liên kết (CXL)

  3. Hồ lợi nhuận lãi kép quy mô của tầng dịch vụ (NAS, lưu trữ đối tượng đám mây)

Ba loại hồ này có tính chất khác nhau, tốc độ tăng trưởng khác nhau, và rào cản gia nhập cũng khác nhau.

Tại sao lưu trữ lại phân lớp?

Bởi vì trên CPU kiểm soát và GPU tính toán, chỉ có bộ nhớ đệm tạm thời, tức SRAM trên chip. Không gian bộ nhớ đệm này quá nhỏ, chỉ đủ chứa các tham số tạm thời, không thể chứa các mô hình lớn.

Ngoài hai chip này, cần có bộ nhớ lớn hơn để lưu trữ các mô hình lớn và ngữ cảnh suy luận.

Rất nhanh, dữ liệu di chuyển giữa các lớp lưu trữ có độ trễ và tiêu thụ năng lượng, đó mới là vấn đề lớn nhất.

Vì vậy, hiện nay có ba hướng,

  1. Xây dựng HBM, đặt bộ nhớ gần GPU hơn, rút ngắn khoảng cách di chuyển

  2. CXL, pooling bộ nhớ thành quy mô rack, chia sẻ dung lượng

  3. Tính toán và lưu trữ hàn trên cùng một wafer, tích hợp tính toán và lưu trữ

Ba hướng này quyết định hình dạng của các hồ lợi nhuận trong năm năm tới của từng lớp.

Dưới đây là phân lớp cụ thể,

L0 SRAM trên chip: Hồ lợi nhuận riêng của TSMC

SRAM (Static Random-access Memory, bộ nhớ truy cập ngẫu nhiên tĩnh) là bộ nhớ đệm bên trong CPU/GPU, tích hợp trong từng chip, không giao dịch riêng lẻ.

Thị trường chip SRAM độc lập chỉ khoảng 1-1.7 tỷ USD, dẫn đầu là Infineon (khoảng 15%), Renesas (khoảng 13%), ISSI (khoảng 10%), thị trường nhỏ.

Phần lợi nhuận này nằm trong TSMC, mỗi thế hệ chip AI đều cần mua nhiều wafer hơn để nhồi thêm SRAM.

Và hơn 70% wafer công nghệ tiên tiến toàn cầu nằm trong tay TSMC. Diện tích SRAM của mỗi H100, B200, TPU v5, v.v., cuối cùng đều trở thành doanh thu của TSMC.

L1 HBM: Hồ lợi nhuận lớn nhất thời đại AI

HBM (High Bandwidth Memory, bộ nhớ băng thông cao) là bộ nhớ DRAM (Dynamic Random-access Memory, bộ nhớ truy cập ngẫu nhiên động) được xếp chồng theo chiều dọc bằng công nghệ TSV (Through Silicon Via), sau đó đóng gói bằng CoWoS và ghim cạnh GPU.

HBM gần như quyết định khả năng chạy mô hình lớn của bộ tăng tốc AI. SK Hynix, Micron, Samsung gần như chiếm 100% thị phần.

Đến quý I năm 2026, cấu hình thị phần mới nhất là: SK Hynix 57-62%, Samsung 22%, Micron 21%, SK Hynix đã chiếm phần lớn đơn hàng của các doanh nghiệp như NVIDIA, là nhà cung cấp chi phối hiện tại.

Trong cuộc họp báo tài chính quý I năm 2026, Micron dự báo TAM (Thị trường tiềm năng tổng thể) của HBM sẽ tăng trưởng với CAGR khoảng 40%, từ khoảng 35 tỷ USD năm 2025 lên 100 tỷ USD năm 2028, thời điểm đạt 100 tỷ USD đã sớm hơn dự kiến hai năm.

Ưu điểm cốt lõi của HBM là biên lợi nhuận cực cao. Quý I năm 2026, lợi nhuận hoạt động của SK Hynix đạt kỷ lục 72%.

Lý do lợi nhuận cao,

  1. Công nghệ TSV làm giảm phần công suất DRAM truyền thống, giữ cho HBM luôn trong tình trạng cung vượt cầu;

  2. Tỷ lệ thành công của đóng gói tiên tiến gặp khó khăn, trước đây Samsung giảm thị phần từ 40% xuống còn 22% cũng chịu ảnh hưởng này;

  3. Các nhà cung cấp chính mở rộng sản xuất thận trọng, trong quý I năm 2026, giá bán trung bình của DRAM (ASP) tăng hơn 60% so với quý trước, thể hiện rõ vị thế thị trường của phía bán hàng.

Trong ba ông lớn, SK Hynix được hưởng lợi mạnh từ HBM, doanh thu hoạt động cả năm 2025 đạt 47.21 nghìn tỷ won Hàn Quốc, lần đầu vượt Samsung Electronics, quý I năm 2026, với biên lợi nhuận hoạt động 72%, thậm chí vượt cả TSMC (58.1%) và NVIDIA (65%).

Micron có kỳ vọng tăng trưởng rất cao, Ngân hàng Mỹ (BofA) đã nâng mục tiêu giá của họ lên 950 USD vào tháng 5 năm 2026. Samsung, nhờ đẩy mạnh sản xuất HBM4, có khả năng lấy lại thị phần lớn nhất.

L2 DRAM trên bo mạch chủ

Lớp này chính là bộ nhớ RAM thông thường chúng ta hay gọi.

DRAM trên bo mạch chủ gồm DDR5, LPDDR, GDDR, MR-DIMM, là phần chiếm tỷ trọng doanh số cao nhất trong hệ thống lưu trữ AI, quy mô thị trường toàn cầu năm 2025 đạt khoảng 121.83 tỷ USD.

Samsung, SK Hynix, Micron vẫn chiếm phần lớn thị phần. Theo dữ liệu mới nhất quý IV năm 2025, Samsung dẫn đầu với 36.6%, SK Hynix đứng thứ hai với 32.9%, Micron thứ ba với 22.9%.

Hiện tại, năng lực sản xuất chuyển sang HBM có lợi nhuận cao hơn, giúp duy trì lợi nhuận và quyền định giá cho bộ nhớ. Lợi nhuận của các sản phẩm DRAM thông thường không bằng HBM, nhưng quy mô thị trường lớn hơn.

L3 Tầng pooling CXL

CXL (Compute Express Link) cho phép pooling DRAM từ một máy chủ thành toàn bộ rack.

Sau CXL 3.x, trong tương lai, tất cả bộ nhớ trong một tủ rack có thể được chia sẻ và điều phối giữa nhiều GPU, theo nhu cầu. Giải quyết vấn đề KV cache, cơ sở dữ liệu vector, RAG không thể chứa hoặc di chuyển trong suy luận AI.

Mô-đun bộ nhớ CXL năm 2024 chỉ 1.6 tỷ USD, dự kiến năm 2033 đạt 23.7 tỷ USD. Có vẻ như vẫn là cấu trúc tập trung của Samsung, SK Hynix, Micron.

Trong tầng này, Astera Labs làm các thiết bị tái định thời CXL và PCIe, cùng bộ điều khiển bộ nhớ thông minh, chiếm khoảng 55% thị phần. Doanh thu quý mới đạt 308 triệu USD, tăng 93% so với cùng kỳ, biên lợi nhuận gộp không GAAP 76.4%, lợi nhuận ròng tăng 85%, khá cao.

L4 SSD doanh nghiệp cấp cao: Người hưởng lợi lớn nhất trong thời kỳ suy luận

SSD NVMe cấp doanh nghiệp là chiến trường chính cho checkpoint huấn luyện AI, RAG, offload KV cache, lưu trữ trọng số mô hình. SSD QLC dung lượng lớn đã hoàn toàn đẩy HDD ra khỏi hồ dữ liệu AI.

Năm 2025, thị trường SSD cấp doanh nghiệp khoảng 26.1 tỷ USD, CAGR 24%, dự kiến đến 2030 đạt 76 tỷ USD.

Cấu trúc thị trường vẫn do ba ông lớn chi phối.

Theo doanh thu quý IV năm 2025, thị phần là: Samsung 36.9%, SK Hynix (kể cả Solidigm) 32.9%, Micron 14.0%, Kioxia 11.7%, SanDisk 4.4%. Năm công ty chiếm khoảng 90%.

Điểm đặc biệt của lớp này là sự bùng nổ của SSD QLC trong các kịch bản suy luận AI. Công ty con của Hynix, Solidigm, đã sản xuất sản phẩm dung lượng 122 TB trên một đĩa, KV cache và RAG của AI đang dần chuyển từ HBM sang SSD.

Về mặt lợi nhuận, SSD cấp doanh nghiệp không đạt biên lợi nhuận cực cao như HBM, nhưng hưởng lợi kép từ mở rộng dung lượng và mở rộng suy luận.

Hynix và Kioxia là các mục tiêu khá thuần túy. Samsung và SK Hynix cùng lúc hưởng lợi từ ba lớp HBM + DRAM + NAND, là các công ty nền tảng lưu trữ AI toàn diện hơn.

L5 NAS và lưu trữ đối tượng đám mây: Hồ lợi nhuận lãi kép của sức hút dữ liệu

NAS và lưu trữ đối tượng đám mây là lớp ngoài cùng của hồ dữ liệu AI, dữ liệu huấn luyện, sao lưu, hợp tác liên nhóm. Năm 2025, NAS khoảng 39.6 tỷ USD (CAGR 17%), lưu trữ đám mây khoảng 9.1 tỷ USD (CAGR 16%).

Các nhà cung cấp chính của lưu trữ tệp doanh nghiệp là NetApp, Dell, HPE, Huawei; các doanh nghiệp nhỏ hơn là Synology, QNAP. Dựa trên phần trăm thị phần IaaS, AWS khoảng 31-32%, Azure khoảng 23-24%, Google Cloud khoảng 11-12%, ba công ty chiếm khoảng 65-70%.

Lợi nhuận của lớp này chủ yếu đến từ dịch vụ lưu trữ dài hạn, dữ liệu ra ngoài mạng, và khóa hệ sinh thái.

Tổng kết,

  1. Quy mô DRAM lớn nhất nhưng biên lợi nhuận thấp nhất, khoảng 30-40%; quy mô HBM chỉ bằng một phần ba DRAM nhưng biên lợi nhuận gấp đôi, trên 60%; quy mô của tầng re-timer CXL nhỏ nhất, biên lợi nhuận cao nhất trên 76%. Càng gần đơn vị tính toán, càng khan hiếm và lợi nhuận cao.

  2. Gia tăng lợi nhuận chủ yếu từ ba nguồn, HBM (CAGR 28%), SSD doanh nghiệp (CAGR 24%), pooling CXL (CAGR 37%).

  3. Mỗi lớp có các rào cản kinh doanh khác nhau, HBM dựa vào rào cản kỹ thuật, TSV, CoWoS, tỷ lệ thành công; CXL dựa vào IP và chứng nhận, re-timer là chuỗi cung ứng duy nhất; dịch vụ dựa vào chi phí chuyển đổi.

4-9,02%
TSM1,7%
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Đã ghim