Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
CFD
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Pre-IPOs
Mở khóa quyền truy cập đầy đủ vào các IPO cổ phiếu toàn cầu
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Khuyến mãi
AI
Gate AI
Trợ lý AI đa năng đồng hành cùng bạn
Gate AI Bot
Sử dụng Gate AI trực tiếp trong ứng dụng xã hội của bạn
GateClaw
Gate Tôm hùm xanh, mở hộp là dùng ngay
Gate for AI Agent
Hạ tầng AI, Gate MCP, Skills và CLI
Gate Skills Hub
Hơn 10.000 kỹ năng
Từ văn phòng đến giao dịch, thư viện kỹ năng một cửa giúp AI tiện lợi hơn
GateRouter
Lựa chọn thông minh từ hơn 40 mô hình AI, với 0% phí bổ sung
Hiểu rõ lợi nhuận trong tầng lưu trữ AI và cấu trúc ngành nghề trong một bài viết
null
Tác giả: Goto Godot
Lưu trữ AI có thể phân thành sáu lớp,
SRAM trên chip
HBM
DRAM trên bo mạch chủ
Tầng pooling CXL
SSD cấp doanh nghiệp
NAS và lưu trữ đối tượng đám mây
Cấu trúc này dựa trên vị trí lưu trữ, càng xuống dưới càng xa đơn vị tính toán, dung lượng lưu trữ càng lớn.
Đến năm 2025, tổng quy mô của sáu lớp này (SRAM trên chip tính trong chip tính toán, cần loại bỏ giá trị nhúng) khoảng 229 tỷ USD, trong đó DRAM chiếm một nửa, HBM chiếm 15%, SSD chiếm 11%.
Tình hình lợi nhuận, mỗi lớp đều cực kỳ tập trung vào các tập đoàn thống trị, ba lớp đầu đều có thị phần trên 90%.
Có thể chia các hồ lợi nhuận này thành ba loại,
Hồ lợi nhuận cao của lớp chip silicon (HBM, SRAM nhúng, SSD QLC)
Hồ lợi nhuận cao mới nổi của tầng liên kết (CXL)
Hồ lợi nhuận lãi kép quy mô của tầng dịch vụ (NAS, lưu trữ đối tượng đám mây)
Ba loại hồ này có tính chất khác nhau, tốc độ tăng trưởng khác nhau, và rào cản gia nhập cũng khác nhau.
Tại sao lưu trữ lại phân lớp?
Bởi vì trên CPU kiểm soát và GPU tính toán, chỉ có bộ nhớ đệm tạm thời, tức SRAM trên chip. Không gian bộ nhớ đệm này quá nhỏ, chỉ đủ chứa các tham số tạm thời, không thể chứa các mô hình lớn.
Ngoài hai chip này, cần có bộ nhớ lớn hơn để lưu trữ các mô hình lớn và ngữ cảnh suy luận.
Rất nhanh, dữ liệu di chuyển giữa các lớp lưu trữ có độ trễ và tiêu thụ năng lượng, đó mới là vấn đề lớn nhất.
Vì vậy, hiện nay có ba hướng,
Xây dựng HBM, đặt bộ nhớ gần GPU hơn, rút ngắn khoảng cách di chuyển
CXL, pooling bộ nhớ thành quy mô rack, chia sẻ dung lượng
Tính toán và lưu trữ hàn trên cùng một wafer, tích hợp tính toán và lưu trữ
Ba hướng này quyết định hình dạng của các hồ lợi nhuận trong năm năm tới của từng lớp.
Dưới đây là phân lớp cụ thể,
L0 SRAM trên chip: Hồ lợi nhuận riêng của TSMC
SRAM (Static Random-access Memory, bộ nhớ truy cập ngẫu nhiên tĩnh) là bộ nhớ đệm bên trong CPU/GPU, tích hợp trong từng chip, không giao dịch riêng lẻ.
Thị trường chip SRAM độc lập chỉ khoảng 1-1.7 tỷ USD, dẫn đầu là Infineon (khoảng 15%), Renesas (khoảng 13%), ISSI (khoảng 10%), thị trường nhỏ.
Phần lợi nhuận này nằm trong TSMC, mỗi thế hệ chip AI đều cần mua nhiều wafer hơn để nhồi thêm SRAM.
Và hơn 70% wafer công nghệ tiên tiến toàn cầu nằm trong tay TSMC. Diện tích SRAM của mỗi H100, B200, TPU v5, v.v., cuối cùng đều trở thành doanh thu của TSMC.
L1 HBM: Hồ lợi nhuận lớn nhất thời đại AI
HBM (High Bandwidth Memory, bộ nhớ băng thông cao) là bộ nhớ DRAM (Dynamic Random-access Memory, bộ nhớ truy cập ngẫu nhiên động) được xếp chồng theo chiều dọc bằng công nghệ TSV (Through Silicon Via), sau đó đóng gói bằng CoWoS và ghim cạnh GPU.
HBM gần như quyết định khả năng chạy mô hình lớn của bộ tăng tốc AI. SK Hynix, Micron, Samsung gần như chiếm 100% thị phần.
Đến quý I năm 2026, cấu hình thị phần mới nhất là: SK Hynix 57-62%, Samsung 22%, Micron 21%, SK Hynix đã chiếm phần lớn đơn hàng của các doanh nghiệp như NVIDIA, là nhà cung cấp chi phối hiện tại.
Trong cuộc họp báo tài chính quý I năm 2026, Micron dự báo TAM (Thị trường tiềm năng tổng thể) của HBM sẽ tăng trưởng với CAGR khoảng 40%, từ khoảng 35 tỷ USD năm 2025 lên 100 tỷ USD năm 2028, thời điểm đạt 100 tỷ USD đã sớm hơn dự kiến hai năm.
Ưu điểm cốt lõi của HBM là biên lợi nhuận cực cao. Quý I năm 2026, lợi nhuận hoạt động của SK Hynix đạt kỷ lục 72%.
Lý do lợi nhuận cao,
Công nghệ TSV làm giảm phần công suất DRAM truyền thống, giữ cho HBM luôn trong tình trạng cung vượt cầu;
Tỷ lệ thành công của đóng gói tiên tiến gặp khó khăn, trước đây Samsung giảm thị phần từ 40% xuống còn 22% cũng chịu ảnh hưởng này;
Các nhà cung cấp chính mở rộng sản xuất thận trọng, trong quý I năm 2026, giá bán trung bình của DRAM (ASP) tăng hơn 60% so với quý trước, thể hiện rõ vị thế thị trường của phía bán hàng.
Trong ba ông lớn, SK Hynix được hưởng lợi mạnh từ HBM, doanh thu hoạt động cả năm 2025 đạt 47.21 nghìn tỷ won Hàn Quốc, lần đầu vượt Samsung Electronics, quý I năm 2026, với biên lợi nhuận hoạt động 72%, thậm chí vượt cả TSMC (58.1%) và NVIDIA (65%).
Micron có kỳ vọng tăng trưởng rất cao, Ngân hàng Mỹ (BofA) đã nâng mục tiêu giá của họ lên 950 USD vào tháng 5 năm 2026. Samsung, nhờ đẩy mạnh sản xuất HBM4, có khả năng lấy lại thị phần lớn nhất.
L2 DRAM trên bo mạch chủ
Lớp này chính là bộ nhớ RAM thông thường chúng ta hay gọi.
DRAM trên bo mạch chủ gồm DDR5, LPDDR, GDDR, MR-DIMM, là phần chiếm tỷ trọng doanh số cao nhất trong hệ thống lưu trữ AI, quy mô thị trường toàn cầu năm 2025 đạt khoảng 121.83 tỷ USD.
Samsung, SK Hynix, Micron vẫn chiếm phần lớn thị phần. Theo dữ liệu mới nhất quý IV năm 2025, Samsung dẫn đầu với 36.6%, SK Hynix đứng thứ hai với 32.9%, Micron thứ ba với 22.9%.
Hiện tại, năng lực sản xuất chuyển sang HBM có lợi nhuận cao hơn, giúp duy trì lợi nhuận và quyền định giá cho bộ nhớ. Lợi nhuận của các sản phẩm DRAM thông thường không bằng HBM, nhưng quy mô thị trường lớn hơn.
L3 Tầng pooling CXL
CXL (Compute Express Link) cho phép pooling DRAM từ một máy chủ thành toàn bộ rack.
Sau CXL 3.x, trong tương lai, tất cả bộ nhớ trong một tủ rack có thể được chia sẻ và điều phối giữa nhiều GPU, theo nhu cầu. Giải quyết vấn đề KV cache, cơ sở dữ liệu vector, RAG không thể chứa hoặc di chuyển trong suy luận AI.
Mô-đun bộ nhớ CXL năm 2024 chỉ 1.6 tỷ USD, dự kiến năm 2033 đạt 23.7 tỷ USD. Có vẻ như vẫn là cấu trúc tập trung của Samsung, SK Hynix, Micron.
Trong tầng này, Astera Labs làm các thiết bị tái định thời CXL và PCIe, cùng bộ điều khiển bộ nhớ thông minh, chiếm khoảng 55% thị phần. Doanh thu quý mới đạt 308 triệu USD, tăng 93% so với cùng kỳ, biên lợi nhuận gộp không GAAP 76.4%, lợi nhuận ròng tăng 85%, khá cao.
L4 SSD doanh nghiệp cấp cao: Người hưởng lợi lớn nhất trong thời kỳ suy luận
SSD NVMe cấp doanh nghiệp là chiến trường chính cho checkpoint huấn luyện AI, RAG, offload KV cache, lưu trữ trọng số mô hình. SSD QLC dung lượng lớn đã hoàn toàn đẩy HDD ra khỏi hồ dữ liệu AI.
Năm 2025, thị trường SSD cấp doanh nghiệp khoảng 26.1 tỷ USD, CAGR 24%, dự kiến đến 2030 đạt 76 tỷ USD.
Cấu trúc thị trường vẫn do ba ông lớn chi phối.
Theo doanh thu quý IV năm 2025, thị phần là: Samsung 36.9%, SK Hynix (kể cả Solidigm) 32.9%, Micron 14.0%, Kioxia 11.7%, SanDisk 4.4%. Năm công ty chiếm khoảng 90%.
Điểm đặc biệt của lớp này là sự bùng nổ của SSD QLC trong các kịch bản suy luận AI. Công ty con của Hynix, Solidigm, đã sản xuất sản phẩm dung lượng 122 TB trên một đĩa, KV cache và RAG của AI đang dần chuyển từ HBM sang SSD.
Về mặt lợi nhuận, SSD cấp doanh nghiệp không đạt biên lợi nhuận cực cao như HBM, nhưng hưởng lợi kép từ mở rộng dung lượng và mở rộng suy luận.
Hynix và Kioxia là các mục tiêu khá thuần túy. Samsung và SK Hynix cùng lúc hưởng lợi từ ba lớp HBM + DRAM + NAND, là các công ty nền tảng lưu trữ AI toàn diện hơn.
L5 NAS và lưu trữ đối tượng đám mây: Hồ lợi nhuận lãi kép của sức hút dữ liệu
NAS và lưu trữ đối tượng đám mây là lớp ngoài cùng của hồ dữ liệu AI, dữ liệu huấn luyện, sao lưu, hợp tác liên nhóm. Năm 2025, NAS khoảng 39.6 tỷ USD (CAGR 17%), lưu trữ đám mây khoảng 9.1 tỷ USD (CAGR 16%).
Các nhà cung cấp chính của lưu trữ tệp doanh nghiệp là NetApp, Dell, HPE, Huawei; các doanh nghiệp nhỏ hơn là Synology, QNAP. Dựa trên phần trăm thị phần IaaS, AWS khoảng 31-32%, Azure khoảng 23-24%, Google Cloud khoảng 11-12%, ba công ty chiếm khoảng 65-70%.
Lợi nhuận của lớp này chủ yếu đến từ dịch vụ lưu trữ dài hạn, dữ liệu ra ngoài mạng, và khóa hệ sinh thái.
Tổng kết,
Quy mô DRAM lớn nhất nhưng biên lợi nhuận thấp nhất, khoảng 30-40%; quy mô HBM chỉ bằng một phần ba DRAM nhưng biên lợi nhuận gấp đôi, trên 60%; quy mô của tầng re-timer CXL nhỏ nhất, biên lợi nhuận cao nhất trên 76%. Càng gần đơn vị tính toán, càng khan hiếm và lợi nhuận cao.
Gia tăng lợi nhuận chủ yếu từ ba nguồn, HBM (CAGR 28%), SSD doanh nghiệp (CAGR 24%), pooling CXL (CAGR 37%).
Mỗi lớp có các rào cản kinh doanh khác nhau, HBM dựa vào rào cản kỹ thuật, TSV, CoWoS, tỷ lệ thành công; CXL dựa vào IP và chứng nhận, re-timer là chuỗi cung ứng duy nhất; dịch vụ dựa vào chi phí chuyển đổi.