Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Từ 8% đến 30%! Chi tiêu cho bộ nhớ tăng vọt
Rõ ràng, đây là do nhu cầu từ trí tuệ nhân tạo thúc đẩy.
SemiAnalysis dự kiến rằng, đến năm 2026, chi phí bộ nhớ sẽ chiếm khoảng 30% tổng chi vốn (CAPEX) của các trung tâm dữ liệu quy mô siêu lớn, cao hơn khoảng 8% của năm 2023 và 2024. Công ty dự đoán tỷ lệ này sẽ tiếp tục tăng vào năm 2027, nghĩa là trong chỉ bốn năm ngắn ngủi, khi giá DRAM tăng vọt lên mức khó tưởng tượng và nguồn cung HBM vẫn đang thiếu hụt nghiêm trọng, tỷ trọng chi phí bộ nhớ sẽ đạt mức tăng gần bốn lần.
SemiAnalysis dự kiến rằng giá DRAM vào năm 2026 sẽ tăng gấp đôi trở lên, và giá bán trung bình vào năm 2027 sẽ tiếp tục tăng hai chữ số. Giá hợp đồng LPDDR5 đã tăng hơn ba lần kể từ quý 1 năm 2025; công ty ước tính rằng giá trên thị trường công khai trong quý này có thể vượt 10 USD/GB.
Theo kết quả khảo sát của SemiAnalysis, bộ nhớ HBM dạng xếp chồng theo chiều dọc—là lõi của bộ tăng tốc AI—vẫn sẽ thiếu cung vào năm 2027, trong khi bộ nhớ hiện đang chiếm một phần rất lớn trong tổng số chi tiêu tăng thêm mà các trung tâm dữ liệu quy mô siêu lớn dự kiến cho năm nay, khoảng 9.6Bỷ USD.
Điều này đã được phản ánh trong định giá của các máy chủ dành cho trí tuệ nhân tạo. SemiAnalysis cho biết, do bị ảnh hưởng nghiêm trọng bởi sự gia tăng chi phí bộ nhớ, giá của máy chủ B200 dự kiến sẽ tăng tối đa tới 20% trước cuối năm. Điều này phù hợp với xu hướng chung của toàn ngành; các nhà sản xuất tại các cuộc gọi thu nhập gần đây đều thừa nhận chi phí linh kiện đã tăng mạnh. Giám đốc điều hành (COO) của Dell, Jeff Clarke, tại cuộc gọi thu nhập quý 3 năm tài chính 2025 vào tháng 11 năm ngoái đã mô tả tốc độ tăng chi phí là “chưa từng có”.
Counterpoint Research trước đó đã dự báo riêng rằng, đến cuối năm 2026, giá các mô-đun DDR5 64GB RDIMM có thể gấp đôi so với đầu năm 2025. Các máy chủ AI được xây dựng trên nền tảng LPDDR của Nvidia có mức tăng giá rõ rệt nhất vì lượng bộ nhớ cần cho mỗi hệ thống là rất lớn.
SemiAnalysis chỉ ra một hiện tượng đáng chú ý: Nvidia nhận từ các nhà cung cấp cái gọi là định giá DRAM “VVP” (Very Very Preferred, cực ưu), “thấp hơn nhiều so với mức giá mà các trung tâm dữ liệu quy mô siêu lớn và toàn thị trường phải trả”. SemiAnalysis cho rằng điều này làm thu hẹp chi phí máy chủ của chính Nvidia và đẩy thấp chuẩn định giá thị trường tổng thể, che lấp vấn đề thiếu hụt nguồn cung nghiêm trọng mà các người dùng khác thực sự đang đối mặt.
Trường hợp của AMD lại hoàn toàn ngược lại. Các SKU bộ tăng tốc AI của hãng thường có đơn giá cao hơn, nên không thể hưởng mức ưu đãi giá từ nhà cung cấp tương tự. Do doanh số bộ tăng tốc AI của AMD thấp hơn xa so với Nvidia, nên AMD “dễ bị ảnh hưởng hơn trước sự gia tăng chi phí bộ nhớ, trong khi quy mô bộ tăng tốc AI của AMD lại nhỏ hơn rất nhiều so với Nvidia”. Nói cách khác, quy mô mua sắm của Nvidia trong cả HBM và DRAM truyền thống mang lại cho hãng lợi thế mà những người mua số lượng nhỏ không thể tiếp cận.
Kết luận của SemiAnalysis là: mặc dù các nhà vận hành cloud lớn đã phần nào phản ánh trong chỉ dẫn CAPEX năm 2026 việc giá bộ nhớ tăng lên, nhưng kỳ vọng của Phố Wall vẫn chưa phản ánh việc định giá lại vào năm 2027. Samsung, SK Hynix và Micron đều đã chuyển năng lực sản xuất sang HBM và DRAM cấp doanh nghiệp có biên lợi nhuận cao, khiến nguồn cung của DDR5 truyền thống và LPDDR5 bị hạn chế. Ngoài ra, nhà máy HBM Hiroshima do Micron đầu tư 250Bỷ USD và các dự án mở rộng của SK Hynix ở Tích Lệ và Thanh Châu, sớm nhất cũng phải đến năm 2027 hoặc 2028 mới có thể đi vào sản xuất thực chất.
Nguồn bài viết: Quan sát ngành bán dẫn
Cảnh báo rủi ro và điều khoản miễn trừ trách nhiệm