Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
“Cha đẻ của HBM” dự đoán kiến trúc AI sẽ gây chấn động: bộ nhớ sẽ thay thế GPU trở thành trung tâm
Khi AI chuyển từ “tạo sinh” sang “tự hành động”, điểm nghẽn về năng lực tính toán có thể sẽ chuyển từ GPU sang bộ nhớ.
Theo các phương tiện truyền thông địa phương của Hàn Quốc như 《Asia Economy》, Joungho Kim, giáo sư của Viện Khoa học và Công nghệ Hàn Quốc (KAIST) được giới trong nghề ca tụng là “cha đẻ của High Bandwidth Flash”, mới đây đã đưa ra một lời dự đoán: Kiến trúc AI tập trung vào GPU do Nvidia chủ đạo hiện nay cuối cùng sẽ bị thay thế bởi một kiến trúc mới lấy bộ nhớ làm trung tâm.
Lý do của nhận định này nằm ở sự thay đổi căn bản trong hình thái ứng dụng AI. Khi chuyển từ AI tạo sinh sang AI tác nhân (Agentic AI), hệ thống cần xử lý đồng thời khối lượng lớn tài liệu, video và dữ liệu đa phương thức — Kim gọi xu hướng này là sự trỗi dậy của “kỹ thuật ngữ cảnh” (context engineering). Ông cho biết để đảm bảo tốc độ và độ chính xác, băng thông và dung lượng bộ nhớ phải được nâng lên tối đa 1000 lần.
Điều còn đáng kinh ngạc hơn nằm ở phía nhu cầu: theo lời Kim được Money Today Broadcasting trích dẫn trước đó, nếu quy mô đầu vào tăng từ 100 đến 1000 lần, nhu cầu bộ nhớ có thể sẽ tăng theo cấp số nhân, mức phình to tổng lượng có khả năng cao tới 1 triệu lần.
High Bandwidth Flash sẽ chạm trần, HBF tiếp nối
Kim khẳng định rằng, công nghệ High Bandwidth Flash hiện có — thông qua xếp chồng NAND theo chiều dọc để truyền tải siêu tốc, hiện đang thống lĩnh thị trường bộ nhớ cho các bộ tăng tốc AI — sẽ khó có thể tiếp tục theo kịp trong kỷ nguyên AI tác nhân.
Giải pháp thế hệ tiếp theo do ông đề xuất là HBF (High Bandwidth Flash, flash băng thông cao): thay thế bộ nhớ DRAM bằng NAND xếp chồng, xây dựng một “khối bộ nhớ dài hạn kiểu giá sách khổng lồ”, có dung lượng vượt xa giới hạn hiện tại.
So sánh tương tự, High Bandwidth Flash giống như giấy ghi chú trên bàn — tốc độ nhanh nhưng dung lượng có hạn; còn HBF giống như cả một bức tường sách, lượng thông tin có thể lưu trữ hoàn toàn khác biệt.
Ở góc độ kiến trúc, SK hynix đã đề xuất kiến trúc “H3” trong một bài báo được công bố trên IEEE — theo báo 《Kinh tế Hàn Quốc》 đưa tin hôm 2 tháng, kiến trúc này sẽ triển khai High Bandwidth Flash và HBF song song kề bên GPU, thay vì chỉ có High Bandwidth Flash nằm sát bộ xử lý như trong thiết kế hiện tại. Điều này có nghĩa vai trò của GPU sẽ chuyển từ “vai chính” sang “vai phụ”, còn các đơn vị tính toán sẽ được nhúng vào một hệ thống mà bộ nhớ giữ vai trò chủ thể.
Mốc thời gian đang dần trở nên rõ ràng.
Theo dự đoán của Kim, mẫu kỹ thuật HBF dự kiến sẽ xuất hiện vào khoảng trước năm 2027, sớm nhất là Google, Nvidia hoặc AMD có thể áp dụng công nghệ này vào năm 2028.
Nhịp độ này tương tự rất cao với con đường mà High Bandwidth Flash trước đây đã đi từ phòng thí nghiệm ra thương mại hóa quy mô lớn, và đồng thời cũng có nghĩa là “cửa sổ” cơ hội cho ngành đã được mở ra.
SK hynix và Samsung, tái giao đấu trực diện
Kim cũng đồng thời chỉ ra rằng bức tranh cạnh tranh trong lĩnh vực HBF sẽ lặp lại kịch bản của thời đại High Bandwidth Flash — SK hynix và Samsung Electronics một lần nữa trở thành nhân vật chính.
Hiện tại, SK hynix đã vào tháng 2 năm nay cùng với SanDisk (WD) thành lập liên minh tiêu chuẩn hóa HBF, nhằm giành quyền chủ đạo trong hệ sinh thái. Về phía Samsung, một mặt họ tiếp tục thúc đẩy các sản phẩm High Bandwidth Flash thế hệ tiếp theo như HBM4E; mặt khác, họ đồng thời đầu tư vào nghiên cứu phát triển kiến trúc NAND phù hợp với khái niệm HBF, theo Aju News.
Hai gã khổng lồ có lộ trình triển khai khác nhau, nhưng mục tiêu hướng tới cùng một đường đua. Ai hoàn thành trước vòng khép kín từ xây dựng tiêu chuẩn đến cung cấp sản xuất hàng loạt sẽ quyết định phần lớn cục diện của thị trường bộ nhớ cho AI ở vòng tiếp theo.
Lời cảnh báo rủi ro và điều khoản miễn trừ trách nhiệm