Samsung phát hành HBM4E và đào sâu hợp tác với Nvidia, cuộc "đua tính toán AI - bộ nhớ" tăng tốc độ

robot
Đang tạo bản tóm tắt

Trong bối cảnh nhu cầu tính toán AI liên tục bùng nổ, công nghệ lưu trữ đang trở thành nút thắt quan trọng quyết định hiệu suất của trung tâm dữ liệu thế hệ tiếp theo. Vào thứ Hai ngày 16 theo giờ địa phương California, tại Hội nghị nhà phát triển hàng năm GTC do Samsung Electronics Hàn Quốc và Nvidia tổ chức, lần đầu tiên đã công bố trình làng chip lưu trữ băng thông cao thế hệ mới HBM4E, đồng thời nhấn mạnh sự hợp tác của họ với Nvidia trong nền tảng tính toán AI.

HBM4E do Samsung trình diễn lần này được xem là một điểm mốc quan trọng trong lộ trình bộ nhớ AI thế hệ tiếp theo của họ: sản phẩm dự kiến đạt tốc độ truyền tải đơn chân 16Gbps, tổng băng thông lên tới 4TB/s, hướng tới các bộ tăng tốc AI tương lai và trung tâm dữ liệu quy mô siêu lớn. Các chuyên gia trong ngành đều cho rằng, việc ra mắt này đánh dấu bước tiến mới trong việc nâng cấp đồng bộ giữa “tốc độ tính toán – lưu trữ” trong hệ sinh thái chip AI, đồng thời cũng làm gia tăng cạnh tranh giữa Samsung và SK Hynix cùng các nhà sản xuất khác trong thị trường HBM.

Lần đầu tiên công bố HBM4E: Băng thông lưu trữ AI tiếp tục tăng

Trong khuôn khổ Hội nghị GTC của Nvidia năm nay, Samsung đã lần đầu tiên trưng bày thực tế chip HBM4E, chính là công nghệ bộ nhớ băng thông cao thế hệ thứ bảy của Samsung (HBM). HBM4E được định vị là phiên bản nâng cấp của HBM4, nhằm cung cấp băng thông cao hơn và độ trễ thấp hơn cho các bộ tăng tốc AI thế hệ tiếp theo.

Theo thông tin mà Samsung tiết lộ, HBM4E dự kiến sẽ đạt được:

  • Tốc độ truyền tải đơn chân 16Gbps
  • Băng thông tối đa của một mô-đun khoảng 4TB/s
  • Hướng tới các hệ thống AI và tính toán hiệu năng cao thế hệ mới

So với các sản phẩm HBM trước đây, mức hiệu năng này còn nâng cao khả năng xử lý dữ liệu cần thiết cho huấn luyện và suy luận mô hình AI, được xem là hạ tầng then chốt để hỗ trợ các mô hình có hàng nghìn tỷ tham số và mở rộng trung tâm dữ liệu AI.

Công nghệ HBM sử dụng phương pháp xếp chồng 3D để kết nối nhiều chip DRAM theo chiều dọc, giúp tăng đáng kể băng thông bộ nhớ và giảm tiêu thụ năng lượng. Hiện nay, nó đã trở thành thành phần cốt lõi của GPU và bộ tăng tốc AI.

Rủi ro và điều khoản miễn trừ trách nhiệm

Thị trường có rủi ro, đầu tư cần thận trọng. Bài viết này không cấu thành lời khuyên đầu tư cá nhân, cũng không xem xét các mục tiêu đầu tư, tình hình tài chính hoặc nhu cầu đặc thù của từng người dùng. Người đọc cần cân nhắc xem các ý kiến, quan điểm hoặc kết luận trong bài có phù hợp với tình hình cụ thể của mình hay không. Đầu tư theo đó, chịu trách nhiệm hoàn toàn.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim