AI Reasoning Era: Làm thế nào Nvidia xây dựng vương miện của làn sóng công suất tính toán tiếp theo?

robot
Đang tạo bản tóm tắt

Trong thời đại GPT-3, mô hình có 175 tỷ tham số đã là một khối lượng lớn; đến nay, các mô hình hỗn hợp chuyên gia với hàng nghìn tỷ tham số đã trở thành trạng thái bình thường. Điểm đau lớn nhất của ngành công nghiệp AI hiện nay — độ trễ suy luận, trở thành thử thách tiếp theo mà Nvidia cần vượt qua.

Triết lý thiết kế “ưu tiên thông lượng” của GPU đang gặp phải thử thách nghiêm trọng trong các tình huống suy luận tương tác thời gian thực. Tuy nhiên, khi xử lý các yêu cầu của từng người dùng nhỏ gọn, theo dạng “lô nhỏ, sinh tuần tự”, kiến trúc dựa trên bộ nhớ băng thông cao (HBM) dẫn đến việc di chuyển dữ liệu thường xuyên, gây ra độ trễ lớn và lãng phí năng lượng.

Sự xuất hiện của LPU chính là để giải quyết sự không phù hợp căn bản về kiến trúc này.

Vượt qua những nhiễu loạn phức tạp của chuỗi cung ứng, những phần cốt lõi nào đáng để chúng ta chú ý trong thời đại suy luận?

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim