【AI+Phần cứng】"Tôm Hùm" OpenClaw gây ra sự thay đổi nhu cầu phần cứng, giá bộ nhớ sẽ tiếp tục tăng cao? Morgan Stanley: Thực thi cần DRAM nhiều hơn suy nghĩ

robot
Đang tạo bản tóm tắt

Gần đây, OpenClaw đã gây ra cơn sốt “nuôi tôm hùm”. Goldman Sachs chỉ ra rằng, các đại lý trí tuệ nhân tạo (AI agent) tiêu biểu như OpenClaw đã thúc đẩy sự thay đổi trong nhu cầu phần cứng, khi giới hạn của trí tuệ nhân tạo chuyển từ khả năng tính toán sang xử lý dữ liệu. Việc thực thi nhiệm vụ đòi hỏi nhiều DRAM hơn so với chỉ đơn thuần suy nghĩ, dẫn đến nguồn cung DRAM ngày càng căng thẳng hơn.

Công ty này đã nâng mục tiêu giá của SK Hynix lên 1,3 triệu won Hàn Quốc, đồng thời nâng mục tiêu giá cổ phiếu phổ thông của Samsung Electronics lên 251.000 won Hàn Quốc, cả hai đều duy trì xếp hạng “tăng tỷ lệ”.

Báo cáo dự đoán rằng giá bộ nhớ sẽ tăng trưởng nhanh hơn theo năm, hiện đang ở giai đoạn trung kỳ của đà tăng. Cụ thể, vào quý II năm 2026, giá DRAM DDR5 chủ yếu dùng cho tính toán cao cấp dự kiến sẽ tăng mạnh hơn 50% theo quý, trong khi DDR4, được sử dụng rộng rãi hơn, dự kiến sẽ tăng từ 30% đến 40%. Giá các sản phẩm NAND eSSD dùng cho máy chủ dự kiến sẽ nhân đôi.

Chuyển đổi giới hạn phần cứng trong chế độ “tự thực thi” của AI, nhu cầu DRAM ngày càng căng thẳng

Khác với các AI dạng “hỏi đáp” như ChatGPT, OpenClaw hoạt động giống như một đội trợ lý hiệu quả, tự tìm kiếm thông tin trên web, gọi các công cụ phần mềm bên ngoài, đọc và phân tích tài liệu, thậm chí thực thi mã lệnh, cuối cùng đưa ra các kết quả phức tạp.

Phân tích của Goldman Sachs cho rằng, mô hình thực thi phối hợp nhiều bước, gọi công cụ và sắp xếp quy trình, đã khiến giới hạn phần cứng của AI chuyển từ GPU (bộ xử lý đồ họa) sang CPU (bộ xử lý trung tâm) và bộ nhớ. Thời gian tính toán của CPU sẽ làm chậm toàn bộ quá trình thực thi nhiệm vụ. Ngoài ra, các hệ thống đa tác nhân cần liên tục chia sẻ ngữ cảnh, tải lên bộ đệm KV (Key-Value Cache), lưu trữ và truy xuất kết quả của từng bước trung gian, gây tiêu thụ cực kỳ lớn bộ nhớ DRAM.

Trong thời kỳ các mô hình ngôn ngữ lớn (LLM) truyền thống, sức mạnh GPU được xem là giới hạn quyết định, còn CPU chỉ cần chuyển đổi token (đơn vị đo lường hoặc tính phí dịch vụ của AI) thành văn bản, và DRAM chỉ cần hỗ trợ việc đọc ghi bộ đệm.


Thị trường nóng về “nuôi tôm hùm” chuyển sang “xu hướng loại bỏ”, liệu khái niệm đại lý AI đã hết hot chưa?

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim