Amazon's AWS chip lab in Austin is developing its Trainium AI chips. The latest Trainium3 chip reduces costs by up to 50% compared to traditional cloud servers while delivering comparable performance. These chips are now optimized for AI inference, supporting services like Amazon Bedrock and mainstream AI models including Anthropic Claude, which are already running on over 1 million Trainium2 chips. Amazon recently reached an agreement with OpenAI to provide 2 gigawatts of Trainium capacity. The lab team is focused on rapid "launch" and design of chips, aiming to provide a cost-effective alternative to counter Nvidia's dominant GPUs.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim