A laboratório de chips AWS da Amazon em Austin está desenvolvendo seu chip Trainium de IA, sendo que o mais recente chip Trainium3 reduz custos em até 50% em comparação com servidores em nuvem tradicionais, com desempenho equivalente. Estes chips foram agora também otimizados para inferência de IA, fornecendo suporte a serviços como Amazon Bedrock, e apoiam modelos de IA convencionais, incluindo Anthropic Claude, que já estão a funcionar em mais de 1 milhão de chips Trainium2. A Amazon chegou recentemente a um acordo com OpenAI para fornecer 2 gigawatts de capacidade Trainium. A equipa do laboratório concentra-se no rápido "lançamento" e design dos chips, visando fornecer uma alternativa económica para combater as GPUs dominantes da Nvidia.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar