Qualcomm apresenta rack de inferência AI200: combinando acelerador próprio com CPU da AMD

robot
Geração de resumo em curso

IT之家 3 de março de 2023, com base em informações do blog oficial da Qualcomm e em uma reportagem ao vivo do site alemão ComputerBase, a Qualcomm exibiu no local do MWC26 em Barcelona uma unidade física de sua solução de inferência de IA em rack AI200, que estará disponível comercialmente na segunda metade deste ano.

A IT之家 apurou que cada rack AI200 tem uma altura total de 51U, composto por 7 conjuntos de sistemas de 5U de altura. Cada sistema de 5U possui 4U destinados à instalação de placas de aceleração AI200, com duas unidades por bandeja de 1U; além disso, 1U é equipado com dois processadores AMD EPYC de alto desempenho. Para conectividade, em pequena escala é utilizado PCIe, enquanto em larga escala a rede Ethernet de 800G é empregada.

De modo geral, um rack AI200 inclui 56 placas de aceleração AI200, totalizando uma capacidade de memória de 43TB; além disso, o rack contém 14 processadores de servidor AMD EPYC.

De acordo com a reportagem alemã, o sistema de rack AI250 da Qualcomm, previsto para 2027, continuará a usar processadores AMD no nó de cabeça, enquanto os novos centros de dados de 2028 incluirão o sistema AI300 e CPUs de desenvolvimento próprio.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar