【AI+NVDA】Relata-se que a NVIDIA lançará chip de inferência de IA na conferência GTC Qual é a diferença com os chips Blackwell e Rubin?

robot
Geração de resumo em curso

Nvidia (EUA: NVDA, Nvidia) está prestes a realizar a sua conferência anual GTC, e fontes da imprensa indicam que o CEO Jensen Huang espera lançar na GTC um chip focado em “inferência”, destinado a executar modelos em vez de treiná-los.

De acordo com as notícias, este será o primeiro produto lançado após a Nvidia ter, em dezembro do ano passado, firmado um acordo de licença tecnológica não exclusiva avaliado em 20 mil milhões de dólares com a startup de chips de IA Groq, cujo fundador e equipa principal se juntaram à Nvidia.

A Groq é conhecida pelo desenvolvimento de unidades de processamento de linguagem (Language Processing Units, LPU), que respondem rapidamente a consultas complexas de IA. Três meses após a assinatura do acordo, a Nvidia planeia lançar uma LPU baseada na arquitetura da Groq, que trabalhará em conjunto com a sua próxima GPU flagship Vera Rubin, para fortalecer a sua posição contra concorrentes e ampliar a sua linha de produtos para novas aplicações de IA.

Segundo fontes, nos últimos três anos, o enorme valor de mercado da Nvidia deve-se principalmente ao facto de as suas GPUs terem se tornado pilares na indústria de IA generativa, usadas para treinar modelos como o ChatGPT da OpenAI. Huang acredita que um único sistema pode ser usado tanto para treinar novos modelos de IA quanto para executar chatbots e ferramentas de codificação baseadas nesses modelos. Grandes empresas de tecnologia já investiram dezenas de bilhões de dólares na implementação desses sistemas, ao mesmo tempo que desenvolvem seus próprios chips de IA dedicados. Além disso, com a crescente complexidade das ferramentas de IA, como agentes inteligentes, Huang pode ser forçado a abandonar a ideia de que “um GPU pode lidar com qualquer carga de trabalho”.

O novo chip de inferência é baseado em SRAM, não em memória HBM

Por outro lado, com os preços da memória HBM elevados e a oferta cada vez mais escassa, fornecedores como SK Hynix e Micron podem não conseguir atender à demanda de IA. Os sistemas flagship da Nvidia, como o Blackwell e o Rubin, dependem de memórias de alta largura de banda para processar os grandes volumes de dados utilizados pelos modelos de IA.

Fontes indicam que este chip semelhante ao da Groq usará memória de acesso aleatório estático (SRAM), em vez da memória dinâmica de acesso aleatório (DRAM) usada na HBM. A SRAM é mais fácil de obter e mais adequada para acelerar tarefas de “inferência” de IA.

A Nvidia não comentou as informações acima.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar