Nvidia(NVDA.US)Perspectiva da conferência GTC: O domínio da IA pode manter-se, o mercado observa de perto a nova estratégia da “pós-treinamento”

robot
Geração de resumo em curso

À medida que a conferência anual de desenvolvedores (GTC da Nvidia, considerada o “barómetro anual no campo da IA”, se aproxima na próxima semana, a sua popularidade e importância atingem um novo patamar neste ano. Quando o CEO da empresa, Huang Renxun, entrar na arena de hóquei lotada na próxima segunda-feira, )horário local de 16 de março(, os investidores globais estarão atentos às estratégias que ele apresentará para enfrentar a crescente competição no mercado e consolidar sua posição como líder em chips de inteligência artificial )AI(.

Este evento de quatro dias, além de ser o palco para a Nvidia mostrar seus avanços mais recentes em chips, centros de dados, plataformas de software CUDA, agentes de IA e robótica, também é uma avaliação crítica da direção estratégica da empresa. Após apresentar resultados financeiros acima das expectativas, mas sem um aumento expressivo no valor das ações, os investidores buscam garantias de que a estratégia de reinvestimento dos lucros na ecologia de IA está dando frutos.

Analista da instituição de pesquisa de mercado eMarketer, Jacob Bourne, afirmou: “Prevejo que a Nvidia apresentará uma atualização do roteiro completo, de Rubin a Feynman, com ênfase em raciocínio, IA de agentes, tecnologia de rede e infraestrutura de fábricas de IA.”

“Era pós-treinamento”: foco na competição por chips de raciocínio

À medida que a indústria de IA transita da fase de “treinamento” de grandes modelos para a fase de “raciocínio”, na qual agentes de IA executam tarefas em aplicações, o cenário competitivo está passando por mudanças profundas. Embora a Nvidia ainda detenha mais de 90% do mercado de treinamento e raciocínio, analistas acreditam que a perda de participação de mercado será inevitável, especialmente na área de raciocínio.

Sid Sheth, fundador e CEO da startup de chips de raciocínio d-Matrix, afirmou que, embora a Nvidia mantenha sua liderança na área de treinamento, “raciocínio é uma história completamente diferente”. Ele acrescentou que o CUDA, software central que sustenta a maior parte do treinamento de IA da Nvidia e mantém os desenvolvedores presos ao seu ecossistema, tem uma “barreira defensiva” mais fraca na área de raciocínio. Desenvolvedores podem migrar para concorrentes fora da Nvidia, pois executar modelos de IA já treinados não requer a mesma programação complexa que o treinamento.

Para enfrentar essa tendência, a Nvidia espera lançar na conferência novos produtos otimizados para cargas de trabalho de raciocínio. Há relatos de que um chip de raciocínio, que incorpora a tecnologia da startup de IA Groq, adquirida por 1,7 bilhão de dólares em dezembro passado, poderá ser apresentado, oferecendo uma capacidade de raciocínio rápida e de alto custo-benefício. A tecnologia ultra-rápida de IA da Groq será integrada ao vasto ecossistema CUDA da Nvidia, reforçando sua barreira de software.

Ameaças potenciais e as “fortificações” da Nvidia

No entanto, os desafios permanecem. Por um lado, clientes principais da Nvidia, como OpenAI e Meta )META.US(, já iniciaram o desenvolvimento de seus próprios chips, sendo que a Meta planeja lançar um novo chip de IA a cada seis meses. A ascensão de circuitos integrados específicos )ASIC(, projetados para funções específicas, é vista como uma ameaça de longo prazo aos processadores gráficos universais )GPU( da Nvidia, pois esses chips customizados para tarefas específicas demonstram maior eficiência em cenários de raciocínio.

KinNgai Chan, diretor geral do Summit Insights Group, afirmou que, em comparação com um ano atrás, a Nvidia enfrentará uma competição de mercado mais acirrada. Espera-se que, até 2027, com a implementação em larga escala de ASICs desenvolvidos internamente por empresas, a participação de mercado da Nvidia diminua, especialmente na área de chips de raciocínio.

Para se defender, a Nvidia está adotando múltiplas estratégias. Além de adquirir a Groq, a empresa investiu recentemente 2 bilhões de dólares na Lumentum )LITE.US( e na Coherent )COHR.US(, visando promover a aplicação da tecnologia de “encapsulamento óptico” )CPO(. Essa tecnologia usa luz, em vez de sinais elétricos, para transmitir dados entre chips, podendo aumentar significativamente a eficiência de conexão em centros de dados de grande escala e reduzir o consumo de energia. Sebastien Naji, analista da William Blair, prevê que o CPO será uma inovação central na próxima geração da arquitetura de chips Feynman.

Bourne, da eMarketer, acrescentou que é provável que a Nvidia destaque a tecnologia CPO como uma solução eficiente para conectar grandes clusters de IA na GTC. No entanto, a produção em massa dessa tecnologia ainda não atinge o volume de chips da Nvidia, e os custos e a viabilidade de implantação em larga escala serão pontos de atenção para os investidores.

Por outro lado, os processadores centrais )CPU(, tradicionalmente dominantes da Intel )INTC.US( e AMD )AMD.US(, estão recuperando espaço na execução de tarefas de IA. William McGonigle, analista da Third Bridge, afirmou que, com o crescimento da IA de agentes, a “camada de orquestração de agentes” baseada em CPU está se tornando um novo gargalo de desempenho. Assim, espera-se que a Nvidia apresente servidores que utilizem apenas seus CPUs para responder a essa tendência emergente.

IA de agentes e robótica: impulsionando a próxima onda de crescimento

Além da competição de hardware, o mercado também acompanha se as aplicações de IA poderão sustentar uma demanda contínua por poder computacional. Huang Renxun destacou anteriormente que a IA de agentes será o próximo grande motor de raciocínio. Sheth, da d-Matrix, afirmou que, à medida que o potencial de agentes de IA de voz, vídeo e multimodais for sendo liberado, uma nova onda de raciocínio computacional deve surgir.

A tecnologia robótica é vista como outro espaço de crescimento. Daniel Newman, CEO do The Futurum Group, afirmou que a Nvidia já reportou cerca de 6 bilhões de dólares em receitas relacionadas a robótica no último trimestre, e prevê que o cronograma para o desenvolvimento de robôs humanoides será bastante “radical”. Isso indica que a IA física pode se tornar realidade mais rapidamente do que o esperado.

Geopolítica: a espada de Dâmocles pairando sobre os gigantes dos chips

Além da competição tecnológica, fatores geopolíticos estão se tornando cada vez mais influentes no futuro da Nvidia. Com os EUA considerando ampliar ainda mais as restrições à exportação de chips de IA, e o acesso a mercados-chave como a China sendo limitado, a presença global da Nvidia está sendo redesenhada. Relatos indicam que, após o esfriamento completo do mercado chinês, a Nvidia parou de produzir o chip H200 e transferiu sua capacidade de produção para a próxima geração do Rubin.

Nesse contexto, investimentos maciços em infraestrutura de IA na região do Oriente Médio, como na Arábia Saudita e nos Emirados Árabes Unidos, têm grande significado para a Nvidia. No entanto, conflitos regionais, custos de energia e a velocidade de construção de data centers adicionam incertezas às demandas desses mercados emergentes.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar