Inteligência Artificial empresarial, de "comprar mais GPUs" para "a configuração ótima para reduzir os custos de inferência"… As soluções da AMD e Red Hat estão recebendo muita atenção

robot
Geração de resumo em curso

As empresas que adotam inteligência artificial estão atravessando uma nova fronteira. Hoje, o foco do mercado não se limita mais a investir ou não em IA, mas sim em como implantar hardware e infraestrutura adequados para diferentes negócios, a fim de maximizar a relação custo-benefício. Especialmente com o rápido aumento de tarefas de “IA por agentes” e o aumento dos custos de raciocínio, para grandes empresas, o tema central deixou de ser a escolha cega pelo equipamento de maior desempenho, passando a ser a seleção de recursos computacionais adequados aos objetivos, ou seja, fazer “escolhas”.

Neste contexto de mudança, a colaboração entre AMD e Red Hat voltou a chamar atenção. John Hampton, vice-presidente de vendas de tecnologia empresarial global da AMD, destacou na “Red Hat Summit 2026” em Boston que as empresas desejam obter uma infraestrutura de IA mais flexível dentro do ambiente híbrido. Ele mencionou que, recentemente, muitos clientes construíram clusters de GPU em grande escala de forma apressada para atender às demandas de IA, mas enfrentam custos muito superiores às expectativas na fase operacional.

Os custos de raciocínio de IA aumentam drasticamente… empresas reavaliam estratégia de GPU única em grande escala

Segundo Hampton, muitas empresas, para não ficarem para trás na competição inicial de IA, concentraram esforços na aquisição de GPUs de alto desempenho em grande quantidade. O problema é que, à medida que a escala do serviço aumenta, o custo de cada consulta de IA se acumula continuamente, acelerando a pressão orçamentária. O setor chama esse fenômeno de “economia de tokens”, referindo-se ao aumento do custo de processamento de tokens à medida que o uso de IA generativa cresce, impactando diretamente a lucratividade das empresas.

Ele afirmou: “As empresas inicialmente adquiriram grandes clusters de GPU para competir na fase inicial de IA, mas agora enfrentam reações difíceis de sustentar. Embora o uso de IA esteja crescendo, a rápida expansão dos custos gera grande preocupação.” Isso, por sua vez, significa que o núcleo da estratégia de IA das empresas está mudando de “garantir o máximo desempenho” para “otimizar a implantação de acordo com a tarefa”.

AMD e Red Hat: fornecendo uma solução “de espectro completo” desde CPU até GPU

Para responder a essa tendência, a AMD lançou uma linha de produtos de “espectro completo”, incluindo CPUs, GPUs de alto custo-benefício e aceleradores de alto desempenho. A estratégia é combinar esses hardwares com a pilha de software de código aberto da Red Hat, permitindo que as empresas operem tarefas de IA de forma flexível em ambientes de nuvem híbrida, sem depender de fornecedores específicos.

Um exemplo é o AMD Instinct MI350P, uma GPU baseada na interface PCIe, que pode ser integrada relativamente facilmente em servidores existentes. Ela apresenta um design de resfriamento a ar para melhorar a relação custo-benefício. A plataforma de IA da Red Hat funciona como uma plataforma empresarial que suporta a implantação e expansão de agentes de IA nesses hardwares. Além disso, com CPUs AMD EPYC e ferramentas de virtualização da Red Hat, é possível consolidar servidores, ajudando a reduzir o espaço e o consumo de energia dos data centers.

O foco está na “arquitetura aberta”… promovendo simultaneamente o controle de orçamento de IA e a modernização da infraestrutura

A mensagem principal desta iniciativa é “abertura” e “escolha”. A AMD, junto com a Red Hat, enfatiza que, em comparação com ecossistemas fechados, as empresas devem usar arquiteturas abertas para selecionar os recursos mais adequados para diferentes cargas de trabalho de IA, incluindo CPUs, GPUs de baixo consumo e aceleradores de alto desempenho. Nem todas as tarefas de raciocínio precisam ser executadas em equipamentos caros.

Essa abordagem traz benefícios não apenas na redução de custos. Para as empresas, ela permite aproveitar ao máximo a infraestrutura existente, sem desacelerar a adoção de IA, e ainda reinvestir as economias de orçamento e energia em novos projetos de IA. Isso tem um impacto prático significativo, possibilitando a modernização da infraestrutura de IA e o controle de orçamento ao mesmo tempo.

Hampton prevê que, no futuro, os critérios de avaliação do mercado de IA provavelmente não serão mais “o que foi comprado”, mas “como foi implantado”. Com a entrada das empresas na fase operacional de IA, alguns analistas acreditam que o sucesso futuro dependerá menos do desempenho bruto e mais do equilíbrio inteligente entre o custo total de propriedade e os resultados práticos.

Notas do TP AI Este artigo foi resumido com base no modelo de linguagem TokenPost.ai. As informações principais do texto podem ter sido omitidas ou podem divergir dos fatos.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar