Red Hat, no contexto da difusão de "IA de agente", coloca a confiança e os padrões de raciocínio na linha de frente... apostando no vLLM

robot
Geração de resumo em curso

À medida que as empresas investem em “IA de agente” no trabalho real, o foco da atenção está mudando do desempenho do modelo para a “confiança”. Análises indicam que, devido à capacidade da IA de escrever código, acessar sistemas e até executar operações substanciais, garantir segurança, governança e estabilidade tornou-se uma questão central.

O diretor de tecnologia (CTO) da Red Hat e vice-presidente sênior de engenharia global, Chris Wright, afirmou na conferência Red Hat Summit 2026: “Quando queremos que um agente tome ações em negócios reais, confiar nesta IA torna-se de extrema importância.” Ele destacou especialmente que a concessão de privilégios mínimos, ambientes sandbox e um sistema de gerenciamento de agentes em larga escala são condições necessárias.

A Red Hat aposta na construção de uma “camada de raciocínio padrão” centrada no vLLM

Como uma solução para reduzir a complexidade da IA empresarial, a Red Hat propôs uma “camada de raciocínio padronizada”. A ideia é que, assim como o Linux e o Kubernetes se tornaram bases comuns da indústria no passado, o motor de raciocínio de código aberto vLLM também deve desempenhar esse papel atualmente.

Para isso, a Red Hat adquiriu a Neural Magic, obtendo capacidades de otimização de desempenho para quantificação e raciocínio. Chris Wright explicou: “Os fornecedores de modelos já estão desenvolvendo para o vLLM antes mesmo de modelos públicos serem lançados. Essa padronização está aumentando a eficiência de todo o ecossistema e também se tornando a base para melhorar a eficiência operacional interna das empresas.”

Do ponto de vista empresarial, isso é de grande importância, pois pode reduzir a incerteza na escolha da infraestrutura. Somente ao definir claramente sobre qual base os modelos serão executados, é possível diminuir custos de desenvolvimento, implantação e manutenção. Em última análise, a confiança na IA de código aberto não está apenas relacionada à ética tecnológica, mas também à “previsibilidade” no ambiente operacional real.

O custo de raciocínio, atualmente, tornou-se uma variável de gestão que chama a atenção do conselho de administração

Com a popularização da IA, o “custo de raciocínio” também está se tornando um indicador operacional importante. Como o consumo de energia e os custos de semicondutores necessários para operar grandes modelos de linguagem continuamente aumentam, as empresas estão mudando de usar apenas o modelo mais potente para buscar combinações mais eficientes para diferentes negócios.

Chris Wright afirmou que a escolha de hardware e modelos deve ser feita com base na relação custo-benefício e eficiência energética específicas de cada tarefa. Em outras palavras, usar uma única IA para todas as tarefas pode ser ineficiente. Tarefas simples podem ser mais adequadas a modelos menores, enquanto julgamentos complexos requerem modelos maiores.

Essa tendência aumenta a possibilidade de a infraestrutura de IA evoluir para uma “arquitetura heterogênea” em vez de uma “arquitetura única”. Como ambientes de nuvem, implantação local e ambientes de borda, como fábricas, serão utilizados em combinação, o hardware também pode evoluir de GPUs únicas para várias combinações. A Red Hat espera que sua estratégia de plataforma continue a oferecer valor nesse contexto.

A disputa por “IA confiável” se espalha para empresas de plataforma

Esta declaração indica que a competição no mercado de IA não é mais decidida apenas pelo desempenho do modelo. Os clientes empresariais realmente precisam de um ambiente de execução confiável e controlável, não apenas de um modelo mais inteligente.

Especialmente em ambientes onde centenas ou milhares de agentes de IA operam simultaneamente, fatores como estratégias de segurança, gerenciamento de privilégios e auditabilidade tornam-se indispensáveis. Essa é a razão pela qual a indústria, assim como nas eras do Linux e Kubernetes, busca novamente por padrões comuns.

Por fim, a confiança na IA de código aberto provavelmente se tornará uma condição-chave para determinar a velocidade de adoção da IA empresarial no futuro. Com a consolidação da camada de raciocínio padronizada e da estratégia de infraestrutura heterogênea, as empresas poderão avançar mais rapidamente da fase de experimentação para o ambiente de produção real.

Cuidados com a IA do TP Este artigo é um resumo baseado no modelo de linguagem TokenPost.ai. O conteúdo principal pode ter sido omitido ou estar em desacordo com os fatos.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • 1
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixado