O que impede a disseminação da IA não são os modelos, mas a infraestrutura... A função de "gestão unificada" do Kubernetes está a tornar-se cada vez mais evidente

robot
Geração de resumo em curso

O gargalo da difusão de IA não está no modelo, mas na “infraestrutura” — este diagnóstico está a expandir-se cada vez mais.

Na conferência recente “KubeCon+CloudNativeCon Europa”, ficou claro que o núcleo da competição em inteligência artificial (IA) já não se resume apenas ao desempenho dos modelos. Análises indicam que, na implementação prática de IA em serviços, o maior entrave reside na incapacidade de operar sistemas dispersos na nuvem, na borda e localmente como um todo unificado, devido a limitações estruturais.

Novos estudos mostram que a grande maioria dos projetos de IA não atinge a fase operacional real, sendo que as razões do fracasso concentram-se mais em problemas de integração e execução operacional do que no próprio modelo. Paul Nashawaty, analista-chefe da TheCube Research, afirma: “A IA está a revelar falhas fundamentais na infraestrutura empresarial”, e que a fragmentação total entre nuvem, borda e implantação local tornou-se o maior obstáculo para IA operacional.

A questão da “soberania” torna a infraestrutura de IA ainda mais complexa

Recentemente, essa fragmentação foi rotulada de “soberania”. Isso ocorre porque a soberania dos dados, as regulamentações regionais e as políticas internas das empresas entrelaçam-se, dificultando a centralização de dados e cargas de trabalho. Como consequência, os sistemas de IA estão a ser forçados a evoluir de uma pilha única para uma operação distribuída através de múltiplos ambientes.

Mike Barrett, vice-presidente e gerente geral do departamento de plataformas híbridas da Red Hat, exemplifica com o uso de diferentes grandes modelos de linguagem por departamentos distintos, explicando que os clientes empresariais não buscam ferramentas específicas para cada ambiente, mas sim uma “plataforma horizontal” a nível corporativo. Para resolver isso, a Red Hat está a focar na construção de uma camada de controlo baseada em Kubernetes, que gerencie unificadamente cargas de trabalho de IA em todos os ambientes, denominada “Plano de controlo de IA”.

Kubernetes está a evoluir de orquestrador para ferramenta de “consistência operacional”

Originalmente, o Kubernetes não foi projetado para inferência de IA. Seu papel inicial era mais próximo do gerenciamento e implantação de containers. Contudo, à medida que a inferência de IA migrou para ambientes de serviço reais, problemas de consistência regional, latência variável, disputa por recursos e deriva de políticas começaram a surgir de forma abrangente.

Roberto Shoji, diretor de engenharia da Red Hat, menciona o framework de inferência de código aberto “llm-d”, explicando que os usuários não desejam apenas construir sistemas de ponta em desempenho, mas também resolver a complexidade na fase de operação contínua. Isso indica que a instabilidade dos sistemas de IA ocorre não na fase de treinamento, mas na fase de operação de serviços reais.

O conselho de administração da Cloud Native Computing Foundation (CNCF), liderado por Jan Meren, também aponta para uma preocupação semelhante. Ele analisa que, embora o ecossistema de nuvem nativa tenha evoluído para uma colaboração global de código aberto, a construção de sistemas baseados na “consistência global” entra em conflito com regulamentações regionais e ambientes distribuídos.

Paul Nashawaty comenta: “A essência da IA de agente não é um problema de modelo, mas de arquitetura de plataforma”, e que a competitividade futura dependerá mais de construir infraestruturas melhores do que de escolher modelos superiores.

A engenharia de plataformas surge como solução prática para a operação de IA

O problema é que o Kubernetes é demasiado complexo para todas as equipes, dificultando sua implementação direta. Brian Stevens, CTO do departamento de IA da Red Hat, afirma que muitos cientistas de dados que criam IA também precisam gerenciar infraestrutura. A solução para essa lacuna é a engenharia de plataformas.

Nashawaty explica que, à medida que ferramentas fragmentadas, a capacidade de pessoal e a complexidade operacional se tornam gargalos reais, a indústria está a migrar para uma estrutura de controlo unificada centrada em plataformas e Kubernetes. Nesse contexto, o Red Hat OpenShift AI assume a responsabilidade de abstrair, de forma repetível, o aprendizado, implantação, serviço e inferência em ambientes híbridos.

Máquinas virtuais também estão a integrar-se ao Kubernetes

A infraestrutura empresarial não será totalmente modernizada de uma só vez. Ativos legados essenciais, como sistemas de faturação e bancos de dados, permanecem em seus ambientes originais por motivos de gestão de risco. Isso mantém as máquinas virtuais (VMs) e os containers a operarem de forma dual.

Pesquisas indicam que 84% dos decisores de TI enfrentam dificuldades na gestão isolada de VMs e containers. Daniel Messel, da Red Hat, afirma: “A virtualização e os containers não devem permanecer isolados; devem estar na mesma plataforma”. O projeto KubeVirt, já maduro na CNCF, permite a execução simultânea de máquinas virtuais e containers no Kubernetes.

Essa estratégia é interpretada como uma forma de não eliminar sistemas legados, mas de integrá-los na mesma camada de controlo, unificando a interface operacional.

Alguns também apontam que “conveniência” não equivale a “controle”

Embora a soberania de IA pareça uma alternativa, há opiniões de que ela traz mais restrições. Regulamentações nacionais limitam a movimentação de dados, e políticas empresariais dificultam a centralização. Como resultado, independentemente da preparação das empresas, cargas de trabalho são distribuídas entre nuvem, local e borda.

Gabriel Bartolini, da EnterpriseDB, destaca que, sem portabilidade de bancos de dados, a soberania não é real. Ele diferencia que a “conveniência” de serviços geridos não significa controle. Jan Meren também afirma que, na discussão de soberania, é importante distinguir “soberania de código” de “soberania de implantação”: o código pode ser um ativo de código aberto global, mas a implantação está sujeita a leis e políticas locais.

Nesse sentido, o papel do Kubernetes torna-se ainda mais claro: ele conecta o código compartilhado globalmente a um ambiente operacional capaz de se adaptar às restrições regionais.

A vitória final depende do ecossistema

Nenhuma empresa sozinha consegue suportar toda a infraestrutura de IA. Para que o controle de IA via plano de controlo Kubernetes funcione, não basta substituir sistemas diversos, é preciso conectá-los. Isso é viabilizado por um “ecossistema” composto por padrões, APIs e projetos open source de topo.

Nashawaty avalia que a Red Hat é mais do que uma fornecedora de plataformas comerciais; é uma das empresas mais ativas na contribuição para o ecossistema CNCF. Essa atuação não se limita à gestão de imagens, mas é fundamental para evitar diferenças entre implementações de Kubernetes de diferentes fornecedores, mantendo a consistência. A Red Hat também colabora com a Nvidia na iniciativa “Red Hat AI Factory”, que busca construir uma infraestrutura de IA empresarial escalável, combinando OpenShift e aceleradores Nvidia.

Nashawaty afirma: “Considerando que até 75% das empresas enfrentam falhas de IA de dois dígitos devido à fragmentação de sistemas, o gargalo mudou para a infraestrutura.” Ou seja, o problema não é a falta de funcionalidades, mas a dificuldade estrutural de fazer sistemas trabalharem em conjunto.

Kubernetes como camada de produção na era da IA

Mais do que uma questão de derrubar um ponto específico, a ascensão do Kubernetes como camada de produção na era da IA é uma realidade.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar