Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 40 modelos de IA, com 0% de taxas adicionais
O que impede a disseminação da IA não são os modelos, mas a infraestrutura... A função de "gestão unificada" do Kubernetes está a tornar-se cada vez mais evidente
O gargalo da difusão de IA não está no modelo, mas na “infraestrutura” — este diagnóstico está a expandir-se cada vez mais.
Na conferência recente “KubeCon+CloudNativeCon Europa”, ficou claro que o núcleo da competição em inteligência artificial (IA) já não se resume apenas ao desempenho dos modelos. Análises indicam que, na implementação prática de IA em serviços, o maior entrave reside na incapacidade de operar sistemas dispersos na nuvem, na borda e localmente como um todo unificado, devido a limitações estruturais.
Novos estudos mostram que a grande maioria dos projetos de IA não atinge a fase operacional real, sendo que as razões do fracasso concentram-se mais em problemas de integração e execução operacional do que no próprio modelo. Paul Nashawaty, analista-chefe da TheCube Research, afirma: “A IA está a revelar falhas fundamentais na infraestrutura empresarial”, e que a fragmentação total entre nuvem, borda e implantação local tornou-se o maior obstáculo para IA operacional.
A questão da “soberania” torna a infraestrutura de IA ainda mais complexa
Recentemente, essa fragmentação foi rotulada de “soberania”. Isso ocorre porque a soberania dos dados, as regulamentações regionais e as políticas internas das empresas entrelaçam-se, dificultando a centralização de dados e cargas de trabalho. Como consequência, os sistemas de IA estão a ser forçados a evoluir de uma pilha única para uma operação distribuída através de múltiplos ambientes.
Mike Barrett, vice-presidente e gerente geral do departamento de plataformas híbridas da Red Hat, exemplifica com o uso de diferentes grandes modelos de linguagem por departamentos distintos, explicando que os clientes empresariais não buscam ferramentas específicas para cada ambiente, mas sim uma “plataforma horizontal” a nível corporativo. Para resolver isso, a Red Hat está a focar na construção de uma camada de controlo baseada em Kubernetes, que gerencie unificadamente cargas de trabalho de IA em todos os ambientes, denominada “Plano de controlo de IA”.
Kubernetes está a evoluir de orquestrador para ferramenta de “consistência operacional”
Originalmente, o Kubernetes não foi projetado para inferência de IA. Seu papel inicial era mais próximo do gerenciamento e implantação de containers. Contudo, à medida que a inferência de IA migrou para ambientes de serviço reais, problemas de consistência regional, latência variável, disputa por recursos e deriva de políticas começaram a surgir de forma abrangente.
Roberto Shoji, diretor de engenharia da Red Hat, menciona o framework de inferência de código aberto “llm-d”, explicando que os usuários não desejam apenas construir sistemas de ponta em desempenho, mas também resolver a complexidade na fase de operação contínua. Isso indica que a instabilidade dos sistemas de IA ocorre não na fase de treinamento, mas na fase de operação de serviços reais.
O conselho de administração da Cloud Native Computing Foundation (CNCF), liderado por Jan Meren, também aponta para uma preocupação semelhante. Ele analisa que, embora o ecossistema de nuvem nativa tenha evoluído para uma colaboração global de código aberto, a construção de sistemas baseados na “consistência global” entra em conflito com regulamentações regionais e ambientes distribuídos.
Paul Nashawaty comenta: “A essência da IA de agente não é um problema de modelo, mas de arquitetura de plataforma”, e que a competitividade futura dependerá mais de construir infraestruturas melhores do que de escolher modelos superiores.
A engenharia de plataformas surge como solução prática para a operação de IA
O problema é que o Kubernetes é demasiado complexo para todas as equipes, dificultando sua implementação direta. Brian Stevens, CTO do departamento de IA da Red Hat, afirma que muitos cientistas de dados que criam IA também precisam gerenciar infraestrutura. A solução para essa lacuna é a engenharia de plataformas.
Nashawaty explica que, à medida que ferramentas fragmentadas, a capacidade de pessoal e a complexidade operacional se tornam gargalos reais, a indústria está a migrar para uma estrutura de controlo unificada centrada em plataformas e Kubernetes. Nesse contexto, o Red Hat OpenShift AI assume a responsabilidade de abstrair, de forma repetível, o aprendizado, implantação, serviço e inferência em ambientes híbridos.
Máquinas virtuais também estão a integrar-se ao Kubernetes
A infraestrutura empresarial não será totalmente modernizada de uma só vez. Ativos legados essenciais, como sistemas de faturação e bancos de dados, permanecem em seus ambientes originais por motivos de gestão de risco. Isso mantém as máquinas virtuais (VMs) e os containers a operarem de forma dual.
Pesquisas indicam que 84% dos decisores de TI enfrentam dificuldades na gestão isolada de VMs e containers. Daniel Messel, da Red Hat, afirma: “A virtualização e os containers não devem permanecer isolados; devem estar na mesma plataforma”. O projeto KubeVirt, já maduro na CNCF, permite a execução simultânea de máquinas virtuais e containers no Kubernetes.
Essa estratégia é interpretada como uma forma de não eliminar sistemas legados, mas de integrá-los na mesma camada de controlo, unificando a interface operacional.
Alguns também apontam que “conveniência” não equivale a “controle”
Embora a soberania de IA pareça uma alternativa, há opiniões de que ela traz mais restrições. Regulamentações nacionais limitam a movimentação de dados, e políticas empresariais dificultam a centralização. Como resultado, independentemente da preparação das empresas, cargas de trabalho são distribuídas entre nuvem, local e borda.
Gabriel Bartolini, da EnterpriseDB, destaca que, sem portabilidade de bancos de dados, a soberania não é real. Ele diferencia que a “conveniência” de serviços geridos não significa controle. Jan Meren também afirma que, na discussão de soberania, é importante distinguir “soberania de código” de “soberania de implantação”: o código pode ser um ativo de código aberto global, mas a implantação está sujeita a leis e políticas locais.
Nesse sentido, o papel do Kubernetes torna-se ainda mais claro: ele conecta o código compartilhado globalmente a um ambiente operacional capaz de se adaptar às restrições regionais.
A vitória final depende do ecossistema
Nenhuma empresa sozinha consegue suportar toda a infraestrutura de IA. Para que o controle de IA via plano de controlo Kubernetes funcione, não basta substituir sistemas diversos, é preciso conectá-los. Isso é viabilizado por um “ecossistema” composto por padrões, APIs e projetos open source de topo.
Nashawaty avalia que a Red Hat é mais do que uma fornecedora de plataformas comerciais; é uma das empresas mais ativas na contribuição para o ecossistema CNCF. Essa atuação não se limita à gestão de imagens, mas é fundamental para evitar diferenças entre implementações de Kubernetes de diferentes fornecedores, mantendo a consistência. A Red Hat também colabora com a Nvidia na iniciativa “Red Hat AI Factory”, que busca construir uma infraestrutura de IA empresarial escalável, combinando OpenShift e aceleradores Nvidia.
Nashawaty afirma: “Considerando que até 75% das empresas enfrentam falhas de IA de dois dígitos devido à fragmentação de sistemas, o gargalo mudou para a infraestrutura.” Ou seja, o problema não é a falta de funcionalidades, mas a dificuldade estrutural de fazer sistemas trabalharem em conjunto.
Kubernetes como camada de produção na era da IA
Mais do que uma questão de derrubar um ponto específico, a ascensão do Kubernetes como camada de produção na era da IA é uma realidade.