Tenho vindo a explorar algo que tem silenciosamente remodelado a forma como a guerra moderna realmente funciona, e honestamente é bastante louco quando se junta tudo.



Então há uma operação chamada Epic Fury em fevereiro de 2026—Israel e os EUA basicamente realizaram o que equivale a um teste de resistência de IA numa zona de combate real contra o Irão. Mas aqui está o que a maioria das pessoas não percebe: isto não se tratava apenas de poder de fogo. Era sobre comprimir toda a cadeia de eliminação—desde os dados dos sensores até à tomada de decisão e aos ataques reais—em minutos ou até segundos. Quem conseguir decifrar essa compressão vence a próxima rodada de influência geopolítica.

O que chamou a minha atenção foi como as principais empresas de tecnologia mudaram as suas posições de forma tão aberta. A OpenAI passou de uma postura ética de evitar aplicações militares para, de repente, conseguir o que provavelmente é o contrato de defesa mais sensível do nosso tempo. Anunciaram isso por volta de final de fevereiro—implantando modelos GPT em redes classificadas para análise de inteligência, tradução, simulações de combate. A empresa diz que está a fazer isto dentro de "linhas vermelhas", mas sejamos honestos: essas linhas vermelhas tornaram-se muito mais flexíveis quando se fala de contratos de defesa na ordem de centenas de milhões.

Depois há a Anthropic, que tomou o caminho oposto. Recusou-se a comprometer os seus princípios, não concordou com as exigências do Pentágono sobre armas autónomas e vigilância em massa. Resultado? Foram rotulados como um "risco na cadeia de abastecimento"—uma designação anteriormente reservada a empresas como a Huawei. Isso é um sinal assustador para toda a indústria: mantenha os seus princípios éticos e veja o seu acesso ao orçamento de defesa desaparecer da noite para o dia.

Mas aqui está o que ninguém fala suficiente: o verdadeiro poder nesta equação não está nas empresas de modelos. Está na Microsoft e no Google. Sem a infraestrutura de nuvem deles, todos esses modelos de IA sofisticados são apenas slides de PowerPoint. A Microsoft Azure tornou-se basicamente a espinha dorsal operacional—o exército israelense aumentou as suas operações de aprendizagem automática em algo como 64 vezes em poucos meses. O Projeto Nimbus do Google tem fornecido infraestrutura de nuvem avaliada em mais de um bilhão de dólares. Estas empresas estão a absorver o fluxo de dinheiro real enquanto os fornecedores de modelos levam o impacto na reputação. Inteligente, se pensarmos de forma cínica.

O que realmente me perturba são sistemas de IA israelenses como o Lavender. Esta coisa analisou padrões comportamentais de praticamente todos os homens adultos em Gaza, atribuindo-lhes uma "pontuação de suspeito de militante" e identificando dezenas de milhares de alvos. Depois, o Gospel automatizou a construção de alvos, e o Where's Daddy otimizou o momento do ataque para maximizar as baixas. Revisão humana? Alguns segundos por alvo. Isto é o que uma fábrica de eliminação algorítmica realmente parece quando se remove a fricção do processo de decisão.

A parte assustadora é quão portátil é esta lógica. As técnicas que desenvolveram em Gaza poderiam ser aplicadas em qualquer lugar—Teerão, Taipei, onde for. Não se trata da geografia específica; trata-se do pipeline de dados e da infraestrutura de nuvem que o processa.

Do ponto de vista do mercado, estamos a assistir ao surgimento do que se poderia chamar de um complexo IA-Nuvem-Defesa. Está a remodelar a forma como os investidores devem pensar nas ações tecnológicas. Isto já não é apenas sobre a OpenAI ou a Microsoft como empresas voltadas para o consumidor. É sobre quem controla a infraestrutura para a próxima geração de conflitos. As empresas dispostas a comprometer os seus princípios éticos estão a ser recompensadas com fluxo de caixa estável e contracíclico que as isola dos ciclos económicos normais.

A verdadeira questão que as pessoas deviam estar a fazer: antes de externalizar mais cadeias de eliminação para um punhado de grandes empresas de modelos e nuvem, ainda temos tempo para descobrir quem é realmente responsável quando as recomendações algorítmicas se tornam coordenadas de bombardeamento? Porque se não disseres nada agora, estás basicamente a apostar que esta complexidade permanece gerível. A história sugere o contrário.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar