Percebi uma tendência interessante num contexto de crescente integração de IA na esfera de defesa. O Pentágono intensificou seriamente a pressão sobre a Anthropic, exigindo acesso completo ao modelo Claude para uso militar. Segundo relatos, o secretário de defesa, Pite Hegset, deu à empresa um ultimato final — aceitar as condições do Pentágono até ao final da semana ou perder contratos militares e tornar-se uma ameaça ao fornecimento.



O que exatamente o Pentágono exige? Controle total sobre a tecnologia, uso sem restrições (exceto legislação), e disposição para aplicar a lei de produção de defesa para forçar a cooperação. No contexto militar, isso parece uma pressão clássica do Estado sobre uma empresa privada.

Mas o que é mais interessante — o CEO da Anthropic, Dario Amodei, resiste. A empresa insiste em mecanismos de segurança, não quer que o Claude seja usado para vigilância em massa, exige controlo humano nas decisões finais de ataque. Amodei está preocupado que o modelo possa "galopar" (hallucinate), e que sem intervenção humana na cadeia de decisão possa levar a erros fatais. Faz sentido, honestamente.

O contexto fica ainda mais interessante. Acontece que o Claude já foi utilizado pelos militares dos EUA — ajudou em operações, incluindo ataques a alvos. Isso foi o que agravou a situação.

Enquanto a Anthropic e o Pentágono negociam, os concorrentes não ficam de braços cruzados. O Pentágono está a expandir ativamente o portfólio de soluções de IA no âmbito militar. Está a integrar o Grok da xAI em sistemas militares, assinou um contrato de mais de 99 milhões com a TurbineOne para soluções offline de reconhecimento de ameaças (drones, posições inimigas), e até um acordo de 200 milhões com a OpenAI para desenvolvimento de protótipos de IA para segurança nacional.

Assim, a Anthropic encontra-se numa posição delicada. Por um lado, contratos enormes e influência no âmbito militar. Por outro, risco de dano à reputação e questões éticas. A questão é quem acabará por ceder — o Estado ou a empresa que até agora se posicionava como defensora de uma IA responsável.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar