Juiz dos EUA bloqueia a proibição de Trump à tecnologia de IA da Anthropic

TLDR

  • Um juiz federal em São Francisco emitiu uma injunção preliminar que bloqueia a proibição do Pentágono à IA da Anthropic, o Claude
  • A juíza Rita Lin chamou a proibição de “retaliação clássica e ilegal em resposta à Primeira Emenda”
  • O litígio começou depois de a Anthropic ter recusado permitir que o Claude fosse usado para armas autónomas letais ou para vigilância em massa
  • A Anthropic detinha 32% do mercado de IA empresarial em 2025, à frente da OpenAI, com 25%
  • A injunção está suspensa por sete dias para permitir ao governo tempo para apelar

💥 Encontre o próximo KnockoutStock! Obtenha preços em tempo real, gráficos e KO Scores no KnockoutStocks.com, a plataforma orientada por dados que classifica todas as ações pela qualidade e pelo potencial de ruptura.


Um juiz federal dos EUA bloqueou temporariamente a proibição da administração Trump sobre o uso, pelo governo, da tecnologia de IA da Anthropic, suspendendo medidas que a empresa disse que poderiam custar-lhe milhares de milhões em receitas perdidas.

URGENTE: Foi CONCEDIDA à Anthropic uma injunção preliminar relativa à designação do Pentágono como “risco para a cadeia de abastecimento”, por parte da juíza Rita Lin na Califórnia, mas está a permitir uma suspensão por uma semana

— Hadas Gold (@Hadas_Gold) March 26, 2026

A juíza Rita Lin do Tribunal Distrital dos EUA para o Distrito Norte da Califórnia emitiu a injunção preliminar na quinta-feira. Ela suspendeu a ordem por sete dias para dar ao governo uma oportunidade de apelar.

O caso centra-se num acordo celebrado em julho de 2025 entre a Anthropic e o Pentágono. O contrato teria tornado o Claude o primeiro modelo de IA de fronteira aprovado para uso em redes classificadas.

As negociações colapsaram em fevereiro de 2026. O Pentágono quis renegociar, exigindo que a Anthropic permitisse o uso militar do Claude “para todos os fins legais” e sem restrições.

A Anthropic recusou. A empresa afirmou que a sua tecnologia não deve ser usada para armas autónomas letais nem para vigilância interna em massa dos americanos.

A 27 de fevereiro, o presidente Trump ordenou que todas as agências federais cessassem a utilização de produtos da Anthropic. Ele escreveu no Truth Social que a empresa cometeu um “ERRO CATASTRÓFICO ao tentar FAZER PRESSÃO FORTE sobre o Departamento de Guerra”.

O Departamento de Defesa, em seguida, designou a Anthropic como um risco para a cadeia de abastecimento de segurança nacional. A Anthropic processou em tribunal federal em Washington, DC, a 9 de março, argumentando que o secretário de Defesa Pete Hegseth excedera a sua autoridade.



Juiz questiona a lógica do governo

Realizou-se uma audiência judicial de 90 minutos em São Francisco a 24 de março. A juíza Lin questionou os advogados do governo sobre se a Anthropic estava a ser punida por criticar publicamente o Pentágono.

Na sua decisão, Lin disse que a proibição não parecia estar dirigida a interesses de segurança nacional. “Se a preocupação for a integridade da cadeia operacional de comando, o Departamento de Guerra pode simplesmente deixar de usar o Claude”, escreveu.

Ela acrescentou que as medidas pareciam “concebidas para punir a Anthropic” e chamou-as de “arbitrárias, caprichosas e um abuso de discrição”.

Durante a audiência, um advogado da Anthropic salientou que o Pentágono pode rever qualquer modelo de IA antes de o implementar. A Anthropic também não tem forma de impedir que um modelo funcione, de alterar o modo como opera, ou de ver como o exército o está a usar.

O que ambos os lados defenderam

Um advogado do governo argumentou que a Anthropic destruiu a confiança durante as negociações do contrato ao tentar ditar políticas do Pentágono. O advogado disse que o governo estava preocupado com o risco de “futuro sabotagem” por parte da Anthropic.

A juíza Lin rejeitou esse raciocínio. Disse que o Departamento de Justiça não tinha uma “base legítima” para concluir que a postura da Anthropic sobre restrições poderia levá-la a tornar-se uma sabotadora.

A Anthropic detinha 32% do mercado de IA empresarial em 2025, à frente da OpenAI, com 25%, segundo a Menlo Ventures. Uma proibição a nível do governo teria colocado essa posição em risco.

A Anthropic disse que estava “grata ao tribunal por agir com rapidez”. A empresa também apresentou uma queixa separada num tribunal de recurso em Washington, DC, focada no direito de contratação pública.

O caso é Anthropic v. US Department of War, 26-cv-01996, Tribunal Distrital dos EUA, Distrito Norte da Califórnia.


Está a considerar uma nova ação? Talvez queira ver primeiro o que temos na nossa lista de acompanhamento.

A nossa equipa na Knockout Stocks acompanha analistas de topo e tendências que mexem no mercado para identificar potenciais vencedores cedo. Identificámos cinco ações a ganhar atenção silenciosa que poderão valer a pena acompanhar agora. Crie a sua conta gratuita para desbloquear o relatório completo e obter informações contínuas sobre ações.


✨ Oferta por tempo limitado

Obtenha 3 eBooks de ações Grátis

            Descubra ações com melhor desempenho em IA, Cripto e Tecnologia com análise especializada.
        

        

            *                       
                    **Top 10 Ações de IA** - Empresas líderes em IA
                
            *                       
                    **Top 10 Ações de Cripto** - Líderes em blockchain
                
            *                       
                    **Top 10 Ações de Tecnologia** - Gigantes da tecnologia
                
        

        

            
                📥 Obtenha os seus eBooks Grátis
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar