Juiz federal bloqueia temporariamente o Pentágono de classificar a empresa de IA Anthropic como um risco na cadeia de abastecimento

SAN FRANCISCO (AP) — Uma juíza federal decidiu a favor da empresa de inteligência artificial Anthropic, ao bloquear temporariamente o Pentágono de classificar a empresa como um risco para a cadeia de abastecimento.

Na quinta-feira, a juíza do Tribunal Distrital dos EUA Rita Lin disse também que estava a bloquear a aplicação da diretiva de redes sociais do presidente Donald Trump, que ordena a todas as agências federais que deixem de usar a Anthropic e o seu chatbot, Claude.

Lin disse que as “medidas punitivas amplas” tomadas contra a empresa de IA pela administração Trump e pelo secretário da Defesa Pete Hegseth pareciam arbitrárias, caprichosas e poderiam “incapacitar a Anthropic”, especialmente pelo uso, por parte de Hegseth, de uma rara autoridade militar que tem sido dirigida, no passado, a adversários estrangeiros.

“Nada na lei aplicável sustenta a noção orwelliana de que uma empresa americana possa ser marcada como um potencial adversário e sabotador dos EUA por expressar discordância com o governo”, escreveu Lin.

A decisão de Lin seguiu-se a uma audiência de 90 minutos no tribunal federal de São Francisco, na terça-feira, durante a qual Lin questionou por que razão a administração Trump tomou a medida extraordinária de punir a Anthropic depois de negociações sobre um contrato de defesa terem azedado, devido ao esforço da empresa para impedir que a sua tecnologia de IA fosse aplicada em armas totalmente autónomas ou em vigilância de americanos.

                        Histórias relacionadas

            O juiz não vai bloquear uma reunião que pode isentar a exploração no Golfo da Lei sobre Espécies Ameaçadas
        

    

  

    

    
    







    
    
        
        
    
    
    
    
        

            3 MIN DE LEITURA

            A administração Trump procura uma isenção da Lei sobre Espécies Ameaçadas para projetos de petróleo e gás no Golfo
        

    

  

    

    
    







    
    
        
        
    
    
    
    
        

            4 MIN DE LEITURA

            No serviço cristão do Pentágono, Hegseth reza por violência ‘contra aqueles que não merecem misericórdia’
        

    

  

    

    
    







    
    
        
        
    
    
    
    
        

            5 MIN DE LEITURA
        

    
    
    
    


    
    
        
        
    
    
    
    
        

            1150

Anthropic pediu que Lin emitisse uma ordem de emergência para remover uma marca de estigma que a empresa afirma ter sido aplicada injustificadamente como parte de uma “campanha ilegal de retaliação”, que levou a empresa com sede em São Francisco a processar a administração Trump no início deste mês. O Pentágono tinha argumentado que deve conseguir usar o Claude de qualquer forma que considere legal.

Lin disse que a sua decisão não tinha a ver com esse debate de política pública, mas com as ações do governo em resposta a ele.

“Se a preocupação for a integridade da cadeia operacional de comando, o Departamento de Guerra poderia simplesmente deixar de usar o Claude. Em vez disso, estas medidas parecem ter sido concebidas para punir a Anthropic”, escreveu Lin.

A Anthropic também apresentou um processo separado, mais restrito, que continua pendente no tribunal de recursos federal em Washington, D.C. Esse caso envolve uma regra diferente que o Pentágono está a usar para tentar declarar a Anthropic um risco para a cadeia de abastecimento.

Lin escreveu que a sua ordem foi adiada por uma semana e não exige que o Pentágono use os produtos da Anthropic nem o impede de fazer a transição para outros fornecedores de IA.

A Anthropic disse, num comunicado, que estava “grata ao tribunal por agir com rapidez, e satisfeita por concordarem que é provável que a Anthropic tenha sucesso quanto ao mérito”. A empresa afirmou que o caso era necessário para proteger o seu negócio e os seus clientes, mas que continua focada em “trabalhar de forma produtiva com o governo para garantir que todos os americanos beneficiem de uma IA segura e fiável”.

O Pentágono não respondeu imediatamente a um pedido de comentário sobre a decisão.

Várias partes terceiras tinham apresentado alegações legais a apoiar o caso da Anthropic, incluindo a Microsoft, associações comerciais da indústria, trabalhadores tecnológicos comuns, antigos líderes militares dos EUA e um grupo de teólogos católicos.

—-

O’Brien reportou de Providence, Rhode Island.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar