Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Juiz federal bloqueia temporariamente o Pentágono de classificar a empresa de IA Anthropic como um risco na cadeia de abastecimento
SAN FRANCISCO (AP) — Uma juíza federal decidiu a favor da empresa de inteligência artificial Anthropic, ao bloquear temporariamente o Pentágono de classificar a empresa como um risco para a cadeia de abastecimento.
Na quinta-feira, a juíza do Tribunal Distrital dos EUA Rita Lin disse também que estava a bloquear a aplicação da diretiva de redes sociais do presidente Donald Trump, que ordena a todas as agências federais que deixem de usar a Anthropic e o seu chatbot, Claude.
Lin disse que as “medidas punitivas amplas” tomadas contra a empresa de IA pela administração Trump e pelo secretário da Defesa Pete Hegseth pareciam arbitrárias, caprichosas e poderiam “incapacitar a Anthropic”, especialmente pelo uso, por parte de Hegseth, de uma rara autoridade militar que tem sido dirigida, no passado, a adversários estrangeiros.
“Nada na lei aplicável sustenta a noção orwelliana de que uma empresa americana possa ser marcada como um potencial adversário e sabotador dos EUA por expressar discordância com o governo”, escreveu Lin.
A decisão de Lin seguiu-se a uma audiência de 90 minutos no tribunal federal de São Francisco, na terça-feira, durante a qual Lin questionou por que razão a administração Trump tomou a medida extraordinária de punir a Anthropic depois de negociações sobre um contrato de defesa terem azedado, devido ao esforço da empresa para impedir que a sua tecnologia de IA fosse aplicada em armas totalmente autónomas ou em vigilância de americanos.
Anthropic pediu que Lin emitisse uma ordem de emergência para remover uma marca de estigma que a empresa afirma ter sido aplicada injustificadamente como parte de uma “campanha ilegal de retaliação”, que levou a empresa com sede em São Francisco a processar a administração Trump no início deste mês. O Pentágono tinha argumentado que deve conseguir usar o Claude de qualquer forma que considere legal.
Lin disse que a sua decisão não tinha a ver com esse debate de política pública, mas com as ações do governo em resposta a ele.
“Se a preocupação for a integridade da cadeia operacional de comando, o Departamento de Guerra poderia simplesmente deixar de usar o Claude. Em vez disso, estas medidas parecem ter sido concebidas para punir a Anthropic”, escreveu Lin.
A Anthropic também apresentou um processo separado, mais restrito, que continua pendente no tribunal de recursos federal em Washington, D.C. Esse caso envolve uma regra diferente que o Pentágono está a usar para tentar declarar a Anthropic um risco para a cadeia de abastecimento.
Lin escreveu que a sua ordem foi adiada por uma semana e não exige que o Pentágono use os produtos da Anthropic nem o impede de fazer a transição para outros fornecedores de IA.
A Anthropic disse, num comunicado, que estava “grata ao tribunal por agir com rapidez, e satisfeita por concordarem que é provável que a Anthropic tenha sucesso quanto ao mérito”. A empresa afirmou que o caso era necessário para proteger o seu negócio e os seus clientes, mas que continua focada em “trabalhar de forma produtiva com o governo para garantir que todos os americanos beneficiem de uma IA segura e fiável”.
O Pentágono não respondeu imediatamente a um pedido de comentário sobre a decisão.
Várias partes terceiras tinham apresentado alegações legais a apoiar o caso da Anthropic, incluindo a Microsoft, associações comerciais da indústria, trabalhadores tecnológicos comuns, antigos líderes militares dos EUA e um grupo de teólogos católicos.
—-
O’Brien reportou de Providence, Rhode Island.