Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Juiz federal bloqueia temporariamente o Pentágono de classificar a empresa de IA Anthropic como um risco na cadeia de abastecimento
SAN FRANCISCO (AP) — Um juiz federal decidiu a favor da empresa de inteligência artificial Anthropic, bloqueando temporariamente o Pentágono de rotular a empresa como um risco na cadeia de abastecimento.
A juíza Rita Lin, dos EUA, afirmou na quinta-feira que também bloqueava a ordem do presidente Donald Trump, que ordenava a todas as agências federais a cessar o uso da Anthropic.
A decisão de Lin seguiu-se a uma audiência de 90 minutos no tribunal federal de São Francisco na terça-feira, na qual ela questionou por que a administração Trump tomou a medida extraordinária de denunciar a Anthropic como risco na cadeia de abastecimento após negociações fracassadas sobre um contrato de defesa, devido à tentativa da empresa de impedir que sua tecnologia de IA fosse usada em armas totalmente autônomas ou na vigilância de americanos.
A Anthropic, criadora do chatbot Claude, pediu a Lin que emitisse uma ordem de emergência para remover um estigma que a empresa alega ter sido aplicado injustamente como parte de uma “campanha ilegal de retaliação” que levou a empresa com sede em São Francisco a processar a administração Trump no início deste mês. O Pentágono argumentou que deveria poder usar o Claude de qualquer maneira que considere legal.
Lin afirmou que sua decisão não trata do debate de política pública, mas das ações do governo em resposta a ele.
Related Stories Histórias Relacionadas
Encerramento de alguns aeroportos nos EUA devido à falta de pessoal na TSA teria grandes consequências, dizem especialistas
O conflito no leste do Congo está escalando com o uso de armas pesadas e drones, alerta a ONU
Se a preocupação for a integridade da cadeia de comando operacional, o Departamento de Guerra poderia simplesmente parar de usar o Claude. Em vez disso, essas medidas parecem destinadas a punir a Anthropic, escreveu Lin.
A Anthropic também entrou com um processo separado e mais restrito, que ainda está pendente no tribunal de apelações federal em Washington, D.C.
Lin escreveu que sua ordem será adiada por uma semana e não obriga o Pentágono a usar os produtos da Anthropic ou a impedir a transição para outros fornecedores de IA.