Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Anthropic submete documentos más recentes do tribunal revelando os detalhes de negociações por trás do corte de cooperação do Pentágono
TechCrunch, 21 de março — A Anthropic, empresa de inteligência artificial, apresentou oficialmente uma declaração juramentada perante o tribunal federal da Califórnia, refutando as acusações do Pentágono de que a sua tecnologia representa um “risco à segurança nacional”. Este processo, iniciado após o governo dos EUA anunciar unilateralmente o encerramento da cooperação, revela detalhes internos, mostrando que, antes da ruptura total, as partes estavam muito próximas de chegar a um acordo.
De acordo com documentos apresentados por Sara Hek, chefe de políticas da Anthropic, as preocupações do Pentágono, incluindo a alegação de que a Anthropic exigia aprovação para ações militares e de que poderia desativar tecnologias durante operações, nunca foram mencionadas nas negociações que ocorreram meses antes do conflito. Ainda mais dramático, no dia seguinte à inclusão oficial da empresa na lista de riscos da cadeia de suprimentos do Departamento de Defesa (4 de março), o vice-secretário de Defesa, Emil Michael, enviou um e-mail ao CEO da Anthropic, deixando claro que as duas partes estavam “muito próximas” de um acordo sobre as divergências centrais relativas a armas autônomas e monitoramento em larga escala de civis americanos. Isso contrasta fortemente com a postura dura que o governo dos EUA posteriormente comunicou ao público.
Quanto às preocupações técnicas de segurança, Thiaagu Ramassami, chefe de setor público da Anthropic, refutou-as tecnicamente em uma declaração. Ele afirmou que, uma vez que o grande modelo de IA Claude fosse implantado em sistemas governamentais operados por terceiros, a Anthropic não teria acesso algum, e não haveria qualquer interruptor remoto ou backdoor, tornando tecnicamente impossível interferir em operações militares. Além disso, quanto às alegações de risco por contratar funcionários estrangeiros, o documento destaca que todos os empregados envolvidos na construção de modelos confidenciais passaram por verificações de segurança do governo dos EUA.
Atualmente, a Anthropic afirma que essa decisão de risco na cadeia de suprimentos, a primeira na história dos EUA contra uma empresa doméstica, é, na verdade, uma retaliação do governo contra a expressão pública da empresa sobre segurança de IA, protegida pela Primeira Emenda. O governo americano negou essa alegação em um documento de 40 páginas divulgado nesta semana, argumentando que a exclusão da Anthropic foi uma decisão puramente de segurança nacional, sem relação com suas opiniões. A audiência do caso está marcada para 24 de março, em São Francisco.