Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Mais de metade dos juízes federais dos EUA usam IA
(MENAFN) A maioria dos juízes federais dos EUA integrou silenciosamente a inteligência artificial no seu trabalho judicial diário, de acordo com uma nova investigação da Northwestern University — um achado que está a merecer um escrutínio urgente por parte de especialistas em direito devido aos riscos que estas ferramentas representam para a integridade dos tribunais.
O estudo, baseado em respostas a um inquérito de 112 juízes federais provenientes de uma amostra aleatória de 502 responsáveis distribuídos por insolvência, magistratura, instâncias de primeira instância e tribunais de recurso, concluiu que 60% dos juízes federais já empregam pelo menos uma ferramenta de IA em algum grau. Cerca de 22% referiu utilizar estas ferramentas diariamente ou semanalmente.
A investigação jurídica surgiu como a aplicação mais comum, referida por 30% dos inquiridos, seguida da revisão de documentos, com 16%. A elaboração e a edição foram também apontadas entre usos frequentes. Os resultados chegam num momento particularmente delicado: erros gerados por IA — sobretudo citações legais fabricadas — já abalaram a confiança nos articulados apresentados por advogados em várias jurisdições.
O inquérito revelou uma divisão acentuada quanto à forma como os tribunais estão a gerir a tecnologia internamente. Aproximadamente um em cada três juízes disse que permite ativamente ou incentiva o uso de IA nas suas câmaras, enquanto 20% já estabeleceram proibições formais. Mais marcantemente, mais de 45% dos juízes inquiridos referiram nunca ter recebido qualquer formação relacionada com IA por parte da administração do tribunal — uma falha que os críticos consideram insustentável tendo em conta as apostas envolvidas.
Académicos do direito estão a soar o alarme. Eric Posner, professor de direito na University of Chicago, apresentou um aviso incisivo: “Os juízes tomam decisões que são muito importantes para as pessoas e resolvem litígios significativos. Não podem apostar numa tecnologia que não é totalmente compreendida e que se sabe que alucina.”
No entanto, nem todas as vozes são de cautela. Os defensores da adoção de IA na justiça sustentam que a tecnologia tem uma promessa genuína para aliviar a esmagadora carga processual e agilizar as operações dos tribunais. Christopher Patterson, um juiz-presidente na Flórida, deu uma validação ponderada: “Somos cautelosos, mas os resultados iniciais são muito positivos. Estamos a avaliar a exatidão, a adequação e a poupança de tempo.”
O debate está a desenrolar-se num cenário de ações disciplinares em escalada. Em março, juízes de Nova Iorque apelaram publicamente aos advogados para verificarem todas as citações geradas por IA após múltiplos articulados terem sido encontrados com referências de casos totalmente fabricadas. a media informou em dezembro que citações alucinadas se tornaram um problema sistémico na profissão jurídica, e no mês anterior, vários advogados enfrentaram sanções financeiras depois de apresentarem peças repletas de centenas de referências falsas geradas por IA.
As preocupações estendem-se bem para além das paredes do tribunal. Especialistas em todo o mundo estão a levantar alarmes sobre a expansão da presença da IA em decisões de elevada relevância, alertando que a sua tendência documentada para gerar resultados falsos ou enganadores torna o seu uso em matérias de consequências legais — onde as decisões podem determinar meios de subsistência, liberdade e vidas — um desafio profundo de responsabilização para o qual os quadros de supervisão existentes estão mal preparados para abordar.
MENAFN05042026000045017169ID1110943873