Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Newsom ordena ao governo que considere os riscos da IA nas regras de contratos
A próxima vez que o governo federal rotular um negócio como um risco para a cadeia de abastecimento, como fez o Departamento da Defesa no mês passado com a empresa de ferramentas de IA sediada em São Francisco Anthropic, o estado da Califórnia vai analisar essa designação e tomar a sua própria decisão sobre se deve ou não fazer negócios com elas.
É o que consta de uma ordem executiva assinada pelo governador Gavin Newsom na segunda-feira. A ordem seguiu-se a um diferendo entre a Anthropic e o Departamento da Defesa sobre termos contratuais que impedem o exército de usar sistemas da Anthropic para vigilância interna de massa e para armamento totalmente autónomo.
Ao designar a Anthropic como um risco na cadeia de abastecimento, o Departamento da Defesa impediu de facto a startup de concorrer a certos contratos militares e subcontratos. Um juiz emitiu recentemente uma injunção temporária para bloquear a designação.
O objetivo mais amplo da ordem de Newsom era colocar travões na utilização de IA por funcionários do estado, ao mesmo tempo incentivando-os a acelerar o uso da tecnologia.
Muitas das maiores empresas de IA do mundo estão sediadas na Califórnia, e o estado também lidera o país em volume de regulamentações de IA.
A ordem exige que os organismos do estado:
Desenvolvam recomendações para padrões contratuais do estado relacionados com a IA e com a sua capacidade de gerar material de abuso sexual infantil, violar leis de liberdades civis e direitos civis ou infringir “proteções legais contra discriminação, detenção e vigilância” de forma ilícita. Ajudar os funcionários a obter acesso a “ferramentas GenAI validadas”.
Atualizem a Estratégia Digital do Estado para identificar formas como a IA generativa pode “reforçar a transparência e a responsabilização do governo, melhorar o desempenho e tornar os serviços governamentais facilmente acessíveis para todos os californianos”.
Desenvolvam IA generativa para que os californianos possam aceder a serviços governamentais.
Emitam orientações sobre como os funcionários do estado devem colocar marcas d’água em imagens e vídeos gerados por IA.
Esses mandatos chegam num momento em que mais de 20 departamentos e agências da Califórnia estão a trabalhar para desenvolver ou usar Poppy, um assistente de IA generativa para funcionários do estado, e em que meia dúzia de agências estaduais estão a testar IA para fazer coisas como ajudar funcionários do estado e apoiar pessoas sem-abrigo e empresas. Também chegam à medida que tribunais estaduais e governos municipais estão a aumentar a sua utilização da tecnologia.
Newsom’s office said President Donald Trump and Republicans in Washington D.C. have rolled back protections or ignored the ways AI can harm people.
“Ao contrário da administração Trump, a Califórnia continua empenhada em garantir que as soluções de IA adotadas e implementadas por (Califórnia)… não sejam mal utilizadas por agentes mal-intencionados”, disse o gabinete do governador num comunicado de imprensa a anunciar a ordem.
Ao nível federal, Trump assinou ordens executivas para desencorajar os estados de regularem a IA e instou as agências federais a adotar IA para fazer coisas como reduzir a regulamentação federal e acelerar as decisões tomadas sobre o Medicare. A Casa Branca apresentou, no mês passado, um quadro de política de IA que o presidente quer que o Congresso analise. Essa proposta adota uma abordagem leve à regulamentação e não aborda questões relacionadas com enviesamento, discriminação ou direitos civis.
Esta é a segunda ordem executiva assinada por Newsom para abordar a inteligência artificial. Uma ordem de 2023, com foco exclusivamente na IA generativa, do tipo que alimenta sistemas como ChatGPT e Midjourney, solicitou igualmente uma maior utilização de IA por agências estaduais e ordenou que fossem colocados travões.
A forma como Newsom trata as questões de IA está a ser de perto acompanhada tanto por líderes sindicais, que em fevereiro prometeram que não apoiarão a sua candidatura a presidente sem mais proteções para os trabalhadores face à tecnologia, como por grandes doadores de tecnologia, que estão a despejar dinheiro para influenciar a política da Califórnia antes das eleições de meio de mandato que se realizam este outono.
Esta notícia foi originalmente publicada pela CalMatters e distribuída através de uma parceria com a The Associated Press.