Newsom ordena ao governo que considere os riscos da IA nas regras de contratos

A próxima vez que o governo federal rotular um negócio como um risco para a cadeia de abastecimento, como fez o Departamento da Defesa no mês passado com a empresa de ferramentas de IA sediada em São Francisco Anthropic, o estado da Califórnia vai analisar essa designação e tomar a sua própria decisão sobre se deve ou não fazer negócios com elas.

É o que consta de uma ordem executiva assinada pelo governador Gavin Newsom na segunda-feira. A ordem seguiu-se a um diferendo entre a Anthropic e o Departamento da Defesa sobre termos contratuais que impedem o exército de usar sistemas da Anthropic para vigilância interna de massa e para armamento totalmente autónomo.

Ao designar a Anthropic como um risco na cadeia de abastecimento, o Departamento da Defesa impediu de facto a startup de concorrer a certos contratos militares e subcontratos. Um juiz emitiu recentemente uma injunção temporária para bloquear a designação.

O objetivo mais amplo da ordem de Newsom era colocar travões na utilização de IA por funcionários do estado, ao mesmo tempo incentivando-os a acelerar o uso da tecnologia.

Muitas das maiores empresas de IA do mundo estão sediadas na Califórnia, e o estado também lidera o país em volume de regulamentações de IA.

                        Histórias relacionadas

            Uma confusa campanha para governador na Califórnia aumenta os receios democratas de uma possível perda
        

    

  

    

    
    







    
    
        
        
    
    
    
    
        

            4 MIN DE LEITURA
        

    
    
    
    
        38

            O Departamento de Justiça investiga a Califórnia e o Maine sobre o alojamento de mulheres trans com reclusas femininas
        

    

  

    

    
    







    
    
        
        
    
    
    
    
        

            2 MIN DE LEITURA

            Os eventos do Dia de César Chavez são renomeados, adiados ou cancelados após alegações de abuso sexual
        

    

  

    

    
    







    
    
        
        
    
    
    
    
        

            5 MIN DE LEITURA

            Os eventos do Dia de César Chavez são renomeados, adiados ou cancelados após alegações de abuso sexual
        

    

  

    

    
    







    
    
        
        
    
    
    
    
        

            5 MIN DE LEITURA

A ordem exige que os organismos do estado:

  1. Desenvolvam recomendações para padrões contratuais do estado relacionados com a IA e com a sua capacidade de gerar material de abuso sexual infantil, violar leis de liberdades civis e direitos civis ou infringir “proteções legais contra discriminação, detenção e vigilância” de forma ilícita. Ajudar os funcionários a obter acesso a “ferramentas GenAI validadas”.

  2. Atualizem a Estratégia Digital do Estado para identificar formas como a IA generativa pode “reforçar a transparência e a responsabilização do governo, melhorar o desempenho e tornar os serviços governamentais facilmente acessíveis para todos os californianos”.

  3. Desenvolvam IA generativa para que os californianos possam aceder a serviços governamentais.

  4. Emitam orientações sobre como os funcionários do estado devem colocar marcas d’água em imagens e vídeos gerados por IA.

Esses mandatos chegam num momento em que mais de 20 departamentos e agências da Califórnia estão a trabalhar para desenvolver ou usar Poppy, um assistente de IA generativa para funcionários do estado, e em que meia dúzia de agências estaduais estão a testar IA para fazer coisas como ajudar funcionários do estado e apoiar pessoas sem-abrigo e empresas. Também chegam à medida que tribunais estaduais e governos municipais estão a aumentar a sua utilização da tecnologia.

Ler mais - AP 

Newsom’s office said President Donald Trump and Republicans in Washington D.C. have rolled back protections or ignored the ways AI can harm people.

“Ao contrário da administração Trump, a Califórnia continua empenhada em garantir que as soluções de IA adotadas e implementadas por (Califórnia)… não sejam mal utilizadas por agentes mal-intencionados”, disse o gabinete do governador num comunicado de imprensa a anunciar a ordem.

Ao nível federal, Trump assinou ordens executivas para desencorajar os estados de regularem a IA e instou as agências federais a adotar IA para fazer coisas como reduzir a regulamentação federal e acelerar as decisões tomadas sobre o Medicare. A Casa Branca apresentou, no mês passado, um quadro de política de IA que o presidente quer que o Congresso analise. Essa proposta adota uma abordagem leve à regulamentação e não aborda questões relacionadas com enviesamento, discriminação ou direitos civis.

Esta é a segunda ordem executiva assinada por Newsom para abordar a inteligência artificial. Uma ordem de 2023, com foco exclusivamente na IA generativa, do tipo que alimenta sistemas como ChatGPT e Midjourney, solicitou igualmente uma maior utilização de IA por agências estaduais e ordenou que fossem colocados travões.

A forma como Newsom trata as questões de IA está a ser de perto acompanhada tanto por líderes sindicais, que em fevereiro prometeram que não apoiarão a sua candidatura a presidente sem mais proteções para os trabalhadores face à tecnologia, como por grandes doadores de tecnologia, que estão a despejar dinheiro para influenciar a política da Califórnia antes das eleições de meio de mandato que se realizam este outono.


Esta notícia foi originalmente publicada pela CalMatters e distribuída através de uma parceria com a The Associated Press.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar