A China avisa os EUA que o uso de IA na guerra pode comprometer a ética

robot
Geração de resumo em curso

A China advertiu formalmente que a potencial expansão do uso de inteligência artificial (IA) pelo exército dos EUA na tomada de decisões de guerra pode enfraquecer as restrições éticas e a responsabilidade, especialmente se os sistemas forem autorizados a exercer influência excessiva sobre resultados de vida ou morte.

Um porta-voz do Ministério da Defesa Nacional da China afirmou que tais desenvolvimentos — incluindo “usar IA como uma ferramenta para violar a soberania de outros países, permitir que a IA afete excessivamente as decisões de guerra e dar aos algoritmos o poder de determinar vida ou morte” — correm o risco de erodir os limites éticos na guerra e podem até levar a resultados tecnológicos descontrolados. O oficial sugeriu que um papel irrestrito da IA nas operações militares poderia assemelhar-se a cenários distópicos vistos na ficção.

Pequim declarou-se contra esforços para aproveitar a dominação em IA e outras tecnologias avançadas para obter vantagem militar absoluta ou comprometer a soberania de outros países.

As autoridades também enfatizaram que todos os sistemas de armas devem permanecer sob controle humano e que a “primazia humana” deve ser mantida no uso militar da IA. A China afirmou que buscará uma governança multilateral das tecnologias de IA, com as Nações Unidas no centro, para fortalecer a prevenção de riscos e garantir que o desenvolvimento da IA esteja alinhado com o progresso humano.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar