O governo de Trump é instado a realizar uma revisão de segurança antes do lançamento do modelo de IA

robot
Geração de resumo em curso

Investing.com – Uma organização de defesa pediu na segunda-feira ao governo Trump que realize uma avaliação de ameaças à segurança antes do lançamento público de modelos avançados de inteligência artificial, e que recuse contratos governamentais a modelos que não passem na avaliação.

O Escritório Oval está atualmente respondendo aos riscos de segurança levantados pelo modelo Mythos da Anthropic, que pode tornar a execução de ataques cibernéticos complexos mais rápida e fácil, trazendo riscos à segurança nacional.

A organização “Americanos pela Inovação Responsável” enviou uma carta aos funcionários do governo, solicitando que o governo Trump estabeleça mecanismos para revisar a capacidade de ataques cibernéticos e o desenvolvimento de armas dos principais desenvolvedores de modelos de ponta que estão prestes a ser lançados.

Na carta, a organização afirmou que as empresas devem passar por essa avaliação para serem elegíveis a contratos governamentais.

O Centro de Padrões e Inovação em Inteligência Artificial dos EUA (CAISI) atualmente realiza avaliações de alguns modelos de IA por meio de acordos voluntários com OpenAI, Anthropic, Google, Microsoft e xAI.

A organização recomenda que a CAISI lidere a formulação de requisitos obrigatórios, e que o Congresso crie uma agência de fiscalização permanente no Departamento de Comércio dos EUA para executar esses requisitos.

MSFT-1,34% GOOGL+0,71%

Microsoft

Acompanhar

Análise MSFT

Incluído em nossa estratégia de seleção de inteligência artificial

·

Ver detalhes da estratégia

415,12

▼-5,65(-1,34%)

Fechamento·05/09·USD

412,75

▼-2,37(-0,57%)

Pré-mercado·10:51:55

1 dia

1 semana

1 mês

6 meses

1 ano

5 anos

Valor máximo

Criado com Highcharts 11.4.814:0015:0016:0017:0018:0019:00414416418

Índice

MSFT-1,34% GOOGL+0,71%

Análise MSFT

As propostas acima se aplicarão a empresas que investem US$ 100 milhões ou mais por ano em modelos de treinamento de ponta, ou que tenham uma receita anual de produtos e serviços de IA de US$ 500 milhões ou mais.

A Califórnia já estabeleceu critérios semelhantes para requisitos de relatórios de segurança no ano passado.

Este artigo foi traduzido com assistência de inteligência artificial. Para mais informações, consulte nossos termos de uso.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar