Administração Trump irá rever modelos de IA do Google, Microsoft, xAI antes do lançamento público

fechar

vídeo

Os mercados estão começando a divergir um pouco devido ao conflito no Irã, diz Josh Schafer

O editor do boletim informativo Barrons Roundtable, Josh Schafer, analisa o mercado de ações e os preços do petróleo em meio ao conflito no Oriente Médio na Varney & Co.

A administração Trump anunciou na terça-feira que tinha chegado a novos acordos com a Microsoft, Google DeepMind e a xAI de Elon Musk para expandir a colaboração com grandes empresas de tecnologia na pesquisa de inteligência artificial (IA) e segurança.

O Centro para Padrões e Inovação em IA (CAISI), que faz parte do Instituto Nacional de Padrões e Tecnologia do Departamento de Comércio, trabalhará com as empresas de IA em avaliações pré-implantação, bem como em pesquisas direcionadas às capacidades de IA de fronteira e segurança de IA.

Os novos acordos complementam parcerias previamente anunciadas entre o CAISI e as empresas, apoiando o compartilhamento de informações, impulsionando melhorias voluntárias nos produtos e garantindo uma compreensão clara no governo sobre as capacidades de IA e o estado da competição internacional em IA.

“Ciência de medição independente e rigorosa é essencial para entender a IA de fronteira e suas implicações para a segurança nacional”, disse o diretor do CAISI, Chris Fall. “Essas colaborações ampliadas com a indústria nos ajudam a ampliar nosso trabalho no interesse público em um momento crítico.”

COMO A EXPOSIÇÃO À IA ESTÁ REFORMULANDO OS EMPREGOS EM ÁREAS CRIATIVAS

A administração Trump anunciou os acordos de IA através do CAISI com várias empresas de tecnologia líderes. (Win McNamee/Getty Images)

Desenvolvedores frequentemente fornecem ao CAISI modelos que reduziram ou removeram salvaguardas para avaliar capacidades e riscos relacionados à segurança nacional.

Avaliadores de várias agências governamentais podem participar das avaliações e fornecer feedback regularmente através do Grupo de Trabalho TRAINS, que é um grupo de especialistas interagências focados em preocupações de segurança nacional em IA.

Os acordos do CAISI apoiam testes em ambientes classificados e foram elaborados com flexibilidade para responder aos avanços contínuos em IA.

ZUCKERBERG DIZ QUE DEMISSÕES NA META ESTÃO RELACIONADAS COM GASTOS EM IA, NÃO DESCARTA FUTURAS REDUÇÕES

A Microsoft afirmou que a parceria com o CAISI é necessária para construir confiança e credibilidade em sistemas avançados de IA. (Cesc Maymo / Getty Images)

A responsável pela IA na Microsoft, Natasha Crampton, afirmou em um comunicado que os acordos irão “avançar a ciência de testes e avaliações de IA, incluindo trabalhos colaborativos para testar os modelos de fronteira da Microsoft, avaliar salvaguardas e ajudar a mitigar riscos de segurança nacional e de segurança pública em grande escala.”

Crampton disse que “testes contínuos e rigorosos são essenciais para construir confiança em sistemas avançados de IA.”

ELON MUSK DIZ QUE FOI UM ‘TOLDO’ POR FINANCIAR A OPENAI: RELATÓRIO

A unidade DeepMind do Google também assinou os novos acordos com o CAISI. (Marlena Sloss/Bloomberg via Getty Images)

“Testes bem elaborados nos ajudam a entender se nossos sistemas estão funcionando como esperado e entregando os benefícios para os quais foram projetados. Testar também nos ajuda a ficar à frente de riscos, como ciberataques impulsionados por IA e outros usos criminosos de sistemas de IA, que podem surgir uma vez que sistemas avançados de IA sejam implantados no mundo”, explicou Crampton.

A Microsoft também anunciou um acordo semelhante com o Instituto de Segurança de IA do Reino Unido (AISI) para governar os testes e avaliações de IA.

OBTENHA O FOX BUSINESS EM MOVIMENTO CLICANDO AQUI

XAI3,51%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar