Bruxelas abre conversas separadas sobre segurança de IA com OpenAI e Anthropic

robot
Geração de resumo em curso

Na segunda-feira, a Comissão Europeia afirmou que está a falar com a OpenAI e a Anthropic sobre os seus modelos de IA, mas as duas conversas parecem nada ter em comum.

Thomas Regnier, um porta-voz da Comissão em Bruxelas, disse aos jornalistas que a OpenAI foi a primeira a oferecer acesso ao seu modelo mais recente. A Comissão considerou a iniciativa proativa.

A Anthropic, por outro lado, reuniu-se com responsáveis quatro ou cinco vezes, mas o acesso ao modelo ainda não foi mencionado.

“Com uma (OpenAI), tem-se uma empresa que oferece proativamente acesso ao seu modelo. Com a outra (Anthropic), temos boas trocas, embora ainda não estejamos numa fase em que possamos especular sobre o possível acesso ou não,” afirmou Regnier durante a conferência.

Governos estão a apertar o cerco à IA de fronteira

O timing não é aleatório. Governos em todo o mundo estão a prestar atenção aos sistemas avançados de IA.

Este ano, a Lei de IA da UE começou a entrar em vigor. Está a ser implementada por fases. A regulamentação fornece regras baseadas em riscos para os fornecedores de IA que operam na Europa.

As empresas não são obrigadas a fornecer modelos ao governo para análise antes de colocá-los no mercado, mas está claro que a Comissão quer saber mais sobre o que está por vir.

A OpenAI e a Anthropic são as duas maiores empresas americanas a trabalhar com IA de ponta.

Os seus sistemas de IA continuam a tornar-se mais capazes, e os reguladores estão a correr para entender o que isso realmente significa.

O serviço audiovisual da Comissão listou a discussão entre OpenAI e Anthropic sob “Cibersegurança” na agenda do briefing do meio-dia de 11 de maio. Está listado juntamente com política de defesa e migração.

Washington avança para verificações obrigatórias antes do lançamento

Enquanto Bruxelas discute, Washington pode impor.

A Casa Branca está a considerar um plano para rever os modelos de IA mais poderosos antes de serem tornados públicos.

Essa ideia ganhou força após a Anthropic ter restringido o acesso mais amplo ao seu último modelo, Mythos, quando testes internos mostraram que ele podia encontrar bugs de software exploráveis em grande escala.

O Instituto de Segurança de IA do Reino Unido enfrentou problemas semelhantes em abril, ao avaliar o GPT-5.5 da OpenAI.

O modelo conseguiu reverter uma máquina virtual personalizada e resolver um desafio complexo mais rápido do que um especialista humano, de acordo com descobertas que a Cryptopolitan já reportou.

As mentes mais brilhantes em criptomoedas já leem o nosso boletim informativo. Quer participar? Junte-se a elas.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar