Análise: Anthropic e OpenAI revelam consecutivamente vulnerabilidades de segurança, levantando preocupações sobre a segurança dos modelos de IA

robot
Geração de resumo em curso

Notícias da Mars Finance, segundo o The Information, Anthropic e OpenAI tiveram incidentes de segurança sucessivos, o que despertou a atenção do mercado para a segurança dos próprios modelos de IA. Atualmente, a Anthropic está investigando uma possívelcesso não autorizado ao seu modelo Claude Mythos por parte dos usuários. Quase ao mesmo tempo, a OpenAI também foi revelada por ter, inadvertidamente, aberto vários modelos ainda não lançados em sua aplicação Codex. Opiniões do setor apontam que esses incidentes de vulnerabilidade reforçam a necessidade de avaliar a capacidade de governança de segurança das empresas de IA, além de refletir que, no rápido desenvolvimento da tecnologia de IA, o sistema de segurança ainda precisa ser aprimorado. A análise indica que, mesmo os fornecedores de modelos de IA focados em capacidades de segurança cibernética, ainda enfrentam desafios de segurança consideráveis. À medida que a IA é progressivamente utilizada na defesa contra ataques cibernéticos, a segurança da plataforma e o controle de acesso também se tornam pontos críticos de risco.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar