O risco invisível: Pode realmente confiar no seu assistente de IA ‘privado’ para guardar os seus segredos?

robot
Geração de resumo em curso

Empresa israelense de cibersegurança Check Point descobriu uma fraqueza crítica no sistema do ChatGPT que poderia permitir a extração de dados sem disparar alarmes, representando um risco significativo para a privacidade e confiança dos utilizadores. A falha, que aproveitava a “túnel DNS”, permitia que informações fossem vazadas do ambiente seguro da IA. Embora a OpenAI tenha corrigido a vulnerabilidade desde então, a pesquisa destaca os desafios de segurança mais amplos e a necessidade crescente de salvaguardas robustas em sistemas de IA que lidam com dados sensíveis dos utilizadores.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar