Conversar com o ChatGPT não tem privacidade? A OpenAI é acusada de divulgar conversas de utilizadores para a Meta e Google

Mulher da Califórnia processa a OpenAI por violação de privacidade, apontando que o ChatGPT embutiu códigos de rastreamento que enviam conversas sensíveis dos utilizadores para a Meta e o Google, buscando mais de 5 milhões de dólares em compensação.

Uma mulher da Califórnia entrou com uma ação coletiva contra a OpenAI por violação de privacidade, alegando que o ChatGPT, sem consentimento do utilizador, utilizou ferramentas de rastreamento para transmitir as consultas dos utilizadores à Meta e ao Google. Este caso é considerado o primeiro desafio direto dos tribunais federais ao modo de processamento de dados de chatbots de IA, gerando grande atenção pública à proteção de privacidade na IA.

ChatGPT suspeito de embutir códigos de rastreamento invisíveis, todo o conteúdo das conversas fica exposto

Em 13 de maio, uma residente da Califórnia, representada pela Amargo Couture, entrou com uma ação na Corte Federal do Sul da Califórnia.

A queixa aponta que a OpenAI incorporou no código do site do ChatGPT ferramentas de rastreamento de terceiros, como o “Facebook Pixel” da Meta e o “Google Analytics” do Google. Esses códigos de rastreamento operam automaticamente sem o conhecimento do usuário, transmitindo instantaneamente as consultas inseridas e informações pessoais identificáveis para Meta e Google, incluindo dados altamente sensíveis como estado de saúde, recomendações financeiras, questões legais, entre outros.

Couture afirma que, entre 2025 e 2026, usou várias vezes o ChatGPT para consultar questões relacionadas à saúde e finanças pessoais, sem saber que esses conteúdos confidenciais estavam sendo transmitidos a gigantes da publicidade de terceiros.

De onde vem a base legal: potencialmente mais de 5 milhões de dólares em indenizações para a OpenAI

A queixa indica que a OpenAI é suspeita de violar várias leis americanas e da Califórnia, incluindo a Lei de Privacidade de Comunicações Eletrônicas (ECPA) e a Lei de Violação de Privacidade da Califórnia. Entre elas, a CIPA não se limita às comunicações telefônicas tradicionais, abrangendo também computadores, internet e e-mails, considerados “tecnologias emergentes”.

Segundo a legislação da Califórnia, o valor máximo de indenização por violação é de 5.000 dólares por infração. Se a ação for qualificada como coletiva, o potencial de compensação pode ser muito alto, estimando-se mais de 5 milhões de dólares. Os advogados da parte autora enfatizam que a colaboração da OpenAI com a Meta e o Google na interceptação de comunicações sem autorização dos usuários constitui uma violação sistemática da privacidade de milhões de utilizadores.

O que são códigos de rastreamento? Detectores de dados difíceis de perceber

Os chamados “códigos de rastreamento (Pixels de Rastreamento)”, são pequenos trechos de código embutidos no código-fonte de páginas web, difíceis de detectar pelo usuário comum. Sempre que um usuário visita um site, o pixel de rastreamento é ativado automaticamente, coletando silenciosamente informações sobre o comportamento de navegação e ações do usuário, enviando esses dados para empresas como Meta ou Google.

Para plataformas de comércio eletrônico ou sites orientados para publicidade, essa prática pode ser considerada legítima comercialmente; porém, o contexto de uso do ChatGPT é completamente diferente. Os usuários ao fazerem perguntas ao ChatGPT confiam na plataforma e, assim, revelam problemas pessoais confidenciais, como doenças, dores emocionais ou crises financeiras. Se essas conversas forem gravadas por empresas de publicidade, a confiança dos usuários na OpenAI será prejudicada.

A Meta utiliza esses dados para construir seu vasto sistema de publicidade direcionada. Segundo a queixa, quase toda a receita da Meta vem de publicidade, e seu sistema consegue rastrear as atividades dos usuários dentro e fora da plataforma, inferindo interesses, comportamentos e tendências sociais, além de criar mecanismos de publicidade direcionada para diferentes públicos.

Privacidade dos usuários precisa de legislação urgente, diálogos de IA não podem ser brechas

À medida que mais pessoas incorporam ferramentas de IA na rotina diária, as controvérsias sobre privacidade continuam a crescer globalmente. Seja por confissões de dificuldades emocionais e pessoais feitas em chats de IA, ou por empresas compartilhando milhares de dados confidenciais, de indivíduos a corporações, todos enfrentam riscos.

Há poucos dias, a OpenAI foi processada por supostamente ter conduzido o usuário de um tiroteio na Universidade Estadual da Flórida, indiretamente levando à morte de duas pessoas.

Especialistas jurídicos acreditam que, se essa ação for bem-sucedida, terá um efeito exemplar para toda a indústria de IA, obrigando as empresas a informar claramente os limites de coleta de dados, prazos de armazenamento e compartilhamento, além de oferecer mecanismos de consentimento explícito. Até o momento, a OpenAI não fez declarações públicas. O caso ainda está na fase inicial, e a obtenção de status de ação coletiva ainda será decidida pelo tribunal.

  • Este artigo foi reproduzido com autorização de: 《Notícias de Blockchain》
  • Título original: 《Mais uma ação judicial contra ChatGPT! Acusada de divulgar secretamente conversas de usuários para Meta e Google》
  • Autor original: Crumax
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixado