Conversar com o ChatGPT não é privado? A OpenAI é acusada de divulgar conversas de utilizadores ao Meta e ao Google

Mulher da Califórnia processa a OpenAI por violação de privacidade, apontando que o ChatGPT embutiu códigos de rastreamento que enviam conversas sensíveis dos utilizadores para a Meta e o Google, buscando mais de 5 milhões de dólares em compensação.

Uma mulher da Califórnia entrou com uma ação coletiva contra a OpenAI por violação de privacidade, alegando que o ChatGPT, sem consentimento do utilizador, utiliza ferramentas de rastreamento para transmitir as consultas dos utilizadores à Meta e ao Google. Este caso é considerado o primeiro símbolo de um tribunal federal a desafiar diretamente a forma como os chatbots de IA lidam com dados, gerando grande atenção pública sobre a proteção de privacidade na IA.

ChatGPT suspeito de embutir códigos de rastreamento invisíveis, todo o conteúdo das conversas fica exposto

Em 13 de maio, uma residente da Califórnia, representada pela Amargo Couture, entrou com uma ação na divisão do sul da Califórnia do Tribunal Federal dos EUA.

A queixa aponta que a OpenAI incorporou, no código do site oficial do ChatGPT, ferramentas de rastreamento de terceiros como o “Facebook Pixel” da Meta e o “Google Analytics” do Google. Esses códigos de rastreamento operam automaticamente sem o conhecimento do utilizador, transmitindo instantaneamente as consultas inseridas e informações pessoais identificáveis à Meta e ao Google, incluindo dados altamente sensíveis como estado de saúde, recomendações financeiras e questões legais.

Couture afirma que, entre 2025 e 2026, usou várias vezes o ChatGPT para consultar questões relacionadas à saúde e finanças pessoais, sem saber que esses conteúdos confidenciais estavam sendo transmitidos a terceiros gigantes da publicidade.

De onde vem a base legal: potencial de indenização da OpenAI ultrapassa 5 milhões de dólares

A queixa indica que a OpenAI é suspeita de violar várias leis americanas e da Califórnia, incluindo a Lei de Privacidade de Comunicações Eletrônicas (ECPA) e a Lei de Violação de Privacidade da Califórnia. Entre elas, a CIPA não se limita às comunicações telefônicas tradicionais, abrangendo também computadores, internet e e-mails, considerados “tecnologias emergentes”.

Segundo a legislação da Califórnia, cada violação pode resultar em uma indenização máxima de 5.000 dólares, e, se qualificada como ação coletiva, o potencial de compensação pode ser bastante elevado, estimado em mais de 5 milhões de dólares. Os advogados da parte autora enfatizam que a colaboração da OpenAI com a Meta e o Google na interceptação de comunicações sem autorização dos utilizadores constitui uma violação sistemática da privacidade de milhões de utilizadores.

O que são códigos de rastreamento? Detectores de dados difíceis de perceber

Os chamados “códigos de rastreamento (Pixels de Rastreamento)”, são pequenos trechos de código embutidos no código-fonte de páginas web, difíceis de detectar pelos utilizadores comuns. Sempre que um utilizador visita um site, o pixel de rastreamento é ativado automaticamente, coletando silenciosamente informações sobre o comportamento de navegação e ações do utilizador, enviando esses dados de volta para empresas como Meta ou Google.

Para plataformas de comércio eletrônico ou sites orientados para publicidade, essa prática pode ser considerada legítima comercialmente; mas o contexto de uso do ChatGPT é completamente diferente. Quando os utilizadores fazem perguntas ao ChatGPT, geralmente confiam na plataforma para compartilhar problemas pessoais confidenciais, como doenças, dores emocionais ou crises financeiras. Se essas conversas forem gravadas por empresas de publicidade, a confiança dos utilizadores na OpenAI será prejudicada.

A Meta utiliza esses dados para construir seu vasto sistema de publicidade direcionada. Segundo a queixa, quase toda a receita da Meta vem de publicidade, e seu sistema consegue rastrear as atividades dos utilizadores dentro e fora da plataforma, inferindo interesses, comportamentos e tendências sociais, além de criar mecanismos de publicidade direcionada para diferentes públicos.

Privacidade dos utilizadores precisa de proteção legal urgente, diálogos com IA não podem ser brechas

À medida que mais pessoas incorporam ferramentas de IA na vida diária, as controvérsias sobre privacidade continuam a aumentar globalmente. Seja por usuários revelando dificuldades emocionais e conflitos pessoais ao conversar com chatbots de IA, ou por empresas compartilhando milhares de dados confidenciais, todos, de indivíduos a corporações, enfrentam ameaças.

Há poucos dias, a OpenAI foi processada por alegar que o ChatGPT teria induzido o atirador do tiroteio na Universidade Estadual da Flórida, indiretamente levando à morte de duas pessoas.

Especialistas jurídicos acreditam que, se esse tipo de ação for bem-sucedida, terá um efeito exemplar importante para toda a indústria de IA, obrigando as empresas a informar claramente aos utilizadores sobre o escopo da coleta de dados, prazos de armazenamento e compartilhamento, além de oferecer mecanismos de consentimento explícito. Até o momento, a OpenAI não fez nenhuma declaração pública. O caso ainda está na fase inicial, e a decisão sobre a qualificação para ação coletiva ainda será tomada pelo tribunal.

  • Este artigo foi reproduzido com autorização de: 《Notícias de Blockchain》
  • Título original: 《Mais um processo contra ChatGPT! Acusada de divulgar secretamente conversas dos utilizadores para Meta e Google》
  • Autor original: Crumax
PIXEL-9,08%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixado