Deepfake treina AI com uma grande quantidade de vídeos pornográficos: mas a lei só protege o rosto, nunca ninguém se preocupou com a quem pertence aquele corpo?

As discussões sobre deepfake de pornografia com IA concentram-se há muito tempo no rosto sintetizado, ignorando a quem pertence aquele corpo; mais de 10.000 TB de conteúdo adulto podem ter sido usados para treinar modelos nudify.
(Resumindo: Universidade da Califórnia estuda o fenômeno da “névoa de IA”: 14% dos trabalhadores estão enlouquecendo com agentes e automação, 40% consideram sair do emprego)
(Complemento de contexto: Última hora» Huang Renxun aparece na última hora no Air Force One para acompanhar Trump na visita à China, foco na exportação de chips NVIDIA)

Índice deste artigo

Alternar

  • Corpo como dado de treino
  • Deslocamento na era dos contratos
  • Ironia do Take It Down Act

Sempre que alguém fala sobre deepfake de pornografia com IA, o foco da discussão quase sempre recai sobre aquele rosto, aquele que foi sintetizado, fazendo coisas que ela nunca fez. Mas há outro problema quase nunca mencionado: de quem é aquele corpo?

De acordo com a reportagem da 《technologyreview》, Jennifer, uma psicoterapeuta de Nova York de 37 anos, usou um software de reconhecimento facial em 2023 para procurar seus vídeos adultos de dez anos atrás, e encontrou um vídeo que ela nunca tinha visto: seu corpo, com o rosto de outra pessoa.

Ela reconheceu o cenário de uma filmagem de 2013, e percebeu: «Alguém usou meu corpo para fazer deepfake.»

Corpo como dado de treino

A palavra deepfake surgiu em novembro de 2017, quando um usuário do Reddit chamado «deepfakes» começou a sintetizar rostos de celebridades em corpos de atores adultos. Desde então, o corpo de criadores de conteúdo adulto tornou-se o material mais frequentemente roubado, uma situação «que sempre acontece», diz o advogado especializado na indústria adulta Corey Silverstein.

Mas a natureza do problema mudou. O corpo de atores adultos não é mais apenas extraído para vídeos específicos, mas usado como dado de treino, ensinando a IA a gerar «imagens realistas de nudez», a mover-se, a parecer autêntico. Esse processo ocorre sem consentimento informado e quase sem rastreamento.

O modelo de negócios do aplicativo nudify baseia-se nisso: basta fazer upload de uma foto vestida para obter uma versão falsificada de nudez. Esses aplicativos quase certamente usam mais de 10.000 TB de conteúdo adulto online como fonte de treino, deixando os criadores sem praticamente nenhuma via de reparação.

Hany Farid, especialista em análise digital da UC Berkeley, afirma: «Tudo isso é uma caixa preta.» Mas, dada a prevalência de conteúdo adulto na internet, é «uma hipótese razoável» que seja usado para treinar IA.

O problema não se limita ao dado de treino. A IA já consegue reproduzir completamente a aparência e a voz de atores adultos. A criadora Tanya Tate descobriu recentemente que um fã pagou 20 mil dólares para conversar sexualmente com uma versão de IA «dela», criada por scammers. Após serem enganados, vários fãs começaram a acusar Tate pessoalmente e a espalhar informações falsas.

A empresa de fiscalização de direitos autorais Takedown Piracy usa tecnologia de impressão digital para remover 130 milhões de vídeos infratores de uma única plataforma do Google, mesmo que o vídeo seja modificado ou o rosto substituído, a impressão digital consegue identificar o material original.

Deslocamento na era dos contratos

Muitos contratos assinados por atores adultos anos atrás continham cláusulas como «o editor pode usar qualquer tecnologia presente ou futura que venha a ser descoberta». Na época, imaginava-se VHS convertendo-se em DVD.

Ninguém previu que «tecnologias futuras» significariam treinar IA com seu conteúdo, criando substitutos sintéticos capazes de substituir seu trabalho. Stephen Casper, estudante de doutorado em ciência da computação no MIT, aponta que atores que começaram a criar antes do surgimento da IA não poderiam ter concordado previamente com esses usos; esses riscos são «impostos retroativamente», descreve Jennifer.

A capacidade de enganar da IA também está acelerando. Uma pesquisa de Farid em 2025 revelou que a taxa de acerto dos participantes ao identificar fala gerada por IA era de apenas cerca de 60%, pouco melhor do que um palpite aleatório.

Ironia do Take It Down Act

A única lei federal dos EUA contra deepfake atualmente é o Take It Down Act, que exige que sites removam imagens íntimas não consensuais (NCII) em 48 horas. A intenção da lei é proteger vítimas, mas pode ter efeito contrário.

Eric Goldman, professor de direito na Universidade de Santa Clara, afirma que qualquer pessoa pode denunciar conteúdo adulto legal e consentido, alegando que se trata de NCII, forçando plataformas a removerem. Isso faz da lei uma ferramenta potencial de censura, alinhada ao objetivo do Projeto 2025 de eliminar conteúdo pornográfico da internet.

A legislação americana atualmente não considera esse tipo de violação de direitos uma invasão de privacidade, pois «não sabemos a quem atribuir a responsabilidade», diz Goldman. A UE, Reino Unido e Austrália já anunciaram restrições ao aplicativo nudify, mas esses apps, uma vez removidos, frequentemente reaparecem com nomes diferentes.

Reba Rocket afirma: «As garotas de IA farão qualquer coisa que você quiser, elas não dizem não. Isso me assusta, especialmente quando treinam esses modelos com pessoas reais. E uma vez na internet, fica lá para sempre.»

TRUMP-0,93%
NVDA1,04%
TAKE1,96%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixado