Deepfake utilise une grande quantité de vidéos pornographiques pour entraîner l'IA : mais la loi ne protège que le visage, personne ne se soucie jamais à qui appartient ce corps ?

Les discussions sur les deepfakes pornographiques axent depuis longtemps sur le visage synthétique, en ignorant à qui appartient ce corps ; plus de 10 000 To de contenu adulte auraient été utilisés pour entraîner le modèle nudify.
(Précédemment : étude de l’Université de Californie sur le phénomène de « brouillard AI » : 14 % des employés sont devenus fous à cause des agents et de l’automatisation, 40 % envisagent de démissionner)
(Contexte supplémentaire : Flash info » : Jensen Huang monte à bord d’Air Force One à la dernière minute pour accompagner Trump en Chine », la sortie des puces NVIDIA devient un sujet brûlant)

Table des matières de cet article

Basculer

  • Le corps comme donnée d’entraînement
  • Le décalage de l’ère des contrats
  • L’ironique loi Take It Down

Chaque fois que quelqu’un parle de deepfake pornographique, le sujet de discussion se concentre presque toujours sur ce visage, celui qui a été synthétisé pour faire des choses qu’elle n’a jamais faites. Mais il y a un autre problème que presque personne n’aborde : à qui appartient ce corps ?

Selon un reportage de 《technologyreview》, Jennifer, une thérapeute psychologue de 37 ans basée à New York, a utilisé un logiciel de reconnaissance faciale pour rechercher ses vidéos adultes d’il y a dix ans, et a trouvé une vidéo qu’elle n’avait jamais vue : son corps, avec un visage d’une autre personne.

Elle a reconnu le décor comme étant une scène tournée en 2013, et a réalisé : « Quelqu’un a utilisé mon corps pour faire un deepfake. »

Le corps comme donnée d’entraînement

Le terme deepfake est né en novembre 2017, lorsque l’utilisateur Reddit « deepfakes » a synthétisé des visages de célébrités sur des corps d’acteurs adultes. Depuis lors, le corps des créateurs de contenu adulte est devenu la matière la plus fréquemment volée, cette situation « se produisant constamment », explique l’avocat spécialisé dans l’industrie adulte Corey Silverstein.

Mais la nature du problème a changé. Le corps des acteurs adultes n’est plus simplement extrait pour des vidéos individuelles, mais utilisé comme donnée d’entraînement pour apprendre à l’IA à générer des « images réalistes de nudité », à faire bouger, à paraître authentique. Ce processus se fait sans consentement éclairé, et est presque impossible à suivre.

Le modèle commercial de l’application nudify repose sur cela : il suffit de télécharger une photo habillée pour obtenir une photo falsifiée de nudité. Ces applications utilisent probablement plus de 10 000 To de contenu adulte en ligne comme source d’entraînement, laissant les créateurs sans recours.

Hany Farid, expert en forensic numérique à UC Berkeley, déclare : « Ce sont tous des boîtes noires. » Mais étant donné la prévalence du contenu adulte sur Internet, il est « raisonnable de supposer » qu’il a été utilisé pour entraîner l’IA.

Le problème ne se limite pas aux données d’entraînement. L’IA peut désormais reproduire parfaitement l’apparence et la voix des acteurs adultes. La créatrice Tanya Tate a récemment appris qu’un fan célèbre avait dépensé 20 000 dollars pour converser sexuellement avec une version IA d’« elle », créée par des escrocs. Après avoir été dupés, plusieurs fans ont commencé à accuser Tate elle-même et à diffuser de fausses déclarations.

La société de lutte contre la violation de droits d’auteur Takedown Piracy utilise la technologie d’empreinte numérique pour retirer 130 millions de vidéos contrefaites d’une seule plateforme Google, même si la vidéo est modifiée ou que le visage est remplacé, l’empreinte numérique permettant d’identifier la matière originale.

Le décalage de l’ère des contrats

De nombreux acteurs adultes ont signé des contrats il y a plusieurs années, incluant une clause stipulant que « l’éditeur peut utiliser toute technologie existante ou future » pour exploiter leur contenu. À l’époque, cela signifiait la VHS ou le DVD.

Personne n’avait prévu que « la technologie future » signifierait : entraîner l’IA avec votre contenu pour créer un substitut synthétique pouvant vous remplacer au travail. Stephen Casper, doctorant en informatique au MIT, explique que les acteurs qui ont commencé leur carrière avant l’essor de l’IA n’ont pas pu donner leur accord préalable pour cette utilisation ; ces risques sont « imposés rétroactivement », décrit Jennifer.

La capacité de l’IA à tromper s’accélère également. Une étude de Farid en 2025 montre que la précision pour distinguer la voix générée par IA n’est que d’environ 60 %, à peine meilleure que le hasard.

L’ironique loi Take It Down

La seule loi fédérale américaine contre les deepfakes est le Take It Down Act, qui exige que les sites retirent les images intimes non consenties (NCII) dans les 48 heures. La loi vise à protéger les victimes, mais pourrait avoir l’effet inverse.

Eric Goldman, professeur de droit à l’Université de Santa Clara, explique que n’importe qui peut signaler un contenu adulte légitime, avec le consentement des parties, comme étant du NCII, forçant ainsi la plateforme à le retirer. Cela transforme la loi en un outil potentiel de suppression, ce qui correspond parfaitement à l’objectif du projet 2025 de supprimer la pornographie en ligne.

Actuellement, la loi américaine ne considère pas ce type d’infraction comme une violation de la vie privée, car « nous ne savons pas à qui imputer la responsabilité », dit Goldman. L’UE, le Royaume-Uni et l’Australie ont déjà annoncé des restrictions sur l’application nudify, mais ces applications réapparaissent souvent sous un autre nom une fois supprimées.

Reba Rocket déclare : « Les filles IA feront tout ce que vous voulez, elles ne disent jamais non. Ça me fait peur, surtout quand ils entraînent ces modèles avec de vraies personnes. Et une fois en ligne, c’est là pour toujours. »

TRUMP-0,72%
NVDA13,59%
TAKE2,21%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épinglé