Il y a récemment eu un événement préoccupant sur les réseaux sociaux qu'il est important de comprendre. Les deepfakes sexuels de Taylor Swift ont circulé massivement sur des plateformes comme X, Instagram et Threads, provoquant une crise de contenu faux que les plateformes n'avaient jamais vue à cette échelle.



L'ampleur était impressionnante : une seule image partagée sur X a atteint 47 millions de vues avant que le compte ne soit suspendu. Cela donne une idée de la rapidité avec laquelle ces contenus se propagent lorsque personne ne les arrête à temps. X a décidé d'être plus agressif et a bloqué directement les recherches de 'Taylor Swift' et 'IA', affichant le message 'Quelque chose s'est mal passé' lorsque quelqu'un essaie de les rechercher. Le responsable des affaires de X a reconnu qu'il s'agit d'une mesure temporaire visant à 'prioriser la sécurité'.

Instagram et Threads ont choisi une voie différente. Ils permettent de rechercher le nom de l'artiste, mais si vous recherchez 'Taylor Swift IA', un avertissement apparaît : 'Êtes-vous sûr de vouloir continuer ? Le terme que vous avez recherché est parfois associé à des activités d'organisations et d'individus dangereux.' Le problème est que ces filtres sont assez faciles à contourner en changeant l'ordre des mots.

Ce qui est intéressant, c'est que ce n'est pas un problème nouveau, mais il est désormais plus visible. Microsoft et Google ont lancé des outils gratuits permettant de créer des images réalistes à partir de texte en utilisant l'IA générative. Satya Nadella, PDG de Microsoft, a décrit les deepfakes comme 'alarmants et terribles', appelant l'industrie à agir rapidement pour renforcer la sécurité. Le syndicat des acteurs américains (SAG-AFTRA) a été clair : il a qualifié les images falsifiées de Taylor Swift de 'perturbantes, nuisibles et profondément préoccupantes', exigeant que la distribution de ce contenu sans consentement soit criminalisée.

La réalité est que les deepfakes affectent de manière disproportionnée les femmes. Le groupe Reality Defender a repéré plus de vingt images uniques générées par IA de Taylor Swift, beaucoup contenant du contenu violent ou sexuel. Depuis 2019, des études montrent que la majorité des victimes de deepfakes explicites sont des actrices d'Hollywood et des chanteuses de K-pop. La technologie est devenue si accessible que n'importe qui peut créer ce contenu avec des outils basiques.

Swift envisagerait de prendre des mesures légales contre les sites ayant publié ces images. En attendant, la Maison-Blanche a demandé au Congrès de créer une législation spécifique. Ce qui est arrivé à Taylor Swift n'est que la partie émergée de l'iceberg : MrBeast, Tom Hanks et d'autres célébrités ont également été victimes. Le véritable débat concerne comment freiner les deepfakes sans censurer la technologie légitime.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler