Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
L'abondance de vol de visage par IA ! Des célébrités aux amateurs, votre visage pourrait être utilisé à votre insu.
Vos photos de profil social, vos clichés de la vie quotidienne… pourraient être utilisées en douce — sans autorisation. Avec une seule photo haute définition, on peut générer votre double numérique IA, utilisé pour des courts métrages, des publicités, voire des arnaques.
Le 5 avril 2026, une déclaration de l’atelier de Yi Yangqianxi a de nouveau remis au premier plan la question des atteintes à la vie privée et au visage via l’IA — sur plusieurs plateformes, des courts métrages IA ont été diffusés sans autorisation, en utilisant son image. L’atelier exige clairement que les contenus concernés soient retirés immédiatement et que leur diffusion soit stoppée, tout en lançant une procédure de défense des droits.
Presque en même temps, la blogueuse spécialisée en makeup et tenues hanfu « Baicai Hanfu Zhuang » s’est aussi retrouvée face à une situation similaire : ses magnifiques photos en hanfu ont été reproduites sans autorisation dans le court métrage IA « Chapelet de fleurs de pêcher (Taohuazhan) ». Non seulement l’œuvre a été utilisée pour le rôle d’un antagoniste dans la pièce, mais en plus elle a subi une déformation malveillante. Il ne s’agit pas d’un cas isolé : le blogueur mannequin commercial « Qihai Christ » a lui aussi publié un message pour défendre ses droits, affirmant que son image avait également été utilisée sans autorisation dans ce court métrage.
De la célébrité aux internautes ordinaires, des figures publiques aux créateurs amateurs : les visages sont aujourd’hui volés en masse et utilisés sans retenue. Comment faire valoir ses droits en cas de “vol de visage” par IA ? Le “deepfake” avec changement de visage est-il illégal ? Une crise de sécurité numérique, qui touche les droits à l’image et la dignité personnelle de chacun, s’étend silencieusement à l’échelle du web entier.
Le “vol de visage” par IA : bien loin d’un cas isolé, c’est devenu une règle tacite de l’industrie
Récemment, la filière des courts métrages IA a connu une croissance explosive, et l’échange de visage en cas d’atteinte aux droits est déjà devenu une opération fréquente dans ce secteur.
Des internautes ont révélé qu’une plateforme de courts métrages héberge plusieurs courts métrages IA qui, sans autorisation, exploitent la technologie de synthèse par IA pour voler l’image et la voix de l’artiste Yi Yangqianxi. Dans l’un d’eux, le court métrage « Carrosse de minuit : son côté terrifiant ! » , on y voit un personnage au visage très proche de celui de Yi Yangqianxi, et la voix ressemble également à s’y méprendre ; dans un autre, « Piège-moi pour une bonne destinée ? D’accord, mais ne regrettez pas plus tard ! », l’engouement associé s’élève même à près de 75 millions.
Ces courts métrages sont tous générés par IA. Au moment où nous publions, les deux courts métrages concernés ont été retirés de la plateforme de courts métrages Hongguo.
Mais ce n’est qu’une partie émergée de la banquise — dans sa déclaration, l’atelier de Yi Yangqianxi a indiqué sans ambiguïté que Yi Yangqianxi n’avait pas participé à ces séries, et qu’aucune autorisation n’avait été donnée à un tiers pour procéder à une synthèse par IA de son image, etc. À l’heure actuelle, des avocats ont déjà été mandatés pour défendre ses droits ; l’atelier continuera de suivre les atteintes et procédera à la conservation des preuves et à l’évaluation des actions en justice en temps voulu.
Ce n’est pas seulement le domaine des courts métrages IA : les griffes du “vol de visage” par IA se sont déjà infiltrées dans de nombreux scénarios, tels que les vidéos courtes, le live shopping, les publicités frauduleuses, etc. La portée dépasse largement ce qu’on imagine.
Le 26 février, l’acteur Wang Jinsong a publié un message indiquant que son image avait été usurpée par IA pour générer une vidéo : « C’est terrifiant : vidéos, voix, synchronisation labiale… on ne voit absolument pas la différence ». En plus de cela, plusieurs personnalités publiques, dont He Saifei et Li Zimeng, ont elles aussi été victimes de faux endorsings générés par IA : leur image a été utilisée à leur insu dans des scénarios marketing comme la perte de poids ou la gestion financière, induisant les consommateurs en erreur.
Le plus inquiétant, c’est que les personnes ordinaires ne sont pas non plus à l’abri. Les photos de la vie quotidienne sur les plateformes sociales, les clichés en hanfu, les vidéos de voyage… peuvent toutes devenir des “matières premières” pour une base de données IA. Les réseaux obscurs et le commerce gris n’ont besoin que d’une seule photo frontale haute définition pour générer rapidement des vidéos dynamiques et des personnages virtuels, puis les utiliser pour se moquer, diffamer, voire arnaquer. Beaucoup de gens ne réalisent la chose qu’après qu’un ami ou un proche les avertit, ou après avoir reçu des commentaires inconnus : ils comprennent alors que leur visage, en fait, “apparaît” dans des vidéos auxquelles ils n’ont jamais participé.
Il faut aussi redoubler de vigilance : le vol de visage s’est déjà structuré en un processus standardisé. D’après des reportages médiatiques, la chaîne comprend : récupérer des photos publiques, entraîner des modèles du visage, générer des personnages vidéo, puis distribuer sur plusieurs plateformes. L’ensemble s’effectue rapidement et efficacement. Or, les auteurs de l’atteinte sont souvent de petits studios ou des comptes anonymes, avec une forte dissimulation et une grande mobilité : même s’ils reçoivent des plaintes et que les contenus sont retirés, ils changent simplement de compte pour renvoyer, créant un cercle vicieux impossible à “finir”.
Interdiction inefficace : où se situe la vraie cause du problème du “vol de visage” par IA ?
Face à la multiplication incontrôlée des affaires de “vol de visage” par IA, les acteurs concernés ont déjà commencé à prendre la parole pour frapper du poing sur la table.
Le 2 avril, dans la soirée, l’Association des organisations de radiodiffusion et de télévision de Chine, ainsi que le comité des acteurs, ont publié une déclaration solennelle visant directement des pratiques illicites telles que les synthèses avec échange de visage par IA, le clonage de signatures vocales, et la modification arbitraire de contenus audiovisuels.
La déclaration précise clairement que les personnes du monde du spectacle disposent, conformément à la loi, de droits de la personnalité tels que le droit à l’image, le droit à la voix et le droit à l’image artistique — qui sont strictement protégés par le droit tout au long du processus ; aucun sujet ne peut, sans autorisation écrite officielle et formelle du titulaire, collecter, utiliser, synthétiser et diffuser, de sa propre initiative, des images, signatures vocales et images artistiques exclusives.
Plus important encore : la déclaration dissipe un malentendu courant. Tout contenu d’atteinte, comme des effets IA “collision” permettant de ressembler à un acteur public précis, des performances en imitation de voix, ou des courts métrages à échange de visage, même s’il est marqué “non commercial”, “partage à but non lucratif”, “création personnelle dérivée”, etc., ne constitue pas un fondement légal permettant de s’exonérer : l’auteur de l’atteinte doit encore assumer l’intégralité de sa responsabilité.
En même temps, la déclaration demande également aux plateformes en ligne de mettre strictement en œuvre les responsabilités liées au contrôle et à la revue, de procéder à un recensement complet et au retrait des œuvres existantes portant atteinte, et de contrôler de manière stricte tout nouveau contenu généré par IA en infraction.
En réalité, les textes réglementaires existent déjà.
L’article 7 des « Mesures provisoires de gestion des services d’intelligence artificielle générative » , entrées en vigueur le 15 août 2023, stipule déjà que les fournisseurs de services d’intelligence artificielle générative doivent, conformément à la loi, mener des activités de traitement des données d’entraînement, et doivent obligatoirement utiliser des données et des modèles de base ayant une source légale ; lorsqu’il s’agit d’informations personnelles, il faut obtenir le consentement de la personne concernée ou relever d’autres circonstances prévues par la loi ou les réglementations administratives.
Puisque des réglementations existent, et que l’industrie s’exprime, pourquoi le “vol de visage” par IA continue-t-il de se produire malgré tout ?
En réponse, Chengfei Gao, vice-directeur du comité Brand & IP de l’Institute for Influence Studies, a donné l’explication suivante : la baisse brutale de la barrière technique et le déséquilibre des coûts en cas d’illégalité constituent la cause la plus fondamentale. Grâce aux modèles open source, le coût du changement de visage tend vers zéro : produire un court métrage IA ne nécessite que de capturer des photos publiques pour générer un personnage. En revanche, faire valoir ses droits demande de passer par une longue série de procédures telles que la conservation des preuves et des procès : c’est coûteux en temps et en énergie. Ainsi, le gain des auteurs de l’atteinte dépasse largement le risque qu’ils encourent.
Auparavant, le quotidien Caixin a rapporté qu’une vidéo “où des célébrités parlent” pouvait être personnalisée pour 200 yuans sur des plateformes e-commerce, tandis que le prix de la production de vidéos de deepfake à échange de visage par IA allait de 20 à 500 yuans.
Par ailleurs, le retard des mécanismes de vérification des plateformes est aussi une cause importante. Chengfei Gao a indiqué que la difficulté d’identifier des “matériaux IA” est bien supérieure à celle des contenus traditionnels : cela entraîne une diffusion massive d’atteintes d’abord, puis un retrait ensuite, créant une zone grise où l’on “monte dans le véhicule d’abord, puis on paie le billet plus tard”. Le problème plus profond réside dans le fait que certains créateurs considèrent l’étiquette “généré par IA” comme un “passe de franchise” ; leur compréhension de la limite du droit à l’image est alors floue. Ajoutez à cela que l’industrie est encore dans une phase de croissance sauvage, sans consensus d’autodiscipline clair, et le chaos s’amplifie davantage.
Tenir la ligne rouge du visage : comment réagir ?
Un dossier de litige relatif au droit à l’image en cas de remplacement de visage par IA, communiqué le 20 mars par le tribunal d’Internet de Pékin, a servi d’avertissement pour tout le secteur.
La conclusion est tombée : l’affaire dans laquelle la célèbre actrice Dilireba poursuit le producteur et le diffuseur de courts métrages à échange de visage par IA pour atteinte aux droits. Le tribunal a finalement reconnu que le producteur du court métrage avait utilisé sans autorisation une technologie de synthèse profonde pour générer une image très proche de l’actrice, portant ainsi atteinte à son droit à l’image ; et que le diffuseur du court métrage n’avait pas rempli ses obligations raisonnables de vérification, et devait donc aussi assumer la responsabilité correspondante.
Dans cette affaire, la demanderesse, Dilireba, a découvert que, dans un court métrage produit et publié par la société défenderesse A, l’image de l’actrice avait été assemblée sur le visage d’un personnage du scénario via la technologie d’échange de visage par IA. Les sujets connexes ont suscité des discussions sur de nombreuses plateformes de réseaux sociaux, et une grande partie des utilisateurs d’Internet ont cru à tort que la demanderesse avait participé à ce court métrage. Parallèlement, la société défenderesse B a mis en ligne le court métrage concerné sur son compte vidéo en opération.
Cette affaire envoie un signal clair : l’IA n’est pas un espace sans loi. Toute atteinte au droit à l’image d’autrui entraîne nécessairement une responsabilité juridique.
Alors, face à ce “vol de visage” par IA qui semble partout, comment prévenir et comment faire valoir ses droits ?
Chengfei Gao recommande que la protection personnelle mette en place un système en trois couches : “prévention — surveillance — défense des droits” afin de réduire le risque d’atteinte à la source.
Dans la couche de prévention : lorsque vous publiez des photos sur des plateformes sociales, vous devriez réduire la résolution et ajouter des filigranes semi-transparents, afin d’éviter que des clichés frontaux haute définition soient exposés directement, et de ne pas donner une opportunité aux réseaux obscurs et au commerce gris.
Dans la couche de surveillance : vous pouvez effectuer régulièrement des recherches d’images inversées pour vérifier si votre image a été utilisée à votre insu, tout en portant une attention accrue aux contenus populaires des plateformes de courts métrages afin de détecter rapidement toute anomalie.
Dans la couche de défense des droits : dès qu’une atteinte est constatée, il faut immédiatement procéder à une preuve via enregistrement sur blockchain ou via une conservation notariée, puis envoyer à la plateforme une notification officielle de retrait. Si nécessaire, il faut mandater un avocat pour engager une action en justice relative au droit à l’image et au droit à la réputation. Il faut particulièrement noter que même les contenus publiés uniquement sur un petit périmètre de plateformes sociales bénéficient aussi d’une protection complète du droit à l’image pour l’individu.
En outre, il a également indiqué que la régulation et les plateformes doivent construire une double ligne de défense de “technologie + systèmes”. Les autorités de régulation devraient accélérer la publication de réglementations spéciales sur les contenus IA, clarifier les limites de l’autorisation des données d’entraînement, mettre en place des mécanismes de dommages-intérêts punitifs en cas d’atteinte, et augmenter le coût des infractions. Les plateformes doivent assumer leurs responsabilités principales : au moment du téléversement du contenu, intégrer une technologie de traçabilité des matériaux IA, et exiger de manière obligatoire des preuves de chaîne d’autorisation de l’image — plutôt que de faire des remédiations après coup. Par ailleurs, il faut créer des voies de réponse rapide pour raccourcir les délais de traitement des plaintes.
De plus, les associations du secteur devraient promouvoir la mise en place d’une base de données unifiée sur les autorisations d’image, afin que les autorisations soient vérifiables et traçables. La clé d’une action coordonnée à l’échelle de la société réside dans la formation d’un consensus sur la “technologie au service du bien” : l’IA n’est pas un espace sans loi, et toute innovation technique doit respecter la dignité et les droits de la personnalité comme ligne de fond. Cela nécessite une gouvernance partagée entre la législation, l’application des lois, les plateformes et les créateurs, afin de freiner la propagation du chaos du “vol de visage”.
Le chaos du “vol de visage” par IA n’est jamais l’affaire d’une seule personne : c’est une question de sécurité numérique pour chacun. Seule une gouvernance partagée impliquant la législation, l’application des lois, les plateformes et les créateurs peut créer une force collective, et ainsi protéger notre “ligne rouge du visage”, en freinant l’extension de ce chaos.
D’après : China Business Network, Red Star News, etc.
Enregistrez cet article : au cas où vous seriez victime d’un “vol de visage” par IA, faites directement la démarche pour défendre vos droits