¡La proliferación de rostros generados por IA! Desde celebridades hasta personas comunes, tu rostro podría estar siendo utilizado de manera clandestina

Tus fotos de perfil social y tus fotos de la vida cotidiana podrían estar siendo robadas en secreto: sin necesidad de autorización, con una foto en alta definición se puede generar tu doble digital con IA, para cortometrajes, anuncios e incluso estafas.

El 5 de abril de 2026, un comunicado del estudio de Yi Yangqianxi llevó de nuevo a la opinión pública el tema de la infracción de “deepfake” con IA: en múltiples plataformas aparecieron cortometrajes de IA que usaban su retrato sin autorización. El estudio exigió de forma explícita que el contenido relacionado se retire inmediatamente y que se detenga su difusión, y al mismo tiempo puso en marcha procedimientos para ejercer sus derechos.

Casi al mismo tiempo, la bloguera de moda hanfu “Baicai Hanfu Zhuang” también se vio atrapada en un dilema similar: las fotos cuidadosamente tomadas de su hanfu fueron replicadas por cortometrajes de IA del drama corto《Tao Hua Zan》sin permiso. No solo se utilizaron en el papel de un antagonista, sino que además fue objeto de una distorsión maliciosa. No es un caso aislado: el modelo comercial “QihaiChrist” también publicó para reclamar, afirmando que su imagen igualmente fue usada sin autorización en este cortometraje.

Desde artistas conocidos hasta internautas comunes, de figuras públicas a blogueros aficionados, los rostros están siendo robados en masa y usados de forma indiscriminada. ¿Cómo reclamar por un “deepfake” (robo de rostro) con IA? ¿El intercambio de rostros con IA es ilegal? Una crisis digital de seguridad sobre los derechos de imagen y la dignidad personal de cada persona se está extendiendo silenciosamente por toda la red.

Deepfake con IA: hace tiempo que dejó de ser un caso aislado y se convirtió en una práctica no oficial del sector

Recientemente, el segmento de cortometrajes con IA ha experimentado un crecimiento explosivo, y el cambio de rostro por infracción ya se ha convertido en una operación de alta frecuencia dentro de este sector.

Un internauta reveló que en cierta plataforma de cortometrajes hay varios cortometrajes de IA que, sin autorización, usan tecnología de síntesis con IA para robar el rostro y la voz del artista Yi Yangqianxi. Entre ellos, en el cortometraje《Autobús de medianoche: ¡ella caza a los espíritus con un nivel aterrador!》aparece un personaje con un aspecto altamente similar al de Yi Yangqianxi, y la voz también es casi indistinguible; en otra obra,《¿Engáñame para que nazca bien? Sí, ya no se arrepientan》, la popularidad relacionada incluso se acerca a los 75 millones.

Estos cortometrajes fueron generados con IA. A la fecha del envío, las dos obras involucradas ya fueron retiradas de la plataforma de cortometrajes Hongguo.

Pero esto es solo una pequeña parte del iceberg: en su declaración, el estudio de Yi Yangqianxi indicó claramente que Yi Yangqianxi no participó en los episodios mencionados ni autorizó a terceros a realizar síntesis con su imagen por IA. Actualmente, ya encargaron a abogados que inicien acciones para reclamar, y seguirán vigilando las conductas de infracción, realizando además preservación de pruebas y evaluación de litigios en cualquier momento.

No solo son cortometrajes con IA: la garra de robar rostros con IA ya se ha infiltrado en múltiples escenarios, como video cortos, transmisiones en vivo, ventas en vivo y anuncios falsos, etc., con un alcance muy superior al imaginado.

El 26 de febrero, el actor Wang Jinsong publicó diciendo que su imagen fue usada indebidamente para generar un video con IA, “demasiado aterrador: el video, el sonido y los labios no permiten distinguir la falsedad”. Además, varios personajes públicos como He Saifei y Li Zimeng también han sido víctimas de publicidad falsa con IA: su imagen se usó sin permiso en escenarios de marketing como pérdida de peso y finanzas, lo que llevó a engañar a los consumidores.

Lo más preocupante es que las personas comunes tampoco tienen una zona segura. Las fotos de la vida en plataformas sociales, los reportajes fotográficos de hanfu y los videos de viajes pueden convertirse en el “material” de un banco de insumos de IA. Los “negocios” en la zona gris y negra solo necesitan una foto frontal en alta definición para generar rápidamente videos dinámicos y personajes virtuales, usándolos para hacer bromas pesadas, difamar e incluso estafar. Mucha gente solo se da cuenta cuando amigos y familiares se lo señalan o cuando recibe comentarios desconocidos: se percata de que su rostro, en realidad, “aparece” en videos en los que nunca participó.

Aún más digno de vigilancia: el robo de rostro ya ha formado un conjunto de procesos estandarizados. Según reportes de medios, el flujo incluye: capturar fotos públicas, entrenar modelos faciales, generar personajes de video y distribuir en múltiples plataformas. Todo el proceso es rápido y eficiente. Y la parte infractora suele ser un estudio pequeño o una cuenta anónima, con alta capacidad de ocultarse y gran movilidad. Aunque se presente una queja y se retire, solo cambiando de cuenta se puede volver a subir el contenido, formando un ciclo malicioso de “no se termina de quitar, no se acaba de desactivar”.

No se prohíbe en vano: ¿cuál es el núcleo del problema del robo de rostro con IA?

Ante el caos cada vez más grave de robos de rostro con IA, los sectores relacionados ya comenzaron a emitir mensajes y a plantar batalla.

El 2 de abril por la noche, el Comité de Actores de la Asociación de Organizaciones Sociales de Radio y Televisión de China emitió un comunicado formal, señalando directamente las conductas de infracción que ocurren con frecuencia en la actualidad, como la síntesis de cambio de rostro con IA, la clonación de huellas de voz y la alteración arbitraria de material audiovisual.

El comunicado dejó claro que los profesionales de la actuación, de acuerdo con la ley, disfrutan derechos de imagen, derechos de voz, derechos sobre la imagen artística, entre otros derechos de personalidad, y que están protegidos estrictamente por la ley en todo el proceso; ningún sujeto, sin una autorización escrita formal por parte del titular, tiene permitido recolectar, usar, sintetizar o difundir por su cuenta las imágenes, huellas de voz e imágenes artísticas exclusivas correspondientes.

Lo más importante es que el comunicado también rompió un malentendido común: todo contenido de infracción que se relacione con actores públicos específicos, como colisiones de IA (caras parecidas), interpretaciones que imitan la voz y cortometrajes de cambio de rostro; aunque se marque con etiquetas como “no comercial”, “compartir con fines benéficos” o “recreación personal”, no constituye una base válida de exención de responsabilidad. El infractor todavía debe asumir toda la responsabilidad por la infracción.

Al mismo tiempo, el comunicado exigió a las plataformas en línea que implementen estrictamente la responsabilidad de auditoría del sujeto, y que realicen un rastreo completo para retirar del inventario los trabajos infractores, manteniendo un control estricto sobre el contenido nuevo generado con IA de forma ilegal.

En realidad, las normas pertinentes ya habían sido establecidas con anterioridad.

El artículo 7 del “Reglamento Provisional sobre la Gestión de Servicios de Inteligencia Artificial Generativa” que entró en vigor el 15 de agosto de 2023 ya establece con claridad que: los proveedores de servicios de IA generativa deben llevar a cabo actividades de tratamiento de datos de entrenamiento conforme a la ley, y deben usar datos y modelos base con fuentes legales. En caso de datos personales, deben obtener el consentimiento de la persona o ajustarse a otras situaciones previstas por las leyes y los reglamentos administrativos.

Si hay normas que lo regulan y hay voces del sector, ¿por qué sigue el robo de rostro con IA sin cesar?

El subdirector de la Comisión de Marca e IP del Instituto de Investigación de Influencia, Gao Chengfei, dio la respuesta: la disminución drástica del umbral técnico y el desequilibrio de costos de la ilegalidad es la causa más central. Los modelos de código abierto hacen que el costo del cambio de rostro tienda a cero; para producir un cortometraje de IA, basta con capturar fotos públicas para generar personajes. Pero para reclamar, hay que pasar por procesos largos como la preservación de pruebas y litigios, lo que consume tiempo y energía. Las ganancias de los infractores superan con creces los riesgos que asumen.

Antes, el Diario First Financial informaba que en plataformas de comercio electrónico, por 200 yuanes se puede personalizar un video “en el que un famoso habla”, y que el precio de producir un video de cambio de rostro con IA varía entre 20 y 500 yuanes.

Además, la lentitud del mecanismo de auditoría de la plataforma es otra razón importante. Gao Chengfei señaló que la dificultad para identificar materiales de IA es muy superior a la del contenido tradicional, lo que hace que mucho contenido infractor se difunda primero y se retire después, creando una “zona gris” de “primero sube al tren y luego se paga el billete”. El problema más profundo es que parte de los creadores consideran que la etiqueta de “generado con IA” es una “tarjeta de exención de responsabilidad”; no tienen clara la comprensión del límite de los derechos de imagen, y además el sector está en una etapa de crecimiento desordenado sin suficiente consenso de autodisciplina, lo que agrava aún más la propagación del caos.

Mantener la línea de los rostros: ¿cómo debemos responder?

Un caso de disputa de derechos de retrato por cambio de rostro con IA comunicado por el Tribunal de Internet de Beijing el 20 de marzo envió una advertencia al sector.

El caso conocido** de la actriz Di Lieba demanda a los responsables de producción y de emisión de un cortometraje de cambio de rostro con IA y la infracción concluye**. El tribunal determinó finalmente que, el responsable de producción del cortometraje usó indebidamente la tecnología de síntesis profunda para generar una imagen altamente similar a la de la actriz, vulnerando sus derechos de retrato; el responsable de emisión del cortometraje no cumplió con el deber razonable de revisión, por lo que también debe asumir la responsabilidad correspondiente.

La demandante de este caso fue Di Lieba. Descubrió que, en el cortometraje producido y publicado por la compañía demandada A, mediante la tecnología de cambio de rostro por IA, su retrato se ensambló en la cara del personaje dentro de la obra; los temas relacionados generaron discusión en múltiples plataformas sociales y muchos usuarios confundieron a la demandante, creyendo erróneamente que participó en ese cortometraje. Mientras tanto, la compañía demandada B publicó el cortometraje controvertido en sus cuentas de video en funcionamiento.

Este caso transmite claramente una señal: la IA no es un territorio fuera de la ley; quien infringe los derechos de retrato de otros, necesariamente debe asumir responsabilidad legal.

Entonces, ante el robo de rostro con IA que se infiltra por todas partes, ¿cómo prevenirlo y cómo reclamar?

Gao Chengfei sugirió que la protección personal debe establecer un sistema de “prevención**-monitoreo-**reclamación” en tres capas, reduciendo desde la fuente el riesgo de ser víctima de infracción.

En la capa de prevención, cuando la gente publique fotos en plataformas sociales, debería reducir la resolución y añadir marcas de agua semitransparentes, evitando que las fotos frontales en alta definición queden expuestas directamente, y así negarle la posibilidad a los actores de la zona gris y negra.

En la capa de monitoreo, se puede hacer de forma periódica una búsqueda inversa de imágenes para verificar si el retrato propio ha sido usado indebidamente. Al mismo tiempo, prestar más atención a los contenidos populares en plataformas de cortometrajes para detectar anomalías a tiempo.

En la capa de reclamación, una vez que se detecte una infracción, hay que hacer de inmediato preservación de pruebas mediante blockchain o conservación notarial, enviar a la plataforma una notificación formal para que retire el contenido y, cuando sea necesario, encomendar a abogados que inicien acciones legales por derechos de retrato y derechos de reputación. Es especialmente importante: aunque el contenido se publique solo en una plataforma social de alcance pequeño, la persona también disfruta de protección completa de sus derechos de retrato.

Además, indicó que la regulación y las plataformas deben construir una doble barrera de “tecnología + sistema. Los organismos reguladores deberían acelerar la publicación de normas específicas para el contenido de IA, aclarar los límites de la autorización de datos de entrenamiento y crear un mecanismo de indemnización punitiva por infracción para aumentar el costo de las ilegalidades. Las plataformas deben asumir responsabilidad de sujeto: al cargar contenido, deben incrustar tecnología de rastreo de procedencia de materiales de IA, exigiendo obligatoriamente que se proporcione una prueba de la cadena de autorización del retrato, en lugar de solo remedios posteriores. Asimismo, deben establecer canales de respuesta rápida para acortar el ciclo de tramitación de las quejas.

Además, las asociaciones del sector deberían impulsar la creación de una base de datos unificada de autorizaciones de retratos, para que las autorizaciones puedan verificarse y rastrearse. La clave de la coordinación de toda la sociedad está en formar un consenso de “tecnología para el bien”: la IA no está fuera de la ley; toda innovación tecnológica debe respetar como límite los derechos e intereses de la personalidad. Esto requiere la gobernanza conjunta de múltiples partes—legisladores, fuerzas de aplicación, plataformas y creadores—para frenar la propagación de la confusión del “robo de rostros”.

El caos del robo de rostro con IA no es nunca asunto de una sola persona, sino que atañe a la seguridad digital de cada uno. Solo con gobernanza conjunta—legislación, aplicación, plataformas y creadores—para formar una fuerza mancomunada, podremos mantener nuestra “línea de los rostros” y frenar la expansión de este tipo de caos.

Compilado de Huashang.com, Red Star News, etc.

Guarda este artículo; si te topas con un robo de rostro con IA, haz la reclamación directamente tal cual

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado