Hace poco pasó algo bastante preocupante en redes sociales que vale la pena entender. Los deepfakes sexuales de Taylor Swift circularon masivamente por plataformas como X, Instagram y Threads, generando una crisis de contenido falso que las plataformas nunca habían visto a esta escala.



La magnitud fue impresionante: una sola imagen compartida en X alcanzó 47 millones de visualizaciones antes de que suspendieran la cuenta. Eso da una idea de cómo se propagan estos contenidos cuando nadie los detiene a tiempo. X decidió ser más agresivo y bloqueó directamente las búsquedas de 'Taylor Swift' e 'IA', mostrando el mensaje 'Algo salió mal' cuando alguien lo intenta. El jefe de negocios de X reconoció que es una medida temporal enfocada en 'priorizar la seguridad'.

Instagram y Threads tomaron un camino diferente. Permiten buscar el nombre de la artista, pero si buscas 'Taylor Swift IA' aparece una advertencia: '¿Estás seguro de que quieres continuar? El término que buscaste a veces se asocia con actividades de organizaciones e individuos peligrosos'. El problema es que estos filtros son bastante fáciles de evadir cambiando el orden de las palabras.

Lo interesante es que esto no es un problema nuevo, solo que ahora es más visible. Microsoft y Google lanzaron herramientas gratuitas que permiten crear imágenes realistas mediante texto usando IA generativa. Satya Nadella, CEO de Microsoft, describió los deepfakes como 'alarmantes y terribles', pidiendo que la industria actúe rápido en barreras de seguridad. El sindicato de actores estadounidenses (SAG-AFTRA) fue directo: calificó las imágenes falsas de Taylor Swift de 'perturbadoras, dañinas y profundamente preocupantes', exigiendo que se criminalice la distribución de este contenido sin consentimiento.

La realidad es que los deepfakes afectan desproporcionadamente a mujeres. El grupo Reality Defender rastreó más de veinte imágenes únicas generadas por IA de Taylor Swift, muchas con contenido violento o sexual. Desde 2019, los estudios muestran que la mayoría de víctimas de deepfakes explícitos son actrices de Hollywood y cantantes de K-pop. La tecnología se ha vuelto tan accesible que cualquiera puede crear este contenido con herramientas básicas.

Swift estaría considerando acciones legales contra los sitios que publicaron estas imágenes. Mientras tanto, la Casa Blanca pidió al Congreso que cree legislación específica. Lo que pasó con Taylor Swift es solo la punta del iceberg: MrBeast, Tom Hanks y otros famosos también han sido víctimas. El debate real es cómo frenar los deepfakes sin censurar la tecnología legítima.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado