En App Store y Google Play han bloqueado decenas de aplicaciones de IA para «desnudar» a las personas - ForkLog: criptomonedas, IA, singularidad, futuro

deepfake_expl-min# En App Store y Google Play han bloqueado decenas de aplicaciones de IA para «desnudar» a las personas

En las tiendas de aplicaciones de Apple y Google hay decenas de aplicaciones nudify que permiten fotografiar a las personas y, con ayuda de inteligencia artificial, crear imágenes de ellas desnudas. Así lo informaron expertos de TTP.

Durante la revisión, los analistas encontraron 55 aplicaciones en Google Play y 47 en App Store. Contactaron a los representantes de las empresas para eliminar los servicios. Apple eliminó 28 herramientas nudify de la tienda y advirtió a los desarrolladores sobre la posibilidad de eliminar sus productos en caso de violar las reglas.

Dos aplicaciones fueron restauradas posteriormente tras solucionar todos los problemas.

Un representante de Google informó que la corporación suspendió el funcionamiento de varios programas. La compañía está investigando tras recibir estos mensajes.

«Ambas empresas afirman que se preocupan por la seguridad de los usuarios, pero en sus tiendas colocan aplicaciones que pueden convertir una fotografía inofensiva de una mujer en una imagen ofensiva de carácter sexual», escribieron los expertos de TTP en su informe.

Identificaron las aplicaciones realizando búsquedas con los términos «nudify» y «undress», y las probaron con imágenes generadas por IA. En el marco del experimento, analizaron dos tipos de servicios:

  • aquellos que utilizaban inteligencia artificial para renderizar imágenes de mujeres sin ropa;
  • otros que superponían rostros de personas en fotografías explícitas.

«Es completamente evidente que no son solo aplicaciones para “cambiar de ropa”. Están claramente diseñadas para sexualizar a las personas sin su consentimiento», afirmó la directora de TTP, Katie Pol.

Los analistas informaron que 14 programas fueron creados en China.

«Las leyes de la RPC sobre almacenamiento de datos significan que el gobierno tiene derecho a acceder a la información de cualquier empresa en cualquier parte del país. Así que si alguien creó deepfakes con tu imagen, ahora están en manos de las autoridades», añadió Pol.

IA en perjuicio

La inteligencia artificial ha hecho que sea más fácil que nunca «desnudar» a las chicas y crear pornografía deepfake. En enero, el chatbot Grok estuvo en el centro de un escándalo por una función similar. Posteriormente, la compañía desactivó la generación de imágenes explícitas de personas reales.

En agosto de 2024, la oficina del fiscal de San Francisco, David Chiu, presentó una demanda contra los propietarios de 16 de los sitios web más grandes del mundo que permiten «desnudar» a mujeres y niñas en fotos mediante IA sin su consentimiento.

El documento habla de violaciones de las leyes estatales y federales sobre pornografía deepfake, pornografía por venganza y materiales relacionados con la violencia sexual infantil.

«La IA generativa tiene un enorme potencial, pero, como con todas las nuevas tecnologías, existen consecuencias imprevistas y delincuentes que buscan usar la tecnología en su propio beneficio. Debemos entender claramente que esto no es innovación, sino violencia sexual», afirmó Chiu.

Los sitios involucrados en el caso ofrecen interfaces fáciles para subir fotos y crear versiones pornográficas realistas. Son prácticamente indistinguibles de las imágenes reales y se usan para extorsión, intimidación, amenazas y humillación, según la declaración.

Recordemos que en septiembre de 2024, Microsoft anunció una asociación con la organización StopNCII para luchar contra la pornografía deepfake en el motor de búsqueda Bing.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado