¡Gran conferencia de XRP en Las Vegas revela estafas! Aparecen muchas chicas de IA "fotos engañosas", difícil distinguir la verdad a simple vista

La conferencia XRP en Las Vegas desata una ola de estafas sociales con IA, donde los grupos de estafadores utilizan tecnología de deepfake para generar fotos de mujeres hermosas, dirigiéndose con precisión a asistentes con recursos financieros para engañarlos y inducirlos a inversiones fraudulentas.

La conferencia anual de XRP celebrada en Las Vegas ha reportado múltiples casos de estafas sociales con técnicas de “kill pig” (estafa de cebo), donde los estafadores emplean perfiles de mujeres generadas por IA en los puestos de XRP para hacer “selfies” engañosos y confundir a los inversores, llevando a cabo estafas amorosas de “kill pig” con fotos generadas artificialmente.

Los asistentes a la conferencia XRP en Las Vegas se convierten en objetivos de estafas de “kill pig”

El CEO de Ripple, Brad Garlinghouse, y el cofundador David Schwartz, entre otras figuras destacadas, participaron en esta edición de la conferencia en el casino Paris Las Vegas. Los verificadores del XRP Ledger detectaron durante el evento una gran cantidad de cuentas de mujeres generadas por IA en X e Instagram, vestidas con ropa formal y posando frente a los stands oficiales del evento, creando la ilusión de presencia en vivo. Estas “fotos engañosas” utilizan imágenes generadas para atraer a las víctimas y luego envían mensajes privados para montar la estafa. Dado que los precios de las entradas y alojamiento son elevados, los asistentes suelen considerarse con cierto poder adquisitivo, y los estafadores se disfrazan de entusiastas de las criptomonedas para reducir la desconfianza de los objetivos.

El esquema clásico de la estafa “kill pig” sigue siendo efectivo

Este tipo de estafas sociales con perfiles femeninos suelen seguir el esquema clásico de “kill pig”, primero creando un vínculo emocional mediante fotos de mujeres virtuales, y luego dirigiendo las conversaciones a aplicaciones de mensajería con funciones de privacidad en criptomonedas. Tras generar confianza, los estafadores solicitan donaciones en criptomonedas o recomiendan plataformas de inversión falsas. Durante el evento, los participantes ya esperan recibir mensajes de desconocidos, lo que reduce su alerta. A diferencia de los correos de phishing aleatorios, estas estafas con IA y tecnología de deepfake pueden crear personajes virtuales adaptados a comunidades específicas, haciendo las estafas más convincentes.

El uso de IA en fraudes financieros se ha convertido en una amenaza global; casos del FBI muestran que los grupos criminales no solo generan fotos estáticas con IA, sino que también emplean técnicas de cambio de rostro en videollamadas para suplantar identidades. Estas acciones suelen estar respaldadas por organizaciones criminales altamente estructuradas y transnacionales, involucrando incluso la detención ilegal de trabajadores para realizar fraudes. Las víctimas de estos engaños se encuentran en Taiwán, Singapur, India y otros países, con pérdidas que alcanzan decenas de millones de dólares. La inteligencia artificial reduce significativamente la dificultad de disfrazar identidades, permitiendo que personajes creados por algoritmos sean replicados a gran escala y sean difíciles de distinguir a simple vista. Detrás de un avatar falso puede estar un anciano con los pies en la tierra susurrando palabras dulces, pero la víctima no puede distinguirlo.

Según datos del FBI, las pérdidas por fraudes relacionados con criptomonedas ya alcanzan miles de millones de dólares, siendo las estafas amorosas de “kill pig” las principales. Estadísticas muestran que las personas mayores de 60 años, con menor conocimiento de las nuevas tecnologías, son las más afectadas. Ripple ha emitido advertencias reiteradas en la comunidad, enfatizando que sus altos ejecutivos no promocionan eventos a través de Instagram o mensajes privados. Aunque la tecnología blockchain ofrece registros transparentes, una vez que las claves privadas o fondos se transfieren a las billeteras de los estafadores, es muy difícil recuperarlos. Los expertos recomiendan a los asistentes verificar sus credenciales físicas (Badge) y mantenerse alerta ante cualquier solicitud de mover conversaciones a canales privados para discutir oportunidades de inversión, ante la creciente sofisticación de las estafas generadas por IA.

  • Este artículo ha sido reproducido con autorización de: 《Noticias en Blockchain》
  • Título original: 《Las fotos de IA “engañan” con gran presencia en la conferencia XRP en Las Vegas》
  • Autor original: DW
XRP0,28%
Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado