¡Gran conferencia de XRP en Las Vegas revela estafas! Aparecen muchas chicas de IA "fotos engañosas", difícil distinguir la verdad a simple vista

La conferencia XRP en Las Vegas desata una ola de estafas sociales con IA, donde los grupos de estafadores utilizan tecnología de deepfake para generar fotos de mujeres hermosas, dirigiéndose con precisión a asistentes con recursos financieros para engañarlos y inducirlos a inversiones fraudulentas.

La conferencia anual de XRP celebrada en Las Vegas ha reportado múltiples casos de estafas sociales con técnicas de “kill pig” (estafa de cebo), donde los estafadores usan fotos generadas por IA de mujeres para hacer “check-in” en los puestos de XRP y confundir a los inversores, llevando a cabo estafas amorosas de “kill pig” con fotos falsas.

Los asistentes a la conferencia XRP en Las Vegas se convierten en objetivos de estafas de “kill pig”

El CEO de Ripple, Brad Garlinghouse, y el cofundador David Schwartz, entre otras figuras importantes, asistieron a la conferencia de XRP celebrada en el casino Paris Las Vegas. Los verificadores de XRP Ledger detectaron durante el evento una gran cantidad de cuentas de mujeres generadas por IA en X e Instagram, vestidas con ropa formal y posando frente a los stands oficiales del evento, creando la ilusión de presencia en vivo. Estas “fotos engañosas” utilizan imágenes generadas para atraer a las víctimas y luego envían mensajes privados para montar la estafa. Dado que los precios de las entradas y alojamiento son elevados, los asistentes suelen tener recursos, por lo que los estafadores, disfrazados de entusiastas de las criptomonedas, reducen significativamente la sospecha de sus objetivos.

El esquema clásico de la estafa “kill pig” sigue siendo efectivo

Este tipo de estafas sociales con mujeres, basadas en ingeniería social, generalmente siguen el esquema clásico de “kill pig”: primero usan fotos de mujeres virtuales para crear un vínculo emocional, luego dirigen las conversaciones a aplicaciones de mensajería con funciones de privacidad en criptomonedas. Una vez que se establece la confianza, los estafadores comienzan a solicitar donaciones en criptomonedas o recomiendan plataformas de inversión falsas. Durante el evento, los participantes ya esperan recibir mensajes publicitarios de desconocidos, lo que reduce mucho su alerta. A diferencia de los correos de phishing aleatorios, la tecnología de deepfake con IA permite crear personajes virtuales adaptados a comunidades específicas, haciendo que las estafas sean más convincentes.

El uso de IA en fraudes financieros se ha convertido en una amenaza global. Casos del FBI muestran que los grupos criminales no solo usan IA para generar fotos estáticas, sino también para suplantar identidades en videollamadas mediante tecnología de cambio de rostro. Estas acciones suelen involucrar organizaciones criminales altamente estructuradas y transnacionales, con algunos casos relacionados con la secuestro ilegal de trabajadores para realizar fraudes, con víctimas en Taiwán, Singapur, India y otros países, con pérdidas que alcanzan decenas de millones de dólares. La inteligencia artificial reduce significativamente la dificultad de suplantar identidades, ya que personajes que antes requerían actuación humana ahora pueden ser replicados en masa mediante algoritmos, siendo difícil distinguir la realidad a simple vista. La persona falsa puede ser un anciano que te halaga, mientras que la víctima no puede detectar la mentira.

Según datos del FBI, las pérdidas por fraudes relacionados con criptomonedas ya alcanzan cientos de millones de dólares, siendo las estafas amorosas de “kill pig” las principales. Las estadísticas muestran que las personas mayores de 60 años, con menor conocimiento de las nuevas tecnologías, son las más afectadas. Ripple ha emitido varias alertas en la comunidad, enfatizando que los altos ejecutivos no promocionan eventos a través de Instagram o mensajes privados. Aunque la tecnología blockchain ofrece registros transparentes, una vez que las claves privadas o fondos se transfieren a las billeteras de los estafadores, es muy difícil recuperarlos. Los expertos recomiendan a los asistentes verificar sus credenciales físicas (Badge) y mantenerse alerta ante cualquier solicitud de mover conversaciones a canales privados para discutir oportunidades de inversión, para hacer frente a la creciente amenaza de fraudes generados por IA.

  • Este artículo ha sido reproducido con autorización de: 《Noticias Blockchain》
  • Título original: 《Las fotos falsas de IA aparecen en masa en la conferencia XRP en Las Vegas》
  • Autor original: DW
XRP0,86%
Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado