Informe de Elliptic revela que el futuro del delito cripto es impulsado por la IA

Harvey Hunter

Harvey Hunter

Última actualización:

7 de junio de 2024 09:09 EDT | 2 min de lectura

Un informe de Elliptic expuso el aumento de los delitos criptográficos de IA marcando una nueva era de amenazas cibernéticas, explotadas para estafas deepfake, ataques patrocinados por el estado y otras actividades ilícitas sofisticadas.Elliptic Report Reveals the Future of Crypto Crime is AI-Driven

El informe atribuye a la inteligencia artificial (IA) el impulso de una innovación beneficiosa significativa en muchas industrias, incluido el sector de criptoactivos de IA. Esta innovación ha dado lugar a muchos proyectos dispuestos a redefinir el panorama de la criptografía de IA.

Sin embargo, como con cualquier tecnología emergente, sigue existiendo el riesgo de que actores malintencionados busquen explotar nuevos avances con fines ilícitos.

Como resultado, Elliptic solicita una revisión de las señales de advertencia temprana de actividad ilegal para garantizar la innovación a largo plazo y mitigar los riesgos emergentes en sus etapas iniciales.

Deepfake celebridades, líderes y directores ejecutivos de cripto

Elliptic resaltó el uso y distribución de deepfakes y material generado por IA para publicitar estafas de criptomonedas.

Los videos Deepfake a menudo explotan la similitud de figuras influyentes como Elon Musk y el ex primer ministro de Singapur Lee Hsien Loong para promover esquemas de inversión fraudulentos.

Picture of deepfakes used in AI crypto crime: Source: Elliptic report.

Ellos falsamente insinúan que el proyecto tiene respaldo legítimo u oficial, legitimándolo de esta manera entre posibles víctimas.

¿Alguien acaba de ver la estafa de @elonmusk / cripto en la transmisión de YouTube del lanzamiento de @SpaceX? En un video deep fake que se cortó en la transmisión, Elon dirige a todos a escanear un código QR para enviar cripto y se devolverá a su billetera el doble de lo que pusieron. ¡Ten cuidado ahí fuera!! pic.twitter.com/vKutNvgTkP

— N1COLE (@nmarinake) 6 de junio de 2024

Las estafas a escala industrial, como las estafas románticas de “carnicería de cerdos”, implican mantener una comunicación extensa y prolongada con las víctimas durante todo el proceso de estafa.

Elliptic también informó casos en los que la tecnología deepfake se hizo pasar por altos ejecutivos durante reuniones en línea. Esto aprovecha la posición de la figura para potencialmente autorizar grandes transacciones, afectando tanto al sector corporativo como al cripto.

Mercados ilícitos mejorados por IA

Herramientas como ChatGPT pueden ser utilizadas para generar o verificar errores en el código. Las posibles implicaciones de esto son relevantes para la criptografía, facilitando el cibercrimen al identificar vulnerabilidades a gran escala.

Las aplicaciones de cripto descentralizadas a menudo utilizan código de fuente abierta, como contratos inteligentes, lo que las hace vulnerables a los hacks. La subida de la auditoría DeFi contrarresta estos riesgos.

Sin embargo, si bien la IA podría agilizar las auditorías de contratos inteligentes, los auditores advierten sobre las capacidades actuales. Existe preocupación de que los hackers puedan utilizar la IA para identificar rápidamente vulnerabilidades en los protocolos DeFi.

Los foros de la web oscura exploran grandes modelos de lenguaje (LLMs) para delitos relacionados con criptomonedas. Esto incluye la ingeniería inversa de frases de semilla de billetera y la automatización de estafas como el phishing y el despliegue de malware.

Los mercados de la web oscura ofrecen versiones “poco éticas” de GPT diseñadas para el crimen de criptomonedas con IA. Estas herramientas tienen como objetivo evadir la detección por GPT legítimas.

WormGPT, el autodenominado “enemigo de ChatGPT”, fue mencionado en el informe. Se presenta como una herramienta que “trasciende los límites de la legalidad”. Se anuncia abiertamente para facilitar la creación de correos electrónicos de phishing, carding, malware y la generación de código malicioso.

Estados Unidos advierte sobre el crimen criptográfico de la IA coreana

Las Naciones Unidas atribuyen a actores estatales norcoreanos más de 60 robos de criptomonedas, que ascienden a más de $3 mil millones robados desde 2017 hasta 2023. Elliptic citó informes que indican que están explorando la inteligencia artificial para mejorar las capacidades de piratería.

Según el informe, Anne Neuberger, la asesora de seguridad nacional adjunta de EE. UU. para Ciberseguridad y Tecnologías Emergentes, también abordó las crecientes preocupaciones sobre la criminalidad de la IA.

“Se ha observado que algunos actores norcoreanos y de otros estados nación y criminales intentan utilizar modelos de IA para acelerar la creación de software malicioso e identificar vulnerabilidades.”

El informe destacó el avance de Corea del Norte en la investigación de IA desde 2013, centrándose en aplicaciones como el reconocimiento facial y posibles usos militares. La Universidad Kim Il Sung juega un papel en el desarrollo de programas de IA, colaborando con entidades chinas en este campo.

Elliptic no ha encontrado evidencia de actores estatales hostiles que utilicen la inteligencia artificial en las blockchains directamente, pero estos grupos están probando modelos de lenguaje grandes (LLMs) para mejorar las habilidades de piratería.

Síguenos en Google News

CYBER-5,05%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado