Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Ataque deepfake: 'Muchas personas podrían haber sido engañadas'
Ataque con deepfakes: “Podrían haber engañado a mucha gente”
2 de marzo de 2026
CompartirGuardar
Gideon Longand
Ed Butler
CompartirGuardar
AFP vía Getty Images
Sundararaman Ramamurthy afirma que es imposible saber cuántas personas vieron el vídeo falso
Al comienzo de este año, apareció en las redes sociales de India un vídeo que mostraba al director ejecutivo de la Bolsa de Valores de Bombay, Sundararaman Ramamurthy, dando consejos a los inversores sobre qué acciones comprar.
A los espectadores se les prometían jugosas ganancias si hacían caso a su consejo.
El único problema era que no estaba hablando Ramamurthy. Era un vídeo deepfake sobre él, creado usando inteligencia artificial.
“Estaba en el dominio público donde mucha gente podía verlo y ser engañada para comprar o vender acciones, como si yo se las hubiera recomendado”, explica Ramamurthy.
“Cuando vemos un incidente como este, presentamos de inmediato una denuncia. Vamos a Instagram y a otros sitios donde se publica para que retiren el vídeo. Y de forma regular escribimos al mercado advirtiendo a la gente que no crea en vídeos falsos”.
Ramamurthy añade: “No sabemos cuántas personas han visto este vídeo; es realmente difícil averiguarlo, así que no podemos juzgar si tuvo un gran impacto o no.
“Lo que queremos es que no haya tenido ningún impacto. Nadie debería sufrir una pérdida por creer algo que no es cierto”.
BBC Business Daily: los CEO deepfake
Los deepfakes sin consentimiento son ilegales ahora en el Reino Unido: ¿cómo se detectan?
“Combatir los deepfakes ha convertido en una guerra de armas”
Ramamurthy y la Bolsa de Valores de Bombay no son los únicos.
“Los datos más recientes muestran que, en los últimos dos años más o menos, hemos visto un aumento de casi el 3.000% en el número de deepfakes que se están utilizando”, dice Karim Toubba, director ejecutivo de la empresa estadounidense de seguridad de contraseñas LastPass.
Toubba también fue deepfakeado en 2024.
“Uno de nuestros empleados en Europa recibió un mensaje de audio y un mensaje de texto de alguien que alegaba ser yo, pidiéndome con urgencia que le ayudara con algo”, dice.
Afortunadamente para Toubba —y para LastPass—, el empleado sospechó.
“El mensaje estaba en WhatsApp, que para nosotros no es un canal de comunicación autorizado”, dice Toubba. “Además, tenemos dispositivos móviles corporativos autorizados y esto le llegó a través de su teléfono personal. Así que eso hizo que pensara que era potencialmente un poco turbio, un poco sospechoso”.
El empleado reportó el incidente al equipo de ciberseguridad de LastPass y no se hizo ningún daño.
AFP vía Getty Images
No se sabe cuántas personas se vieron afectadas por el ataque al jefe de la Bolsa de Valores de Bombay
La firma británica de ingeniería Arup no tuvo la misma suerte. En 2024 fue golpeada por uno de los ataques con deepfakes más sofisticados que se haya visto en el mundo corporativo.
Según la policía de Hong Kong, un empleado de Arup que trabajaba allí recibió un mensaje que supuestamente provenía del director financiero (CFO) de la firma, que tenía su sede en Londres, sobre una “transacción confidencial”.
El empleado se conectó a una videollamada con el CFO y otros empleados. A partir de esa llamada, el empleado transfirió entonces $25 millones (£18,5 millones) del dinero de Arup a cinco cuentas bancarias diferentes, tal como se le indicó. Solo más tarde se supo que las personas en la llamada, incluido el CFO, eran deepfakes.
“No querrías simplemente saltar a una videollamada con alguien y transferir $25 millones”, dice Stephanie Hare, investigadora tecnológica y co-presentadora del programa de TV de la BBC “AI Decoded”.
“Las empresas tienen que dar pasos extra para asegurar este tipo de comunicaciones. Ese es el mundo nuevo en el que estamos ahora”.
La evolución rápida de la IA hace que estos vídeos sean cada vez más verosímiles.
“Los deepfakes se están volviendo muy, muy fáciles de hacer”, dice Matt Lovell, cofundador y CEO de la empresa británica de ciberseguridad CloudGuard. “Para generar un vídeo y una calidad de audio con especificaciones extremadamente precisas, se tarda minutos”.
También se está volviendo más barato.
“Por, digamos, un ataque simple liderado por un solo individuo, estás hablando de entre $500 y $1.000 usando herramientas en gran medida gratuitas”, dice Lovell. “Para un ataque más sofisticado, estás hablando de entre $5.000 y $10.000”.
Si bien los vídeos deepfake se están volviendo más sofisticados, también lo están las herramientas que se usan para frenarlos. Ahora las empresas pueden usar software de verificación que puede evaluar las expresiones faciales de una persona, la forma en que gira la cabeza e incluso la manera en que fluye la sangre por su cara para determinar si realmente es esa persona o una versión deepfake de ella.
“En las mejillas o justo debajo de tus párpados, buscaremos cambios en el flujo sanguíneo cuando una persona esté hablando o presentando”. Dice Lovell. “Ahí es realmente donde podemos averiguar si está generado por IA o si es real”.
Getty Images
La IA permite a los ciberdelincuentes crear vídeos deepfake con mucha más facilidad
Pero las empresas están en una batalla constante para mantenerse un paso por delante de los estafadores.
“Es una carrera, entre quién puede desplegar una tecnología y quién puede frustrar esa tecnología lo más rápido posible”, dice Toubba, de LastPass. “Afortunadamente, parece que está entrando bastante dinero en esto, lo que solo acelerará el ritmo con el que las organizaciones desarrollarán tecnologías para detectar y, en última instancia, bloquear estas cosas”.
En CloudGuard, el CEO Matt Lovell es más pesimista.
“Los vectores de ataque se están acelerando más rápido de lo que podemos acelerar la automatización de la defensa y la protección”, dice. “¿La gente se está moviendo lo suficientemente rápido como para responder a la velocidad con la que la amenaza se está desarrollando? Absolutamente no”.
Hare dice que la proliferación de ataques deepfake significa que las personas con habilidades para combatir a los estafadores están en alta demanda. “Tenemos una escasez de profesionales de ciberseguridad en todo el mundo. Necesitamos a más gente para que se meta en esto”.
Y añade que las empresas están despertando ante la amenaza, aunque lentamente.
“Antes no se consideraba una prioridad asegurar tus operaciones de una manera tan similar a la que se hace ahora”, señala.
“Ahora que tenemos estos tipos de riesgos, con los líderes en las empresas, con los CEO, siendo deepfakeados, creo que los ejecutivos de las empresas pasarán más tiempo con sus oficiales y equipos de seguridad de la información que antes. Y eso es algo bueno”.
¿Estás preparado para vivir y trabajar en la Antártida?
Las dos granjas en Senegal que abastecen de muchas de las verduras del Reino Unido
Trump planea visitar Venezuela, pero siguen existiendo obstáculos para su plan petrolero
A los holandeses les gustan las semanas laborales de cuatro días, pero ¿son sostenibles?
Mundo de los negocios
Negocios internacionales
Inteligencia artificial
Fraude en Internet
India
Deepfakes
Fraude