Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Ataque deepfake: 'Muitas pessoas poderiam ter sido enganadas'
Ataque de deepfake: ‘Muitas pessoas podem ter sido enganadas’
2 de março de 2026
CompartilharSalvar
Gideon Longand
Ed Butler
CompartilharSalvar
AFP via Getty Images
Sundararaman Ramamurthy afirma que é impossível saber quantas pessoas viram o vídeo falso
No início deste ano, surgiu nas redes sociais na Índia um vídeo mostrando o diretor executivo da Bolsa de Valores de Bombaim, Sundararaman Ramamurthy, dando conselhos aos investidores sobre quais ações comprar.
Os espectadores eram prometidos retornos generosos se seguissem seus conselhos.
O único problema era que não era Ramamurthy quem falava. Era um vídeo deepfake dele, feito usando inteligência artificial.
“Estava em domínio público, onde muitas pessoas podiam vê-lo e serem enganadas a comprar ou vender ações, como se eu tivesse recomendado”, explica Ramamurthy.
“Quando vemos um incidente assim, imediatamente fazemos uma denúncia. Vamos ao Instagram e outros locais onde foi postado para que o vídeo seja removido. E regularmente escrevemos às autoridades de mercado alertando as pessoas para não acreditarem em vídeos falsos.”
Ramamurthy acrescenta: "Não sabemos quantas pessoas viram esse vídeo, é realmente difícil descobrir, então não podemos julgar se teve um grande impacto ou não.
“O que queremos é que não tenha tido impacto algum. Ninguém deve sofrer uma perda por acreditar em algo que não é verdadeiro.”
BBC Business Daily: Os CEOs deepfake
Deepfakes não consensuais agora são ilegais no Reino Unido - como são detectados?
Combater deepfakes ‘se transformou numa corrida armamentista’
Ramamurthy e a Bolsa de Valores de Bombaim não estão sozinhos.
“Os dados mais recentes mostram que, nos últimos dois anos, tivemos um aumento de quase 3.000% no uso de deepfakes”, diz Karim Toubba, CEO da empresa de segurança de senhas LastPass, com sede nos EUA.
Toubba foi vítima de um deepfake em 2024.
“Um de nossos funcionários na Europa recebeu uma mensagem de áudio e uma mensagem de texto de alguém alegando ser eu, solicitando urgentemente minha ajuda”, diz ele.
Felizmente para Toubba - e para a LastPass - o funcionário desconfiou.
“A mensagem foi pelo WhatsApp, que para nós não é um canal de comunicação autorizado”, diz Toubba. “Além disso, temos dispositivos móveis sancionados pela empresa, e essa mensagem veio pelo telefone pessoal dele. Isso o fez pensar que poderia ser algo suspeito, um pouco duvidoso.”
O funcionário reportou o incidente à equipe de cibersegurança da LastPass, e nenhum dano foi causado.
AFP via Getty Images
Não se sabe quantas pessoas foram afetadas pelo ataque ao chefe da Bolsa de Valores de Bombaim
A empresa de engenharia britânica Arup não teve tanta sorte. Em 2024, foi vítima de um dos ataques deepfake mais sofisticados já vistos no mundo corporativo.
De acordo com a polícia de Hong Kong, um funcionário da Arup que trabalhava lá recebeu uma mensagem alegando ser do diretor financeiro (CFO) da empresa, que ficava em Londres, sobre uma “transação confidencial”.
O funcionário participou de uma videochamada com o CFO e outros funcionários. Com base nessa chamada, o funcionário transferiu US$ 25 milhões (£ 18,5 milhões) de dinheiro da Arup para cinco contas bancárias diferentes, conforme instruído. Só mais tarde descobriu-se que as pessoas na chamada, incluindo o CFO, eram deepfakes.
“Você nunca deveria simplesmente entrar numa videochamada com alguém e transferir US$ 25 milhões”, diz Stephanie Hare, pesquisadora de tecnologia e co-apresentadora do programa de TV AI Decoded da BBC.
“As empresas estão tendo que tomar medidas extras para garantir a segurança dessas comunicações. Esse é o novo mundo em que estamos agora.”
A rápida evolução da IA faz com que esses vídeos fiquem cada vez mais realistas.
“Deepfakes estão se tornando muito, muito fáceis de fazer”, diz Matt Lovell, cofundador e CEO da empresa de cibersegurança CloudGuard, com sede no Reino Unido. “Para gerar vídeos e áudios com qualidade extremamente precisa - leva minutos.”
E também está ficando mais barato.
“Para, digamos, um ataque simples, liderado por um indivíduo, você está falando de US$ 500 a US$ 1.000 com o uso de ferramentas basicamente gratuitas”, diz Lovell. “Para um ataque mais sofisticado, você está falando entre US$ 5.000 e US$ 10.000.”
Embora os vídeos deepfake estejam se tornando mais sofisticados, as ferramentas para combatê-los também evoluem. Agora, as empresas podem usar softwares de verificação que avaliam as expressões faciais de uma pessoa, a forma como ela vira a cabeça e até o fluxo de sangue pelo rosto para determinar se é realmente ela ou uma versão deepfake.
“Nos seus bochechas ou logo abaixo das pálpebras, vamos procurar por mudanças no fluxo sanguíneo quando a pessoa fala ou apresenta”, diz Lovell. “É aí que podemos distinguir se é gerado por IA ou se é real.”
Getty Images
A IA permite que criminosos cibernéticos criem deepfakes com muito mais facilidade
Mas as empresas estão numa batalha constante para ficar um passo à frente dos fraudadores.
“É uma corrida, entre quem consegue implantar uma tecnologia e quem consegue impedir essa tecnologia o mais rápido possível”, diz Toubba, da LastPass. “Felizmente, há bastante dinheiro investido nisso, o que só vai acelerar o ritmo com que as organizações desenvolvem tecnologias para detectar e bloquear essas ameaças.”
Na CloudGuard, o CEO Matt Lovell é mais pessimista.
“Os vetores de ataque estão acelerando mais rápido do que podemos acelerar a automação de defesa e proteção”, afirma. “As pessoas estão respondendo rápido o suficiente para acompanhar a velocidade com que a ameaça se desenvolve? De jeito nenhum.”
Hare afirma que a proliferação de ataques deepfake faz com que profissionais capazes de combater fraudadores estejam em alta demanda. “Temos uma escassez de profissionais de cibersegurança em todo o mundo. Precisamos de mais pessoas nessa área.”
E ela diz que as empresas estão começando a perceber a ameaça, ainda que lentamente.
“No passado, não era prioridade garantir a segurança das operações da mesma forma que é agora”, ela destaca.
“Agora que temos esses riscos, com líderes de empresas e CEOs sendo deepfaked, acho que os executivos vão passar mais tempo com seus responsáveis de segurança da informação do que antes. E isso é uma coisa boa.”
Você está preparado para viver e trabalhar na Antártida?
As duas fazendas em Senegal que fornecem muitos dos vegetais do Reino Unido
Trump mira visita à Venezuela – mas obstáculos ao seu plano de petróleo permanecem
Os holandeses adoram semanas de trabalho de quatro dias, mas elas são sustentáveis?
Mundo dos Negócios
Negócios Internacionais
Inteligência Artificial
Fraude na Internet
Índia
Deepfakes
Fraude