Um funcionário de uma empresa de engenharia britânica participou de uma chamada de vídeo de rotina com seu CFO e 5 colegas em 2024


Ele autorizou transferências no valor de 25,6 MILHÕES de dólares com base no que foi discutido, mas o que ele não sabia era que todas as pessoas na chamada, exceto ele, eram deepfakes de IA
A empresa era a Arup. Uma firma de design e engenharia britânica com 18.500 funcionários em 34 escritórios
Todo esse ataque começou com um único e-mail
Um trabalhador de finanças no escritório de Hong Kong da Arup recebeu uma mensagem alegando ser do CFO da empresa, com sede no Reino Unido
O e-mail referia-se a uma "transação secreta" que precisava ser processada com urgência e confidencialidade
O trabalhador achou que era um phishing. Ele tinha razão em ficar desconfiado, mas então os atacantes escalaram a situação
Convidaram-no para uma chamada de vídeo para verificar se a solicitação era real. Ele entrou esperando confirmar que era um golpe
O CFO estava na chamada. Assim como vários outros colegas seniores que ele reconhecia. Eles o cumprimentaram pelo nome
Discutiram a transação em detalhes usando terminologia interna da empresa. Referenciaram projetos em andamento que só insiders conheceriam
Seus rostos se moviam naturalmente, suas vozes soavam exatamente corretas e eles tiveram conversas reais entre si e com ele
Ele deixou de desconfiar e, seguindo as instruções na chamada, realizou 15 transferências bancárias separadas, totalizando HK$200 milhões (25,6 MILHÕES de dólares) para cinco contas bancárias diferentes em Hong Kong nos dias seguintes
A fraude só foi descoberta quando ele entrou em contato com o escritório central do Reino Unido sobre o projeto. O verdadeiro CFO nunca tinha ouvido falar da transação. Os outros colegas na chamada nunca estiveram na chamada
Cada rosto na tela era um deepfake
A polícia de Hong Kong investigou... Os atacantes criaram deepfakes sofisticados de todos os executivos, coletando vídeos e áudios disponíveis publicamente em conferências online, reuniões virtuais da empresa e chamadas de resultados
A Arup tinha horas de vídeos públicos de sua liderança
Os deepfakes não eram pré-gravados, eles eram executados em tempo real. Cada participante falso podia falar, reagir, responder e participar de diálogos não roteirizados com a vítima
E-mails de phishing isolados são detectados o tempo todo. Chamadas telefônicas com clonagem de voz têm uma taxa de sucesso maior, mas ainda falham quando a vítima pede confirmação por escrito
Chamadas de vídeo deepfake com múltiplas pessoas resolvem ambos os problemas de uma só vez. Você não pode pedir verificação quando já está verificando com seus próprios olhos
Na mesma investigação, a polícia de Hong Kong descobriu uma operação relacionada. Oito cartões de identidade de Hong Kong roubados foram usados para fazer 90 pedidos de empréstimo e registrar 54 contas bancárias
Deepfakes de IA conseguiram passar na verificação de reconhecimento facial pelo menos 20 vezes, validando essas identidades como legítimas
A tecnologia agora está madura o suficiente para enganar tanto a verificação humana (chamadas de vídeo) quanto a verificação automática (reconhecimento facial KYC)
Rob Greig, diretor de informações da Arup, confirmou posteriormente que a empresa foi alvo de ataques "crescentes de forma acentuada" e estimou que o custo global de fraudes habilitadas por IA atingirá 40 MIL MILHÕES de dólares até 2027
A perda da Arup foi de 25,6 milhões de dólares de um trabalhador de finanças em uma única chamada. É a fraude de deepfake mais bem-sucedida já registrada publicamente
A investigação permanece aberta e nenhuma prisão foi feita. Os fundos foram dispersos em várias contas horas após as transferências e a maioria já foi lavada do sistema bancário de Hong Kong
Para garantir sua segurança, é melhor:
Pedir à pessoa na chamada que vire a cabeça e mostre o perfil completo, pois o modelo deepfake geralmente falha em ângulos extremos
Pedir que mudem a iluminação do ambiente, já que deepfakes têm dificuldades com mudanças súbitas de luz
Pedir que peguem um objeto aleatório e mostrem na câmera, pois o modelo costuma travar ao integrar objetos reais ao rosto sintético
Essas verificações funcionam hoje. Não funcionarão por muito mais tempo
A história maior é o que esse ataque prova sobre a próxima década de finanças corporativas
Cada executivo de cada empresa pública tem horas de vídeos gravados no YouTube, LinkedIn, chamadas de resultados e painéis de conferências. Essas imagens são o conjunto de treinamento para qualquer atacante que queira criar um deepfake deles
Algo a se preocupar
Ver original
post-image
post-image
post-image
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar