Futuros
Aceda a centenas de contratos perpétuos
CFD
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 40 modelos de IA, com 0% de taxas adicionais
Um funcionário de uma empresa de engenharia britânica participou de uma chamada de vídeo de rotina com seu CFO e 5 colegas em 2024
Ele autorizou transferências no valor de 25,6 MILHÕES de dólares com base no que foi discutido, mas o que ele não sabia era que todas as pessoas na chamada, exceto ele, eram deepfakes de IA
A empresa era a Arup. Uma firma de design e engenharia britânica com 18.500 funcionários em 34 escritórios
Todo esse ataque começou com um único e-mail
Um trabalhador de finanças no escritório de Hong Kong da Arup recebeu uma mensagem alegando ser do CFO da empresa, com sede no Reino Unido
O e-mail referia-se a uma "transação secreta" que precisava ser processada com urgência e confidencialidade
O trabalhador achou que era um phishing. Ele tinha razão em ficar desconfiado, mas então os atacantes escalaram a situação
Convidaram-no para uma chamada de vídeo para verificar se a solicitação era real. Ele entrou esperando confirmar que era um golpe
O CFO estava na chamada. Assim como vários outros colegas seniores que ele reconhecia. Eles o cumprimentaram pelo nome
Discutiram a transação em detalhes usando terminologia interna da empresa. Referenciaram projetos em andamento que só insiders conheceriam
Seus rostos se moviam naturalmente, suas vozes soavam exatamente corretas e eles tiveram conversas reais entre si e com ele
Ele deixou de desconfiar e, seguindo as instruções na chamada, realizou 15 transferências bancárias separadas, totalizando HK$200 milhões (25,6 MILHÕES de dólares) para cinco contas bancárias diferentes em Hong Kong nos dias seguintes
A fraude só foi descoberta quando ele entrou em contato com o escritório central do Reino Unido sobre o projeto. O verdadeiro CFO nunca tinha ouvido falar da transação. Os outros colegas na chamada nunca estiveram na chamada
Cada rosto na tela era um deepfake
A polícia de Hong Kong investigou... Os atacantes criaram deepfakes sofisticados de todos os executivos, coletando vídeos e áudios disponíveis publicamente em conferências online, reuniões virtuais da empresa e chamadas de resultados
A Arup tinha horas de vídeos públicos de sua liderança
Os deepfakes não eram pré-gravados, eles eram executados em tempo real. Cada participante falso podia falar, reagir, responder e participar de diálogos não roteirizados com a vítima
E-mails de phishing isolados são detectados o tempo todo. Chamadas telefônicas com clonagem de voz têm uma taxa de sucesso maior, mas ainda falham quando a vítima pede confirmação por escrito
Chamadas de vídeo deepfake com múltiplas pessoas resolvem ambos os problemas de uma só vez. Você não pode pedir verificação quando já está verificando com seus próprios olhos
Na mesma investigação, a polícia de Hong Kong descobriu uma operação relacionada. Oito cartões de identidade de Hong Kong roubados foram usados para fazer 90 pedidos de empréstimo e registrar 54 contas bancárias
Deepfakes de IA conseguiram passar na verificação de reconhecimento facial pelo menos 20 vezes, validando essas identidades como legítimas
A tecnologia agora está madura o suficiente para enganar tanto a verificação humana (chamadas de vídeo) quanto a verificação automática (reconhecimento facial KYC)
Rob Greig, diretor de informações da Arup, confirmou posteriormente que a empresa foi alvo de ataques "crescentes de forma acentuada" e estimou que o custo global de fraudes habilitadas por IA atingirá 40 MIL MILHÕES de dólares até 2027
A perda da Arup foi de 25,6 milhões de dólares de um trabalhador de finanças em uma única chamada. É a fraude de deepfake mais bem-sucedida já registrada publicamente
A investigação permanece aberta e nenhuma prisão foi feita. Os fundos foram dispersos em várias contas horas após as transferências e a maioria já foi lavada do sistema bancário de Hong Kong
Para garantir sua segurança, é melhor:
Pedir à pessoa na chamada que vire a cabeça e mostre o perfil completo, pois o modelo deepfake geralmente falha em ângulos extremos
Pedir que mudem a iluminação do ambiente, já que deepfakes têm dificuldades com mudanças súbitas de luz
Pedir que peguem um objeto aleatório e mostrem na câmera, pois o modelo costuma travar ao integrar objetos reais ao rosto sintético
Essas verificações funcionam hoje. Não funcionarão por muito mais tempo
A história maior é o que esse ataque prova sobre a próxima década de finanças corporativas
Cada executivo de cada empresa pública tem horas de vídeos gravados no YouTube, LinkedIn, chamadas de resultados e painéis de conferências. Essas imagens são o conjunto de treinamento para qualquer atacante que queira criar um deepfake deles
Algo a se preocupar