Desmascarando a teoria do terror cibernético com IA! Estudo: hackers preferem imagens de mulheres nuas com IA, por que não gostam de Vibe Coding?

Estudos indicam que a IA generativa não criou super hackers, sendo maioritariamente usada para fraudes de SEO ou produção de fotos nuas, crimes de baixo nível. Os hackers temem a degradação das suas habilidades e evitam depender excessivamente da IA; o verdadeiro problema de segurança cibernética é a fuga de talentos tecnológicos para o mercado negro.

Refutando a teoria do ataque cibernético terrorista com IA, artigo afirma que a IA generativa não criou super hackers

Nos últimos anos, empresas de segurança cibernética, órgãos governamentais e gigantes da tecnologia de IA têm alertado continuamente que a IA generativa traria uma nova geração de hackers altamente capazes, mas uma recente publicação desafia essa afirmação.

Escrito por pesquisadores da Universidade de Cambridge, Universidade de Edimburgo e Universidade de Strathclyde, o artigo 《Stand-Alone Complex or Vibercrime?》 analisa o impacto real da IA generativa no crime cibernético, questionando diretamente a hipótese de que a IA provocaria ataques destrutivos em larga escala.

A equipe de pesquisa analisou dados de fóruns de hackers por mais de 15 anos, descobrindo que as ameaças atuais na internet continuam bastante comuns. Na maioria dos casos, a IA é usada principalmente para otimizar fraudes automatizadas existentes, enganos de SEO e tarefas administrativas de baixo nível. A imagem popular de super hackers é, na maior parte, apenas pessoas usando ChatGPT para escrever spam ou gerar fotos nuas para lucro.

Mais de 90% das discussões em fóruns de hackers não têm relação com crimes envolvendo IA

Para entender a verdadeira face do crime cibernético underground, a equipe extraiu e analisou 97.895 artigos do banco de dados do Centro de Crimes Cibernéticos de Cambridge, desde o lançamento do ChatGPT em novembro de 2022.

Utilizaram modelos de tópicos para análise e revisaram manualmente mais de 3.200 artigos. Os resultados mostram que, atualmente, a IA generativa não reduz de forma substancial a barreira técnica para iniciantes entrarem no crime cibernético.

Os dados indicam que até 97,3% dos artigos classificados eram de outros temas, indicando que o conteúdo discutido não tinha relação com crimes envolvendo IA, sendo que apenas 1,9% abordavam o uso de ferramentas de codificação Vibe.

Fonte: Pesquisa do artigo. Pesquisa revela que mais de 90% das discussões em fóruns de hackers não têm relação com crimes envolvendo IA

“Chatbots de IA sombrios” são mais estratégias de marketing

Revisando 2023, chatbots de IA como WormGPT e FraudGPT, alegando capacidades de ataque malicioso, dominaram as manchetes da mídia.

Porém, pesquisadores descobriram, a partir de dados de fóruns, que a maioria das postagens sobre produtos de IA sombria são de usuários pedindo acesso gratuito ou reclamando que essas ferramentas não funcionam de fato.

Um conhecido desenvolvedor de serviços de IA sombria até admitiu aos membros do fórum que o produto é apenas uma estratégia de marketing, na essência, um ChatGPT sem restrições.

A pesquisa aponta que, até o final de 2024, métodos de jailbreak para modelos mainstream se tornaram quase descartáveis, geralmente expirando em menos de uma semana. Modelos de código aberto podem ser desbloqueados indefinidamente, mas consomem muitos recursos e raramente recebem atualizações, o que demonstra que os mecanismos de segurança atuais da IA estão, de fato, funcionando.

Hackers não gostam de Vibe Coding, preocupados com a degradação de habilidades

O artigo também responde diretamente ao relatório da Anthropic de agosto de 2025, que afirmava que o Claude Code foi usado para extorsão por hackers em 17 organizações, mas essa prática não foi encontrada nos fóruns analisados.

Nos fóruns investigados, o principal uso de assistentes de programação por IA é como ferramenta de autocompletar para programadores experientes; hackers de baixa habilidade continuam preferindo scripts prontos e eficazes.

Um usuário do fórum alertou que o uso de IA para ajudar na programação aumenta o risco de códigos inseguros; outro hacker afirmou que a dependência excessiva de Vibe Coding pode levar à rápida degradação das habilidades de hacking.

Aplicações reais da IA no crime cibernético: conteúdo spam e fraudes pornográficas

Segundo o estudo, as áreas em que a IA realmente auxilia criminosos estão na base da cadeia de crimes.

Por exemplo, fraudadores de SEO usam modelos de IA para criar uma grande quantidade de artigos lixo; fraudadores românticos e operadores de pornografia online começaram a usar tecnologia de clonagem de voz com IA; e oportunistas que buscam enriquecimento rápido produzem e-books com IA, vendendo cada um por 20 dólares.

O mercado mais preocupante envolve serviços de geração de fotos nuas. Alguns fornecedores afirmam que podem usar IA para fazer qualquer garota ficar nua, cobrando de 1 dólar por foto, 8 dólares por 10 fotos, 40 dólares por 50 fotos e 75 dólares por 90 fotos.

Os pesquisadores concluem que a maior ameaça da IA à ecologia do crime na internet é, na verdade, a fuga de desenvolvedores de tecnologia legítima, que foram demitidos, para o mercado negro.** A crise econômica e o mercado de trabalho estagnado são as principais razões que levam desenvolvedores altamente qualificados a ingressar em grupos de fraude e crime cibernético.**

Leitura adicional:
CEO de IA da Microsoft: em 18 meses, a IA automatizará trabalhos de escritório, mas também pode desencadear grandes incidentes de segurança cibernética

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar