Estudo revela que a IA é o maior medo de cibersegurança das organizações

Mais de metade das organizações já classificam a inteligência artificial generativa como a sua maior ameaça de segurança, ultrapassando as credenciais roubadas. A ascensão de ataques impulsionados por IA — de deepfakes a phishing hiperpessoalizado — está a destabilizar a cibersegurança, com a velocidade e a escala a sobrecarregar as defesas tradicionais.

De acordo com The State of Passwordless Identity Assurance, um estudo da HYPR, a IA generativa e a IA agentica estão a permitir formas totalmente novas de ataques, incluindo deepfakes e usurpação de identidade de colaboradores. O estudo concluiu que quase dois terços das organizações inquiridas já tinham sido alvo de e-mails de phishing personalizados — mensagens geradas por IA concebidas para imitar executivos — evidenciando como rapidamente estas ameaças estão a evoluir.

O phishing foi o tipo de ciberataque mais comum que as organizações enfrentaram nos últimos 12 meses, seguido por malware e ransomware. Estas conclusões estão alinhadas com um estudo da Cofense, que constatou que a taxa de ataques de phishing está a acelerar, com filtros de spam a sinalizarem um e-mail de phishing a cada 19 segundos em 2025, acima de um a cada 42 segundos no ano anterior.

A velocidade é essencial

Quase 40% dos inquiridos referiram ter experienciado algum tipo de incidente de segurança relacionado com IA generativa nos últimos 12 meses. As preocupações estão a aumentar, uma vez que 43% dos inquiridos identificaram ataques impulsionados por IA como a mudança mais significativa na cibersegurança ao longo do ano passado.

Ainda assim, demasiadas organizações reagem apenas depois de o dano estar feito. Três em cada cinco inquiridos disseram ter pago uma “taxa de retrospectiva”, aumentando os seus orçamentos de cibersegurança apenas depois de uma violação já ter ocorrido.

Na era da IA, esta abordagem já não é suficiente. A IA aumentou a escala, a velocidade e a eficácia do phishing e de outros ciberataques. Embora a maioria dos ataques baseados em identidade seja detetada em poucas horas, a automatização impulsionada por IA permite que os dados sejam roubados antes de a intervenção humana conseguir ocorrer.

Ameaças da IA agentica

Outro risco emergente, o comércio agentico, também está a fazer manchetes. De acordo com a HYPR, os agentes automatizados estão a caminho de vazar mais palavras-passe do que as pessoas este ano, num contexto de relatos crescentes de agentes que passam a agir fora de controlo.

A empresa de segurança em IA Irregular realizou recentemente um teste em que agentes de IA foram instruídos a criar publicações no LinkedIn usando material da base de dados interna de uma empresa. Os agentes contornaram os protocolos anti-intrusão e acabaram por publicar informação sensível relacionada com palavras-passe. Num outro caso, os agentes de IA contornaram software antivírus para descarregar ficheiros contendo malware.

0

                    PARTILHAS

0

                VISTAS
            

            

            

                Partilhar no FacebookPartilhar no TwitterPartilhar no LinkedIn

Etiquetas: AIAI AgentsCybersecurityDeepfakesGenerative AIPhishing

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar