A "ataque de canal lateral" exposta na zona cega de segurança da IA... A deteção baseada em regras já atingiu o limite?

robot
Geração de resumo em curso

A discussão sobre segurança de inteligência artificial (IA) concentra-se principalmente em erros de operação ou uso indevido de modelos. Mas há quem aponte que o problema mais urgente reside nas lacunas que os sistemas atuais de detecção “não veem”. Recentemente, o “ataque de canal lateral” tem sido bastante destacado como um exemplo clássico de como essas falhas de detecção ficam evidentes.

O ataque de canal lateral não é uma forma de invadir o código de software em si. Pelo contrário, é uma técnica que analisa sinais físicos, como consumo de energia, radiação eletromagnética, tempo de processamento, para roubar informações ou interferir na execução de programas. Mesmo informações sensíveis, como chaves de criptografia, podem ser obtidas medindo sinais que vazam incidentalmente do hardware.

De acordo com estudos recentes, observadores externos podem inferir o “tema” de uma interação de IA apenas analisando o padrão de tráfego criptografado. Não é necessário descriptografar ou verificar o conteúdo dos dados. Isso significa que, apenas com a estrutura, o intervalo de tempo e a sequência do tráfego, é possível revelar informações relevantes. O problema é que esses sinais estão fora do alcance das ferramentas de segurança atuais, que se concentram no conteúdo.

Limitações na detecção baseada em regras

Nos últimos 20 anos, a detecção de segurança sempre se baseou em “regras”. Assinaturas, limites, padrões conhecidos e linhas de base para detecção de anomalias sempre foram o núcleo da operação de segurança. A indústria não só introduziu regras mais sofisticadas, como também incorporou IA para torná-las mais rápidas.

No entanto, a detecção baseada em regras depende de “objetos comparáveis” para funcionar. É preciso haver vestígios conhecidos, desvios evidentes ou limites claros de violação para disparar alertas. Em contraste, ataques de canal lateral ou muitas técnicas de invasão mais recentes evitam esses pré-requisitos.

Se o atacante usar canais criptografados, ferramentas normais ou fluxos de trabalho assistidos por IA, cada ação individual pode parecer normal. Olhando apenas para cada passo, pode não haver sinais de anormalidade, mas ao conectar os eventos ao longo do tempo, padrões de ataque se tornam evidentes. Essa é a “lacuna na detecção”. Não é uma questão de alcance insuficiente, mas de limitações estruturais.

Ataques que até a IA pode deixar passar

A relevância prática dessa lacuna de detecção é simples. Mesmo que o atacante atue internamente, a equipe de segurança pode não receber nenhum sinal. Não há alertas de baixa confiabilidade, nem pistas para investigação.

O ataque de canal lateral é um exemplo clássico. Os dados existem, mas estão escondidos em diferenças de tempo, sequência e padrões de interação. As ferramentas atuais não são projetadas para interpretar esses sinais. Ataques lentos, chamados de “ataques de baixa velocidade”, ou o uso indevido de ferramentas de gerenciamento normais, além de ataques assistidos por IA que mudam de forma conforme o caminho de movimentação, também se enquadram nisso.

O problema é que, à medida que as empresas usam cada vez mais IA tanto na operação quanto na defesa, essas áreas de sombra se ampliam. No entanto, uma parte significativa do investimento em segurança ainda se concentra em lidar mais rápido e de forma mais eficiente com o que já pode ser capturado. Automatizar a geração de regras, classificar alertas e melhorar a análise são importantes, mas têm limitações contra ataques que não geram alertas desde o início.

Não basta olhar apenas para eventos isolados, é preciso entender “o comportamento”

Alguns especialistas defendem que, para reduzir essa lacuna, é necessário um método que interprete a “continuidade do comportamento” em vez de eventos isolados. Os sinais que a equipe de segurança precisa já existem. As relações entre sistemas, a sequência de ações, mudanças nos padrões de acesso e a evolução ao longo do tempo podem revelar intenções de ataque.

Por exemplo, quando um invasor tenta se espalhar internamente por canais criptografados, os vestígios não estão no conteúdo do tráfego, mas nas mudanças na forma de acesso. Embora ataques de canal lateral não exibam diretamente os dados, eles revelam a estrutura subjacente. Em última análise, o que importa não são eventos isolados, mas o fluxo e o contexto.

Por isso, a ideia de que apenas regras predefinidas ou condições manuais são insuficientes para suportar a próxima geração de sistemas de detecção torna-se cada vez mais convincente. É necessário aprender com dados operacionais estruturados ou até desenvolver modelos capazes de identificar padrões não previamente definidos. Ironicamente, métodos de deep learning que podem ser usados para ataques de canal lateral também podem ser utilizados para detectar esses padrões sutis de tráfego.

Mudanças nos padrões de investimento em segurança

Do ponto de vista do responsável pela segurança, a questão principal é clara: é preciso distinguir se o sistema de IA serve para tornar a detecção baseada em regras mais eficiente ou para detectar comportamentos que essas regras não conseguem expressar. Ambas as abordagens têm valor, mas resolvem problemas diferentes.

Para a maioria das organizações, o primeiro passo não é adicionar novas ferramentas, mas avaliar com calma o quão longe a estratégia atual de detecção realmente consegue chegar. Pequenas ações na fase de reconhecimento, expansão interna oculta ou atividades disfarçadas na operação normal são áreas onde as lacunas tendem a ser mais evidentes.

Reduzir essas lacunas não só acelera a resposta. Permite que a organização perceba mais cedo que “algo está errado”. Isso ajuda a diminuir o tempo de permanência do invasor no sistema, limitar o escopo do incidente e aumentar a probabilidade de tomar medidas defensivas antes que o atacante alcance seu objetivo. Além disso, melhora a compreensão do nível real de exposição ao risco.

Ataques de canal lateral não são apenas uma tecnologia nova, mas também revelam que, além das fronteiras que os sistemas tradicionais de segurança não conseguem explorar, há informações importantes. Em última análise, o problema não foi criado pela IA. Ela apenas torna mais clara a limitação de detecção que já existia, mas que antes permanecia oculta.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar