A Anthropic é um modelo não divulgado, que permitiu à equipa de investigação quebrar em cinco dias a defesa de hardware do chip M5, investida pela Apple durante cinco anos e com dezenas de milhões de dólares investidos.


Isto não é uma descoberta de vulnerabilidade comum. A equipa Calif utilizou o modelo Mythos Preview, construindo do zero uma cadeia de exploração de corrupção de memória do núcleo, num Mac equipado com M5, contornando diretamente o mecanismo mais recente da Apple, o MIE (Execução de Integridade de Memória). O ponto-chave é que: Mythos é especialista em generalizar tipos de vulnerabilidades conhecidas, localizar rapidamente falhas, e depois, com a ajuda de especialistas humanos, superar as defesas de hardware inovadoras.
Esta combinação — descoberta assistida por IA + exploração direcionada por humanos — está a reescrever a curva de eficiência na segurança ofensiva e defensiva. O que antes levava meses de engenharia reversa, agora é comprimido para cinco dias. A equipa de segurança de hardware da Apple pode estar a enfrentar uma pressão sem precedentes: o modelo tradicional de confiança baseado em isolamento de hardware, perante a exploração de vulnerabilidades assistida por IA, está a tornar-se difuso.
Para a indústria de criptografia, isto não é uma notícia distante de IA. As arquiteturas de segurança de protocolos DeFi, pontes cross-chain e plataformas de contratos inteligentes dependem, essencialmente, de hipóteses de confiança semelhantes em hardware/software. Se a defesa de hardware da Apple, com dezenas de milhões de dólares, pode ser quebrada por uma equipa assistida por IA em cinco dias, então os riscos das cadeias com orçamentos de segurança mais frágeis podem ser muito maiores do que se pensa.
O risco inverso é que: a narrativa pode exagerar as capacidades de ataque da IA, ignorando a contra-ataque dos defensores — as equipas de segurança também podem usar IA para acelerar o desenvolvimento de patches e a correção de vulnerabilidades. Ambos os lados do conflito estão a acelerar, mas, a curto prazo, os atacantes podem ter uma vantagem assimétrica, especialmente contra sistemas legados que não foram atualizados há muito tempo.
Isto não é motivo de pânico, mas deve servir como sinal para reavaliar a alocação do orçamento de segurança: a eficiência e o custo dos ataques assistidos por IA estão a diminuir, e as auditorias e monitorizações de segurança dos protocolos precisam de ser atualizadas em paralelo.
$ai #defi #Dados on-chain #ai #Blockchain
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixado