Les "attaques par canal auxiliaire" révélées par les zones aveugles de sécurité de l'IA... La détection basée sur des règles a-t-elle atteint ses limites ?

robot
Création du résumé en cours

La plupart des discussions sur la sécurité de l’intelligence artificielle (IA) se concentrent sur les erreurs ou abus du modèle. Mais certains soulignent que le problème plus urgent réside dans ce que le système de détection actuel « ignore ». Le récent sujet très médiatisé des « attaques par canal latéral » est considéré comme un exemple typique de cette lacune dans la détection.

Les attaques par canal latéral ne consistent pas à compromettre directement le code logiciel. Au contraire, il s’agit d’une technique d’extraction d’informations ou de perturbation de l’exécution du programme en analysant des signaux physiques tels que la consommation électrique, les radiations électromagnétiques, ou le temps de traitement. Même des informations sensibles comme des clés de cryptage peuvent être obtenues en mesurant des signaux accidentellement divulgués par le matériel.

Selon des recherches récentes, un observateur externe peut déduire le « sujet » de l’interaction IA simplement en analysant le modèle de trafic crypté. Il n’est pas nécessaire de déchiffrer ou de voir le contenu des données. Cela signifie qu’il est possible de révéler des informations significatives uniquement à partir de la structure, des intervalles de temps et de l’ordre du trafic. Le problème est que ces signaux échappent à la vue des outils de sécurité actuels, centrés sur le contenu.

Les limites de la détection basée sur des règles

Depuis vingt ans, la sécurité repose principalement sur des « règles ». Signatures, seuils, modèles connus et détection d’anomalies ont été au cœur des opérations de sécurité. L’industrie a non seulement introduit davantage de règles et de règles plus sophistiquées, mais aussi intégré l’IA pour accélérer leur fonctionnement.

Cependant, la détection basée sur des règles nécessite en fin de compte un « objet de comparaison » pour fonctionner. Il faut des traces connues, des déviations évidentes ou des frontières claires pour déclencher une alerte. En revanche, de nombreuses techniques modernes, comme les attaques par canal latéral ou d’autres formes d’intrusion récentes, évitent ces prérequis.

Si un attaquant utilise un canal crypté, des outils normaux ou un flux de travail assisté par IA, chaque comportement individuel peut sembler normal. En se concentrant uniquement sur chaque étape, il n’y aura peut-être pas de signe d’alerte. Mais en reliant ces actions dans le temps, un motif d’attaque peut apparaître. C’est précisément cette « lacune de détection ». Il ne s’agit pas d’un manque de couverture, mais plutôt d’une limitation structurelle.

Des attaques que même l’IA pourrait manquer

La réalité de cette lacune est simple : même si l’attaquant opère en interne, l’équipe de sécurité peut ne recevoir aucun signal. Non seulement il n’y a pas d’alerte de faible crédibilité, mais il n’y a même pas de piste pour enquêter.

Les attaques par canal latéral en sont un exemple typique. Les données existent, mais elles sont dissimulées dans des différences de temps, d’ordre ou de mode d’interaction. Les outils actuels ne sont pas conçus pour interpréter ces signaux. Les intrusions lentes, dites « faibles et lentes », ou l’abus d’outils de gestion normaux, ainsi que les attaques assistées par IA qui changent de forme selon le parcours, en sont aussi des exemples.

Le problème est qu’à mesure que les entreprises utilisent de plus en plus l’IA dans leurs activités et leurs attaques, ces zones d’ombre s’élargissent. Pourtant, une partie importante des investissements en sécurité continue de se concentrer sur une gestion plus rapide et plus efficace des domaines déjà détectables. L’automatisation de la génération de règles, la classification des alertes ou l’amélioration de l’analyse ont leur valeur, mais restent limitées face à des attaques qui ne déclenchent pas d’alerte dès le départ.

Il faut regarder au-delà des événements, vers « le comportement »

Certains analyses estiment qu’il faut une nouvelle approche pour réduire cette lacune : une méthode capable d’interpréter la « continuité du comportement » plutôt que de se limiter à un seul événement. Les signaux dont disposent déjà les équipes de sécurité existent. La relation entre systèmes, l’ordre des actions, les changements dans les modes d’accès, ou l’évolution dans le temps peuvent tous révéler l’intention d’attaque.

Par exemple, lorsqu’un attaquant tente de se propager en interne via un canal crypté, la trace ne se trouve pas dans le contenu du trafic, mais dans la variation des modes d’accès. Bien que les attaques par canal latéral ne montrent pas directement les données, elles révèlent leur structure. En fin de compte, l’essentiel ne réside pas dans des événements isolés, mais dans le processus et le contexte.

C’est pourquoi l’idée que seule une détection basée sur des règles préétablies ou des conditions écrites manuellement ne suffit pas pour la prochaine génération de systèmes de détection devient de plus en plus convaincante. Il faut apprendre à partir de données opérationnelles structurées, voire développer des modèles capables de découvrir des motifs non définis à l’avance. Ironiquement, certains critiques soulignent que les méthodes d’apprentissage profond pouvant être utilisées pour des attaques par canal latéral peuvent aussi servir à détecter ces subtilités dans le trafic.

Les standards d’investissement en sécurité doivent aussi évoluer

Du point de vue d’un responsable de la sécurité, la question clé est claire : faut-il faire en sorte que le système basé sur des règles soit plus efficace, ou qu’il puisse détecter de nouvelles formes de comportements non exprimés par ces règles ? Les deux approches ont leur valeur, mais répondent à des enjeux différents.

Pour la majorité des organisations, la première étape n’est pas d’ajouter de nouveaux outils, mais de faire un bilan objectif de la portée réelle de leur stratégie de détection actuelle. Les petites actions lors de la phase de reconnaissance, la propagation discrète en interne, ou les activités dissimulées dans le fonctionnement normal sont des zones particulièrement susceptibles de laisser des lacunes importantes.

Réduire ces lacunes permet non seulement d’accélérer la réponse, mais aussi de faire prendre conscience plus tôt qu’un problème est survenu. Cela contribue à réduire la durée de séjour des attaquants dans le système, à limiter l’étendue des incidents, et à augmenter la probabilité de prendre des mesures défensives avant qu’ils n’atteignent leurs objectifs. Cela aide aussi les entreprises à mieux comprendre leur niveau réel d’exposition au risque.

Les attaques par canal latéral ne sont pas seulement une nouvelle technique, elles révèlent aussi qu’au-delà des frontières de la sécurité traditionnelle, il existe des informations importantes. En fin de compte, ce n’est pas l’IA qui a créé ce problème, mais elle a simplement rendu plus visible ses limites de détection jusque-là dissimulées.

TP AI Notes : Ce résumé a été réalisé à partir du modèle linguistique TokenPost.ai. Le contenu principal de l’article peut avoir été omis ou ne pas correspondre entièrement à la réalité.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler