Plongée approfondie : L'IA autonome pour combattre les crimes financiers

Le système financier mondial fait face à une crise structurelle. En 2025, l’activité financière illicite a explosé pour atteindre environ 4,4 trillions de dollars, soit une augmentation de 1,3 trillion de dollars en seulement deux ans. Ce taux de croissance annuel composé de 19,2 % indique que la criminalité financière ne fait pas que croître ; elle s’industrialise. Cette hausse signifie que les modèles de conformité traditionnels échouent. Les systèmes basés sur des règles et la revue manuelle par des humains sont mathématiquement incapables de suivre le rythme de l’IA adversariale.

L’industrie fonctionne actuellement dans un état d’inefficacité coûteuse. Les banques consacrent généralement 10 % à 15 % de leur effectif total aux activités de Connaissance Client (KYC) et de Lutte contre le Blanchiment d’Argent (LBA), mais elles ne détectent qu’environ 2 % des flux de criminalité financière mondiale. Cet écart entre dépenses opérationnelles et efficacité constitue le « piège de conformité ». Je crois que l’IA agentique est la seule stratégie de sortie crédible de ce piège.

L’IA agentique représente un passage d’une technologie « assistive » à une exécution « autonome ». Alors que l’IA générative (GenAI) résume les données et que l’IA analytique identifie des motifs, l’IA agentique a la capacité de planifier, d’exécuter et d’adapter des séquences d’actions pour atteindre un objectif précis. C’est la différence entre un chatbot qui écrit un résumé et un travailleur numérique qui enquête sur une affaire.

L’obsolescence des cadres sans code et basés sur des règles

Depuis une décennie, le « no-code » était la référence pour les opérations de gestion des risques. Il permettait aux équipes de conformité de créer des règles sans support d’ingénierie. Cependant, à mesure que le volume de criminalité augmentait, l’analyste devenait le goulot d’étranglement. En AML traditionnel, jusqu’à 95 % des alertes sont des faux positifs. La création d’un seul Rapport d’Activité Suspecte (RAS) peut prendre quatre jours ou plus.

Les outils no-code ne suffisent plus. La nécessité est désormais une Infrastructure de Risque basée sur l’IA. Cette infrastructure exécute tout le cycle de vie de la criminalité financière : détection du risque en temps réel, investigation complète des alertes, et production de dossiers conformes aux régulateurs. Le relancement de Unit21 en 2026 marque cette transition. Leur plateforme est passée d’un moteur de règles no-code à un système agentique où des agents IA ajustent la logique de détection et mènent des enquêtes sans que des analystes humains ne pilotent chaque étape.

Définition de l’IA agentique dans la gestion des risques

L’IA agentique désigne des systèmes qui agissent avec un certain degré d’autonomie vers des objectifs définis. Dans la lutte contre la criminalité financière, cela signifie que l’IA peut décider quelles sources de données interroger, comment interpréter des informations incohérentes, et quand escalader une affaire.

Comparaison des générations d’IA en conformité

Le potentiel de productivité de l’IA agentique est vingt fois supérieur à celui des praticiens humains. Je classe ces agents en équipes qui reflètent les rôles humains tout au long de la chaîne de valeur. Les agents Récupération-Augmentation de Génération (RAG) gèrent l’extraction de données à partir des états financiers et des documents de propriété bénéficiaire. Les agents de pipeline de données orchestrent les processus ETL et réalisent la résolution d’entités à travers des ensembles de données fragmentés. Les agents de recherche surveillent les tendances du marché et les schémas des contreparties, tandis que les agents de validation examinent les résultats pour garantir leur qualité.

Le flux de travail d’enquête IA

Lorsqu’une alerte entre en file d’attente, l’agent d’enquête IA suit un flux de travail structuré plutôt que de commencer à zéro.

  1. Collecte de signaux : L’agent récupère l’historique des transactions, le profil de l’entité, les scores de risque et les correspondances sur la liste de surveillance. Il navigue entre différents écrans pour assembler le contexte dont un analyste senior aurait besoin.

  2. Orchestration du flux de travail : L’agent suit des étapes modulaires configurées selon les procédures opérationnelles standard (SOP) de l’institution. Cela inclut la vérification de l’historique des alertes précédentes, la recherche OSINT, et la vérification des listes de sanctions.

  3. Assemblage des résultats : L’agent produit un dossier structuré contenant un récit écrit, des logs de preuves, et une disposition recommandée. La logique est explicite et traçable.

Le modèle « humain dans la boucle » reste la norme pour les décisions finales. Les analystes approuvent, modifient ou annulent le dossier de l’agent, garantissant la responsabilité humaine.

Ingénierie du contexte vs ingénierie des prompts

Le défi le plus difficile dans l’ingénierie de l’IA agentique n’est pas d’écrire de meilleurs prompts ; c’est l’ingénierie du contexte. Pour produire un récit d’enquête auditable, le modèle doit recevoir la preuve exacte appropriée sans surcharger sa fenêtre de contexte. Les LLMs (modèles de langage de grande taille) sont basés sur une architecture de transformeur, où chaque token s’attend à tous les autres, ce qui crée des relations en n2. Cela entraîne une pénurie d’attention à mesure que la longueur du contexte augmente.

Une ingénierie efficace du contexte consiste à sélectionner des tokens à fort signal pour maximiser la probabilité d’un résultat souhaité. Par exemple, Unit21 exploite leur riche ensemble de données provenant de 7 ans de revues humaines pour déterminer le contexte optimal nécessaire à l’accomplissement de tâches spécifiques. Ces tâches sont ensuite évaluées par rapport à des enquêtes humaines historiques, réalisées par des analystes performants, pour garantir leur exactitude, cohérence et efficacité.

L’évaluation se fait via des architectures « LLM en tant que juge ». Un modèle secondaire, plus performant, évalue la qualité de la sortie du premier agent, créant une couche d’auto-contrôle qui signale les incohérences avant qu’elles n’atteignent un examinateur humain. Cela est complété par une validation des citations, où le système vérifie que les affirmations de l’agent sont basées sur des données récupérées plutôt que sur des inférences du modèle.

Le flux de travail d’enquête IA

Lorsqu’une alerte entre en file d’attente, l’agent d’enquête IA suit un flux de travail structuré plutôt que de commencer à zéro.

  1. Collecte de signaux : L’agent récupère l’historique des transactions, le profil de l’entité, les scores de risque et les correspondances sur la liste de surveillance. Il navigue entre différents écrans pour assembler le contexte dont un analyste senior aurait besoin.

  2. Orchestration du flux de travail : L’agent suit des étapes modulaires configurées selon les procédures opérationnelles standard (SOP) de l’institution. Cela inclut la vérification de l’historique des alertes précédentes, la recherche OSINT, et la vérification des listes de sanctions.

  3. Assemblage des résultats : L’agent produit un dossier structuré contenant un récit écrit, des logs de preuves, et une disposition recommandée. La logique est explicite et traçable.

Le modèle « humain dans la boucle » reste la norme pour les décisions finales. Les analystes approuvent, modifient ou annulent le dossier de l’agent, garantissant la responsabilité humaine.

Les trois modes d’échec des agents IA

La plupart des premières déploiements d’agents IA échouent à cause de mauvaises barrières de sécurité plutôt que de modèles faibles.

Sardine

  1. L’enquêteur hallucinateur : Cela se produit lorsque les équipes fournissent trop de contexte et des prompts ouverts. Dans des environnements adverses, le modèle comble les lacunes de données par des récits plausibles mais incorrects. La solution consiste à utiliser des « agents atomiques » avec des limites de décision étroites.

  2. L’agent trop suspicieux : Une formation basée sur des motifs sans ancrage contextuel conduit à une escalade excessive. Par exemple, signaler des paiements à haute valeur entre comptes internes liés comme « stratification ». Des questions d’ancrage doivent être intégrées à la logique de l’agent pour éviter des conclusions automatiques de fraude.

  3. L’agent boîte noire : Produire des conclusions non défendables auprès des régulateurs. Des résultats précis sans chaîne de preuves constituent une responsabilité. Les agents doivent extraire les données de manière déterministe et se concentrer sur une documentation structurée.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler