Le dilemme de la conformité de l'IA : la confiance appartient toujours aux humains

Roman Eloshvili est un fondateur et directeur général de XData Group, une entreprise de développement de logiciels B2B. Là, il dirige le développement de l’IA dans le secteur bancaire tout en naviguant dans les relations avec les investisseurs et en favorisant la scalabilité des affaires. Il est également le fondateur de ComplyControl, une startup RegTech basée au Royaume-Uni spécialisée dans des solutions technologiques de pointe pour les banques.


Découvrez les meilleures actualités et événements fintech !

Abonnez-vous à la newsletter de FinTech Weekly

Lue par des dirigeants de JP Morgan, Coinbase, Blackrock, Klarna et plus encore


Les banques et les fintechs du monde entier cherchent des moyens d’utiliser l’intelligence artificielle de plusieurs manières : pour accélérer les opérations, réduire les coûts, améliorer les interactions avec les clients, et plus encore. Pourtant, en ce qui concerne la conformité — probablement l’un des aspects les plus exigeants et chronophages de la finance — la plupart des entreprises sont encore en retrait.

Une enquête menée plus tôt en 2025 a révélé qu’une infime fraction des entreprises (moins de 2 %) a en réalité pleinement intégré l’IA dans ses flux de travail. La plupart d’entre elles, cependant, en sont encore aux premières étapes d’exploration et d’adoption. Si tant est qu’elles l’adoptent un jour.

La pression sur les entreprises pour suivre les changements réglementaires est toujours très présente et en augmentation. Alors pourquoi la conformité est-elle si lente à adopter l’IA alors qu’elle pourrait être d’une grande aide ?

Essayons de le comprendre.

L’œil humain pour les choses compte encore

Probablement la première et la plus importante chose à garder à l’esprit ici est que la conformité ne concerne pas seulement le suivi d’une liste de contrôle. Il s’agit de prendre des décisions de jugement dans des situations qui tombent souvent dans des zones grises. Le monde des décisions financières n’est que rarement noir et blanc. Les réglementations diffèrent selon les juridictions, et l’interprétation de ces règles est rarement simple.

L’IA est brillante pour traiter des données à la vitesse de l’éclair et repérer des anomalies. Mais bien qu’elle puisse signaler une transaction qui semble suspecte sur la base de modèles préétablis, cela ne signifie pas qu’elle peut clairement expliquer le “pourquoi” de ses conclusions. Plus important encore, elle a du mal avec les nuances. Un responsable de la conformité humain peut détecter lorsque le comportement d’un client, bien que inhabituel, est inoffensif. L’IA, en revanche, est beaucoup plus susceptible de simplement tirer la sonnette d’alarme sans contexte.

C’est pourquoi les dirigeants de la conformité hésitent à remettre les rênes ici. Les machines peuvent certainement être utiles, mais la plupart des gens sont encore beaucoup plus susceptibles de faire confiance à la capacité d’un humain à voir l’ensemble et à juger en conséquence.

Efficacité vs. Risques réglementaires et réputationnels

La capacité d’une IA à analyser des milliers de transactions en temps réel est quelque chose qu’aucune équipe de conformité ne pourrait jamais égaler en mode manuel. Donc, en termes d’efficacité, personne ne peut argumenter qu’il s’agit d’un excellent outil de soutien, capable de réduire la charge de travail afin que le personnel humain puisse se concentrer sur des tâches plus stratégiques et nuancées.

Mais la conformité n’est pas un domaine où la vitesse seule l’emporte. Si un système d’IA commet une erreur de jugement, cela pourrait signifier des amendes, des dommages à la réputation ou un examen réglementaire. Toutes ces choses peuvent être très nuisibles pour une entreprise — voire même destructrices. Alors, est-il surprenant que beaucoup souhaitent éviter d’inviter de telles complications sur leurs têtes ?

La plupart des régulateurs conviennent également que, lorsqu’il s’agit de prise de décision basée sur l’IA, quelqu’un doit rester responsable. Si un modèle d’IA bloque par erreur une transaction légitime ou néglige une transaction frauduleuse, la responsabilité incombe néanmoins à l’entreprise. Et ce sont les agents de conformité humains qui doivent assumer cette responsabilité.

Cela crée un sentiment naturel de prudence : les dirigeants de la conformité doivent évaluer les avantages d’une surveillance plus rapide par rapport aux risques de pénalités réglementaires potentielles. Et jusqu’à ce que les systèmes d’IA deviennent plus explicables et transparents, il est probable que de nombreuses entreprises seront réticentes à les laisser prendre des décisions autonomes.

Comment avancer avec l’adoption de l’IA de manière responsable

Une leçon très importante à tirer de tout ce qui précède est que l’hésitation des dirigeants de la conformité ne signifie pas qu’ils sont anti-IA. En fait, beaucoup sont optimistes quant au rôle de l’IA dans l’avenir. L’important est de trouver la bonne voie à suivre.

À mon avis, le parcours le plus naturel et prometteur qui s’offre à nous est d’adopter un modèle hybride. Une collaboration entre humains et IA, où l’intelligence artificielle effectue le gros du travail — en scannant les transactions, en signalant les activités inhabituelles ou en générant des rapports. Et lorsque les résultats finaux sont prêts, les humains peuvent alors les examiner, interpréter le contexte des décisions de l’IA et prendre la décision finale.

Mais pour prescrire un tel modèle, les entreprises devront s’assurer que leurs systèmes d’IA sont explicables. La conformité ne concerne pas seulement la détection des risques ; il s’agit de prouver que les décisions sont équitables. C’est pourquoi le marché a besoin de plus d’outils d’IA capables d’expliquer leurs résultats en termes simples.

Il ne s’agit pas de “l’homme contre la machine”

De manière réaliste, je ne vois pas l’IA rendre les agents de conformité obsolètes. Il est beaucoup plus probable que leurs rôles vont changer — de réalisateurs à gestionnaires. Les agents passeront moins de temps à effectuer des vérifications eux-mêmes et à la place double-vérifier les décisions de l’IA, traitant les zones grises où les machines échouent encore.

Au fond, la conformité est un métier humain. Et bien que l’IA puisse rendre les équipes de conformité plus rapides et plus efficaces, elle ne peut pas assumer la responsabilité morale et réglementaire qui en découle.

C’est pourquoi je suis fermement convaincu que l’avenir de la conformité sera moins axé sur “l’homme contre la machine” et plus sur “l’homme avec la machine” — travaillant ensemble pour garder les systèmes financiers sûrs et équitables.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler