Le dilemme de la conformité à l'IA : la confiance appartient toujours aux humains

Roman Eloshvili est fondateur et directeur général du groupe XData, une société de développement de logiciels B2B. Il y dirige le développement de l’IA dans le secteur bancaire tout en gérant les relations avec les investisseurs et en favorisant la croissance des affaires. Il est également le fondateur de ComplyControl, une startup RegTech basée au Royaume-Uni spécialisée dans des solutions technologiques de pointe pour les banques.


Découvrez les principales actualités et événements fintech !

Abonnez-vous à la newsletter de FinTech Weekly

Lue par des dirigeants de JP Morgan, Coinbase, Blackrock, Klarna et d’autres


Les banques et fintechs du monde entier cherchent des moyens d’utiliser l’intelligence artificielle de diverses façons : accélérer les opérations, réduire les coûts, améliorer les interactions avec les clients, et plus encore. Et pourtant, en ce qui concerne la conformité — l’une des parties les plus exigeantes et chronophages de la finance — la plupart des entreprises hésitent encore.

Une enquête menée début 2025 a révélé qu’une très petite fraction des entreprises (moins de 2 %) ont réellement intégré l’IA dans leurs flux de travail. La majorité d’entre elles restent cependant en phase d’exploration et d’adoption précoce. Si elles l’adoptent vraiment.

La pression sur les entreprises pour suivre les changements réglementaires est toujours très présente, et elle ne cesse de croître. Alors pourquoi la conformité est-elle si lente à adopter l’IA alors qu’elle pourrait être d’une grande aide ?

Essayons de comprendre.

L’œil humain pour les choses reste important

La première et la plus importante chose à garder à l’esprit ici est que la conformité ne se limite pas à suivre une liste de contrôle. Il s’agit de faire des jugements dans des situations qui tombent souvent dans des zones grises. Le monde des décisions financières est rarement tout noir ou blanc. Les réglementations diffèrent selon les juridictions, et l’interprétation de ces règles est rarement simple.

L’IA est brillante pour analyser des données à la vitesse de l’éclair et repérer les anomalies. Mais si elle peut signaler une transaction suspecte selon des modèles préétablis, cela ne signifie pas qu’elle peut expliquer clairement le « pourquoi » derrière ses conclusions. Plus important encore, elle a du mal avec la nuance. Un agent de conformité humain peut détecter quand le comportement d’un client, bien que inhabituel, est inoffensif. L’IA, quant à elle, est beaucoup plus susceptible de simplement déclencher une alarme sans contexte.

C’est pourquoi les responsables de la conformité hésitent à leur confier la gestion. Les machines peuvent certainement aider, mais la majorité des gens font encore davantage confiance à la capacité d’un humain à voir la situation dans son ensemble et à juger en conséquence.

Efficacité vs. Risques réglementaires et réputationnels

La capacité d’une IA à analyser des milliers de transactions en temps réel est quelque chose qu’aucune équipe de conformité ne pourrait égaler en mode manuel. Sur le plan de l’efficacité, personne ne peut nier que c’est un excellent outil de soutien, capable de réduire la charge de travail pour que le personnel humain se concentre sur des tâches plus stratégiques et nuancées.

Mais la conformité n’est pas un domaine où la vitesse seule suffit. Si un système d’IA commet une erreur de jugement, cela peut entraîner des amendes, des dommages à la réputation ou une surveillance réglementaire accrue. Tous ces éléments peuvent être très nuisibles à une entreprise — voire destructeurs. Est-il donc surprenant que beaucoup veuillent éviter d’attirer de telles complications ?

La plupart des régulateurs conviennent également que, lorsqu’il s’agit de décisions basées sur l’IA, quelqu’un doit rester responsable. Si un modèle d’IA bloque à tort une transaction légitime ou en ignore une frauduleuse, la responsabilité revient en fin de compte à l’entreprise. Et ce sont les agents de conformité humains qui doivent assumer cette responsabilité.

Cela crée une prudence naturelle : les responsables de la conformité doivent peser les bénéfices d’une surveillance plus rapide contre les risques de pénalités réglementaires possibles. Et tant que les systèmes d’IA ne seront pas plus explicables et transparents, il est probable que de nombreuses entreprises hésiteront à leur confier des décisions autonomes.

Comment adopter l’IA de manière responsable

Une leçon très importante à tirer de tout ce qui précède est que l’hésitation des responsables de la conformité ne signifie pas qu’ils sont anti-IA. En fait, beaucoup sont optimistes quant au rôle futur de l’IA. L’essentiel est de trouver la bonne voie.

Selon moi, la voie la plus naturelle et prometteuse consiste à adopter un modèle hybride. Une collaboration entre humains et IA, où l’intelligence artificielle effectue le travail lourd — scanner les transactions, signaler les activités inhabituelles ou générer des rapports. Et lorsque les résultats sont prêts, les humains peuvent les examiner, interpréter le contexte des décisions de l’IA, et prendre la décision finale.

Mais pour pouvoir appliquer un tel modèle, les entreprises devront s’assurer que leurs systèmes d’IA sont explicables. La conformité ne consiste pas seulement à détecter les risques ; il s’agit de prouver que les décisions sont justes. C’est pourquoi le marché a besoin de plus d’outils d’IA capables d’expliquer leurs résultats en termes simples.

Ce n’est pas une question de « homme contre machine »

Réalistement, je ne vois pas l’IA rendre les agents de conformité obsolètes. Il est beaucoup plus probable que leurs rôles évoluent — passant de simples vérificateurs à gestionnaires. Ils passeront moins de temps à effectuer eux-mêmes des contrôles et se concentreront davantage à vérifier les décisions de l’IA, en traitant les zones grises où les machines sont encore insuffisantes.

Au fond, la conformité est une affaire humaine. Et si l’IA peut rendre les équipes de conformité plus rapides et plus efficaces, elle ne peut pas assumer la responsabilité morale et réglementaire qui l’accompagne.

C’est pourquoi je suis fermement convaincu que l’avenir de la conformité sera moins une opposition « homme contre machine » et plus une collaboration « homme avec machine » — travaillant ensemble pour maintenir la sécurité et l’équité des systèmes financiers.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler