L'IA en conformité n'est pas une boîte noire — c'est un test de responsabilité : Entretien avec Roman Eloshvili

Roman Eloshvili est le fondateur de ComplyControl, une start-up de détection de fraudes et de conformité alimentée par l’IA pour les institutions financières.


Découvrez les meilleures actualités et les événements fintech !

Abonnez-vous à la newsletter de FinTech Weekly

Lu par des dirigeants chez JP Morgan, Coinbase, Blackrock, Klarna et plus


Ce que l’IA en conformité teste réellement : la technologie, ou nous ?

Dans les services financiers, la conformité n’est plus seulement une fonction. C’est un point de pression actif—là où la réglementation, le risque et les opérations se rencontrent. À mesure que des technologies d’IA sont introduites dans cet espace, une question revient sans cesse : jusqu’où peut-on vraiment automatiser, et qui reste responsable lorsque les choses tournent mal ?

L’intérêt de l’IA pour la détection des fraudes et la conformité est facile à comprendre. Les institutions financières font face à des attentes croissantes pour traiter d’énormes volumes de données, répondre à des menaces en constante évolution et respecter des réglementations changeantes—sans jamais compromettre la vitesse ni la précision. L’automatisation, en particulier lorsqu’elle est pilotée par l’apprentissage automatique, offre un moyen de réduire la pression opérationnelle. Mais elle soulève aussi des inquiétudes plus profondes concernant la gouvernance, l’explicabilité et le contrôle.

Ces tensions ne sont pas théoriques. Elles se jouent en temps réel, tandis que des entreprises financières déploient des modèles d’IA dans des rôles traditionnellement occupés par des analystes humains. En coulisses, de nouveaux risques apparaissent : des faux positifs, des angles morts d’audit et des décisions algorithmiques qui restent opaques tant pour les utilisateurs que pour les régulateurs.

Dans le même temps, on demande aux professionnels de la conformité de changer de rôle. Au lieu d’inspecter manuellement chaque transaction, ils supervisent désormais les outils. Ce repositionnement—d’exécutant à évaluateur—nécessite non seulement de nouvelles compétences techniques, mais aussi une responsabilité éthique et procédurale renforcée. L’IA peut faire passer à grande échelle l’analyse des données. Elle peut signaler des incohérences. Mais elle ne peut pas entièrement expliquer l’intention, interpréter le contexte ou absorber la responsabilité.

Comprendre ces limites est essentiel. Et peu de personnes sont mieux placées pour les explorer que Roman Eloshvili, fondateur de l’entreprise britannique de technologie de conformité ComplyControl. Son travail se situe au croisement du risque, de l’automatisation et de la supervision—là où l’efficacité algorithmique rencontre l’examen réglementaire.

Avec plus d’une décennie dans le domaine, Roman a pu observer de première main comment les équipes de conformité évoluent et comment l’IA reconfigure à la fois leurs flux de travail et leurs responsabilités. Il soutient que la promesse de l’IA ne réside pas dans la suppression des rôles humains, mais dans leur transformation—en apportant une nouvelle clarté à ce que les machines doivent gérer, et à ce que les humains doivent encore assumer.

Ce changement exige davantage que des mises à niveau techniques. Il appelle un réalignement culturel autour de la responsabilité. Les systèmes transparents, les processus auditables et la responsabilité humaine clairement attribuée ne sont plus seulement des fonctionnalités—ce sont désormais la norme minimale. Lorsque l’IA est introduite dans des infrastructures critiques, elle ne se contente pas de résoudre des problèmes. Elle introduit une nouvelle catégorie de décisions qui requiert une gestion active et stratégique.

Dans cette conversation pour FinTech Weekly, Roman propose une vision concrète de ce qu’il faut pour intégrer l’IA de manière responsable dans la conformité et la prévention des fraudes. Son point de vue ne présente pas l’automatisation comme une fatalité, mais comme un choix—qui exige un jugement humain continu, une clarté opérationnelle et la volonté de poser des questions difficiles sur l’endroit où la confiance réside réellement.

Nous sommes heureux de partager ses analyses à un moment où beaucoup dans la fintech se demandent non pas s’il faut adopter l’IA—mais comment le faire sans perdre de vue les standards qui ont permis aux systèmes financiers de fonctionner du premier coup.


1. Vous avez bâti une carrière à l’intersection de la conformité et de la technologie. Pouvez-vous vous souvenir du moment où vous avez compris que l’IA pouvait changer fondamentalement la manière dont la gestion des risques est effectuée ?

Je ne dirais pas que tout a changé à partir d’un seul moment précis. Plutôt, il s’agissait d’un processus progressif, étalé dans le temps. J’ai passé une bonne partie de ma carrière à travailler avec de grandes banques européennes établies, et une chose que je n’ai cessé de remarquer, c’est que beaucoup d’entre elles étaient très en retard en ce qui concerne les solutions de banque digitale. Le contraste était particulièrement frappant par rapport à des pôles fintech plus avancés.

Il y a plusieurs années, lorsque le sujet du développement de l’IA a recommencé à s’intensifier, j’ai naturellement développé de la curiosité et j’ai commencé à m’y intéresser. Et en étudiant la technologie et son fonctionnement, j’ai réalisé que l’intelligence artificielle avait le potentiel de transformer radicalement la façon dont les banques gèrent leur conformité, en les rapprochant davantage des acteurs fintech modernes, plus agiles.

C’est ce qui m’a conduit à lancer ma société en 2023. La complexité de la conformité et de la gestion des risques ne fait que croître, année après année. Face à cette réalité, notre mission est simple : apporter des solutions alimentées par l’IA aux entreprises financières et les aider à faire face plus efficacement à ces défis grandissants.

2. D’un point de vue professionnel, comment le rôle des spécialistes humains a-t-il évolué à mesure que les outils d’IA sont devenus plus avancés dans la conformité et la détection des fraudes ?

Avant de dire quoi que ce soit, laissez-moi aborder une chose dès le départ. Il existe une inquiétude courante dans de nombreux domaines : l’IA va-t-elle remplacer les travailleurs humains ? Et en ce qui concerne les professionnels de la conformité et du risque, ma réponse est non—du moins, pas dans l’immédiat.

Bien que l’intelligence artificielle transforme déjà notre secteur, elle est loin d’être infaillible. Ainsi, l’implication humaine demeure un facteur essentiel. Les réglementations de conformité changent constamment, et quelqu’un doit pouvoir assumer la responsabilité lorsque les systèmes ne suivent pas, ou commettent des erreurs. À son niveau de développement actuel, l’IA a encore du mal à expliquer clairement ses décisions, donc elle n’est pas prête à être laissée seule. Surtout pas dans un domaine où la confiance et la transparence sont primordiales.

Cela dit, l’IA rend activement les processus de conformité plus faciles. Par exemple, selon la configuration, les systèmes d’IA peuvent désormais signaler des transactions suspectes ou même les bloquer temporairement tout en demandant une vérification supplémentaire. Il n’est pas nécessaire que des humains réels passent en revue chaque détail manuellement, sauf si quelque chose se démarque réellement comme étrange. Et à mesure que ces systèmes évoluent, ils continueront de réduire le besoin de travail manuel, permettant aux équipes de se concentrer davantage sur des tâches plus nuancées qui nécessitent vraiment une intervention humaine.

Je pense que nous allons voir l’essor d’un modèle hybride, où les experts en conformité deviendront eux aussi de plus en plus compétents pour utiliser les outils d’IA. Ils seront ceux qui mettront en place et assureront la maintenance des systèmes d’IA, tandis que l’IA elle-même simplifiera leur travail en donnant du sens à des données complexes et en fournissant des recommandations. Le jugement final, cependant, restera entre les mains des humains.

3. Lorsque vous travaillez avec de l’IA dans des domaines sensibles comme la conformité financière, comment avez-vous personnellement abordé le défi du maintien de la confiance et de la responsabilité dans la prise de décision ?

Bien sûr. Comme je l’ai déjà mentionné, lorsque vous utilisez l’IA en conformité, la confiance est cruciale.

C’est pourquoi nous avons conçu nos systèmes d’IA pour être entièrement transparents. Ils ne fonctionnent pas comme une “boîte noire”—chaque recommandation que le système fait repose sur des règles et des données traçables. Nous conservons une trace d’audit complète de la manière dont chaque décision est prise, afin qu’elle puisse être entièrement explicable. Cette pratique s’est déjà révélée extrêmement précieuse lorsqu’il s’agit de traiter avec des régulateurs.

L’appel final repose toujours sur l’agent de conformité. L’IA formule simplement une suggestion bien justifiée, que l’humain peut ensuite facilement vérifier et décider d’approuver ou de rejeter.

4. Votre expérience s’étend sur plus de 10 ans. Comment votre vision de l’automatisation et de la supervision humaine a-t-elle évolué tout au long de votre carrière, en particulier maintenant que l’IA devient plus autonome ?

Sans aucun doute. En parlant plus largement de l’état de l’adoption de l’IA, plus cette technologie progresse, plus l’autonomie que nous lui laissons augmente progressivement—à condition qu’elle soit soigneusement testée et qu’elle continue de prouver sa fiabilité.

Mais ce qui change encore davantage, c’est la place qu’occupe le spécialiste humain dans cette équation. Au lieu de microgérer chaque cas, les responsables de la conformité jouent de plus en plus le rôle de superviseurs stratégiques. Ils peuvent examiner rapidement des lots entiers de cas similaires, valider les performances du système et affiner les modèles en fonction des résultats.

En d’autres termes, le rôle de fait des responsables de conformité passe de l’exécution manuelle à la gestion des systèmes d’IA pendant que ceux-ci font le travail à leur place.

5. Travailler dans la gestion des risques pilotée par l’IA, c’est naviguer entre des questions éthiques complexes. Comment avez-vous personnellement développé un cadre pour faire des choix responsables lors de la conception ou de la mise en œuvre de solutions basées sur l’IA ?

Nous avons construit notre approche autour de deux idées clés : une supervision claire et les principes d’IA responsable. Chaque modèle que nous utilisons a une personne assignée qui en est responsable. Les évaluations des risques, les revues de performance et les contrôles de conformité sont tous effectués régulièrement.

Nous veillons aussi à ce que nos systèmes soient auditables. Si l’algorithme prend une décision, ce processus peut être examiné et vérifié. Cette transparence fait partie intégrante de notre engagement envers le développement d’une IA responsable.

6. Dans votre parcours, quelle a été la leçon professionnelle la plus difficile que vous avez apprise au sujet des limites—ou des risques—de s’appuyer trop fortement sur l’automatisation dans des domaines critiques comme la prévention des fraudes ?

Une leçon à garder absolument à l’esprit est que même des modèles bien entraînés peuvent encore “halluciner”—se tromper, dans des façons subtiles mais sérieuses.

L’IA peut manquer des stratagèmes de fraude complexes, ou déclencher trop d’alertes faussement positives. C’est exactement pourquoi il est si important de coupler l’IA à l’expertise humaine—les humains apportent avec eux un jugement fluide et sont mieux à même d’évaluer l’éthique et le contexte global d’une manière que l’IA n’est pas capable de faire.

L’équilibre entre ces deux promesses permet d’obtenir de meilleurs résultats, plus fiables. L’IA peut servir à couvrir l’énorme volume de tâches et à en réduire la complexité, tandis que les personnes sont, à leur tour, utilisées pour maintenir le niveau approprié de précision et de confiance.

7. Pour les jeunes professionnels qui entrent aujourd’hui dans la conformité, la gestion des risques ou le développement de l’IA, quelles principes ou habitudes personnelles leur conseilleriez-vous de cultiver pour réussir et s’adapter dans un environnement aussi rapidement changeant ?

D’abord et avant tout : ne jamais cesser d’apprendre. Les progrès technologiques n’ont pas de bouton “pause”, et vous devez suivre le rythme, sinon vous serez laissé pour compte. Il n’y a pas d’entre-deux ici.

Ensuite, pensez largement. Avec l’avancement de l’IA, les frontières entre les rôles s’estompent—la technologie, la finance et la réglementation deviennent un mélange. Je suis convaincu que disposer d’un large éventail de compétences et d’un esprit ouvert sera le trait déterminant des futurs professionnels du domaine.

Troisièmement—et comme suite naturelle aux deux précédents—soyez adaptable. Le changement est constant, et la capacité à ajuster rapidement sera un avantage majeur pour vous.

Et enfin, développez de solides compétences en communication et apprenez à être un joueur d’équipe. Comme nous l’avons déjà couvert, la conformité se trouve au croisement du business, de la technologie et du droit. Ainsi, être capable de changer de vitesse et de parler avec des personnes issues de tous ces mondes sera une compétence précieuse à acquérir.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler