Pourquoi un Cadre Vivant est au Cœur de la Propulsion de l'Innovation dans la Fintech

Imran Aftab, cofondateur et PDG de 10Pearls.


Découvrez les principales actualités et événements fintech !

Abonnez-vous à l’infolettre de FinTech Weekly

Lue par des dirigeants de JP Morgan, Coinbase, Blackrock, Klarna et plus


La finance a toujours été un moteur de l’innovation numérique, et la vague récente d’IA ne fait pas exception. En tant qu’industrie soumise à une pression croissante pour offrir à ses clients des expériences numériques plus rapides, plus personnalisées et plus efficaces, l’intégration de technologies de pointe n’est pas négociable.

À mesure que les fintechs dépassent l’expérimentation de l’IA pour l’intégrer à leurs stratégies centrales, la question n’est pas de savoir quelle valeur l’IA apporte, mais comment elle est encadrée dans le temps. Sans principes directeurs clairs intégrés dans un cadre central, les fintechs rencontreront rapidement des risques du point de vue de la réputation, de la réglementation et de la sécurité.

Un cadre vivant couvre non seulement tous les aspects, mais le fait tout en suivant l’évolution des stratégies. Il propulse, plutôt qu’il ne freine, l’innovation—sans compromettre les fintechs dans le processus.

Trouver le juste équilibre entre équité et exactitude

La numérisation rapide des services financiers crée aussi davantage d’occasions de fraude potentielle et d’attaques en cybersécurité. Toutefois, l’IA non encadrée tombe souvent dans les hallucinations et les biais—ce qui signifie que les titulaires de compte peuvent être signalés à tort par les systèmes mêmes conçus pour les protéger.

Les fintechs doivent s’assurer que les systèmes d’IA fonctionnent de manière cohérente et répondent aux exigences de performance. Une mauvaise gestion des données est un pilier de l’IA non encadrée, qui dérape et entraîne des conséquences désastreuses. Il ne s’agit pas simplement d’agir en temps réel, mais de le faire avec exactitude et équité. Lorsque les données qui alimentent ces systèmes ne sont pas gérées correctement, le déploiement est voué à l’échec.

Prenons le cas d’un système d’IA alimenté par des données mal gérées et faussées qui ont, à tort, signalé une transaction légitime et de grande valeur comme étant une fraude sur la base du code postal du titulaire du compte. Certains profils démographiques sont ciblés sur la base de données historiques inexactes, ce qui ne fait que renforcer les biais contre des individus ou des groupes. La discrimination nuit non seulement à la confiance et aux relations, mais a aussi des répercussions à long terme sur la réputation d’une institution, en particulier lorsqu’elle enfreint directement les lois de protection des consommateurs. Les fintechs ont une obligation légale d’utiliser des données de manière équitable et sécurisée tout au long du cycle de vie d’un système d’IA, et ce ne sont pas les outils qui sont en question lorsque des écarts surviennent, mais les équipes qui les utilisent.

Les conséquences s’aggravent au-delà. Ces scénarios créent une charge supplémentaire pour les équipes, qui doivent alors intervenir, gaspillant un temps et une main-d’œuvre précieuses. Surtout, ils révèlent aussi des lacunes sérieuses dans la base existante. Les données non maîtrisées sont un point faible dans le tissu numérique d’une fintech, ce qui la rend vulnérable à de véritables menaces de fraude et de cybersécurité.

Un cadre de gouvernance vivant contrecarre ces risques car il impose une surveillance continue, des tests et une recalibration des modèles d’IA. Cela permet aux fournisseurs financiers de maximiser, de façon constante, la robustesse de leur sécurité, tout en évaluant et mettant régulièrement à jour les systèmes à mesure que les données et les risques évoluent. Dans le même temps, les biais sont éliminés, laissant place à l’équité et à l’exactitude partout.

Garantir l’explicabilité et la transparence

Les fintechs qui suivent un cadre vivant empêchent l’IA de fonctionner comme une boîte noire, dont les mécanismes internes restent un mystère tant pour les équipes que pour les utilisateurs. Les titulaires de compte, le personnel et les organismes de réglementation ont besoin d’être rassurés grâce à l’explicabilité et à la transparence entourant toute technologie intégrée.

Éliminer les biais exige de comprendre comment et pourquoi un outil d’IA a abouti à une décision. Les systèmes d’IA sont désormais utilisés dans des processus comme la notation de crédit, mais malheureusement, ils ne sont pas à l’abri des biais. Les conséquences en sont graves : discrimination, en particulier à l’encontre des groupes minoritaires, à qui l’on refuse de manière disproportionnée des prêts à cause d’une IA défaillante. Des réglementations comme celles du CFPB et les lois sur le Fair Lending exigent l’explicabilité et la traçabilité des outils d’IA utilisés dans les services financiers. Elles exigent aussi que les biais soient retirés de l’équation.

Dans un modèle de gouvernance vivant, l’explicabilité et la traçabilité sont intégrées à chaque cas d’usage et à chaque flux de travail :

*   Les sources et destinations des données sont clairement consignées. 
*   Tous les changements de modèle, tests et observations sont enregistrés.
*   La logique de décision est communiquée de sorte que les régulateurs et les clients, et pas seulement les opérateurs, comprennent comment et pourquoi un système d’IA est parvenu à une recommandation ou à une action.

Garantir la conformité AML

Les institutions financières se tournent vers l’automatisation et l’IA pour surveiller les transactions et activités suspectes dans le cadre de systèmes de lutte contre le blanchiment d’argent. Cependant, lorsque l’IA n’est pas correctement supervisée ou gérée, deux problèmes se posent :

*   Faux positifs : des transactions légitimes sont signalées à tort, ce qui conduit à des clients frustrés et à un gaspillage de ressources humaines précieuses.
*   Faux négatifs : de vraies menaces passent inaperçues, mettant en danger des ensembles de données entiers et des systèmes numériques, exposant la réputation de l’organisation, et détruisant la confiance.

Avec une approche de gouvernance comme garde-fous, ces risques sont réduits au minimum grâce à des données bien gérées, transparentes et auditables. Des alertes claires sont aussi intégrées avec des informations exploitables immédiatement pour garantir une intervention rapide lorsque c’est nécessaire.

À mesure que les solutions d’IA continuent d’évoluer, des cadres vivants et adaptables deviennent de plus en plus nécessaires. Ils protègent non seulement les institutions et les individus contre les risques potentiels liés à l’implication de l’IA, mais offrent aussi aux fintechs un avantage concurrentiel significatif. Ces cadres leur donnent les moyens de renforcer la confiance et de rehausser leur réputation en fournissant une gouvernance responsable, l’équité et la transparence, tout en assurant la fiabilité et la performance.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler