La couche de jugement : pourquoi l'IA n'est pas intelligente tant que les leaders ne le sont pas davantage

Guillermo Delgado Aparicio est le responsable mondial de l’IA chez Nisum.


Découvrez l’actualité et les événements fintech les plus importants !

Abonnez-vous à la newsletter FinTech Weekly

Lue par des dirigeants de JP Morgan, Coinbase, Blackrock, Klarna et plus encore


L’IA dans la fintech couvre un large éventail de cas d’usage, de la détection de fraude et du trading algorithmique à la notation de crédit dynamique et aux recommandations de produits personnalisées. Pourtant, un rapport de la Financial Conduct Authority a constaté que, parmi les 75% des entreprises qui utilisent l’IA, seules 34% savent comment elle fonctionne.

Le problème ne tient pas seulement à un manque de sensibilisation. Il s’agit d’une incompréhension profonde de la puissance et de la portée de l’analyse de données, la discipline à partir de laquelle l’IA émerge. L’adoption massive des outils d’IA générative a placé le sujet au niveau du comité de direction. Mais beaucoup de ceux qui choisissent comment déployer l’IA ne comprennent pas ses principes sous-jacents de calcul, de statistiques et d’algorithmes avancés.

Prenez la loi de Benford, un principe statistique simple qui signale la fraude en repérant des motifs dans les nombres. L’IA s’appuie sur la même sorte de mathématiques, mais à une échelle où elles sont appliquées simultanément à des millions de transactions. Enlevant le sensationnalisme, la base reste encore des statistiques et des algorithmes.

C’est pour cela que l’alphabétisation à l’IA au niveau C est importante. Les dirigeants qui ne peuvent pas distinguer où s’arrête l’analyse et où commence l’IA courent le risque de trop faire confiance à des systèmes qu’ils ne comprennent pas, ou de ne pas les utiliser par peur. Et l’histoire montre ce qui se produit lorsque les décideurs interprètent mal la technologie : les régulateurs ont déjà tenté d’interdire les appels IP internationaux, seulement pour constater que la technologie avait dépassé les règles. La même dynamique se joue avec l’IA. On ne peut pas l’empêcher ou l’adopter aveuglément ; il faut du jugement, du contexte et la capacité de la piloter de manière responsable.

Les dirigeants de la fintech doivent combler ces lacunes pour utiliser l’IA de façon responsable et efficace. Cela signifie comprendre où s’arrête l’analyse de données et où commence l’IA, développer les compétences pour piloter ces systèmes, et appliquer un jugement solide pour décider quand et comment faire confiance à ses résultats.

Les limites, angles morts et illusions de l’IA

L’analyse traite des données passées et présentes pour expliquer ce qui s’est produit et pourquoi. L’IA s’appuie sur cette base, en utilisant une analyse avancée pour prédire ce qui va se produire ensuite et, de plus en plus, pour décider ou agir automatiquement.

Grâce à ses compétences exceptionnelles de traitement des données, il est facile de comprendre pourquoi les dirigeants fintech voient l’IA comme leur solution magique. Mais elle ne peut pas résoudre tous les problèmes. Les humains conservent encore un avantage inné dans la reconnaissance de formes, surtout lorsque les données sont incomplètes ou « sales ». L’IA peut avoir du mal à interpréter les nuances contextuelles que les humains saisissent rapidement.

Pourtant, il serait une erreur de penser que des données imparfaites rendent l’IA inutile. Les modèles analytiques peuvent fonctionner avec des données incomplètes. Mais savoir quand déployer l’IA et quand s’appuyer sur le jugement humain pour combler les lacunes constitue le véritable défi. Sans cette supervision attentive, l’IA peut introduire des risques importants.

Un de ces problèmes est le biais. Lorsque les fintechs entraînent l’IA sur de vieilles bases de données, elles héritent souvent du « bagage » qui les accompagne. Par exemple, le prénom d’un client peut involontairement servir de proxy pour le genre, ou les indices suggérés par le nom de famille peuvent refléter l’origine ethnique, faussant ainsi les scores de crédit d’une manière que n’aucun régulateur n’aurait validée. Ces biais, facilement dissimulés dans les calculs, nécessitent souvent une supervision humaine pour les détecter et les corriger.

Lorsque les modèles d’IA sont exposés à des situations sur lesquelles ils n’ont pas été entraînés, cela peut provoquer un model drift. La volatilité des marchés, les changements réglementaires, l’évolution des comportements clients et les fluctuations macroéconomiques peuvent tous affecter l’efficacité d’un modèle sans surveillance humaine et recalibrage.

La difficulté de recalibrer les algorithmes augmente fortement lorsque les fintechs utilisent des « boîtes noires » qui ne permettent pas de voir la relation entre les variables. Dans ces conditions, elles perdent la possibilité de transférer cette connaissance aux décideurs de la direction. De plus, les erreurs et les biais restent cachés dans des modèles opaques, ce qui compromet la confiance et la conformité.

Ce que les dirigeants de la fintech doivent savoir

Une enquête Deloitte a révélé que 80% déclarent que leurs conseils ont peu ou pas d’expérience avec l’IA. Mais les dirigeants du C-suite ne peuvent pas se permettre de traiter l’IA comme un « problème d’équipe technique ». La responsabilité en matière d’IA incombe à la direction, ce qui signifie que les dirigeants de fintech doivent se perfectionner.

Maîtrise trans-analytique

Avant de déployer l’IA, les dirigeants fintech doivent être capables de changer de perspective : regarder les chiffres, le business case, les opérations et l’éthique, puis comprendre comment ces facteurs se recoupent et façonnent les résultats de l’IA. Ils doivent saisir comment la précision statistique d’un modèle se rapporte à l’exposition au risque de crédit. Et reconnaître quand une variable qui semble financièrement saine (comme l’historique de remboursement) peut introduire un risque social ou réglementaire via la corrélation avec une catégorie protégée, comme l’âge ou l’origine ethnique.

Cette aisance en IA vient du fait de travailler avec les responsables de la conformité pour décortiquer les réglementations, d’échanger avec les chefs de produit au sujet de l’expérience utilisateur, et d’examiner les résultats des modèles avec des data scientists pour détecter les signes de dérive ou de biais.

En fintech, éviter 100% des risques est impossible, mais grâce à cette maîtrise trans-analytique, les dirigeants peuvent identifier quels risques valent d’être pris et lesquels éroderont la valeur pour les actionnaires. Cette compétence renforce aussi la capacité d’un dirigeant à repérer et à agir sur les biais, pas seulement d’un point de vue conformité, mais aussi sur les plans stratégique et éthique.

Par exemple, supposons qu’un modèle de scoring de crédit alimenté par l’IA penche fortement en faveur d’un groupe de clients. Corriger ce déséquilibre n’est pas uniquement une tâche de science des données ; cela protège la réputation de l’entreprise. Pour les fintechs engagées dans l’inclusion financière ou soumises à un contrôle ESG, la conformité juridique seule ne suffit pas. Le jugement consiste à savoir ce qui est juste, pas seulement ce qui est autorisé.

Culture de l’explicabilité

L’explicabilité est la base de la confiance. Sans elle, les décideurs, les clients et les régulateurs se retrouvent à se demander pourquoi un modèle est parvenu à une conclusion donnée.

Cela signifie que les dirigeants doivent pouvoir distinguer les modèles interprétables de ceux qui nécessitent des explications a posteriori (comme les valeurs SHAP ou LIME). Ils doivent poser des questions lorsque la logique d’un modèle n’est pas claire et reconnaître quand « l’exactitude » à elle seule ne peut pas justifier une décision de « boîte noire ».

Les biais n’apparaissent pas de nulle part ; ils émergent lorsque des modèles sont entraînés et déployés sans une supervision suffisante. L’explicabilité donne aux dirigeants la visibilité nécessaire pour détecter ces problèmes tôt et agir avant qu’ils ne causent des dommages.

L’IA ressemble à l’autopilote dans un avion. La plupart du temps, tout se passe bien, mais lorsqu’une tempête arrive, le pilote doit reprendre les commandes. En finance, le même principe s’applique. Les équipes doivent être capables d’arrêter les transactions, d’ajuster une stratégie, ou même de couper le lancement d’un produit lorsque les conditions changent. L’explicabilité fonctionne de pair avec la capacité d’intervention (override readiness), qui garantit que les dirigeants du C-suite comprennent l’IA et restent aux commandes, même lorsqu’elle fonctionne à grande échelle.

Penser avec des modèles probabilistes

Les dirigeants sont habitués à des décisions déterministes : par exemple, si un score de crédit est inférieur à 650, refuser la demande. Mais l’IA ne fonctionne pas comme cela, et c’est un changement majeur de paradigme mental.

Pour les dirigeants, la pensée probabiliste exige trois compétences :

*   Interpréter des fourchettes de risque plutôt que des résultats binaires oui/non.
*   Pondérer le niveau de confiance d’une prédiction par rapport à d’autres considérations business ou réglementaires.
*   Savoir quand surpasser l’automatisation et appliquer le discernement humain.

Par exemple, un modèle probabiliste d’IA d’une fintech peut signaler un client comme présentant un risque élevé, mais cela ne signifie pas nécessairement « refuser ». Cela peut vouloir dire « enquêter davantage » ou « ajuster les conditions du prêt ». Sans cette nuance, l’automatisation risque de devenir un instrument trop grossier, érodant la confiance des clients tout en exposant les entreprises à un retour de bâton réglementaire.

Pourquoi la couche de jugement définira les gagnants de la fintech

L’avenir de la fintech ne sera pas décidé par ceux qui disposent des modèles d’IA les plus puissants ; il sera plutôt déterminé par ceux qui les utilisent avec le jugement le plus affûté. À mesure que l’IA se commoditise, les gains d’efficacité deviennent des prérequis. Ce qui distingue les gagnants, c’est la capacité d’intervenir lorsque les algorithmes se heurtent à l’incertitude, au risque et aux zones grises éthiques.

La couche de jugement n’est pas une idée abstraite. Elle apparaît lorsque les dirigeants décident de mettre en pause le trading automatisé, de retarder un lancement de produit, ou de passer outre un score de risque qui ne reflète pas le contexte réel. Ces moments ne sont pas des échecs de l’IA ; ils prouvent que la supervision humaine est la dernière ligne de création de valeur.

L’alignement stratégique est là où le jugement devient institutionnalisé. Une bonne stratégie IA ne se contente pas de définir des feuilles de route techniques ; elle garantit que l’organisation revoit les initiatives, renforce les équipes avec ses capacités d’IA, s’assure que l’entreprise dispose de l’architecture de données requise, et relie chaque déploiement à un résultat business clair. En ce sens, le jugement n’est pas ponctuel : il est intégré au mode opératoire et permet aux dirigeants d’adopter une approche de leadership fondée sur la valeur.

Les fintechs ont besoin de dirigeants capables d’équilibrer l’IA pour la vitesse et l’échelle, et les humains pour le contexte, les nuances et la vision à long terme. L’IA peut repérer des anomalies en quelques secondes, mais seuls des humains peuvent décider quand s’opposer aux calculs, revoir les hypothèses ou prendre un risque audacieux qui ouvre la voie à la croissance. C’est cette couche de jugement qui transforme l’IA d’un simple outil en un avantage.

À propos de l’auteur :

Guillermo Delgado est le responsable mondial de l’IA chez Nisum et le PDG de Deep Space Biology. Fort de plus de 25 ans d’expérience en biochimie, intelligence artificielle, biologie spatiale et entrepreneuriat, il développe des solutions innovantes pour le bien-être humain sur Terre et dans l’espace.

En tant que consultant en stratégie d’entreprise, il a contribué à la vision IA de la NASA pour la biologie spatiale et a reçu des prix d’innovation. Il est titulaire d’une maîtrise ès sciences en intelligence artificielle de Georgia Tech, obtenue avec distinction. En outre, en tant que professeur universitaire, il a enseigné des cours de machine learning, de big data et de science génomique.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler