Considérations éthiques dans le déploiement de DeepSeek AI dans la fintech


Devin Partida est rédactrice en chef de ReHack. En tant qu’auteure, son travail a été présenté dans Inc., VentureBeat, Entrepreneur, Lifewire, The Muse, MakeUseOf et d’autres.


Découvrez les meilleures actualités et les meilleurs événements fintech !

Abonnez-vous à la newsletter de FinTech Weekly

Lue par des dirigeants chez JP Morgan, Coinbase, Blackrock, Klarna et plus


L’intelligence artificielle (IA) est l’une des technologies les plus prometteuses, mais aussi l’une des plus préoccupantes, dans le fintech aujourd’hui. Maintenant que DeepSeek a provoqué des ondes de choc dans tout l’écosystème IA, ses possibilités et ses pièges spécifiques exigent toute l’attention.

Alors que ChatGPT a popularisé l’IA générative dans le grand public en 2022, DeepSeek l’a portée à de nouveaux sommets avec le lancement de son modèle DeepSeek-R1 en 2025.

L’algorithme est open source et gratuit, mais il a atteint un niveau comparable à celui d’alternatives propriétaires payantes. En tant que tel, il constitue une opportunité commerciale tentante pour les entreprises fintech qui souhaitent tirer parti de l’IA, mais il soulève aussi certaines questions éthiques.


Lectures recommandées :

*   **Le modèle R1 de DeepSeek déclenche un débat sur l’avenir du développement de l’IA**
*   **Le modèle d’IA de DeepSeek : opportunité et risque pour les petites entreprises technologiques**

Confidentialité des données

Comme pour de nombreuses applications d’IA, la confidentialité des données est un sujet de préoccupation. Les grands modèles de langage (LLM) comme DeepSeek nécessitent une quantité substantielle d’informations, et dans un secteur comme le fintech, une grande partie de ces données peut être sensible.

DeepSeek a en plus la complication d’être une entreprise chinoise. Le gouvernement chinois peut accéder à toutes les informations présentes sur les centres de données détenus par des acteurs chinois ou demander des données aux entreprises situées dans le pays. Par conséquent, le modèle peut présenter des risques liés à l’espionnage et à la propagande étrangers.

Les fuites de données par des tiers constituent une autre source d’inquiétude. DeepSeek a déjà subi une fuite révélant plus d’1 million d’enregistrements, ce qui peut jeter un doute sur la sécurité des outils d’IA.

Biais de l’IA

Les modèles de machine learning comme DeepSeek sont sujets aux biais. Parce que les modèles d’IA sont si doués pour repérer et apprendre à partir de schémas subtils que les humains peuvent manquer, ils peuvent adopter des préjugés inconscients provenant de leurs données d’entraînement. En apprenant à partir de ces informations biaisées, ils peuvent perpétuer et aggraver les problèmes d’inégalités.

De telles craintes sont particulièrement présentes dans la finance. Comme les institutions financières ont historiquement refusé des opportunités aux minorités, une grande partie de leurs données historiques met en évidence des biais importants. En entraînant DeepSeek sur ces ensembles de données, on pourrait aboutir à des actions encore plus biaisées, comme le fait que l’IA refuse des prêts ou des hypothèques en fonction de l’ethnicité d’une personne plutôt que de sa solvabilité.

Confiance des consommateurs

Alors que les problèmes liés à l’IA ont envahi les gros titres, le grand public est devenu de plus en plus sceptique à l’égard de ces services. Cela peut entraîner une érosion de la confiance entre une entreprise fintech et sa clientèle s’il ne gère pas de manière transparente ces préoccupations.

DeepSeek pourrait rencontrer une barrière particulière ici. La société aurait construit son modèle pour seulement 6 millions de dollars et, en tant qu’entreprise chinoise en forte croissance, pourrait rappeler aux gens les inquiétudes liées à la confidentialité qui ont touché TikTok. Le public pourrait ne pas être enthousiaste à l’idée de confier ses données à un modèle d’IA à petit budget, développé rapidement, surtout lorsque le gouvernement chinois peut avoir une certaine influence.

Comment garantir un déploiement sûr et éthique de DeepSeek

Ces considérations éthiques ne signifient pas que les entreprises fintech ne peuvent pas utiliser DeepSeek en toute sécurité, mais elles soulignent l’importance d’une mise en œuvre rigoureuse. Les organisations peuvent déployer DeepSeek de manière éthique et sécurisée en respectant ces bonnes pratiques.

Exécuter DeepSeek sur des serveurs locaux

L’une des étapes les plus importantes consiste à exécuter l’outil d’IA sur des centres de données nationaux. Bien que DeepSeek soit une entreprise chinoise, les poids de son modèle sont open source, ce qui rend possible une exécution sur des serveurs américains et permet d’atténuer les inquiétudes concernant des fuites de confidentialité liées au gouvernement chinois.

Cependant, tous les centres de données ne se valent pas en termes de fiabilité. Idéalement, les entreprises fintech hébergeraient DeepSeek sur leur propre matériel. Lorsque ce n’est pas faisable, la direction devrait choisir un hébergeur avec soin, en ne s’associant qu’à ceux offrant des garanties élevées de disponibilité et des standards de sécurité tels que ISO 27001 et NIST 800-53.

Réduire l’accès aux données sensibles

Lors de la création d’une application basée sur DeepSeek, les entreprises fintech devraient réfléchir aux types de données auxquels le modèle peut accéder. L’IA ne devrait pouvoir accéder qu’à ce qui lui est nécessaire pour remplir sa fonction. Retirer des données accessibles toute information personnellement identifiable (PII) non nécessaire est également idéal.

Lorsque DeepSeek détient moins de détails sensibles, toute fuite aura moins d’impact. Réduire la collecte de PII est aussi essentiel pour rester conforme à des lois comme le General Data Protection Regulation (GDPR) et le Gramm-Leach-Bliley Act (GLBA).

Mettre en œuvre des contrôles de cybersécurité

Des réglementations comme le GDPR et le GLBA imposent également généralement des mesures de protection afin d’empêcher les fuites en premier lieu. Même en dehors d’une telle législation, l’historique de DeepSeek en matière de fuites met en évidence le besoin de mesures de sécurité supplémentaires.

Au minimum, les fintechs doivent chiffrer toutes les données accessibles par l’IA au repos et en transit. Des tests d’intrusion réguliers pour repérer et corriger les vulnérabilités sont également idéaux.

Les organisations fintech devraient aussi envisager une surveillance automatisée de leurs applications DeepSeek, car cette automatisation permet d’économiser en moyenne 2,2 millions de dollars de coûts liés aux fuites, grâce à des réponses plus rapides et plus efficaces.

Auditer et surveiller toutes les applications d’IA

Même après avoir suivi ces étapes, il est crucial de rester vigilant. Auditez l’application basée sur DeepSeek avant de la déployer pour rechercher des signes de biais ou de vulnérabilités de sécurité. Rappelez-vous que certains problèmes peuvent ne pas être visibles au premier abord, donc une revue continue est nécessaire.

Créez une équipe opérationnelle dédiée pour surveiller les résultats de la solution d’IA et veiller à ce qu’elle reste éthique et conforme à toute réglementation. Il est aussi préférable d’être transparent avec les clients à propos de cette pratique. La rassurance peut aider à instaurer la confiance dans un domaine par ailleurs discutable.

Les entreprises fintech doivent envisager l’éthique de l’IA

Les données fintech sont particulièrement sensibles, donc toutes les organisations de ce secteur doivent prendre au sérieux des outils dépendants des données comme l’IA. DeepSeek peut constituer une ressource commerciale prometteuse, mais seulement si son utilisation respecte des directives strictes en matière d’éthique et de sécurité.

Une fois que les dirigeants fintech auront compris la nécessité d’une telle prudence, ils pourront s’assurer que leurs investissements dans DeepSeek et leurs autres projets d’IA restent sûrs et équitables.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler