Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Considérations éthiques dans le déploiement de DeepSeek AI dans la fintech
Devin Partida est rédactrice en chef de ReHack. En tant qu’auteure, ses articles ont été publiés dans Inc., VentureBeat, Entrepreneur, Lifewire, The Muse, MakeUseOf et d’autres.
Découvrez les meilleures actualités et les événements fintech !
Abonnez-vous à la newsletter de FinTech Weekly
Lue par des dirigeants de JP Morgan, Coinbase, Blackrock, Klarna et plus
L’intelligence artificielle (IA) est l’une des technologies les plus prometteuses, mais aussi les plus préoccupantes, dans le fintech aujourd’hui. Maintenant que DeepSeek a envoyé des ondes de choc dans tout le secteur de l’IA, ses possibilités et ses pièges spécifiques exigent une attention particulière.
Alors que ChatGPT a fait passer l’IA générative dans le grand public en 2022, DeepSeek l’a portée à de nouveaux sommets avec le lancement de son modèle DeepSeek-R1 en 2025.
L’algorithme est open source et gratuit, mais il a fait ses preuves avec un niveau comparable à celui d’alternatives propriétaires payantes. En tant que tel, c’est une opportunité commerciale tentante pour les entreprises fintech qui souhaitent tirer parti de l’IA, mais cela soulève aussi certaines questions éthiques.
Lectures recommandées :
Confidentialité des données
Comme pour de nombreuses applications d’IA, la confidentialité des données est une source d’inquiétude. Les grands modèles de langage (LLM) comme DeepSeek nécessitent une quantité substantielle d’informations, et dans un secteur comme le fintech, une grande partie de ces données peut être sensible.
DeepSeek présente en plus une complication : c’est une entreprise chinoise. Le gouvernement chinois peut accéder à toutes les informations contenues dans des centres de données détenus par des acteurs chinois, ou demander des données aux entreprises situées dans le pays. Par conséquent, le modèle pourrait présenter des risques liés à l’espionnage étranger et à la propagande.
Les fuites de données par des tiers constituent une autre préoccupation. DeepSeek a déjà subi une fuite exposant plus d’1 million d’enregistrements, ce qui pourrait jeter le doute sur la sécurité des outils d’IA.
Biais de l’IA
Les modèles d’apprentissage automatique comme DeepSeek sont sujets aux biais. Comme les modèles d’IA sont extrêmement performants pour repérer et apprendre à partir de schémas subtils que les humains peuvent ne pas remarquer, ils peuvent adopter des préjugés inconscients issus de leurs données d’entraînement. En apprenant à partir de ces informations orientées, ils peuvent perpétuer et aggraver les problèmes d’inégalité.
Ces craintes sont particulièrement présentes dans la finance. Comme les institutions financières ont historiquement refusé des opportunités aux minorités, une grande partie de leurs données historiques présente un biais significatif. En entraînant DeepSeek sur ces jeux de données, on pourrait aboutir à des actions davantage biaisées, comme un système d’IA qui refuse des prêts ou des hypothèques en fonction de l’ethnicité d’une personne plutôt que de sa solvabilité.
Confiance des consommateurs
À mesure que les problèmes liés à l’IA ont envahi les titres, le grand public s’est montré de plus en plus sceptique à l’égard de ces services. Cela pourrait entraîner une érosion de la confiance entre une entreprise fintech et sa clientèle si l’entreprise ne gère pas ces préoccupations de manière transparente.
DeepSeek pourrait rencontrer ici un obstacle spécifique. La société aurait construit son modèle pour seulement 6 millions de dollars et, en tant qu’entreprise chinoise à forte croissance, elle pourrait rappeler aux gens les préoccupations en matière de confidentialité qui ont touché TikTok. Le public pourrait ne pas être enthousiaste à l’idée de confier ses données à un modèle d’IA à faible budget et développé rapidement, surtout lorsque le gouvernement chinois peut avoir une certaine influence.
Comment garantir un déploiement sûr et éthique de DeepSeek
Ces considérations éthiques ne signifient pas que les entreprises fintech ne peuvent pas utiliser DeepSeek en toute sécurité, mais elles soulignent l’importance d’une mise en œuvre soigneuse. Les organisations peuvent déployer DeepSeek de manière éthique et sécurisée en respectant ces bonnes pratiques.
Exécuter DeepSeek sur des serveurs locaux
Une des étapes les plus importantes consiste à exécuter l’outil d’IA sur des centres de données nationaux. Bien que DeepSeek soit une entreprise chinoise, ses pondérations de modèle sont open source, ce qui permet de le faire tourner sur des serveurs américains et d’atténuer les inquiétudes liées aux fuites de données en provenance du gouvernement chinois.
Toutefois, tous les centres de données ne se valent pas en termes de fiabilité. Idéalement, les entreprises fintech hébergeraient DeepSeek sur leur propre matériel. Lorsque ce n’est pas faisable, la direction doit choisir un hébergeur avec soin, en ne s’associant qu’à des acteurs offrant une garantie de disponibilité élevée et des standards de sécurité comme ISO 27001 et NIST 800-53.
Réduire l’accès aux données sensibles
Lors de la création d’une application basée sur DeepSeek, les entreprises fintech doivent réfléchir aux types de données auxquelles le modèle peut accéder. L’IA ne devrait pouvoir accéder qu’aux éléments dont elle a besoin pour accomplir sa fonction. Le fait d’effacer les données accessibles non nécessaires, notamment les informations personnellement identifiantes (PII), est également idéal.
Lorsque DeepSeek détient moins de détails sensibles, toute fuite aura moins d’impact. Réduire la collecte de PII est aussi essentiel pour rester conforme à des lois comme le Règlement général sur la protection des données (GDPR) et la loi Gramm-Leach-Bliley Act (GLBA).
Mettre en place des contrôles de cybersécurité
Des réglementations comme le GDPR et la GLBA exigent également généralement des mesures de protection pour empêcher les fuites dès le départ. Même en dehors d’une telle législation, l’historique de DeepSeek en matière de fuites met en évidence la nécessité de mesures de sécurité supplémentaires.
Au minimum, les fintechs doivent chiffrer toutes les données accessibles par l’IA, au repos et en transit. Des tests d’intrusion réguliers pour détecter et corriger les vulnérabilités sont aussi une bonne pratique.
Les organisations fintech devraient aussi envisager une surveillance automatisée de leurs applications DeepSeek, car cette automatisation permet en moyenne d’économiser 2,2 millions de dollars sur les coûts liés aux fuites, grâce à des réponses plus rapides et plus efficaces.
Auditer et surveiller toutes les applications d’IA
Même après avoir suivi ces étapes, il est crucial de rester vigilant. Audditez l’application basée sur DeepSeek avant de la déployer afin d’y chercher des signes de biais ou de vulnérabilités en matière de sécurité. Gardez à l’esprit que certains problèmes peuvent ne pas être visibles au premier abord, donc une revue continue est nécessaire.
Créez une équipe opérationnelle dédiée pour surveiller les résultats de la solution d’IA et vous assurer qu’elle reste éthique et conforme à toute réglementation. Il est aussi préférable d’être transparent avec les clients au sujet de cette pratique. L’assurance peut aider à instaurer la confiance dans un domaine par ailleurs discutable.
Les entreprises fintech doivent envisager l’éthique de l’IA
Les données fintech sont particulièrement sensibles, de sorte que toutes les organisations de ce secteur doivent prendre au sérieux les outils dépendant des données comme l’IA. DeepSeek peut constituer une ressource commerciale prometteuse, mais seulement si son utilisation respecte des lignes directrices strictes en matière d’éthique et de sécurité.
Une fois que les dirigeants fintech auront compris la nécessité de prendre ce type de précautions, ils pourront s’assurer que leurs investissements dans DeepSeek et leurs autres projets d’IA restent sûrs et équitables.