Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Considérations éthiques dans le déploiement de DeepSeek AI dans la fintech
Devin Partida est rédactrice en chef de ReHack. En tant que journaliste, ses articles ont été publiés dans Inc., VentureBeat, Entrepreneur, Lifewire, The Muse, MakeUseOf, et d’autres.
Découvrez les principales actualités et événements fintech !
Abonnez-vous à la newsletter de FinTech Weekly
Lue par des dirigeants de JP Morgan, Coinbase, Blackrock, Klarna et d’autres
L’intelligence artificielle (IA) est l’une des technologies les plus prometteuses mais aussi les plus préoccupantes dans le domaine de la fintech aujourd’hui. Après que DeepSeek a secoué le secteur de l’IA, ses possibilités et ses risques spécifiques méritent une attention particulière.
Alors que ChatGPT a popularisé l’IA générative en 2022, DeepSeek l’a portée à de nouveaux sommets avec le lancement de son modèle DeepSeek-R1 en 2025.
L’algorithme est open-source et gratuit, mais il a obtenu des performances similaires à celles d’alternatives propriétaires payantes. C’est donc une opportunité commerciale séduisante pour les fintech souhaitant capitaliser sur l’IA, mais cela soulève aussi des questions éthiques.
Lectures recommandées :
Protection des données
Comme pour de nombreuses applications d’IA, la protection des données est une préoccupation. Les grands modèles de langage (LLMs) comme DeepSeek nécessitent une quantité importante d’informations, et dans un secteur comme la fintech, une grande partie de ces données peut être sensible.
DeepSeek présente en plus la complication d’être une entreprise chinoise. Le gouvernement chinois peut accéder à toutes les informations des centres de données détenus par la Chine ou demander des données aux entreprises du pays. Par conséquent, le modèle peut comporter des risques liés à l’espionnage étranger et à la propagande.
Les violations de données par des tiers sont une autre préoccupation. DeepSeek a déjà subi une fuite exposant plus d’un million d’enregistrements, ce qui peut remettre en question la sécurité des outils d’IA.
Biais de l’IA
Les modèles d’apprentissage automatique comme DeepSeek sont sujets aux biais. Parce que l’IA est très habile à repérer et apprendre des motifs subtils que les humains pourraient manquer, elle peut adopter des préjugés inconscients issus de ses données d’entraînement. En apprenant à partir de ces informations biaisées, elle peut perpétuer et aggraver des inégalités.
Ces craintes sont particulièrement vives dans la finance. Parce que les institutions financières ont historiquement réservé des opportunités à certains groupes, leurs données historiques reflètent souvent des biais importants. En entraînant DeepSeek sur ces ensembles de données, on risque de voir apparaître des actions biaisées, comme un refus de prêt ou d’hypothèque basé sur l’origine ethnique plutôt que sur la solvabilité.
Confiance des consommateurs
Alors que les problématiques liées à l’IA font la une des journaux, le public devient de plus en plus méfiant à leur égard. Cela pourrait entraîner une perte de confiance entre une fintech et ses clients si ces dernières ne gèrent pas ces préoccupations de manière transparente.
DeepSeek pourrait rencontrer une barrière particulière. La société aurait construit son modèle pour seulement 6 millions de dollars et, en tant qu’entreprise chinoise en pleine croissance, pourrait rappeler aux gens les préoccupations de confidentialité qui ont affecté TikTok. Le public pourrait ne pas être enthousiaste à l’idée de faire confiance à un modèle d’IA à petit budget, développé rapidement, surtout si le gouvernement chinois peut exercer une certaine influence.
Comment assurer une utilisation sûre et éthique de DeepSeek
Ces considérations éthiques ne signifient pas que les fintech ne peuvent pas utiliser DeepSeek en toute sécurité, mais elles soulignent l’importance d’une mise en œuvre prudente. Les organisations peuvent déployer DeepSeek de manière éthique et sécurisée en suivant ces bonnes pratiques.
Exécuter DeepSeek sur des serveurs locaux
L’une des étapes clés consiste à faire fonctionner l’outil d’IA sur des centres de données nationaux. Bien que DeepSeek soit une entreprise chinoise, ses poids de modèle étant open-source, il est possible de l’exécuter sur des serveurs américains pour réduire les préoccupations liées aux violations de la vie privée par le gouvernement chinois.
Cependant, tous les centres de données ne sont pas également fiables. Idéalement, les fintech devraient héberger DeepSeek sur leur propre matériel. Si ce n’est pas possible, la direction doit choisir un hébergeur avec soin, en privilégiant ceux garantissant une haute disponibilité et des standards de sécurité tels que ISO 27001 et NIST 800-53.
Réduire l’accès aux données sensibles
Lors de la création d’une application basée sur DeepSeek, les fintech doivent réfléchir aux types de données auxquelles le modèle peut accéder. L’IA ne doit accéder qu’aux données nécessaires à sa fonction. Il est également conseillé de supprimer toute information personnellement identifiable (PII) non essentielle.
En limitant les détails sensibles accessibles, toute violation sera moins impactante. La réduction de la collecte de PII est aussi essentielle pour respecter des lois comme le Règlement général sur la protection des données (RGPD) et la loi Gramm-Leach-Bliley (GLBA).
Mettre en place des contrôles de cybersécurité
Les réglementations comme le RGPD et la GLBA imposent généralement des mesures de protection pour prévenir les violations. Même en dehors de ces lois, l’historique de DeepSeek en matière de fuites souligne la nécessité de renforcer la sécurité.
Au minimum, les fintech doivent chiffrer toutes les données accessibles à l’IA, tant au repos qu’en transit. La réalisation régulière de tests de pénétration pour détecter et corriger les vulnérabilités est également recommandée.
Les fintech devraient aussi envisager une surveillance automatisée de leurs applications DeepSeek, car cette automatisation permet d’économiser en moyenne 2,2 millions de dollars en coûts liés aux violations, grâce à des réponses plus rapides et efficaces.
Auditer et surveiller toutes les applications d’IA
Même après avoir suivi ces étapes, il est crucial de rester vigilant. Auditez l’application basée sur DeepSeek avant son déploiement pour détecter tout biais ou vulnérabilité. Il faut garder à l’esprit que certains problèmes peuvent ne pas être visibles au début, d’où la nécessité d’une surveillance continue.
Créez une équipe dédiée pour suivre les résultats de l’IA et garantir qu’elle reste éthique et conforme aux réglementations. Il est également conseillé d’être transparent avec les clients à ce sujet. Cette transparence peut renforcer la confiance dans un domaine souvent considéré comme douteux.
Les fintech doivent prendre en compte l’éthique de l’IA
Les données fintech étant particulièrement sensibles, toutes les organisations du secteur doivent traiter les outils dépendants des données comme l’IA avec sérieux. DeepSeek peut être une ressource commerciale prometteuse, mais uniquement si son utilisation respecte des principes stricts d’éthique et de sécurité.
Une fois que les leaders fintech auront compris l’importance de cette prudence, ils pourront garantir que leurs investissements dans DeepSeek et autres projets d’IA restent sûrs et équitables.