Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Considérations éthiques dans le déploiement de DeepSeek AI dans la fintech
Devin Partida est rédactrice en chef de ReHack. En tant que journaliste, ses articles ont été publiés dans Inc., VentureBeat, Entrepreneur, Lifewire, The Muse, MakeUseOf, et d’autres.
Découvrez les principales actualités et événements fintech !
Abonnez-vous à la newsletter de FinTech Weekly
Lue par des dirigeants de JP Morgan, Coinbase, Blackrock, Klarna et d’autres
L’intelligence artificielle (IA) est l’une des technologies les plus prometteuses mais aussi les plus préoccupantes dans le fintech aujourd’hui. Après que DeepSeek a secoué le secteur de l’IA, ses possibilités et ses risques spécifiques méritent une attention particulière.
Alors que ChatGPT a popularisé l’IA générative en 2022, DeepSeek l’a portée à de nouveaux sommets avec le lancement de son modèle DeepSeek-R1 en 2025.
L’algorithme est open-source et gratuit, mais il a obtenu des performances similaires à celles d’alternatives propriétaires payantes. C’est donc une opportunité commerciale attrayante pour les fintech souhaitant capitaliser sur l’IA, mais cela soulève aussi des questions éthiques.
Lectures recommandées :
Protection des données
Comme pour de nombreuses applications d’IA, la protection des données est une préoccupation. Les grands modèles de langage (LLMs) comme DeepSeek nécessitent une quantité importante d’informations, et dans un secteur comme la fintech, une grande partie de ces données peut être sensible.
DeepSeek présente en plus la complication d’être une entreprise chinoise. Le gouvernement chinois peut accéder à toutes les informations des centres de données détenus par des entreprises chinoises ou demander des données à ces dernières. Par conséquent, le modèle peut comporter des risques liés à l’espionnage étranger et à la propagande.
Les violations de données par des tiers sont une autre préoccupation. DeepSeek a déjà subi une fuite exposant plus d’un million de dossiers, ce qui peut remettre en question la sécurité des outils d’IA.
Biais de l’IA
Les modèles d’apprentissage automatique comme DeepSeek sont sujets aux biais. Parce que l’IA est très efficace pour repérer et apprendre des motifs subtils que les humains peuvent manquer, elle peut adopter des préjugés inconscients issus de ses données d’entraînement. En apprenant à partir de ces informations biaisées, elle peut perpétuer et aggraver des inégalités.
Ces craintes sont particulièrement vives dans la finance. Les institutions financières ayant historiquement réservé des opportunités à certains groupes, leurs données historiques reflètent souvent des biais importants. En entraînant DeepSeek sur ces ensembles de données, on risque de voir apparaître des actions biaisées, comme le refus de prêts ou de crédits hypothécaires en fonction de l’origine ethnique plutôt que de la solvabilité.
Confiance des consommateurs
Alors que les problématiques liées à l’IA font la une des journaux, le public devient de plus en plus méfiant à leur égard. Cela pourrait entraîner une perte de confiance entre une fintech et ses clients si ces dernières ne gèrent pas ces préoccupations de manière transparente.
DeepSeek pourrait rencontrer une barrière particulière. La société aurait développé son modèle pour seulement 6 millions de dollars et, en tant qu’entreprise chinoise en pleine croissance, elle pourrait rappeler les préoccupations de confidentialité qui ont affecté TikTok. Le public pourrait ne pas être enthousiaste à l’idée de faire confiance à un modèle d’IA à petit budget, rapidement développé, surtout si le gouvernement chinois peut exercer une certaine influence.
Comment assurer une utilisation sûre et éthique de DeepSeek
Ces considérations éthiques ne signifient pas que les fintechs ne peuvent pas utiliser DeepSeek en toute sécurité, mais elles soulignent l’importance d’une mise en œuvre prudente. Les organisations peuvent déployer DeepSeek de manière éthique et sécurisée en suivant ces bonnes pratiques.
Exécuter DeepSeek sur des serveurs locaux
L’une des étapes clés consiste à faire fonctionner l’outil d’IA sur des centres de données nationaux. Bien que DeepSeek soit une entreprise chinoise, ses poids de modèle étant open-source, il est possible de l’exécuter sur des serveurs américains pour réduire les préoccupations liées à la confidentialité et à l’ingérence du gouvernement chinois.
Cependant, tous les centres de données ne sont pas également fiables. Idéalement, les fintechs hébergeraient DeepSeek sur leur propre matériel. Si ce n’est pas possible, la direction doit choisir un hébergeur avec soin, en privilégiant ceux garantissant une haute disponibilité et des standards de sécurité tels que ISO 27001 et NIST 800-53.
Réduire l’accès aux données sensibles
Lors de la création d’une application basée sur DeepSeek, les fintechs doivent réfléchir aux types de données auxquelles le modèle peut accéder. L’IA ne doit accéder qu’aux données nécessaires à sa fonction. Il est également conseillé de supprimer toute information personnellement identifiable (PII) non essentielle.
En limitant les détails sensibles accessibles, toute fuite sera moins impactante. La réduction de la collecte de PII est aussi essentielle pour respecter des lois comme le Règlement général sur la protection des données (RGPD) et la loi Gramm-Leach-Bliley (GLBA).
Mettre en œuvre des contrôles de cybersécurité
Les réglementations comme le RGPD et la GLBA imposent aussi généralement des mesures de protection pour prévenir les violations. Même en dehors de ces lois, l’historique de DeepSeek en matière de fuites souligne la nécessité de renforcer la sécurité.
Au minimum, les fintechs doivent chiffrer toutes les données accessibles à l’IA, qu’elles soient au repos ou en transit. La réalisation régulière de tests de pénétration pour détecter et corriger les vulnérabilités est également recommandée.
Les fintechs devraient aussi envisager une surveillance automatisée de leurs applications DeepSeek, car cette automatisation permet d’économiser en moyenne 2,2 millions de dollars en coûts liés aux violations, grâce à des réponses plus rapides et efficaces.
Auditer et surveiller toutes les applications d’IA
Même après avoir suivi ces étapes, il est crucial de rester vigilant. Il faut auditer l’application basée sur DeepSeek avant son déploiement pour détecter tout biais ou vulnérabilité. Il faut garder à l’esprit que certains problèmes peuvent ne pas être visibles au début, d’où la nécessité d’une surveillance continue.
Créer une équipe dédiée pour suivre les résultats de l’IA et s’assurer qu’elle reste éthique et conforme aux réglementations est une bonne pratique. Il est également conseillé d’être transparent avec les clients à ce sujet. La transparence peut renforcer la confiance dans un domaine souvent perçu comme douteux.
Les fintechs doivent prendre en compte l’éthique de l’IA
Les données financières étant particulièrement sensibles, toutes les organisations du secteur doivent traiter les outils dépendants des données comme l’IA avec sérieux. DeepSeek peut être une ressource commerciale prometteuse, mais uniquement si son utilisation respecte des normes strictes d’éthique et de sécurité.
Une fois que les leaders fintech auront compris l’importance de cette prudence, ils pourront garantir que leurs investissements dans DeepSeek et autres projets d’IA restent sûrs et équitables.