Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Pourquoi l'industrie financière hésite-t-elle cette fois alors que tout le monde "élève des homards" ?
“Avez-vous élevé des homards ?”
Récemment, un homard nommé “OpenClaw” est devenu viral du jour au lendemain, faisant à nouveau vibrer l’industrie de l’IA et offrant un nouveau printemps aux actions liées à l’IA. Cependant, l’engouement du secteur financier pour ce “homard” se limite principalement aux fonds du secteur de l’IA qui suivent le marché, et non à des déploiements actifs en argent réel.
En repensant aux dernières années, le marché voit presque à chaque période une nouvelle histoire autour de l’IA : il y a un an, DeepSeek ; il y a quelques mois, le téléphone Doubao ; aujourd’hui, ce “homard” qui fait vibrer tout le monde. La technologie IA ne cesse d’évoluer, ses applications deviennent de plus en plus intelligentes. Mais le secteur financier, autrefois considéré comme le meilleur terrain pour l’application concrète de l’IA, reste en retrait dans cette “fièvre de l’IA” en constante évolution.
Ce contraste est évident : un an auparavant, après le lancement de modèles universels comme DeepSeek, les institutions financières bancaires avaient déclaré leur volonté de suivre et déployer rapidement. Pourtant, à la fin de l’année dernière avec le lancement du téléphone Doubao, et au début de cette année avec la popularité d’OpenClaw, elles ont collectivement choisi de refuser : plusieurs banques ont interdit l’utilisation de Doubao sur leurs applications ; face à OpenClaw, de nombreux professionnels du secteur bancaire ont déclaré lors d’interviews avec Beike Finance : “pas mature”, “ne suivra pas”.
Pourquoi ce changement radical d’attitude dans le secteur financier ? Peut-il encore devenir un terrain d’application pour l’IA ? La réponse réside dans deux mots : sécurité.
Le secteur financier, en particulier la banque, gère une quantité massive d’informations clients et de données de transactions, ne tolérant aucune erreur. Pour tout domaine impliquant des fonds, des données clients ou des transactions clés, la sécurité et la conformité sont des piliers inébranlables. Bien que DeepSeek ne puisse échapper aux “illusionnements”, ses capacités de traitement du texte et la réduction de la charge de calcul peuvent aider les banques à améliorer leur efficacité, sans compromettre la sécurité de leurs activités principales. En revanche, le fonctionnement d’agents IA comme OpenClaw semble relâcher cette ligne de sécurité et de conformité.
Récemment, le Centre national d’urgence Internet a publié un “Avertissement sur les risques liés à l’application sécuritaire d’OpenClaw”, indiquant que ces agents intelligents nécessitent souvent des permissions système élevées, telles que l’accès au système de fichiers local, la lecture de variables d’environnement, l’appel d’API externes ou l’installation de plugins. Si la configuration par défaut manque de restrictions de sécurité nécessaires, un attaquant exploitant une vulnérabilité pourrait prendre le contrôle total du système, entraînant des fuites de données ou une perte de contrôle des systèmes d’exploitation, avec des conséquences graves.
Selon des sources, lors de leur fonctionnement, ces agents “homard” prennent des décisions autonomes, en utilisant les ressources du système, ce qui pose des risques tels que l’exposition de l’instance à Internet, l’utilisation de privilèges administrateur ou le stockage en clair des clés. En tant qu’agent IA local, “homard” possède des capacités d’auto-décision et d’appel aux ressources du système, mais la frontière de confiance étant floue, et le marché des modules de compétences étant encore peu réglementé, cela comporte de nombreux risques.
Des internautes ont partagé en ligne que, lors de leur utilisation, des informations sensibles de cartes de crédit ont été exposées en clair ou rendues exploitables par OpenClaw. Même en mettant à jour vers la dernière version, sans mesures de prévention ciblées, le risque d’attaque demeure.
Ce type d’application, avec ses permissions élevées, ses frontières faibles, sans alertes et pouvant accéder à des données illimitées, s’il était déployé à grande échelle dans le secteur financier, représenterait un danger évident. Pour les banques, qui considèrent la sécurité comme une ligne de vie, si la sécurité n’est pas assurée, elles ne tenteront pas d’expérimenter ce genre d’IA.
En réalité, l’IA est déjà largement utilisée dans les banques, principalement en tant qu’assistante : traitement de documents, service client IA, recouvrement automatisé, et dans la gestion des risques de crédit. Cependant, en raison des risques d’illusions et autres, les banques évitent souvent de s’y fier pour des opérations complexes.
Il est important de noter que le développement des agents IA est une tendance inévitable. Pour qu’ils soient déployés dans les activités financières essentielles, ils devront respecter la sécurité comme principe fondamental, “porter des menottes” tout en dansant, en clarifiant les limites de permissions, en minimisant la collecte d’informations et en garantissant la sécurité des données financières. Il faut d’abord effectuer des tests à petite échelle dans des scénarios non critiques à faible risque, puis procéder à une transformation en profondeur et à une déploiement privé, en établissant un système de gouvernance solide pour contrôler les risques dès la source. Ensuite, selon la situation, décider s’il faut étendre leur usage aux activités et scénarios critiques.
En résumé, cette “homard” est prometteuse mais immature. Si son application doit s’intégrer dans le secteur financier, comme les banques, il reste encore beaucoup de chemin à parcourir.