Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
【Tendance du moment】 Le modèle d'investigation et de recherche en gestion d'actifs basé sur l'IA doit sortir du « piège de la boîte noire »
( Titre original : « L’essor de l’époque » — Le modèle d’IA pour la gestion d’actifs et la recherche doit sortir du « piège de la boîte noire »)
Jiang Guangxiang
À partir de 2026, le développement des agents IA s’est accéléré de façon spectaculaire, et cela sous la conduite de « La petite langouste » (surnom « OpenClaw » pour les agents IA). Ne pas en élever ne serait-ce qu’une suscite une anxiété de se faire distancer, et cela ne concerne pas moins l’ensemble de l’industrie de la gestion d’actifs, comme les fonds ouverts. Représentée par OpenClaw, la valeur centrale des agents IA réside dans le fait qu’ils comblent « le dernier kilomètre » entre d’énormes volumes de données et leur application concrète à la recherche et aux investissements, nous permettant de ressentir de près l’amélioration extrême de l’efficacité. À titre d’exemple, sur les postes clés de la recherche et des investissements, les agents IA peuvent capturer automatiquement des données 7×24, nettoyer l’information, extraire des facteurs et générer des rapports, libérant ainsi les investisseurs des tâches répétitives et lourdes pour se concentrer sur une réflexion stratégique à des niveaux plus élevés.
Cependant, chacune des personnes qui, de DeepSeek, Yuanbao, Doudou, jusqu’à « La petite langouste », pourrait être marquée par le fait que, à certains moments, un modèle d’IA peut « raconter n’importe quoi avec un sérieux absolu », et ce souvenir reste très vif, au point de susciter une certaine appréhension. Dans le domaine de la gestion d’actifs où l’on agit sur mandat et pour le compte de clients, ces « raconter n’importe quoi » peuvent très probablement entraîner des pertes en argent bien réel pour les investisseurs. Ce qui est assez ironique, voire teinté d’humour noir, c’est que, à l’heure actuelle, les frontières de la responsabilité juridique entre les outils d’IA et les utilisateurs se trouvent encore dans une zone floue. Lorsque les conseils fournis par un conseiller en investissement individuel ou institutionnel ne donnent pas satisfaction, l’investisseur a encore des recours pour faire valoir ses droits. Mais si l’investisseur se retrouve « blessé » par l’outil d’IA qu’il a lui-même téléchargé, il semble qu’il n’ait plus qu’à avaler sa « pilule amère » en silence. Par rapport à ces « raconter n’importe quoi » qui sont faciles à identifier immédiatement, certains résultats de recherche et d’investissement, à première vue plausibles mais dont la logique reste cohérente et l’expression paraît professionnelle, nécessitent du temps pour être vérifiés, et leur pouvoir de nuisance est plus fort. Dans l’industrie, le « risque de boîte noire » dont on se méfie davantage est un exemple typique, et c’est aussi le risque le plus « central », ainsi que le plus « à surveiller », que l’on reconnaisse actuellement pour les modèles d’IA.
Soyons factuels : aujourd’hui, la plupart des modèles d’IA avancés, en particulier les modèles d’apprentissage profond, suivent encore une logique « non explicable ». Nous savons seulement quelles données sont entrées et quels résultats sont sortis, mais nous ne savons presque rien de la manière dont, à l’intérieur du modèle, se déroule le processus de raisonnement qui mène à la conclusion. Cette caractéristique de « boîte noire » peut engendrer des risques mortels dans le domaine de la recherche et des investissements. Par exemple, lorsque ces modèles d’IA « apprennent » à partir de l’apprentissage de textes et de données massifs provenant d’Internet, ils héritent inévitablement des biais cognitifs, du bruit du marché et même d’informations erronées qui s’y trouvent. Bon nombre des « facteurs miraculeux » qui sont extraits ne sont en réalité que des coïncidences statistiques, mais donnent l’illusion d’avoir découvert « le Graal ». Malheureusement, lorsque l’IA génère pour nous un rapport d’analyse d’investissement ou des recommandations présentant ces caractéristiques, les investisseurs qui manquent de connaissances professionnelles ont souvent du mal à repérer les erreurs. Même un gérant d’investissement professionnel, s’il dépend aveuglément de ce type de recommandations, peut prendre des décisions d’investissement désastreuses.
Pour les modèles d’IA, le défi plus profond vient de la complexité intrinsèque des marchés financiers. Le marché n’est pas un laboratoire statique : c’est un système adaptatif complexe où les comportements de tous les participants s’influencent mutuellement et évoluent en permanence. Ce qui est déroutant, c’est que les données historiques utilisées pour entraîner les modèles d’IA contiennent, elles-mêmes, les comportements de tous les participants du passé. Et une fois que le modèle commence à trader en se basant sur les régularités qu’il a découvertes, ses propres actions deviennent à leur tour de nouvelles données pour le marché, ce qui influence et modifie la trajectoire future du marché. On obtient ainsi une boucle de rétroaction auto-référentielle. Sans même se pencher sur la question de savoir si le modèle a été « empoisonné », la réalité cruelle est que, du fait de cette caractéristique « adaptative » de l’IA, toute régularité efficace, basée sur des données publiques et pouvant être extraite rapidement par une IA, a une durée de vie de surperformance extrêmement courte. Sans informations exclusives ni la logique profonde comprise par le marché, compter sur l’idée que tout le monde va faire fortune ensemble en s’appuyant sur des outils d’IA, n’est-ce pas un rêve naïf ?
Même si l’intégration profonde entre l’IA et la recherche en investissement est irréversible, pour l’industrie de la gestion d’actifs, la clé pour apaiser l’anxiété ne consiste pas à élever quelques « petites langoustes », mais à mettre en place un nouvel écosystème capable d’équilibrer l’efficacité et le risque, et d’intégrer en profondeur les capacités humaines et celles de la machine. À l’heure actuelle, qu’il s’agisse des principales institutions financières ou des autorités de régulation en ligne, tous adoptent une attitude prudente à l’égard de l’installation et de l’utilisation d’agents IA open source tels que OpenClaw sur les équipements de l’entreprise et dans ses réseaux internes. Pour les institutions financières dont l’échelle des actifs sous gestion se situe dans les centaines de milliards, un outil « boîte noire » dont le comportement n’est pas maîtrisable est une menace que la capacité de gestion du risque ne peut tout simplement pas tolérer.
L’industrie de la gestion d’actifs ne tient pas à savoir s’il y a ou non recours à l’IA ; elle se joue plutôt sur la question de savoir qui saura combiner plus en profondeur et mieux l’IA avec la recherche, les données, l’ingénierie et la gestion des risques. Qu’il s’agisse des « petites langoustes » d’aujourd’hui ou d’autres nouvelles espèces d’IA à l’avenir, la priorité absolue consiste à préserver le pouvoir central de jugement de l’humain, et à devenir le « commandant » du groupe de stratégies d’IA ainsi que le détenteur de l’« interrupteur de risque ».
Cet article de la rubrique de ce numéro ne reflète que les opinions personnelles de l’auteur