L'avenir intégré de la gestion d'actifs : une évolution stratégique

Jamie est le fondateur et le PDG de FundSense. Il a plus de 25 ans d’expérience dans les services financiers, occupant des postes de vente senior chez Standard & Poor´s et Morningstar, où il a géré des relations mondiales avec des banques et des gestionnaires d’actifs de premier plan (tier one). Avant de fonder FundSense en 2020, Jamie était responsable du Royaume-Uni pour l’entreprise allemande de wealthtech aixigo.


Découvrez les meilleures actualités et événements fintech !

Abonnez-vous à la newsletter de FinTech Weekly

Lue par des dirigeants de JP Morgan, Coinbase, Blackrock, Klarna et plus encore


Malgré plus d’une décennie de transformation numérique, un outil historique continue de soutenir les opérations dans une grande partie de l’industrie de la gestion d’actifs : le tableur.

Il est familier, flexible et, de plus en plus, il devient un obstacle à la progression.

Dans un secteur où la précision opérationnelle et la rapidité ont un impact direct sur la performance, s’appuyer sur des contournements manuels et des systèmes fragmentés n’est plus seulement inefficace ; c’est risqué. Des lancements de fonds aux reportings réglementaires, des processus critiques sont encore pris en charge par des outils qui n’ont jamais été conçus pour l’échelle, la gouvernance ou le contrôle au niveau de l’entreprise.
Ce défi ne vient pas de l’inertie, mais de la fragmentation.

Au fil des années, l’écosystème s’est transformé en un patchwork de prestataires spécialisés, riches en données, en recherche et en analyses, mais limités en matière d’automatisation des flux de travail et de capacités d’intégration. De l’autre côté, on trouve des plateformes d’automatisation à grande échelle, qui offrent des outils solides mais ne disposent pas de l’alignement spécifique au domaine nécessaire pour gérer les subtilités de la gestion d’actifs.

Le résultat ? Les projets se bloquent. L’automatisation se heurte à des limites. Non pas parce que la technologie n’est pas capable, mais parce qu’elle manque souvent d’une compréhension intégrée de la complexité du secteur : ses strates réglementaires, ses modèles, ses règles subtiles.

Le défi n’est pas de construire de l’automatisation — c’est de la rendre pertinente. À moins de comprendre comment l’industrie fonctionne réellement, tout ce que vous faites, c’est d’ajouter de nouveaux outils à de vieux problèmes.

La voie à suivre ne réside pas dans une disruption globale, mais dans un renforcement stratégique. Les modèles opérationnels les plus efficaces sont désormais ceux qui réduisent les frictions plutôt que de les augmenter. Ils renforcent ce qui fonctionne déjà, éliminent ce qui ne fonctionne pas, et comblent les lacunes que des outils historiques comme les tableurs ont longtemps essayé de masquer.

Ce virage vers des connexions plus intelligentes et des systèmes modulaires, interopérables redéfinit les meilleures pratiques. Qu’il s’agisse d’intégrer un product master, de rationaliser les lancements de classes de parts, ou d’autoriser l’exécution en parallèle de tâches entre les départements, l’accent est mis sur des systèmes qui fonctionnent avec — et non contre — la configuration unique des flux de travail de la gestion d’actifs.

Un moteur clé de cette évolution, c’est l’expertise métier (domain expertise). La technologie seule ne suffit pas. Une transformation efficace exige une compréhension granulaire du fonctionnement des gestionnaires d’actifs — des hiérarchies de règles métier aux contraintes de conformité et aux standards de données. Sans cette vision, l’automatisation reste superficielle au mieux.

Une intégration véritable signifie aussi embrasser les formats et les réalités des opérations quotidiennes. PDFs, CSVs, APIs, documents Word — les solutions modernes doivent ingérer et standardiser des données provenant d’une multitude de sources, et pas seulement d’un flux propriétaire unique. Et elles doivent le faire à l’échelle de l’entreprise, souvent sur dix systèmes internes et externes ou plus.

Mais l’obstacle le plus profondément ancré est peut-être d’ordre culturel : le tableur par défaut. Utilisés pour tout, de la gestion du cycle de vie au reporting, les tableurs sont structurellement difficiles à gouverner, auditer ou mettre à l’échelle. Ils peuvent offrir une flexibilité à court terme, mais au détriment de la résilience à long terme.

Le changement culturel qui s’éloigne des tableurs ne concerne pas seulement les outils ; il s’agit de la confiance. Les tableurs offrent un contrôle sous une forme visible et directement manipulable. Passer à des systèmes automatisés et intégrés exige que les parties prenantes — en particulier celles des opérations, de la conformité et des TI — accordent leur confiance à des flux de données qu’elles ne peuvent pas « voir » de la même manière.

C’est pour cette raison que l’adoption relève autant d’un défi comportemental que d’un défi technologique.

Une transformation réussie commence par identifier où la confiance existe déjà — chez les personnes, dans les processus, ou dans des systèmes partiels — et construire à partir de là. C’est pourquoi les solutions modulaires qui s’alignent sur les flux de travail actuels ont tendance à gagner du terrain plus rapidement que les refontes complètes du système. Cela permet aux équipes de constater des gains immédiats en efficacité et en précision, sans qu’elles aient besoin d’abandonner ce qu’elles savent déjà.

Cette approche apporte aussi de la clarté à la stratégie à long terme : créer une infrastructure flexible qui évolue avec la société. Les responsables opérationnels ne recherchent plus des outils à usage unique. Ils cherchent des plateformes capables de s’adapter au fil du temps, d’intégrer de nouvelles sources de données, d’aligner les activités sur les réglementations émergentes et de fournir une piste d’audit claire à chaque étape du cycle de vie du produit.

Ce qui émerge, c’est une couche opérationnelle plus intelligente — une couche qui relie les équipes, standardise les entrées et libère des informations en temps réel qui étaient auparavant enfouies dans des systèmes déconnectés ou disséminées dans des tableurs. Et même si de nombreuses entreprises se trouvent encore quelque part le long de cette courbe de transition, la direction est claire.
L’alignement à l’échelle de l’entreprise devient la nouvelle référence.

Cela signifie réduire les silos entre les équipes — produit, conformité, distribution, données — et éliminer les efforts en double. Cela signifie s’assurer que les points de données approuvés n’ont pas besoin d’être ressaisis (re-keyed) par différentes équipes pour des usages différents. Cela signifie mettre en avant l’information critique non seulement plus vite, mais aussi de manière plus complète et plus fiable. C’est un passage de l’efficacité orientée tâches à une intelligence systémique.

Pour les entreprises qui continuent de naviguer dans les étapes initiales du changement, il y a une bonne nouvelle : il ne s’agit pas de tout démanteler et de repartir de zéro. Il s’agit de comprendre la différence entre ce qui est historique et ce qui dure — et de construire un pont entre les deux.
L’efficacité ne dépend plus de gains locaux — elle vise l’alignement de l’ensemble de l’entreprise. Il ne s’agit pas de remplacer des personnes ou des départements — il s’agit d’éliminer la friction entre eux.

En regardant vers l’avenir, le rythme de la transformation ne fait que s’accélérer. Les pressions réglementaires continuent de s’intensifier. Les demandes des investisseurs en matière de transparence et d’agilité augmentent. Et le volume considérable de données — opérationnelles, de marché et orientées clients — met à rude épreuve les systèmes traditionnels jusqu’à la rupture.

Dans cet environnement, les entreprises qui s’accrochent à des outils dépassés trouveront de plus en plus un désavantage. Pas seulement en termes de coût ou de risque de conformité, mais aussi dans leur capacité à répondre, à s’adapter et à concurrencer.

Pendant ce temps, celles qui investissent dans des processus plus intelligents — interconnectés, alimentés par une expertise métier, et conçus pour le changement — jettent les bases de quelque chose de bien plus durable.

Car au final, l’avenir des opérations de gestion d’actifs ne consiste pas à provoquer une disruption pour le plaisir de la disruption. Il s’agit de connexions plus intelligentes, de meilleurs processus, et de se délester des outils qui ne rendent plus service. En ce sens, aller au-delà des tableurs n’est pas seulement un correctif opérationnel — c’est une évolution stratégique.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler