Technologie et innovation financière : les clefs des nouveaux défis
Guillaume Simon (2005) - Université de Toulouse / Société Générale Asset Management
La place de l'informatique devenant stratégique sur les marchés, il est utile de présenter les concepts d'aujourd'hui et les défis technologiques que la finance devra relever. Les évolutions à venir ne seront toutefois pas uniquement d'ordre technique. Elles vont impliquer des transformations dans l'approche du risque et faire des systèmes informatique à la fois un moteur et un vecteur de l'innovation et du contrôle du risque.
Dans un univers fortement porté par les innovations mathématiques, où l'activité génère toujours plus de données et toujours plus de besoins, la technologie se doit de suivre à marche forcée. Les "simples" logiciels de recherche sont déjà bien loin, et ce à tous les niveaux d'activité. Des outils statistiques tels que Matlab, R, ou Scilab (entre autres) ne constituent que des outils d'aide à l'ingénieur pour du prototypage, des études ponctuelles ou préliminaires à des problématiques plus vastes. En production, pour des applications rapides et dirigées vers une utilisation intensive, l’usage du C++ reste prépondérant (profitant des librairies développées au fil des années, nombreuses et de bonne qualité, et aussi du code dit legacy). Mais ces langages de programmation, sans être anecdotiques, ne constituent que la partie émergée d'une utilisation transversale et intensive des nouvelles technologies. Petit tour d'horizon…
Assurer la cohérence des opérations
La chaîne Front-To-Back est un maillon essentiel de l'activité quotidienne d'une grande banque ou d'un Hedge Fund. Elle est partie prenante du système informatique et doit constituer l'épine dorsale d'une salle de marché. Son rôle est principalement de gérer les problèmes de réconciliation de valeur entre le front-office (où sont passés les ordres: traders, gérants, etc.), le middle-office (où sont validées les opérations comptables des différentes opérations) et le back-office (où sont gérées la plupart des problématiques informatiques). Il faut s'assurer que tout au long d'une opération, quelle qu'elle soit, il s'agisse bien d'un même produit de caractéristiques figées, que sa valorisation est cohérente, et qu'il n'y a pas de déperdition au long de la chaîne.
En pratique, environ quatre-vingt pourcents du temps de l'activité de ces chaînes est dédié au traitement de clauses spécifiques des contrats traités, c'est-à-dire la prise en compte des particularités du contrat traité (par delà sa nature: option, swap, etc) : contreparties, particularités, aspects temporels, échéancier, modalités inhabituelles... Les intervenants proposant leurs services pour la mise en place d'une telle chaîne sont en général des entreprises de taille considérable. Ceci implique qu'en général, il existe une inertie importante dans les systèmes proposés. Leur processus de développement est extrêmement long et fastidieux, ce qui implique que leur réactivité est parfois difficile pour s'adapter rapidement à de nouvelles problématiques.
Si ces chaînes assurent l’homogénéité des opérations quelles qu’elles soient, l'automatisation des passages d'ordres est aussi possible. Quoique non systématique (et de loin), cette possibilité intéresse en particulier les fonds d'arbitrage statistiques, et plus généralement beaucoup de traders et de gérants. Ce que l’on appelle la "finance en temps réel" connaît un essor croissant. La première étape consiste à construire des algorithmes de trading, et la seconde à garantir le passage immédiat d'achat ou de vente lorsque le signal se déclenche. Dans le cadre d'une chaîne front-to-back, il s'agit de s'assurer qu'un ordre quel qu'il soit a été assimilé à tous les niveaux. Ici, il s'agit de garantir le passage automatique d'ordres grâce à une machine, suivant des signaux construits par les équipes. Nous verrons également plus loin le concept de Trade Through Processing, légèrement différent.
La place de la valorisation
Rattachés aux chaînes front-to-back, il existe aussi des modules de valorisation pour recalculer des prix, des sensibilités, des mesures de risque, etc. Souvent, ces solutions analytiques sont d'office débranchées par la salle de marché et sont remplacées par des outils tiers ou internes.
Ces chaînes intègrent ainsi des solutions de valorisation analytique "a minima" et implémentent le plus petit dénominateur commun de ce que l'on peut faire. C'est alors qu'interviennent les équipes internes d'ingénieurs quantitatifs ou d'entreprises (souvent de taille moyenne) qui éditent des modules de valorisation. Si les chaînes front-to-back sont dédiées à garantir l'homogénéité du processus dans son ensemble, leur valeur ajoutée scientifique est donc très limitée. Ce rôle est joué par les éditeurs de modules de valorisation qui ont des orientations marquées vers certaines problématiques : options vanilles ou exotiques, produits dérivés crédit, assurance-vie... L'interview de Claude Martini dans notre dossier détaillera les spécificités du marché constitué par ces éditeurs, son articulation et ses enjeux.
Quels acteurs pour quels marchés?
Les acteurs principaux et quotidiens des banques sont évidemment, dans un premier temps leurs équipes internes d'ingénieurs informaticiens et financiers ! Concernant les chaînes front-to-back, le géant Murex (cent cinquante millions de dollars de chiffres d'affaire annuel) est un incontournable du marché mais on trouvera aussi Calypso, OpenLink, Summit, Sophis et Panorama de Sungard. A eux cinq, Summit, Panorama, Calypso, OpenLink et Murex représentent déjà environ quate-vingt dix pourcents du marché.
Les éditeurs de bibliothèques de pricing et de modules de valorisation ne sont, curieusement, pas si nombreux. Historiquement axée sur les obligations convertibles, Ito33 d'Elie Ayache a été à l'origine de nombreuses publications scientifiques de bon niveau. Dans les entreprises françaises, on pourra aussi citer Zeliade Systems ou Pricing Partners. D'un point de vue informatique, le cas particulier de LexiFi de Jean-Marc Eber est très intéressant. Son objectif est de développer un langage de description des produits financiers s'affranchissant d'une nomenclature et d'un code fermé. Cet objectif est exigeant car complexe à adapter aux architectures actuelles, mais il permettrait de faire de la réconciliation automatique de transaction.
Dans le domaine de la finance en temps réel, des intervenants tels que (entre autres) T+0 ou GL Trade sont des acteurs importants. Enfin, il existe une importante frange de cabinets de conseil, de tailles très diverses, s'étant spécialisés dans l'installation et la mise en œuvre des systèmes tels que les chaînes front-to-back. Leur activité est totalement déconnectée de l'aspect valorisation, de l'évaluation des risques, mais leur existence est cruciale, et le marché qu'ils représentent est très vaste.
Quelques concepts dans l'air du temps…
Un des axes majeurs de développement de l'industrie financière informatique est le traitement instantané de l'information, ou en "t+0". Le concept associé est le Trade Through Processing (TTP). Il rejoint par l’instantanéité le concept de finance en temps réel, mais il le dépasse largement car il n'est pas restreint à l'algorithmique ou au passage d'ordres. Il touche aussi bien les problématiques de valorisation, de collecte de données, d'analyse des risques et des positions, ou d'évaluation des expositions.
Concomitante à cette problématique, la présence des nouvelles technologies ira désormais jusque dans l'informatisation quasi-totale des transactions. Il n'y a pas si longtemps, tous les contrats n'étaient traités que par fax ou par téléphone. Aujourd'hui encore, pour certains dérivés de crédit ou certaines options traitées, les clauses et les contrats "papier" sont toujours bel et bien présents. Il existe cependant toujours des soucis de conciliation et le degré de rejet de ces transactions pouvait souvent monter jusqu'à 40%. Pour résoudre ce problème relié à une étape cruciale de la vie d'un produit, la mise en place de la norme XML a considérablement amélioré l'efficacité de ces procédures. Les professionnels ont désormais accès des formats électroniques de transaction, pourvus d'une valeur juridique et permettant d'aussitôt en connaître la validité. Pour profiter des avantages de ce format électronique de transaction, la norme FPML (Financial Product Market Language) fait le lien entre XML et les applications graphiques. Le développement de FPML résulte d'un effort collaboratif ouvert. Un contrat FMPL peut donc décrire toute une transaction en lui donnant une existence juridique, ce qui est un aboutissement pour les départements des risques. Cette norme commence à être de plus en plus utilisée, notamment sur les produits les plus courant tels les swaps, et se développe petit à petit depuis 1999, car la définition des clauses souvent nombreuses et complexes dans les produits financiers n'est pas si facile.
Lié à cette évolution, on a naturellement observé la naissance de places de marché entièrement électroniques, telle Swapfire à Londres (dont l'activité est très tournée vers les activités de taux). Le passage d'un ordre ou la validation d'une transaction est quasi-instantané, ce qui présente un intérêt certain. Par exemple, Swapfire est déjà en charge de près de la moitié des swaps interbancaires!
Architecture et procédures : des enjeux technologiques pour demain…
Le premier des enjeux pour les années à venir sera de procéder à l'homogénéisation des langages existant. Les grandes entreprises (telles Murex) ont leurs propres langages, qui ne sont pas les mêmes partout. De même dans les banques, qui possèdent elles aussi leurs langages propriétaires. Ceci représente un enjeu stratégique et financier énorme, car FPML ne reste qu'une nomenclature. Dans les années à venir, le paysage devrait évoluer à ce niveau pour rendre la norme FPML plus intelligente et plus souple, pour pouvoir traiter les produits structurés comme des briques élémentaires faciles à assembler. Une uniformisation des langages est une manière de s'assurer de la validité du processus global tout au long de la chaîne de traitement d'un produit.
Mais le dual de l'aspect "système informatique" est très certainement l'aspect "architecture et procédures"… et ceci revêt une importance capitale pour les années à venir. Les nouvelles technologies, et les bienfaits qu'on leur promet déjà, n'auront d'intérêt que si et seulement si toute l'infrastructure de la salle de marché se fond dans un processus de traitement des transactions et des risques plus global. On en viendra donc à revoir l'organisation de la "salle de marché" elle-même. Pour que les évolutions technologiques et leurs apports diffusent dans le monde professionnel, l'informatique ne doit plus constituer une surcouche, une option à disposition éventuellement activée. Au contraire, les fonds et les banques seront probablement contraints de revoir leur organisation pour que les nouvelles technologies deviennent un point névralgique de la structure de l'entreprise, un canevas autour duquel doivent s'organiser les activités de marché. La récente affaire de la Société Générale est un bon exemple, qui démontre que l'intégration interne et centralisée, mais surtout automatisée et systématique, des passages d'ordres est une nécessité.
…mais aussi des enjeux scientifiques.
Ces mutations des salles de marchés s'effectueront alors qu'en parallèle des changements sont déjà apparus dans le monde académique sur la façon d’aborder les problèmes et les techniques financières. Il est aisé de constater que l'on assiste depuis environ dix ans à une explosion sans précédent des mathématiques financières. Dans tous les départements de mathématiques ou presque se crée une filière dédiée aux mathématiques financières. Les productions académiques sont très variées et les chaires de finance vivent grâce aux banques qui payent et décuplent ainsi les budgets des laboratoires.
Cet aspect est intéressant du point de vue de l'historien des sciences, car la dynamique intrinsèque des mathématiques financières académiques est parfois autarcique, comme à la fois "coupée du monde" et des marchés. Elle fait progresser les mathématiques appliquées, dont elle constitue désormais un des domaines des plus fructueux (en théorie des processus, en probabilités, en équations aux dérivées partielles, en méthodes de Monte-Carlo, en optimisation, etc.).
Sur ce point, l'influence française est intacte, car les "Français" (ou plus précisément les "quants" ayant fait leurs études en France) ont encore du crédit et leur présence rassure. A ce titre, l’exemple précis de la plateforme « CRIS » (voir l’entretien avec Claude Martini sur ce point) est particulièrement intéressant. Il s’agit d’une plateforme indépendante, résultat d’efforts conjugués de sociétés d’informatique, de conseil, et de laboratoires mathématiques, qui permettra notamment de servir d’étalon et d’outil de comparaison aux modèles de valorisation des produits de crédit. La conjonction du travail des différents acteurs, académiques et financiers, est particulièrement bienvenue et va dans le sens d’un meilleur contrôle du risque de modèle : outre le risque associé à tout investissement, via la nature aléatoire des actifs, le risque de modèle est un risque additionnel, qui se manifeste lorsque les modèles utilisés pour la valorisation s’avèrent inappropriés, trop éloignés des pratiques de marché ou pas assez robustes sur le long terme. Ainsi, même si les causes profondes de la crise des « subprimes » sont essentiellement économiques, les agents se sont rendu compte que les modèles utilisés pour valoriser les produits adossés à ces titres de dette étaient décalés par rapport à la situation réelle. Cette situation a amplifié le problème initial et a fini par provoquer une véritable crise de liquidité, contaminant des marchés en apparence séparés les uns des autres. La maîtrise et le contrôle de ce risque de modèle est donc une étape clé pour le futur : pour aller dans ce sens, les interactions entre « académiques » et « praticiens » doivent se multiplier et surtout se concrétiser dans des projets.
Vers une recherche "informatique"
Il y a dix années de cela, il n'était pas si facile pour une équipe d'analyse quantitative d'être reconnue en tant que telle. Il était difficile d'accepter qu'il y ait des chercheurs en mathématiques au sein d'une banque. Si cela n'émeut plus personne désormais, il est intéressant de noter qu'il n'y ait pas encore de pendant de recherche au niveau des systèmes. Il existe des équipes dédiées aux systèmes informatiques, leur mise en place, leur maintenance, leur fonctionnement, etc. Mais il n'existe pas en interne de cellule dont le rôle serait de penser l'architecture future d'une salle et de consacrer ses recherches aux innovations purement technologiques pouvant s'avérer déterminantes pour l'avenir et la compétitivité de la salle de marché.
Les nouvelles technologies révolutionnent petit à petit le monde de la finance, depuis la valorisation jusqu'à l'analyse des risques. Il faut réagir toujours plus vite (nouveaux modèles, abondance de données) et s'adapter en permanence. Le paysage des logiciels par exemple sera amené à grandement évoluer et les acteurs du marché doivent faire dès maintenant les bons choix, pour s'assurer d'avoir une architecture de systèmes et une organisation générale adaptée à la finance de demain.
Paradoxalement, dans un contexte concurrentiel entre banques comme entre éditeurs de solutions informatiques, l'intérêt de travailler avec un code ouvert est notable, car ceci profiterait à tous les intervenants pour l'édition de nouvelles normes communes. Au regard des problématiques stratégiques, cela peut s'apparenter à un vœu pieu mais pourrait constituer une avancée heureuse.
Enfin, un des objectifs de l'industrie sera de se diriger vers l'intégration de systèmes hétérogènes pour une communication accrue entre les différents métiers et activités de la banque.
Bien que réelles, d’autres questions restent plus anecdotiques. La puissance de calcul n'est ainsi plus un souci mais il faut dorénavant se préoccuper de la surchauffe des salles de serveurs. Des entreprises fabriquant des cockpits d'avions sont aussi chargées de dessiner les bureaux de demain pour gérer la multiplication des écrans, et le flot incessant d'informations qui pose un réel problème d'ergonomie aux gérants et traders pour gérer au mieux la profusion de données. Il reste à souhaiter que la fusée n'explose pas en vol…
Aucun commentaire
Vous devez être connecté pour laisser un commentaire. Connectez-vous.