DEUXIÈME TABLE RONDE : « SOLUTIONS ET PERSPECTIVES »
M. Claude Birraux. Notre Office parlementaire est une structure originale au sein du Parlement, et un intermédiaire entre le monde parlementaire et le monde de la recherche. Cette collaboration permanente avec le monde scientifique et le monde technologique, dote l'Office d'un outil d'analyse pour évaluer, en profondeur, des sujets techniquement complexes. Il se trouve que la communauté financière utilise, et manipule, couramment, des instruments mathématiques dont la technicité est, pour la plupart des gens, synonyme d'opacité. Pour la plupart des gens, mais pas pour les chercheurs, qui utilisent ces mêmes instruments pour faire progresser les connaissances, dans leur propre champ de compétence. Il appartenait donc à l'Office parlementaire de mobiliser les personnes compétentes, au sein de cette communauté scientifique, pour apporter la lumière sur l'impact des mathématiques et de l'outil technologique en finance. L'Office souhaite confronter les points de vue, clarifier les hypothèses sous-jacentes aux différents modèles, en vue de se donner, éventuellement, les moyens d'évaluer le bien-fondé de ces techniques sophistiquées, qui semblent être devenues pratiques courantes dans les milieux financiers.
Cette seconde table ronde, qui abordera les solutions permettant de corriger les dérives induites par les nouveaux outils scientifiques et technologiques, doit en effet permettre de mieux évaluer l'impact du recours aux sciences et technologies dans la finance moderne. Il convient donc d'aborder, sans détour, différents points techniques : évolutions de la directive MIF, régulation des « dark pools » , tarification des ordres passés par des automates, hypothèses sous-jacentes aux modèles financiers modernes (efficience des marchés et variabilité endogène), afin que l'information recueillie puisse orienter au mieux d'éventuels travaux parlementaires sur ces thèmes.
A l'ère de la milliseconde, j'espère qu'il sera possible de condenser les différentes interventions, pour que l'on puisse avoir suffisamment de temps pour un débat et des questions à la fin.
« Pour un meilleur usage social des mathématiques financières »
M. Jean-Pierre Kahane, mathématicien, professeur à l'Université Paris Sud et membre de l'Académie des sciences. Le temps nous étant compté, je m'efforcerai d'être bref. Je suis mathématicien, spécialiste de l'analyse de Fourier, qui touche aux probabilités. Toutes les mathématiques se touchent entre elles, mais je n'ai jamais fait de mathématiques financières. Je me suis intéressé à ce champ uniquement à partir du moment où on les a mises en cause en les rendant responsables de la crise. Il m'est apparu immédiatement que les vraies responsabilités étaient ailleurs. Cependant j'avais bien conscience d'être interpellé comme mathématicien. Il valait donc la peine pour moi de prendre connaissance du domaine des mathématiques financières, en étant aidé par des collègues comme Denis Talay ici présent, et Marc Yor, qui est en ce moment à Cracovie. Marc Yor, avec Jean Dercourt, a organisé en début de semaine un colloque à l'Institut qui s'appelait « Mathématiques et risques financiers, regards croisés d'économistes et de mathématiciens ». La partie économique a été traitée, la partie mathématiques a été reportée plus tard à cause de la grève du 12 octobre. Mais je crois qu'il serait important, pour l'Office parlementaire, de prendre connaissance de ces travaux. Pour le moment, seules les contributions des économistes sont disponibles. Elles sont très sainement critiques à l'égard de la financiarisation de l'économie. La question est clairement posée de revoir la doctrine de la libre circulation mondialisée des capitaux. J'ai une correspondance là-dessus avec M. Munier. Les contributions annoncées des mathématiciens indiquent des pistes, dans la théorie du risque notamment, parce que le risque, ce n'est pas seulement la gestion du risque, c'est aussi la notion du risque. Et la notion du risque est un problème. Telle qu'elle est établie par les banques et Bâle 2, la notion du risque est incorrecte. Dans la théorie du risque, les contributions des mathématiciens mettent en garde contre une illusion financière qui prépare, je cite « une crise cataclysmique dans le domaine des pensions ».
En ouverture à cette table ronde, je voudrais faire état de quelques idées générales, dont certaines me sont personnelles. D'abord, les mathématiques financières sont des mathématiques, et pour une part de très bonnes mathématiques. Elles font usage de notions créées par les probabilistes, et elles les développent. Comme je l'ai déjà dit, toutes les mathématiques se tiennent, et ce serait une erreur de penser aux mathématiques financières comme un domaine séparé du reste parce qu'il est au service de la finance.
Cela dit, il est orienté par le service de la finance sous sa forme actuelle, qui résulte de la déréglementation et de l'hégémonie des marchés financiers. Dans la logique actuelle des banques, toute amélioration à leur fonctionnement a une contrepartie négative, qui peut être brutale. Par exemple, l'arbitrage a, en principe, une fonction régulatrice, en corrigeant les déséquilibres du marché. Mais comme les traders et les banques tirent leurs revenus des arbitrages, la tendance est non seulement à repérer les déséquilibres et à en tirer partie - au besoin de manière instantanée, comme on l'a vu, en utilisant les technologies les plus modernes, mais à les susciter s'ils peuvent rapporter gros : c'est un aspect occulte de la crise des « subprimes » , et visible des spéculations sur l'euro, à la suite de la crise grecque. Voici une donnée actuelle, rapportée par le Financial Times du 11 octobre 2010 : en deux jours, à la suite de rumeurs, le cours du maïs a fait un bond de 12,5 %. On imagine la ruée spéculative sur de pareils déséquilibres. Il faudrait inventer des freinages plutôt que des accélérateurs.
Il y a quelques années, le Parlement européen a été sur le point de mettre à l'étude les conséquences d'une taxe Tobin sur les opérations financières. Je ne suis pas sûr que ce soit la bonne formule, mais je regrette beaucoup que, à quelques voix près, la décision n'ait pas été votée. Si elle l'avait été, il y aurait eu un appel à des études, et les mathématiciens y auraient pris part, avec des économistes bien sûr.
En effet, les mathématiques sont extrêmement plastiques, les modèles mathématiques précèdent toutes les réalisations techniques, la simulation à l'aide des ordinateurs remplace en bien des cas l'expérimentation. L'expérimentation, en matière sociale, peut être dramatiquement coûteuse. Pour avoir une idée des conséquences d'une décision, un travail associant des chercheurs de différents domaines, dont des mathématiciens, serait nécessaire. Les mathématiques, contrairement à l'image ordinaire, ne disent pas la vérité, mais le possible et l'impossible dans un modèle de la réalité.
Je dis « modèle de la réalité » et je pense à modèle de l'utopie. L'utopie consiste à penser ce qui n'a jamais existé. Elle me paraît indispensable aujourd'hui. Et je la vois fleurir sous des formes diverses dans la recherche d'autres voies pour la politique, pour l'économie et pour la société. Faut-il un système bancaire décentralisé et proche du terrain ? Faut-il un pôle financier public ayant une vocation de service public ? Faut-il en revenir à une réglementation, et laquelle ? Faut-il créer ou recréer d'autres monnaies ? Faut-il en revenir au troc ? Faut-il créer de nouveaux modèles de macroéconomie ? Comment corriger les déséquilibres du monde, objectif prioritaire selon le rapport Stiglitz qui s'intitule « Pour une vraie réforme du système monétaire et financier international »? Comment répondre aux besoins réels de l'humanité et non aux grands intérêts d'un petit nombre ?
Naturellement, c'est ici le citoyen qui parle et pas seulement le mathématicien. Je disais que ce doit être un grand débat public et mondial. Mais toujours est-il qu'une première approche est possible ici, dans le cadre de l'Office parlementaire. L'Office parlementaire pourrait proposer à l'étude différentes utopies. Il aurait ainsi un rôle de stimulation et non seulement d'évaluation. Je crois que les scientifiques seraient heureux, quelle que soit leur discipline, de ne plus la voir atteler à des images opposées et également fausses, d'une pureté de tour d'ivoire, et d'une servilité à l'égard des puissances du jour.
M. Claude Birraux. Merci M. Kahane d'avoir tenu votre temps de parole avec une telle précision. Votre suggestion est un programme de longue haleine pour l'Office parlementaire. Étudier les utopies... Vous savez, pour notre Office, c'est déjà un peu une utopie de s'attaquer, à travers l'audition d'aujourd'hui, à un sujet comme celui-ci.
« Sécuriser les systèmes informatiques en finance »
M. Patrick Pailloux, directeur général de l'Agence nationale de la sécurité des systèmes d'Information. J'ai beau être polytechnicien, je ne suis ni mathématicien, ni spécialiste de la mécanique financière. Le métier pour lequel les services du Premier ministre m'emploient, c'est de voir comment on pourrait sécuriser les infrastructures vitales nationales contre des menaces de nature malveillante, notamment d'attaques informatiques. J'ai beaucoup entendu parler de sûreté, c'est-à-dire de problématiques internes à la mécanique de la finance. Je vais, pour ma part, vous parler de problématiques de sécurité, c'est-à-dire de problématiques externes. Ce sujet nous préoccupe. II est, à mon sens, très mal pris en compte, peut-être un petit peu moins dans le domaine de la finance que dans les autres. Paradoxalement, pour peu qu'on s'en donne la peine, des moyens existent. La France n'est d'ailleurs pas spécifiquement en retard dans ce domaine-là. Les menaces, elles existent, et elles sont nombreuses. Malheureusement, on n'en parle pas beaucoup, puisque dans notre domaine, on en est plutôt à l'âge de Tchernobyl. Je vous rappelle que Tchernobyl, ce sont les nuages qui s'arrêtent à la frontière. Dans le domaine des attaques informatiques, faites-en l'expérience, et tournez-vous vers vos grands clients et vos grandes banques, et vous verrez ce qu'elles vous diront des attaques informatiques. Je parle de toutes les grandes entreprises, qui nous expliquent qu'elles sont bien protégées, et n'ont pas d'attaque. La réalité est un tout petit peu différente.
On a bien sûr de très nombreux cas d'attaques informatiques. D'abord, ce peut être des choses extrêmement triviales, comme le phishing , c'est-à-dire ce qui vise, globalement, les clients, pour leur faire avaler des couleuvres et arriver à leur voler leurs identifiants, leurs mots de passe, etc.
Ensuite, ces attaques peuvent être un peu plus sophistiquées, à l'image de ce qui s'est passé, il y a quelques mois, contre les registres carbone européens, ces banques dans lesquelles on n'échange pas des titres, mais des droits à polluer, par des émissions de carbone. En quelques heures, un certain nombre de pirates informatiques, plus doués que les autres, ont réussi à se faire plusieurs millions d'euros. Ils ont envoyé de simples courriers électroniques aux traders sur ces marchés, en se faisant passer pour les différentes institutions en charge des registres carbone. En France, c'était la Caisse des dépôts. Ils ont envoyé un message disant qu'ils étaient en train de changer de système informatique, « veuillez vous reconnecter, etc. » Ils avaient fait de faux sites boursiers aussi. Ils ont récupéré les codes, et puis, en ouvrant globalement les marchés, ils se sont fait plusieurs millions d'euros.
On a aussi de nombreux cas d'employés malveillants. Soit ce sont d'anciens employés qui ont conservé leurs capacités d'accès et leurs codes d'accès, soit ce sont des employés qui utilisent leurs capacités pour modifier des arrondis, etc. Je ne reviendrai évidemment pas sur le cas de la Société Générale, que tout le monde connaît.
On a aussi de nombreux cas d'espionnage. Dans le domaine informatique, l'espionnage est malheureusement une plaie, assez peu connue, mais très présente. Il vise des infrastructures nationales, militaires, mais aussi des domaines aussi élémentaires que la culture ou le sport, et, évidemment, les institutions financières. On a des exemples.
Enfin, il y a aussi le risque potentiel d'attaque terroriste, alors qu'avant, je vous parlais de réalité.
Globalement aujourd'hui, le système financier, comme tout un paquet de systèmes critiques, dépend de ces systèmes d'information pour fonctionner. Il est de notoriété publique, aujourd'hui, qu'il est très facile de les mettre par terre sans faire beaucoup d'efforts. Les solutions existent. Il suffit de les mettre en place. Dans le domaine de la finance, on n'est pas spécifiquement en retard par rapport aux autres domaines d'activité qui se développent dans le cyberespace. La raison est simple. Les structures financières ont un avantage sur les autres structures plus réelles, je dirais. Une institution financière sait, en général, mesurer les conséquences, le coût d'un défaut de sécurité. À partir du moment où elle sait en mesurer le coût, elle sait en théorie faire la balance entre le coût de la mise en place de la sécurité et le coût en cas de problème. C'est l'exemple typique de la carte bancaire, en tout cas en France.
La première des choses, la plus essentielle à mettre en place dans les systèmes financiers, parallèlement à la transparence, c'est l'authentification, c'est-à-dire la capacité de savoir à tout moment qui a fait quoi. Cette authentification ne doit pas simplement être un identifiant et un mot de passe. Le système d'authentification doit être beaucoup plus fort, notamment à base de carte à puce, par exemple, qui est un domaine fort en France. Je sais bien que mettre en place de la sécurité génère toujours des frustrations et ralentit les processus. Mais ce genre de débat, on l'a eu au moment de l'introduction de la carte bancaire en France. On nous avait expliqué que cela allait coûter cher, que cela allait bloquer les ventes, que les clients n'en voudraient pas. La sagesse parlementaire a voulu qu'un certain nombre de garde-fous soient mis en place, en matière de sécurité, sur le développement des télépaiements en France. On a l'un des systèmes les plus sécurisés, à la base de système de très haute sécurité. Si on avait eu des systèmes d'authentification forts dans un certain nombre d'exemples que je viens de citer, ces choses là ne seraient probablement pas arrivées.
Deuxième aspect important, et je conclurai là-dessus, il faut évidemment mettre en place des mécanismes de défense en profondeur. Ces technologies existent aujourd'hui. Elles sont largement répandues depuis le chiffrement jusqu'à tous les systèmes qui permettent de suivre, de tracer, de détecter les comportements anormaux. Vous avez parlé des systèmes de contrôle qui permettent de détecter les comportements anormaux dans l'activité elle-même de trading ou de marché financier. La même chose existe dans les systèmes d'information. Ces systèmes sont fondamentalement vivants. Il faut les surveiller pour vérifier ce qui s'y passe. Si on ne le fait pas, on met très largement en danger nos systèmes.
Cela passe, évidemment, par la prise de conscience des décideurs, à tous les niveaux, y compris les régulateurs. Nous travaillons énormément avec la Banque de France, qui est particulièrement sensibilisée à ces questions. Par exemple, dans le domaine des cartes de paiement, il y a un office de surveillance à la sécurité des cartes de paiement, où, d'ailleurs, le Parlement est présent. Il y a d'autres domaines dans lesquels, malheureusement, on regarde de façon moins attentive les dispositifs de cybersécurité. Sans être grand clerc, je crois qu'on aurait tout intérêt à y regarder de plus près.
M. Claude Birraux. Merci. Vous avez dit sur un ton neutre que le nuage de Tchernobyl n'avait pas atteint la France. Pour l'avoir dit sur un ton véhément, j'ai un collègue qui a payé sept mille cinq cents euros d'amende, parce que la personne incriminée avait bien dit que le nuage atteignait la France, mais il avait dit que cela ne présentait pas de risque sanitaire. Continuez à le dire si vous devez continuer à le dire, sur un ton qui soit neutre, parce que sinon, il y a une jurisprudence.
« Instabilité des marchés financiers : mécanismes, modélisation, régulation »
M. Jean-Philippe Bouchaud, président de Capital Fund Management, professeur à l'Ecole polytechnique. Je vais vous parler de modélisation des instabilités des marchés financiers, ce qui nécessite de comprendre pourquoi et comment les marchés financiers changent. À la question « pourquoi les prix bougent ? » la réponse classique, c'est la théorie des marchés efficients, qui dit que les prix reflètent fidèlement la valeur fondamentale, et que celle-ci ne bouge que parce que des « nouvelles » imprévisibles se produisent, comme par exemple une autorisation de mise sur le marché d'un médicament. Ce sont des marchés « platoniciens », où la valeur fondamentale est révélée par les marchés, sans que celle-ci soit influencée par les marchés. En particulier, les krachs ne peuvent être qu'exogènes, et ne jamais être causés par la dynamique des marchés eux-mêmes.
Dans ce cadre-là, la démarche de l'ingénierie financière est de prendre ce processus de prix comme un processus exogène, imposé et intangible, dont on cherche une description statistique. La méthodologie est souvent de postuler un modèle statistique commode mathématiquement, dont on calibre, souvent à son corps défendant, le modèle, aux données de marché. L'exemple roi de cette pratique est ce que j'appellerais le modèle de «première génération» : le mouvement Brownien, dont le paramètre central est la volatilité.
Les problèmes de cette démarche sont multiples. J'en vois deux en particulier. D'une part, les modèles sont souvent en contradiction qualitative avec les données financières. Si on compare sur un graphe les variations de prix du mouvement brownien avec celles des cours financiers sur un siècle, on voit à l'oeil nu une différence qualitative : les mouvements financiers, sans que ce soit une grande surprise, exhibent des pics très importants, qui correspondent aux krachs, mais exhibent aussi cette espèce de régularité bizarre dans les bouffées d'activité. Par exemple, on voit un gros pic qui correspond aux années trente, au grand krach de 1929, et ce qui a suivi. Mais cette activité intermittente, et c'est la chose importante, montre des crises à toutes les échelles. Si on fait des zooms de ce graphe à plusieurs échelles, on retrouve cette régularité de périodes calmes suivies de périodes actives.
D'autre part, ces modèles n'ont aucune justification en termes de mécanismes sous-jacents identifiables traduisant la façon dont les marchés fonctionnent vraiment. La démarche ici est assez différente de celle en physique par exemple, qui consiste à essayer de justifier les équations qu'on utilise. Pour la mécanique des fluides, on utilisera, par exemple, l'hypothèse moléculaire. Il manque cette démarche qui consiste à essayer de justifier les modèles qu'on utilise, à partir de mécanismes financiers identifiables.
Ce qui a changé, depuis une dizaine d'années, c'est que les marchés financiers produisent, chaque semaine, des terabytes d'information, et permettent des études empiriques, de plus en plus précises, de questions fondamentales en économie. Par exemple, celle dont je viens de parler, la volatilité des marchés n'est-elle due qu'aux « nouvelles », comme le prétend l'économie classique, ou à autre chose ? Ce qui me semble très important, c'est de savoir si la dynamique est principalement exogène -donc due à ces « nouvelles » extérieures- ou endogène, c'est-à-dire soumise à sa dynamique propre. D'autres questions se posent : les prix sont-ils tels que l'offre égale la demande ? Comment les transactions impactent-elles les prix ?
Je vais me concentrer sur la première question. En synchronisant les flux de « nouvelles » avec les variations de prix à la minute, on a pu étudier cette question. Ce que l'on voit, c'est qu'effectivement certaines « nouvelles » font sauter les prix, parfois même beaucoup, mais quand on regarde les statistiques, on se rend compte que les marchés sont agités en permanence. Il y a beaucoup plus de sauts de prix que de nouvelles pertinentes sur la vie d'une société par exemple. Si on regarde les sauts à quatre écarts type, donc des sauts de prix très importants, on s'aperçoit que seuls 5% de ces sauts sont attribuables à des « nouvelles », la majorité semblant venir de nulle part. On dirait qu'ils sont dus à des sortes de microcrises de liquidité. Ces microcrises apparaissent à toutes les échelles et peuvent, parfois, conduire à des krachs, bien que, souvent, on ne parle même pas de ces événements, même s'ils agitent la vie quotidienne des marchés.
Dans la statistique des variations de prix, on observe un tas de choses très intéressantes. Une distribution de type Pareto, avec des queues très épaisses, et, surtout, cette intermittence multiéchelle des variations de prix. Ce qui est vraiment intéressant, c'est que, quel que soit l'actif spéculatif qu'on regarde empiriquement, on retrouve ces traits statistiques. Ce qui montre que, finalement, c'est moins les « nouvelles » qui comptent que le fait même que ces actifs soient traités de façon spéculative. Je pourrais vous donner une liste d'actifs qui, parfois, sont très surprenants, comme, par exemple, la volatilité implicite sur les marchés d'action, qui est un objet assez abstrait, et qui se comporte exactement de la même façon que tous les autres actifs spéculatifs. Donc, cela suggère vraiment que cette dynamique est plus endogène qu'exogène.
L'autre point qui frappe le physicien que je suis, c'est que cette dynamique par avalanches, intermittente, est très analogue à celle qu'on observe dans un tas de systèmes, dits complexes, en physique, comme les tremblements de terre, les éruptions solaires, la turbulence, etc. Si on compare le graphe de la variation des prix au vingtième siècle à la bourse américaine avec le graphe d'un écoulement turbulent, en particulier la dissipation locale d'énergie dans un écoulement, on voit cette même phénoménologie d'une activité qui est très intense, qui redisparaît, à toutes échelles.
Ce que je voudrais aussi vous montrer de façon très rapide, c'est ce qu'on appelle le bruit Barkhausen, dans les aimants désordonnés. Peu importe ce que c'est. La chose importante, c'est qu'on voit de nouveau une dynamique extrêmement intermittente, où, la majorité du temps, il ne se passe rien, et de temps en temps, ça craque. Ce qu'il faut comprendre ici, sur le système physique, c'est que la sollicitation exogène change, lentement et continûment, mais la dynamique endogène est suffisamment riche pour introduire cette discontinuité et cette intermittence.
Cela suggère donc que les boucles de rétroaction et les non-linéarités pourraient, à elles seules, expliquer ces observations empiriques, même sans chocs externes violents. Il faut se demander quelles sont ces sources de rétroactions et d'instabilités. Et ici, une notion qui apparaît de plus en plus comme fondamentale, c'est le fait que les marchés sont impactés par les transactions. Ce que font les gens, leurs transactions, font bouger les prix. Cela peut paraître une trivialité, mais à nouveau, du point de vue de l'économie classique, ça ne l'est pas. Que les transactions soient rationnelles, ou non, qu'elles soient informées, ou non, le fait d'acheter et de vendre impacte les prix. C'est une expérience qu'on a faite chez Capital Fund Management. On a envoyé des transactions au hasard, en tirant à pile ou face, et en mesurant leur impact, de façon précautionneuse, on voit qu'on impacte des prix même en lançant des transactions aléatoires.
Quelles sont les boucles de rétroaction ? Il y a quelques traits psychologiques qui me semblent importants et récurrents : les effets d'imitation et de mimétisme, qui induisent des mouvements de foule, des krachs ; le fait qu'en présence d'une situation très incertaine, on a tendance à penser que ce qui est déjà passé risque de se reproduire ; on essaie d'apprendre des «motifs», on suit des tendances. Cela crée des bulles.
Les règles de régulations peuvent être responsables de boucles de rétroaction déstabilisatrices : le benchmarking ; le mark-to-market , qui est très probablement responsable de ce qui s'est passé en 2008 ; les stratégies de couverture à la Black et Scholes, dont on a parlé tout à l'heure, qui ont causé une amplification terrible du grand krach d'octobre 1987. Donc l'utilisation des modèles mêmes peut induire des boucles de rétroaction. Plus récemment, au niveau microstructurel, au niveau de la liquidité, ce que j'ai appelé « incertitude de la liquidité », il y a un certain nombre de boucles de rétroaction, qu'on peut identifier dans le fonctionnement intime des marchés, en particulier, des boucles du type volatilité - spread , c'est-à-dire fourchette entre prix d'achats et prix de vente et volatilité. Les uns s'alimentent des autres. Ou ce peut être un volume de transaction qui crée un mouvement, lequel crée plus de volume, etc. Cette boucle de rétroaction est sans doute responsable du « flash crash » du 6 mai.
En conclusion rapide, je dirais d'abord que les marchés fluctuent, moins à cause de chocs externes, que via leur dynamique interne. Ensuite, l'objet de la modélisation en finance, devrait moins être l'étude de modèles ad hoc , que l'identification des mécanismes d'instabilités et de saturation. C'est ce qui conduirait à ce que j'ai appelé des « modèles de seconde génération ». Troisièmement, la finance théorique devrait passer d'une approche axiomatique, où les modèles sont postulés, à une approche plus empirique, où les modèles sont déduits, un peu comme dans la physique. Enfin, les données UHF 8 , dont j'ai parlé très brièvement, ouvrent, à mon avis, un nouveau continent d'investigations extraordinaire, pour aborder ces questions à la fois d'un point de vue empirique et théorique.
|
|
|
|
M. Olivier Oullier. Je suis en tout point d'accord avec ce que vous dites, et je vais essayer de prolonger. Si ce sont effectivement des facteurs intrinsèques à la dynamique du système qui participent à l'émergence de son comportement comme nous l'avons tous deux évoqué, est-ce qu'il ne devient pas complètement utopique de parler de contrôle des marchés, voire de régulation telle qu'elle est envisagée aujourd'hui ? Elle pourra, au mieux, ajuster les comportements mais, au final, ne permettra pas d'arriver à modifier et à stabiliser un système.
M. Jean-Philippe Bouchaud. Je suis plus optimiste que vous. À mon avis, au contraire, je pense que le système évolue tout seul. Les règles du jeu, les règles dynamiques du système, qui le fondent, sont importantes pour comprendre cette dynamique à grande échelle. Et donc, le fait de modifier, en particulier, des règles au niveau de la microstructure, peut stabiliser les marchés. On l'a vu, au moment du « flash crash » du 6 mai. On peut imaginer des solutions un peu techniques pour endogénéiser la stabilité de ce système.
M. Rama Cont. Vous avez raison dans le sens où la perspective que vient de nous donner Jean-Philippe Bouchaud change le paradigme de la régulation. Aujourd'hui, le paradigme dominant des régulateurs de marché consiste à surveiller les acteurs individuels, en s'assurant qu'ils respectent bien la règle. On s'assure que personne ne fait de délit d'initié, etc. Mais cela, c'est quelque chose qui se passe au niveau d'un acteur. Là, on parle de risques qui se passent au niveau de la dynamique du système. On peut très bien s'assurer que chacun respecte certaines règles, et que néanmoins le système s'emballe. C'est cela le risque endogène. Cela appelle un autre paradigme de régulation qui est une régulation à surveillance systémique. Cet élément était très présent dans l'exposé de M. Yves Bamberger. Et il n'est pas dans la logique traditionnelle de la régulation.
M. Jean-Philippe Bouchaud. Je suis tout à fait d'accord avec M. Rama Cont. C'est pour cela que j'ai insisté sur l'idée d'essayer de comprendre ces mécanismes de rétroaction et de déstabilisation.
M. Charles-Albert Lehalle. Et c'est pour cela qu'au niveau du changement de la réglementation, il y a une fenêtre de tir très courte pour ajuster le market design , la façon dont les marchés fonctionnent. Il faut vraiment se rendre compte qu'on est dans une période cruciale. Au début de l'année prochaine, la MIF 2 va être une façon de changer les règles du jeu, et donc de changer la dynamique intrinsèque. On peut changer la dynamique intrinsèque. Après, on ne peut plus qu'observer et augmenter notre capacité de s'acheter tous des microscopes pour regarder de plus près quelque chose qui, de toute façon, structurellement, comporte cette « endogénisation » du risque.
M. Olivier Oullier. Ou des macroscopes !
M. Yves Bamberger. La crise californienne, qui a conduit Arnold Schwarzenegger au poste de gouverneur, est liée effectivement à cela. Le design du marché de l'électricité en Californie a conduit, petit à petit, à ce que vous dites. Ma modeste analogie me conduit à partager ce que vous dites.
M. Claude Birraux. Oui, sachant qu'en Californie, il y avait un décalage très fort entre ce qu'était le marché et ceux qui investissaient. Ils n'avaient aucune raison d'investir, puisque les prix montaient tous les jours. C'était très bien. Pourquoi investir puisqu'on gagnait beaucoup ? Et puis à un moment, il y a obligatoirement un hiatus. De la même manière, il faut peut-être éviter ce hiatus entre l'économie réelle et l'économie virtuelle.
« Les marchés financiers au service de l'économie réelle : innovations possibles. »
M. Henri Sterdyniak, directeur du département d'économie de la mondialisation à l'Observatoire français des conjonctures économiques. L'écrivain argentin Jorge Luis Borges a écrit : « les brigands ne sont pas et ne seront jamais les amis sincères des voyageurs ». La crise que nous avons connue est une crise du capitalisme financier provoquée par des innovations financières hasardeuses et non régulées, dans un contexte de libéralisation et de globalisation financière. La crise a montré que les marchés étaient instables, moutonniers, aveugles. La domination des marchés financiers oblige les marchés réels à vivre en permanence dans « un contexte de casino », comme le disait Keynes, peu propice à un développement économique soutenable. La question qu'il faut se poser est : Que peut-on faire pour éviter cette domination des marchés financiers ?
Deuxièmement, les marchés financiers ne sont pas efficients. Sur les marchés financiers, on ne recherche pas les valeurs fondamentales. On cherche à gagner. Des précurseurs, des suiveurs, cherchent en permanence à créer des bulles, des événements. Comme l'a dit M. Jean-Paul Betbèze, les marchés détestent la stabilité. On aboutit à des situations où les marchés fonctionnent avec du mimétisme, des comportements grégaires, une forte instabilité. Si l'on regarde les marchés des changes, les marchés boursiers, l'on voit des fluctuations inexplicables, par rapport à ce que les économistes ont tendance à appeler les fondamentaux. Par exemple, dans le marché des dettes publiques de la zone euro, les marchés sont autovalidants, ils imaginent un scénario où les dettes publiques des pays du sud seraient insoutenables, et, effectivement, en augmentant les taux d'intérêt, ils les rendent insoutenables.
Troisièmement, les marchés sont dominés depuis quelques années par des spéculateurs, qui interviennent au détriment des intervenants physiques, pour essayer d'avoir une rentabilité extravagante, en utilisant leur vitesse de réaction et leur connaissance du fonctionnement des marchés.
Quatrièmement, les marchés réclament des rentabilités excessives. Ces rentabilités sont obtenues soit au détriment de l'économie réelle, soit par la génération de bulles financières, qui finissent un jour par éclater.
Les mathématiques financières, malgré des modèles sophistiqués, n'ont pas amélioré la capacité des marchés à prévoir les évolutions des grandeurs, que ce soit le taux de change, le taux d'intérêt, les cours de la bourse. Les mathématiques financières ne se sont pas attachées à définir des valeurs d'équilibre, à améliorer le fonctionnement des marchés. Elles se sont attachées à décrire le fonctionnement des marchés. Elles ont donc été néfastes. Avec les mathématiques financières, les marchés sont devenus de plus en plus instables.
Les opérateurs sur les marchés ont obtenu des rémunérations de plus en plus exorbitantes, qui ne correspondaient en rien à leur utilité sociale. On arrive à ce paradoxe, que les gens qui spéculent sur les marchés, sont dix fois plus payés que les ingénieurs, leurs camarades de promotion, qui font des choses utiles, comme d'essayer de faire des inventions sur la voiture électrique, sur la croissance soutenable. C'est une situation qui est socialement inacceptable.
Tout cela nous amène à dire que l'objectif ne doit pas être seulement d'améliorer la transparence des marchés, leur régulation. L'objectif doit être clairement de diminuer, fortement, leur importance, de baisser les rentabilités requises par le marché, de dégonfler le secteur financier, de diminuer le rôle des marchés financiers et le poids des activités spéculatives. Ce n'est pas seulement une question financière, c'est une question qui porte sur l'ensemble de la politique économique. Par exemple, la crise a bien montré qu'il vaut mieux de la retraite par répartition que de la retraite par capitalisation. La crise a bien montré qu'il faut créer un cinquième risque pour la dépendance et qu'il ne faut pas croire qu'on va financer la dépendance sur les marchés financiers, comme on peut le craindre aujourd'hui. La crise a bien montré qu'il vaut mieux construire des HLM pour les classes populaires, plutôt qu'endetter les ménages pauvres de manière insoutenable, comme c'est le cas aux Etats-Unis.
Que faire pour réduire l'importance des marchés financiers ? D'abord il faut réduire la liquidité et la spéculation déstabilisatrice par des taxes sur les transactions financières. Ensuite, il ne faut pas accepter telles quelles les innovations financières. Il faut se demander qu'elles sont les innovations financières qui sont effectivement utiles à l'économie réelle, en distinguant celles qui permettent aux entreprises de mieux diversifier leur risque, de celles qui sont inutiles, qui permettent uniquement aux spéculateurs d'avoir des profits de prédation. Par ailleurs, il faut interdire aux banques de spéculer pour leur compte propre. Il faut interdire aux banques de risquer leurs fonds propres sur les marchés spéculatifs. Le système bancaire doit se consacrer au crédit, aux entreprises et aux ménages. Il faut le séparer des marchés financiers. Il faut réduire la part de la finance de marché dans le financement des entreprises. La crise est aussi une crise écologique. Ceci nous amène à dire qu'il faut redévelopper un système bancaire public, pour financer en priorité les activités utiles sur un plan social et environnemental. Les entreprises ne doivent plus être guidées par la préoccupation de satisfaire les besoins des actionnaires. Les états doivent inciter fortement les entreprises à se redéployer, en particulier dans la croissance verte. Au niveau de la zone euro, il faut affranchir les marchés de la tutelle, de la menace des marchés financiers, en garantissant que tous les pays de la zone euro pourront toujours financer leur dette publique par la solidarité de leurs partenaires ou par la BCE. Sinon, on risque d'avoir en permanence des crises de la dette de la zone euro. Enfin, il faut taxer le profit des banques pour leur faire payer l'assurance publique de leurs dépôts. Et il faut taxer les opérations financières quand elles sont nuisibles et qu'elles se traduisent par des phénomènes spéculatifs.
L'Europe a un rôle important à jouer dans les réformes à faire. Elle doit peser de son poids, pour la mise en oeuvre d'une gouvernance économique et financière. Le passé récent a montré tous les dangers des fluctuations désordonnées des taux de change. Il faut donc relancer, au niveau des institutions internationales, des accords internationaux permettant la stabilisation des taux de change. Et il faut peser pour remettre en cause les stratégies macroéconomiques insoutenables, d'une part, celle des pays anglo-saxons, qui sont responsables de la crise, parce que leur croissance était basée sur un endettement insoutenable des ménages et sur des bulles financières, et, d'autre part, celle des pays néo-mercantilistes, la Chine et l'Allemagne, dont la croissance était basée sur des excédents excessifs qui obligeaient d'autres pays à avoir des dettes excessives.
M. Rama Cont. Prenons l'exemple concret du marché des « subprimes » qui a été évoqué plusieurs fois dans les exposés. C'est bien une innovation financière qui était très encouragée dans les années quatre-vingts, par le gouvernement américain entre autres. Il voyait cela comme un moyen de permettre à toute une couche de la société, notamment à des familles à revenus faibles, d'accéder au logement. Ce n'était donc pas une innovation financière purement sortie des salles de marché. C'était très encouragé par les gouvernants. En l'occurrence, vous savez très bien que Freddie Mac et Fany Mae étaient quasiment des agences gouvernementales, qui ont joué un rôle très important dans la croissance de ce marché. À l'époque, ils n'étaient pas vus comme une bombe à retardement au niveau des risques. Mais il se trouve qu'après, ils ont été à l'origine d'une bulle spéculative immense, et ont généré la crise que l'on sait. Et donc l'utilité sociale à court terme n'est pas forcément en contradiction avec le fait de générer des instabilités, des bulles, etc. Vous avez l'air de présenter cela comme deux choses complètement différentes, mais les décisions qui peuvent avoir une utilité, ou un intérêt social, à court terme, peuvent aussi générer des instabilités financières, à long terme ou à moyen terme.
M. Henri Sterdyniak. Je suis tout à fait d'accord. Si le système bancaire public n'est pas contrôlé, si on l'autorise à jouer comme le système privé, cela peut effectivement avoir des effets tout à fait nuisibles. En sens inverse, vous pouvez voir qu'il existe des systèmes sociaux qui ne génèrent pas de bulles financières, que ce soit la retraite par répartition, la santé, l'éducation. On peut comparer la stabilité des uns et des autres.
M. Claude Birraux. Cela nous amène à Mme Alexandra Givry, puisque M. Henri Sterdyniak, qui fait partie du manifeste des économistes atterrés, a appelé à plus de régulation, et c'est un doux euphémisme. Vous qui êtes chez le régulateur, expliquez-nous comment vous entendez mieux contrôler les mécanismes de trading innovants ? Parce qu'il ne faut pas oublier, comme le fait peut-être M. Henri Sterdyniak, qu'il y a de l'innovation qui est, en permanence, en marche.
M. Henri Sterdyniak. Enfin l'innovation... Il faut savoir quelle est l'utilité sociale de l'innovation ? Si l'innovation consiste à dire : je suis capable, en intervenant un millième de seconde avant les autres, de me mettre plein d'argent dans les poches, au détriment de mes clients, c'est une innovation socialement douteuse.
M. Claude Birraux. Vous allez nous expliquer, Mme Givry, comment on peut la contrôler.
« Mieux contrôler les mécanismes de trading innovants. »
Mme Alexandra Givry, adjointe au chef du service de la surveillance des marchés, Autorité des marchés financiers. Je vais essayer de répondre à cette difficile question, ou au moins donner quelques pistes. Pour commencer, nous avons vu, dans les interventions précédentes, deux grands types d'évolutions scientifiques et technologiques, qui impactent les marchés. Toutes les deux ont un impact fort sur le travail du régulateur. D'une part, la complexification des produits : les produits structurels, fonds à formule, etc. ont été mis sur le devant de la scène par la dernière crise, et changent la mission de protection d'épargne de l'AMF. Pour ce qui est de la deuxième mission de l'AMF, qui est de veiller au bon fonctionnement des marchés, on a justement ce fameux trading haute fréquence dont on a beaucoup parlé, ainsi que la fragmentation des marchés. Mon intervention sera centrée sur ce deuxième aspect, à savoir les implications des évolutions technologiques sur le fonctionnement des marchés. J'en traiterai deux aspects qui sont très fortement liés, à savoir la fragmentation des marchés et le développement du trading algorithmique.
La fragmentation des marchés a été rendue possible par la capacité technique à mettre en relation, de façon quasi instantanée, des données relatives à des transactions qui ont lieu sur des places différentes. C'est pourquoi, effectivement, la fragmentation des marchés et les évolutions technologiques sont très liées. Cette possibilité technique, couplée à la volonté politique de mettre fin au monopole historique des bourses traditionnelles, a ouvert certaines opportunités, mais elle a également fortement complexifié le fonctionnement des marchés et la tâche de tous les intervenants, y compris celle des régulateurs. Ce bouleversement, qui a été introduit par la directive MIF, fait actuellement l'objet d'un réexamen par la Commission européenne, tant ses résultats sont mitigés et controversés. Il ne s'agira, sans doute pas, de revenir en arrière sur la mise en concurrence des bourses, mais au moins de pallier, par la mise en transparence, à des effets non anticipés des nouvelles règles.
Cette fragmentation soulève une question capitale en matière de régulation : comment surveiller les carnets d'ordres ? En effet, avec la directive MIF, les régulateurs se sont accordés sur un moyen de pouvoir surveiller les transactions. Un système d'échanges entre régulateurs permet, à chacun des régulateurs européens, de disposer de l'ensemble des transactions qui sont réalisées sur des titres qui relèvent de sa compétence, quel que soit le lieu d'exécution de la transaction. En revanche, ce mécanisme n'existe pas pour les ordres, ce qui signifie qu'on a laissé un vide complet sur la surveillance des ordres. Or, on se rend compte, avec le développement du trading algorithmique, que l'enjeu des ordres est tout aussi important que celui des transactions.
Le layering est une technique très ancienne de manipulation de cours. Il consiste à introduire des ordres dans un carnet, pour donner l'impression d'un intérêt pour une valeur, alors que le but n'est pas d'exécuter cette transaction, mais au contraire, d'influencer le comportement des autres, pour pouvoir effectuer une transaction en sens inverse, à bon compte. Grâce à la rapidité des transactions et à la fragmentation des marchés, cette technique trouve maintenant de nouvelles formes, qui sont plus complexes ; ces stratégies trompeuses peuvent être effectuées dans des temps très courts et sur plusieurs lieux d'exécution à la fois.
À l'heure actuelle, ceci ne peut pas du tout être surveillé, parce que la législation européenne ne donne pas aux régulateurs le moyen de centraliser les carnets d'ordres pour les titres qui relèvent de leur compétence. Michel Barnier parlait tout à l'heure « de ne laisser aucun vide réglementaire, de surveiller tous les produits, tous les lieux d'exécution, tous les acteurs », et il ne faut pas oublier tous les types de surveillance également. Il y a la surveillance des transactions, mais également la surveillance des ordres.
Mon deuxième point, sur la modification des marchés, c'est bien sûr le développement du trading haute fréquence. Le trading algorithmique est loin d'être une technique marginale. C'est devenu le nouveau mode de fonctionnement des marchés. Il faut bien noter que deux types d'intervenants utilisent un trading algorithmique. D'un côté, on a effectivement ces nouveaux traders haute fréquence, qui ont un horizon d'investissement infinitésimal, très court, qui cherchent juste à profiter d'imperfections momentanées sur le marché. De l'autre côté, on a des investisseurs plus traditionnels, qui évaluent le potentiel d'une entreprise, et décident d'investir dans un horizon de temps relativement traditionnel. Celui-ci peut être d'un mois ou d'une semaine. Il reste supérieur à celui des hautes fréquences et garde un sens économique. Et pourtant, ces intervenants, eux aussi, font appel au trading algorithmique. Même si leur décision d'investissement est prise d'une autre façon, ils utilisent ensuite les automates pour pouvoir exécuter leur ordre. Bien que leurs motivations soient différentes, au final, on se retrouve avec des modes opératoires qui conduisent à plus de vitesse et plus d'instabilité.
La question de l'utilité sociale du trading algorithmique a déjà été posée. C'est un trading dans lequel des investisseurs peuvent placer un ordre avant de le retirer moins d'une milliseconde après, comme s'ils avaient changé d'avis sur l'entreprise. La question de l'utilité sociale d'une telle activité n'est pas simple. On dit souvent que les traders haute fréquence ont une utilité en tant que market maker , puisqu'ils permettent de rééquilibrer les prix entre deux lieux d'exécution. Ils ont également une utilité parce qu'ils peuvent permettre de débloquer des situations dans lesquelles une transaction ne se ferait pas sans eux, jouant ainsi un rôle d'intermédiaire entre des acheteurs ou des vendeurs qui ont des prétentions trop éloignées. Sur cet aspect, la mesure de l'utilité sociale est très complexe. Actuellement, les travaux disponibles sur ce sujet sont souvent très positifs et trop limitées pour que l'on puisse conclure à ce stade. On manque d'études académiques sur ce sujet. Elles nous permettraient d'évaluer, un peu plus précisément, l'utilité sociale de ce trading algorithmique. En attendant de pouvoir conclure, l'AMF se garde bien de condamner, sans discernement, l'automatisation des transactions et le trading haute fréquence. Effectivement, c'est quelque chose qui doit encore être étudié.
Malgré tout, si on ne peut pas conclure sur l'utilité, on peut déjà affirmer que ce mode de trading génère de nouveaux risques. On en a déjà parlé dans d'autres interventions, le premier risque identifié est le risque systémique d'instabilité. Pour le « flash crash » du 6 mai, l'ordre initial n'était pas celui d'un trader haute fréquence, mais l'interaction entre les différents algorithmes de trading a pu amplifier les mouvements. En second lieu, le trading algorithmique génère un risque opérationnel, en cas d'erreur de paramétrage d'un algorithme. Michel Barnier a rappelé l'exemple de 2003, dans lequel une faillite était survenue, suite à un problème de paramétrage. Cela peut paraître assez inquiétant, mais même si les modèles de trading sont très sophistiqués, cela n'empêche pas qu'il y ait des erreurs. Quand on interroge des prestataires sur la stratégie sous-jacente à certains ordres qu'on a repérés comme étant suspects, il arrive encore régulièrement qu'ils nous expliquent, qu'en fait, c'était une erreur de paramétrage. Le troisième risque concerne les questions de nuisances sur la lisibilité de l'offre et de la demande, en particulier sur les pratiques de « quote-stuffing » , qui ont précisément, pour objet, de placer des ordres dans le carnet dans le simple but de gêner les autres intervenants sur leur interprétation de l'offre et de la demande. Cela gêne les autres intervenants, et cela gêne évidemment le régulateur. Enfin, le dernier point de risque créé par ce trading algorithmique, c'est la perte d'intégrité du marché. Des manipulations de cours peuvent être exécutées par ces algorithmes, et elles sont difficilement repérables.
Je voudrais vous montrer un exemple réel d'une manipulation de cours très rapide, en 15 secondes. Nous observons le carnet d'ordres d'Euronext, sur une valeur du CAC 40. La séquence commence à 9h41 et 39 s. Le titre cote autour de 17,36 €. Dans la situation initiale du carnet, le meilleur prix des acheteurs, qui sont prêts à acheter ce titre, est de 17,355 €. Le prix des vendeurs le plus bas est de 17,370 €. Parmi les 7788 titres proposés à la vente au cours de 17,375 €, le prestataire B, qui est celui qui nous intéresse, a une demande de 100 titres. Nous pouvons faire défiler le carnet en visualisant chaque nouvelle entrée d'ordre. Nous pouvons observer que le prestataire B ajoute de très nombreux ordres de vente, de plus en plus gros. Et puis il vient traverser la fourchette, c'est-à-dire qu'il propose un ordre de vente à un prix plus bas que le prix proposé jusque là, se rapprochant ainsi du prix proposés par les acheteurs. Il prend une position majoritaire sur le carnet d'ordres à la vente, l'objectif étant de faire évoluer les ordres des autres intervenants pour faire descendre le prix. Sa manoeuvre fonctionne : de nouveaux ordres de vente sont également placés sur le carnet par d'autres intervenants. Le prestataire B est donc suivi par les autres vendeurs, mais également par les acheteurs qui ont descendu leur prix, faisant ainsi baisser la fourchette. 10 secondes après le début de la séquence, le prestataire B vient se positionner à l'achat, avec un ordre de 10 000 titres à 17,350 €. Il continue à placer des ordres de vente. 17 secondes après le début de la séquence, il est majoritaire sur toutes les limites à la vente. Et à cet instant-là, un autre intervenant se dit : si je veux vraiment vendre, vu la poussée à la vente, je suis obligé de baisser mon prix... Et donc 17 secondes après avoir commencé à placer ses premiers ordres, à 9h41 et 56 s., le prestataire B a réussi à acheter à 17,350 € à la place de 17,370 €. Le profit réalisé n'est pas énorme, mais il est obtenu en 15 secondes. Bien sûr, l'objectif n'est pas juste de gagner quelques centimes sur un titre à l'achat pour 10 000 titres, c'est de le reproduire dans l'autre sens, puis à nouveau, etc. : 15 secondes après, on revoit ce même intervenant qui a mis en place la même technique, et qui revend les titres à un cours plus élevé.
Cet exemple n'est pas excessivement rapide et il porte sur un seul carnet d'ordres. Cela, l'AMF arrive encore à l'analyser, parce qu'on a les données et c'est « suffisamment lent » pour qu'on puisse, avec nos outils de détection, être en mesure de le détecter. Mais vous pouvez imaginer qu'avec des vitesses encore plus rapides et en passant par plusieurs lieux de négociation, on est face à un problème assez complexe dans l'analyse des carnets d'ordres. Cet exemple vous donne une idée des problématiques auxquelles on fait face.
Quelles sont les pistes envisageables pour avoir une meilleure régulation des marchés ? Tout d'abord, il existe des règles simples qui visent à empêcher un emballement des marchés tels que le coupe-circuit, dont on a beaucoup parlé après le « flash crash » . Le fait de faire une pause dans les marchés quand on a une trop forte variation peut permettre à chacun de reprendre ses esprits. Un peu de répit peut permettre de limiter la baisse. Mais cette règle ne fonctionne qu'à partir du moment où l'on a déjà eu un mouvement de marché très fort.
Il existe également la possibilité de mettre davantage de pression en amont pour éviter que les ordres de taille importante qui peuvent déséquilibrer le marché, n'arrivent pas jusqu'au lieu de négociation. D'une part, il s'agit de mettre les responsabilités sur les infrastructures de marché. Effectivement, elles sont censées auditer leurs membres pour vérifier qu'ils ont bien mis en place des systèmes de contrôle, de façon à ne pas transmettre au marché des ordres de taille monumentale tels que celui qui a été à l'origine du « flash crash » . Mais les infrastructures de marché sont en concurrence, elles n'ont pas énormément de moyens, et donc il y a besoin de renforcer la pression si on veut que ce contrôle soit efficace. D'autre part, toujours à leur niveau, il s'agit de mettre la responsabilité sur les brokers. En effet, les brokers doivent contrôler les accès directs aux marchés qu'ils donnent à des clients. Cela évitera donc que des ordres de taille importante, qui peuvent le déséquilibrer, n'arrivent sur le marché.
|
|
|
|
Ces mesures peuvent limiter le risque de « flash crash » , le risque systémique dont on a parlé. En revanche, elles ne suffiront pas à protéger l'intégrité des marchés. Comme on l'a vu sur l'exemple, des variations très petites profitent à certains au détriment d'autres. On a donc un problème sur l'intégrité des marchés, mais il ne s'agit pas de variations énormes qu'on peut repérer sur la base des seules transactions. Sur cet aspect, la seule solution est d'investir davantage sur la surveillance des carnets d'ordres. C'est un point sur lequel l'AMF se bat avec ses autres collègues européens. Parmi les régulateurs de marché européens, peu d'autorités ont autant d'outils que l'AMF, et pourtant nos moyens sont encore très faibles. Ce qui fait que nous sommes assez isolés pour s'attaquer à la surveillance des carnets d'ordres, mais ce sujet est d'une importance capitale. Tant qu'on n'a pas de moyens technologiques pour surveiller le marché, on ne pourra pas empêcher l'intégrité du marché de se dégrader. Cela implique des moyens technologiques et humains suffisants. Pour lutter, il nous faut des algorithmes de détection, ainsi que des algorithmes d'analyse du marché pour le comprendre. Nous avons besoin d'ingénieurs pour les mettre en place et de machines pour les faire tourner.
Il y a également un besoin de modifications réglementaires, afin de mettre en avant la nécessité de surveiller les carnets d'ordres. Pour l'instant, nous avons un vide réglementaire sur ce point. Bref, seule une volonté politique importante peut donner au régulateur les moyens de continuer à tenir sa mission de garant de l'intégrité des marchés. S'ils ne peuvent plus assurer cette mission, ou s'il s'avère que les ressources nécessaires ne peuvent pas être raisonnablement affectées aux régulateurs, il semble qu'il n'y aura pas d'autre solution que de mettre en place des règles arbitraires du type : imposer un temps de latence minimum avant une annulation. Mais il n'est pas certain que ce type de mécanisme soit suffisant. Ces règles seront toujours challengées, parce que les intervenants chercheront à passer outre.
M. Claude Birraux. Merci. La liaison est toute faite avec M. Marcel-Eric Terret, qui est à la Commission européenne, et qui va nous parler du rôle de l'Europe dans les nouvelles réglementations. Si j'ai bien compris, une réglementation purement nationale est tout à fait vaine. On fait donc appel au moins à une réglementation européenne, voire internationale. Comment se situe l'Europe ?
Quel rôle pour l'Europe dans les nouvelles réglementations ?
M. Marcel-Eric Terret, policy officer, direction générale « Marché intérieur et services » (DG MARKT) - Commission européenne. Le commissaire Barnier a déjà présenté les projets pour les prochains mois. Je vous propose de présenter l'acquis communautaire en matière de réglementation de marché.
Cela fait une vingtaine d'années que la Commission européenne travaille sur la réglementation de marché. Dans un premier temps, dans les années quatre-vingt-dix, elle s'était surtout focalisée sur la réglementation des acteurs de marché (c'est-à-dire les intermédiaires, banques, entreprises d'investissement), les investisseurs et les émetteurs. Pour les premiers, on a eu les directives bancaires, la DSI 9 , qui est devenue la MIF. Pour les émetteurs, on a eu la directive « Prospectus » 10 , qui détermine les conditions d'introduction des titres en bourse. Pour les investisseurs, on a eu différentes directives visant à contrôler leur intervention sur le marché, notamment les directives « Abus de marché » 11 et « OPA » 12 .
Depuis une dizaine d'années, la Commission européenne a réorienté ses interventions vers les infrastructures de marché. On considère qu'un marché, c'est plus que la somme des acteurs qui y interviennent, ce sont également les règles du jeu auxquelles ils décident de se soumettre, ainsi que les moyens technologiques qu'ils utilisent. Pour nous, les infrastructures de marché, c'est un peu les règles et l'électricité.
La législation concernant les infrastructures de marché a eu pour principale philosophie, la poursuite du risque systémique. C'est une approche de risque zéro, qui consiste à suivre l'hypothèse que la défaillance d'un intervenant de marché peut entraîner un effet domino, qui entraîne d'autres défaillances, sur ce marché. On considère ce marché un peu comme un champ clos, sur lequel des effets dominos sont susceptibles de se produire.
Notre travail est divisé en deux. On distingue deux infrastructures de marché, avec, d'une part, les infrastructures de négociation proprement dites, et, d'autre part, les infrastructures dites de post-marché. On a déjà parlé, abondamment, des infrastructures de négociation. Il s'agit, en premier lieu, des marchés réglementés, des plateformes de trading multilatérales, et, également, à un niveau un petit peu plus opaque, moins réglementé, des fameux internaliseurs, des "dark pools", des réseaux croisés, qui ont été abondamment évoqués tout à l'heure.
Ces infrastructures de marché sont sujettes au risque systémique de liquidité. Je ne parle pas des causes de risque systémique, je ne parle pas, par exemple, des risques opérationnels qui peuvent être à l'origine de risques systémiques. Je raisonne, uniquement, en termes de conséquences. On distingue deux types de conséquences systémiques. D'une part, ce sont les conséquences sur la liquidité du marché, que nous subissons actuellement depuis la crise de 2008, c'est-à-dire une forte restriction de la liquidité sur le marché, avec des effets macroéconomiques considérables. D'autre part, il y a ce qu'on appelle les risques de contrepartie. Ils n'ont pas pour effet de réduire la liquidité, mais d'éliminer un certain nombre d'acteurs. Lorsque ces risques prennent des proportions systémiques, nous avons ce fameux effet domino, dans lequel les acteurs tombent, les uns à la suite des autres, de façon très rapide. Fort heureusement, la crise que nous connaissons n'a pas vu cet effet systémique de contrepartie se produire de façon aussi forte qu'il s'est produit en 1929. Et pourquoi ?
Depuis 1998, nous avons fortement réglementé ce qu'on appelle le post-marché. Le post-marché, c'est l'instant de vérité si vous voulez. C'est le lieu où les règlements et les livraisons de titres vont se produire. Ce post-marché a lieu, désormais, à l'intérieur de systèmes qui sont, eux aussi, extrêmement denses sur le plan technologique. Ils sont régis par des infrastructures informatisées, très puissantes, que l'on appelle les chambres de compensation, que l'on appelle les systèmes de règlement en livraison de titres, et que l'on appelle les dépositaires centraux de titres. Ce secteur a été fortement réglementé, dès 2008, où l'on a introduit une règle essentielle : dès lors qu'une de ces transactions se règle à l'intérieur de ce système, celle-ci est menée à bonne fin, quand bien même une des contreparties ferait l'objet d'une faillite. Une des raisons pour lesquelles nous n'avons pas vu de faillites en chaîne intervenir à la suite de la crise de 1998 est due à l'existence de ce principe, selon lequel les systèmes de règlement de titres sont désormais sanctuarisés, c'est-à-dire protégés contre les conséquences d'une faillite. Désormais, depuis 1998, tout participant à ce système est garanti qu'il ne subira pas les conséquences de la disparition d'un autre participant à ce système.
Notre réglementation, pour l'avenir, consiste, d'une part, à continuer à peaufiner notre « arsenal marché »: la MIF pour tout ce qui concerne les aspects relatifs à l'identification des marchés et de certaines techniques de marché ; la directive « Abus de marché » pour ce qui concerne certains phénomènes de rumeurs ou de faux ordres introduits dans les carnets de commande. Nous avons aussi un projet de législation sur la vente à découvert, qui vise à éviter un certain nombre d'abus, notamment dans ce qu'on appelle la vente à découvert à nu, lorsqu'on n'a même pas les moyens de payer ce qu'on a vendu.
Par ailleurs, notre arsenal post-marché est en cours d'élaboration. Vient d'être déposé un projet de règlement sur les chambres de compensation, qui vise non seulement, à éviter les conséquences de la faillite d'un participant à ces chambres de compensation, mais également, les conséquences de la faillite de la chambre de compensation elle-même. Celle-ci peut, en effet, être catastrophique, puisque ces chambres de compensation ont pour mission essentielle de concentrer, sur elles, l'ensemble des risques de règlement de marchés.
Débat.
M. Claude Birraux. M. Olivier Oullier va nous dire comment voir, ou traiter, les traders compulsifs.
« L'apport des sciences comportementales en finance »
M. Olivier Oullier . Pas uniquement les traders , même si les médias s'intéressent beaucoup plus aux traders qu'aux autres acteurs de la finance. Ce qui nous intéresse, c'est l'ensemble des individus qui vont participer aux décisions financières, quels que soient leurs niveaux et leurs fonctions.
Au moment de l'affaire de la Société Générale, début janvier 2008, avec Erwann Michel-Kerjan de la Wharton School à Philadelphie, nous avons publié un édito, dans un grand quotidien français. Plutôt que de nous focaliser sur les réactions cérébrales du trader en question, qui avait fait une sorte de « master plan », mené avec peu de succès, ce qui nous intéressait beaucoup plus, était la réaction et les prises de décision, des gens qui ont dû couvrir les positions, dans un contexte de pression peu commun, vous en conviendrez. Suite à cette publication, nous avons reçu énormément de sollicitations d'institutions, publiques et privées, nous demandant si les outils et méthodes, que nous développions, et les travaux que nous menions, en sciences comportementales et du cerveau, pourraient aider au recrutement de traders , ou de certaines personnes pour les middle - et les back-offices . Les demandes étaient complètement paradoxales par rapport aux comportements financiers en général, qui requièrent une capacité à gérer des risques, à traiter de l'information et à prendre des décisions, à une vitesse, que la plupart des personnes qui n'ont pas eu cette formation ne peuvent pas faire. Il nous a souvent été demandé de développer des outils, pour essayer de « fabriquer » des décideurs rationnels, des calculateurs froids, qui sauraient s'arrêter avant d'engendrer des pertes majeures.
Notre perspective rejoint celle de grands économistes, dont Alan Kirman, qui ont publié un très bel article insistant sur le fait que la crise économique et financière est, aussi, une crise des sciences économiques, et de la façon dont on doit les envisager et les enseigner.
Or, dans la formation typique des très bons traders , il y a une formation extrêmement poussée en mathématiques appliquées. Par contre, il apparaît que, souvent, ils ne sont en rien préparés à la gestion du stress, et aux stimulations, peu communes, offertes par l'environnement socio-professionnel, dans lequel ils vont évoluer une fois embauchés. A l'heure actuelle, rien ne permet de simuler, et donc de préparer au niveau de stress et de traitement d'information qui peut se passer dans une situation réelle de marché financier. Toutefois, rien n'empêche de s'inspirer d'autres formations de gens exceptionnels, tels que les astronautes ou les pilotes de chasse, par exemple. Ces derniers, sont entraînés à automatiser des comportements, pour décider et agir au mieux, dans certaines situations extrêmes. De fait, l'une des idées que nous sommes en train de développer est le développement d'un ensemble d'outils et de méthodes, qui permettraient d'avoir un training maximal, face à des situations de crise, pour les futurs professionnels de la finance.
D'un autre côté, arriver à entraîner quelqu'un à réagir à des situations types élude complètement l'une des caractéristiques principales des risques que nous rencontrons aujourd'hui : leur nouveauté et leur interdépendance. En effet, certains risques financiers et sociaux, qui vont influer sur la finance, sont des risques que, pour beaucoup, nous n'avons jamais vécus. Par exemple, personne n'avait prévu ce qui est arrivé le 11 septembre 2001. Il était donc difficile de préparer, qui que ce soit, à gérer un tel risque. C'est pourquoi, si l'on venait à repenser la formation, il faudrait, à la fois, préparer, à la manière de ce qui est fait pour les pilotes ou les astronautes, à automatiser une certaine forme de gestion du risque extrême, mais aussi, former à prendre en compte la nouveauté, le plus efficacement possible, donc savoir gérer une part « d'improvisation fonctionnelle et efficiente ». N'oublions pas de former à la gestion de la vie « normale », c'est-à-dire sans la sur-stimulation des marchés financiers. Il s'agit, j'en conviens, d'un paradoxe théorique et empirique.
L'autre point, quelque peu gênant, dans les demandes que nous avions reçues, est la vision, un peu monolithique et trop homogène, de la population des traders . Les médias nous parlent des traders en général, or on ne peut s'en tenir à une description générique. Par exemple, il existe des traders qui ne prennent pas énormément de risque et qui durent. Dans les échanges que nous avons avec eux, et dans l'observation de leurs actions, il apparaît que ce sont des gens qui ont tendance à vouloir que le marché soit le plus stable possible, parce que ce qu'ils ont appris de leurs outils mathématiques, fonctionne mieux quand le marché reste dans le cadre de ce qui a pu leur être enseigné. La vision du trader un peu hors de contrôle, le fameux « rogue trader » en anglais, est extrêmement tenace, car ce sont d'eux dont on parle le plus alors qu'ils sont minoritaires.
M. Rama Cont. Excusez-moi de vous interrompre, mais je ne sais pas pourquoi vous mélangez sans cesse « rogue trader » et mathématiques. Les « rogue traders » que vous avez cités, Kerviel, etc., faisaient des transactions sur les contrats à terme les plus simples, où il n'y avait pas de mathématiques. D'ailleurs, ils n'avaient ni une formation d'ingénieur, ou de mathématiques. Je pense que le problème est plutôt pourquoi l'institution, la banque, autorisent un seul trader , qu'il soit « rogue trader » ou parfaitement équilibré, à prendre des positions qui feront cinquante milliards d'euros. C'est plutôt cela la question.
M. Olivier Oullier. Il y a cette question-là, mais il y a aussi la question du contrôle, le problème de la personne qui prendrait ces positions, et de celles en back-office , qui n'ont peut-être pas le même niveau de compétence, et de rémunération, que le front office , et ne peuvent arriver véritablement à faire le travail qui leur est demandé.
M. Rama Cont. De quelles compétences parle-t-on ? Ce sont des additions, des multiplications et des vérifications d'ordres. Ce ne sont pas des compétences très sophistiquées.
M. Olivier Oullier . Mais à quelle vitesse se déroulent ces vérifications ? Et quid des liens psychologiques et sociaux entre le fait que le bonus du back-office peut dépendre aussi de ce que fait le front office ? Cela renforce la hiérarchie qui existe déjà entre les deux. De fait, dans la relation qu'ils peuvent avoir, ce n'est pas forcément aussi rationnel, objectif, et simple, que vous le présentez. Loin de moi l'idée de faire un amalgame. Ce n'est pas du tout les mathématiques versus le comportement. Mon propos est, seulement, de dire qu'une meilleure compréhension du comportement des personnes, intervenant sur les marchés financiers, quel que soit leur niveau d'intervention, peut être une valeur ajoutée, non négligeable, pour la régulation comme pour les institutions.
M. Yves Bamberger. Vous êtes un allié du capitalisme financier le plus sauvage, si je comprends bien.
M. Olivier Oullier. Je ne comprends pas votre remarque. Nous nous interrogeons sur de nouvelles stratégies, qui pourraient aider à la régulation. Tout à l'heure, nous avons entendu que dix-sept secondes est la limite actuelle pour la détection par l'AMF d'un point de vue technique, il convient donc de prendre en compte les limites, et les possibilités offertes par le comportement humain.
Mme Alexandra Givry. On peut encore faire mieux, sauf qu'on n'a pas de machines suffisamment puissantes pour aller au-delà. Effectivement, on a des limites, en termes de moyens.
M. Charles-Albert Lehalle . Il ne faut pas sans cesse faire l'amalgame, en pensant que parce que les choses vont vite, on n'est pas capable de les contrôler. On sait envoyer des fusées, on sait contrôler des processus qui vont à 50 000 Hz. On ne conduit pas une voiture en pédalant. La technologie est là pour aider à surveiller.
M. Olivier Oullier. La vitesse à laquelle les informations arrivent lorsque vous conduisez une voiture n'a rien à voir.
M. Charles-Albert Lehalle . Quand il s'agit de contrôler la combustion dans le moteur d'une voiture, c'est toutes les 2 usecondes.
M. Olivier Oullier. Je parle de l'humain qui contrôle. Vous ne contrôlez pas la combustion de votre voiture.
M. Charles-Albert Lehalle. Justement, il y a des machines pour cela.
M. Claude Birraux. Très brève intervention de M. Jean-Pierre Kahane s'il vous plaît.
M. Jean-Pierre Kahane. J'ai trouvé les dernières communications très intéressantes pour décrire les outils dont nous pouvons disposer, en ce qui concerne l'analyse des marchés financiers, comme de la psychologie des traders . Mais il m'a semblé que l'optique était d'améliorer le système, et non pas du tout de le changer : améliorer le comportement des traders , améliorer le métier, éviter les systèmes de dominos... Et je vois que dans la critique qu'il fait du système, Stiglitz va bien au-delà. Il autorise les systèmes de dominos, il autorise les faillites, il recommande qu'on laisse les banques faire faillite, puisque les actionnaires profitent des profits des banques, et quand les banques font faillite, les actionnaires n'ont qu'à payer, et à ce moment-là, sont remplacées par les obligataires, qui deviennent les propriétaires des banques. Il y a une direction qui est dessinée par Stiglitz, dont je n'ai absolument pas entendu parler ici.
M. Marcel-Eric Terret. Je profite de l'intervention de M. Jean-Pierre Kahane pour présenter la différence de philosophie entre la réglementation européenne et la réglementation américaine. Stiglitz, malgré toutes ses qualités, est un Américain, qui raisonne dans le cadre d'un système dans lequel l'État est le dernier garant de la stabilité des marchés financiers. Et pour cause, le taux de pression fiscale aux Etats-Unis n'est que de 25%. Malgré son très fort endettement, il est toujours possible d'augmenter les taxes sur le carburant, pour pouvoir couvrir le déficit budgétaire américain. En revanche, en Europe, l'approche que nous avons eue, à la fin des années quatre-vingt-dix, était une situation dans laquelle nous avons un taux de prélèvements obligatoires beaucoup plus élevé, et dans lequel la plupart des États européens n'ont plus les marges financières suffisantes pour pouvoir intervenir en tant que dernier garant. C'est la raison pour laquelle nous en sommes réduits à faire des améliorations, et non pas des solutions de fond. Effectivement, aux Etats-Unis, on peut se permettre d'avoir des faillites en chaîne, parce que l'État va repêcher cela. En revanche, en Europe, on ne peut pas se permettre cela, sinon c'est le scénario grec, ou le scénario irlandais, qui risque de se reproduire.
M. Rama Cont. Il y a une question de fond qui est mal posée. Et je reviens à une phrase que vous avez dite lors de votre intervention : il n'y a pas d'étude sur l'utilité sociale de certains mécanismes de marché. Il ne peut pas y avoir d'études académiques simples sur l'utilité sociale. Les études académiques vont vous dire si tel ou tel mécanisme de marché va augmenter ou diminuer la liquidité par exemple. Mais la question de fond, c'est : est-ce que l'objectif est d'augmenter la liquidité ? La liquidité de marché est-elle une fin en soi ? Ou est-ce qu'il y a une liquidité minimale qui est nécessaire au fonctionnement du financement des entreprises, et au-delà de laquelle c'est un luxe, dont on n'a pas besoin, et qu'on pourrait sacrifier, pour gagner sur d'autres terrains ? Je pense que c'est une question de fond qui a été derrière toutes ces interrogations, que j'ai entendues à la fin de la table ronde. C'est une vraie question.
Mme Alexandra Givry. Effectivement, pour l'instant, on n'a même pas la réponse à la première question qui est de savoir si, vraiment, cela améliore la liquidité.
M. Rama Cont. Même si certains mécanismes augmentent la liquidité, ce n'est pas forcément une utilité sociale. Je ne vois pas cela comme une utilité sociale. On est en train de raisonner en vase clos, sur un marché financier, sans parler de l'interaction de ce marché financier avec la macroéconomie. Toutes les questions de risque systémique, qui expliquent qu'on soit là aujourd'hui, découlent du fait que ce n'est pas un vase clos, ou un système fermé. Il interagit avec le crédit et avec l'économie réelle. Cela n'a pas été débattu ici. C'est plus large que le sujet d'aujourd'hui.
M. Claude Birraux. Présentez-nous votre synthèse, M. Rama Cont.