PREMIÈRE TABLE RONDE : « ETAT DES LIEUX »

« Du réseau énergétique aux marchés financiers : analogies entre deux systèmes complexes »

M. Yves Bamberger, conseiller scientifique du président directeur général d'EDF, membre de l'Académie des technologies. Le système électrique est probablement très simple par rapport au système financier. Les mots que Michel Barnier a employés, transparence, responsabilité, régulation, concernent aussi les électriciens et le système qui les fait vivre. Je vais essayer de présenter les analogies entre les deux systèmes, mais aussi les différences. Dans un premier temps, je vais présenter l'analyse qui a été faite par les acteurs de l'incident du 4 novembre 2006, où quinze millions d'Européens ont, pendant quelques dizaines de minutes, eu l'électricité coupée, suite au passage d'un bateau sur l'Ems, en Allemagne du Nord. Cette analyse va nous permettre de comprendre les analogies et les problèmes que rencontre le système électrique depuis un certain nombre d'années, pour passer du système du vingtième siècle au système du vingt-et-unième siècle. Le système électrique, dont nous avons hérité, est un système avec de grandes centrales, très puissantes, quelques centaines en Europe, un réseau de transport, largement national, interconnecté entre les pays, et un réseau de distribution qui va jusqu'aux prises électriques dans nos maisons. Petit à petit, on voit monter des acteurs nouveaux, des milliers de sources de production, et, à terme, de stockage, avec des panneaux voltaïques, des éoliennes, et bien d`autres choses. Comment cela se passe ? Y a-t-il des analogies ?

L'incident européen du 4 novembre 2006 : la ligne double 400 kV Conneforde - Diele - Meeden, surplombant l'Ems (au nord de l'Allemagne), doit être mise hors tension par le réseau E.ON pour permettre le passage d'un navire vers 22h. À ce moment-là, en Europe, le réseau d'interconnexion est partagé en trois zones de production : la zone nord-est produit beaucoup, c'est l'éolien allemand qui exporte de l'électricité vers l'ouest et le sud de l'Europe ; cette seconde zone consomme plus qu'elle ne produit ; une troisième zone au sud-est est à peu près à l'équilibre. Au moment où la ligne s'est ouverte, en l'espace de quelques dizaines de minutes, il y a eu une coupure du système électrique européen en trois zones : une surtension dans la zone nord-est fortement excédentaire en production ; une sous-tension dans la partie ouest déficitaire en production ; la zone sud-est a gardé, quant à elle, un relatif équilibre consommation-production. À ce moment-là, vous n'êtes pas aux 10% de baisse des actions dont parlait Michel Barnier, vous avez une variation de la fréquence qui a pour conséquence que la majorité des éoliennes se sont déconnectées. En particulier, tout l'éolien espagnol (plus de deux mille cinq cents mégawatts) s'est déconnecté, à cause de la sous-tension. Cela a aggravé la situation dans la zone ouest, déficitaire en production. De l'autre côté, en Allemagne, les éoliennes se sont déconnectées par surtension. Ce qui a fait tenir le système, ce sont deux choses : d'une part, les grandes centrales classiques, notamment les centrales nucléaires, qui ont continué à tourner à leur rythme habituel, d'autre part, l'hydraulique a été convoqué d'urgence par les dispatchers . En quelques dizaines de secondes, puis en quelques dizaines de minutes, on a pu ramener la fréquence au bon niveau pour réalimenter tout le monde. Ce qui a compliqué les choses, c'est notamment le fait qu'en Allemagne du Nord, les éoliennes ne sont pas dispatchées, c'est-à-dire que l'état de la production éolienne, à l'époque, n'était pas connu des dispatchers qui commandent le système. En Espagne, ils avaient commencé à faire en sorte que l'état de la production éolienne soit observable, voire dispatchable.

Cela nous amène au point clé que je voulais mentionner. Le système électrique fonctionne avec des prévisions de production-consommation à 5 ans, 1 an, 1 mois, 1 semaine, 24 heures, quelques heures, quelques minutes, quelques secondes, avec la prise en compte des grandes centrales classiques et du réseau. Mais jusque-là, pour favoriser leur démarrage, on n'a absolument pas imposé à ces nouveaux acteurs que sont l'éolien et le solaire de participer à l'équilibrage du système. Premièrement, on ne leur a pas imposé de donner des informations aux dispatchers . Deuxièmement, les dispatchers n'ont pas les moyens de couper les éoliennes. Résultat : le 4 novembre 2006, la production centralisée, bien connue, s'est bien comportée. Par contre, tout l'éolien et les énergies nouvelles ont eu du mal.

Analysons la situation. Premier point, très important, la règle du N-1 n'a pas été respectée. Dans le système électrique historique, en principe, tous les jours pour le lendemain, et en temps réel toutes les quinze minutes, on regarde ce qui se passe si un élément s'arrête ou tombe. Si une grande ligne à haute tension tombe, si une centrale s'arrête, si un poste de transformation est cassé, on vérifie à chaque instant que le système pourra encore tourner. C'est une règle technique très simple. Je ne suis pas sûr que sa transposition au système financier soit aussi simple. Précisément, ce jour-là, il s'est trouvé, à la grande surprise des électriciens, que le réseau E.ON n'avait pas respecté la règle du N-1. Pourquoi ? Peut-être que certaines nouvelles règles de marché font que certains acteurs peuvent être tentés de contourner les règles... On y reviendra tout à l'heure. Deuxième point, très frappant, que l'on retrouve aussi dans la crise financière, c'est le manque de coordination entre les opérateurs de réseau. Les dispatchers d'un pays à l'autre n'avaient pas assez d'informations partagées pour agir de manière cohérente. Enfin, troisième point : le déclenchement massif de production décentralisée dans la zone ouest.

En conclusion, je dirais qu'à l'évidence, il y a une complexité croissante, dans le réseau électrique, comme dans la finance. Chez les électriciens, j'aurais tendance à dire, puisque c'est un système technique, que c'est de plus en plus compliqué, parce qu'il y a de plus en plus de paramètres. Mais si on connaît tous les paramètres, dans la mesure où l'on connaît tous les éléments de production et de consommation à chaque instant, normalement on peut le gérer. Je pense que dans le monde financier, il y a des facteurs humains tout à fait essentiels. J'ai cru comprendre qu'il y a parfois des anticipations auto-réalisatrices dans le système financier. Les « forward » , c'est un moyen de mettre un prix sur des visions. Ce qui ne se fait pas du tout dans le système électrique. Notre système est plus simple. De fait, il est robuste. Premièrement, dans la plupart des pays du monde, on doit « tenir le N-1 ». C'est une sorte de « stress-test » systémique, non pas d'un des éléments, mais du système dans son ensemble, à chaque instant. Deuxièmement, certains contextes régulatoires récents peuvent l'affaiblir en poussant des acteurs à la faute. Par exemple, un dispatcher qui se verrait dire qu'il ne laisse pas passer assez facilement l'éolien peut être tenté de contourner la règle et de ne pas garder quelques marges. C'est ce qui est arrivé à l'acteur que je citais tout à l'heure. Troisièmement, ce point est déterminant, et il rejoint l'intervention de Michel Barnier, on a favorisé les énergies réparties au début, pour faire en sorte qu'elles aient les coûts les plus bas possibles, en ne leur imposant rien d`autre que de produire et d'être connecté. On voit bien maintenant que l'observabilité et la commandabilité sont essentielles.

Depuis l'incident de 2006, de nouvelles règles ont été débattues. La création de l'agence européenne des régulateurs a fait l'objet d'un rapport de M. Lenoir. Un certain nombre de changements d'organisations et de règles sont en cours pour le système électrique. Petit à petit, elles vont imposer aux éoliennes et à la production solaire de participer à la vie du système, en sorte qu'il soit complètement observable, comme auparavant, et commandable, c'est-à-dire qu'on puisse arrêter les centrales. L'Espagne a, d'ores et déjà, déployé un système de commandement des éoliennes. C'est ce que fait actuellement EDF, pour sa partie. Et un peu partout en Europe, c'est en train de changer.

M. Claude Birraux. M. Yves Bamberger, vous avez en quelque sorte introduit l'exposé de l'intervenant suivant, c'est-à-dire dans la salle des commandes, ou dans le régulateur du réseau.

« Au coeur des salles de marché : l'exemple du trading haute fréquence »

M. Charles-Albert Lehalle, responsable de l'équipe de recherche quantitative au Crédit Agricole Cheuvreux. J'ai beaucoup apprécié l'exposé de M. Yves Bamberger. Il y a beaucoup de similitudes avec le rapport de la SEC 2 sur l'incident du 6 mai 2010. Je vais décortiquer et lever un voile de mystère sur le trading haute fréquence. Qu'est-ce que le trading haute fréquence ? Pourquoi en parle-t-on ? Pourquoi le trading est-il devenu un sujet d'intérêt ? Tout d'abord, le trading , c'est ce qui anime le processus de formation des prix sur les marchés financiers et sur le marché en général. La plupart des marchés, qui sont des marchés électroniques, voient un prix fixé en fonction d'un équilibre entre l'offre et la demande, qui s'empilent dans ce qu'on appelle un « carnet d'ordres ». Au fur et à mesure que ces empilements ont lieu, des transactions sont déclenchées lorsqu'un vendeur vient rencontrer un acheteur. Il faut imaginer un système d'enchères, où les gens déclarent peu à peu leurs intérêts à la vente ou à l'achat. Quand les intérêts peuvent se rencontrer, cela déclenche des transactions. Ce système existe depuis bien longtemps sur la plupart des marchés. D'abord à la criée, il se déroule aujourd'hui de façon électronique.

Pourquoi parle-t-on de haute fréquence depuis quelques années ? On voit que la vitesse à laquelle les gens déclarent leurs intérêts pendant le jeu d'enchères, ou annulent leurs intérêts, a considérablement augmenté. Dès l'ouverture des marchés à 9h00, la fréquence de modification des premiers intérêts des participants aux enchères est facilement à 250 Hz, c'est-à-dire deux cent cinquante changements d'intérêts par seconde. Les pics peuvent aller jusqu'à plus de 2 000 Hz. On n'est pas, dans la haute fréquence, à une échelle industrielle où l'on peut parler de 50 000 Hz, puisque la moyenne tourne autour d'une échelle de 500 Hz. Néanmoins, cela commence à poser des problématiques de tous ordres, notamment les problématiques de latence, c'est-à-dire : à quelle distance je me trouve du marché où les enchères sont répertoriées ? Si j'ai un ordinateur avec une liaison réseau, le temps que j'envoie ma participation aux enchères, c'est-à-dire que je déclare mon intérêt à l'achat ou à la vente sur ce marché d'enchères qui se déroule en continu, peut-être que l'état de l'enchère aura changé. Pendant ce temps-là, il se peut, en effet, que d'autres acteurs auront modifié leurs intérêts, ou leurs déclarations d'intérêts. Si la fréquence est en moyenne à 250 Hz, il faut être à moins de deux millisecondes du lieu où les enchères sont répertoriées pour pouvoir prendre une décision en toute connaissance de cause, à savoir : je regarde l'état des enchères, je prends ma décision, j'envoie une enchère et l'état du jeu d'enchères n'a pas beaucoup changé. L'enjeu technologique dont nous parlons aujourd'hui est là : comment faire pour être à moins de deux millisecondes d'un lieu d'enchères ? C'est une des grosses préoccupations des traders haute fréquence, comme de tous les traders en général.

Comment interagir avec un marché, un jeu d'enchères, qui voit son état modifié à une telle fréquence ? C'est la question que tous les acteurs se posent. Même si je ne suis pas un trader haute fréquence, comment vais-je faire pour interagir efficacement et rationnellement avec un système qui est actualisé par un petit groupe d'acteurs à cette vitesse ? C'est là où se situe l'enjeu réglementaire autour du trading haute fréquence. Si le trading haute fréquence ne concernait que les traders haute fréquence, on n'en serait pas là aujourd'hui. L'impact du trading haute fréquence sur l'état du marché se répand absolument au niveau de tous les agents qui ont à intervenir, c'est-à-dire à acheter ou à vendre des actions. Ils le font non pas pour des raisons « très haute fréquence », mais parce que ce sont ce qu'on appelle traditionnellement des investisseurs finaux, qui ont une vue sur l'état du marché à plusieurs mois, à plusieurs semaines, et même à plusieurs années s'il s'agit de fonds de pension américains. Par ricochet, l'état de l'actif des retraités américains dépend et est impacté par les dépenses et l'énergie qui doivent être consacrées par les fonds de pension à l'interaction avec ce genre de système d'enchères.

Essayons de comprendre comment on est arrivé à un tel système. Il y a globalement trois grandes raisons qui sont habituellement invoquées. La première est la crise financière. Contrairement à certains, je n'ai pas mis la réglementation en premier, parce qu'un changement de régulation a eu lieu aux Etats-Unis, deux ans avant le changement de régulation européen, et durant ces deux années, la crise n'étant pas là, la modification des marchés n'a pas été si drastique. La crise financière a certainement été un élément qui a cristallisé l'augmentation de la fréquence sur les marchés, sans doute en raison d'une modification de la nature des risques et, par ricochet, des problématiques de liquidité. C'est la deuxième grande raison. Qui peut l'ignorer aujourd'hui ? La liquidité de marché, c'est avant tout la somme des enchères, des déclarations d'intérêts dans ce jeu d'enchères. S'il n'y a quasiment personne qui déclare des intérêts, il est évident que le prix des transactions peut varier beaucoup plus, et beaucoup plus vite. Et donc la volatilité, l'incertitude, le risque, augmentent à l'échelle de la microstructure des marchés. Troisièmement, la réglementation, avec la révision de la directive MIF 3 en Europe, nous permet d'envisager des mesures de précaution, ou, en tout cas, d'essayer de faire en sorte de mieux maîtriser ces phénomènes, sachant, évidemment, que la mise en oeuvre de la directive MIF, de même que la régulation NMS 4 aux Etats-Unis, a permis une fragmentation des marchés, ce qui a favorisé l'apparition du trading haute fréquence, en remplaçant des marchés relativement concentrés. Auparavant, pour acheter une action France Télécom, j'allais sur Euronext Paris. Aujourd'hui, on a organisé cela dans un marché de marchés, et je peux donc aller sur plein de places de marchés différentes. Il y a intérêt, pour certains acteurs, à jouer les passe-plats, en allant acheter une action France Télécom sur un marché, pour la revendre à quelqu'un d'autre, sur un autre marché, dans les quelques millisecondes qui suivent. Nous avons les trois fortes composantes de ce qui a été les prémices du trading haute fréquence.

Avant la directive MIF, il y avait une relative concentration. Les marchés étaient organisés en trois couches : les investisseurs finaux, les intermédiaires et les marchés primaires, avec un carnet d'ordres visible. Chacun est dans son rôle, les couches sont relativement organisées, et les responsabilités, les devoirs de chacun, sont très clairement identifiés.

Après la directive MIF, l'organisation des marchés part dans tous les sens. Je ne vais pas vous expliciter toutes les couches. On retrouve ponctuellement les investisseurs finaux. Les traders haute fréquence constituent au départ une classe d'investisseurs, qui intervient non seulement à l'échelle des investisseurs, mais aussi quasiment comme des opérateurs de marché, pour fournir de la liquidité d'une nature bien particulière à des carnets d'ordre, c'est-à-dire des lieux de marché qui se sont démultipliés, grâce à la directive MIF qui a donné la possibilité de le faire. Les intermédiaires ont, eux-mêmes, développé des marchés alternatifs qu'on appelle les « dark pools ». La fragmentation des marchés a encouragé l'expansion du trading haute fréquence qui a un rôle de passe-plat de liquidité. Aujourd'hui, 70% des transactions aux Etats-Unis, et près de 40% en Europe, se font face à un trader haute fréquence. Cela ne signifie pas qu'ils font ces transactions entre eux. Mais là où, avant, il y avait un acheteur et un investisseur final, aujourd'hui, il y a un acheteur qui achète à un trader haute fréquence, et un vendeur qui vend à un trader haute fréquence.

Dans les deux cas, ce sera vraisemblablement le même trader haute fréquence qui aura fait le rapprochement entre les deux. Ce jeu de passe-plats est, néanmoins, essentiel pour l'émergence de compétition entre les places de marché. Il a été voulu, et dans un sens, c'est quelque chose de sain au niveau de l'organisation des marchés. La qualité du service fourni par les marchés a été améliorée, dans une certaine mesure, via l'apparition de cette concurrence. Le trading haute fréquence est un prix à payer pour avoir cette fragmentation et cette concurrence. Maintenant, reste à savoir quel est le juste prix à payer pour le service qu'ils offrent à l'efficacité globale du marché. C'est la question que le régulateur doit se poser.

M. Rama Cont. On a beaucoup parlé de ces « dark pools » qui vont plutôt à l'encontre des règles de transparence. Pensez-vous qu'ils jouent un rôle important ou un rôle plutôt mineur ?

M. Charles-Albert Lehalle. La personne qui a inventé le terme « dark pool » a très mal fait son travail. Un « dark pool » est un marché d'enchères comme un autre, avec une « anonymité » des enchères. Personne ne sait à quel prix les enchères des uns ou des autres sont faites. Pourquoi ces « dark pools » se sont-ils développés ? En premier lieu, ils se sont développés pour protéger les utilisateurs des traders haute fréquence. Moins il a d'informations, moins le trader haute fréquence peut profiter de vos enchères. Finalement, les « dark pools » se sont développés pour protéger le mécanisme de marché du trading haute fréquence. En exagérant un peu, les « dark pools » sont en fait un lieu où des investisseurs finaux peuvent se rencontrer à l'abri des traders haute fréquence. Dans ce cadre-là, les « dark pools » sont des éléments extrêmement stabilisants et importants pour l'équilibre du marché. Là où la réglementation MIF a laissé un espace, c'est post-trade , une fois que les transactions ont eu lieu. Les « dark pools », aujourd'hui, ne sont pas obligés d'avoir un niveau de transparence post-trade qu'on pourrait attendre d'un lieu d'échanges. Je suis persuadé que la révision de la directive MIF rétablira cette transparence post-trade.

Quels sont les enjeux ? Je ne reviendrai pas sur les détails du rapport de la SEC sur le « flash crash » du 6 mai 2010 aux Etats-Unis. Il y a eu un énorme débrayage de liquidité. Tous les gens qui fournissaient de la liquidité au marché, les traders haute fréquence, ne sont tenus par aucune réglementation en termes de fournitures de liquidité. Ils le font quand bon leur semble. Le niveau de risque ayant commencé à augmenter, ils ont arrêté de le faire. De ce fait, le jeu d'enchères s'est considérablement déréglé. En dix minutes, certains instruments financiers ont affiché une baisse, de 10% à 60%, de leur valeur. C'est donc un risque de nature systémique, puisque le choc a été massif et qu'il a porté sur la quasi-totalité du marché américain, lequel est d'une ampleur plus grande que le marché européen. C'est sans doute aussi une dégradation générale du processus de formation des prix. Ce processus est au coeur du mécanisme capitalistique. Il fixe le juste prix des actifs en agrégeant l'offre et la demande.

Que devient-il dans un univers comme celui-là ? En l'ouvrant à un type d'acteur qui intervient à très haute fréquence, sans aucune vue sur la valeur fondamentale de l'actif qu'il échange, on dégrade ce processus de formation des prix. C'est très important à comprendre. Je ne dis pas que c'est une dégradation totale, mais il y a très certainement une réflexion à avoir, surtout quand on imagine que le régulateur est en train d'ouvrir la plupart des marchés à ce genre de mécanisme électronique, voire de fixer le coût de l'impact environnemental. Par exemple, pour les crédits carbone, la cotation sera également ouverte à ce genre de mécanisme de marché. Que voudrait dire du trading haute fréquence sur les droits à polluer en termes de valorisation de l'impact environnemental, qui est censé avoir lieu dans ce mécanisme d'appariement ?

M. Rama Cont. Dans cet incident du 6 mai, le rapport de la SEC dit bien que seize intervenants haute fréquence ont généré 30% du volume des transactions sur l'indice, mais que ces seize intervenants commençaient chaque jour leur position à zéro. Donc zéro contrat dans le portefeuille. Ils faisaient des centaines de milliers de transactions en moyenne dans la journée, et ils finissaient à zéro. Donc c'étaient des intermédiaires purs, qui ne détenaient aucune position sur les actions ou sur les indices à la fin de la journée.

Cela nous amène à nous interroger sur l'utilité économique, et même, sur l'utilité de ces intervenants pour le marché financier à proprement parler. Le rapport de la SEC insiste bien là-dessus : ce ne sont pas des fournisseurs de liquidité. Il identifie ces traders haute fréquence comme des consommateurs de liquidité. C'est à dire qu'ils n'apportent pas forcément de la liquidité. Et sur un plan économique, à moyen terme, ils ne jouent pas de rôle, puisque ce sont des intermédiaires purs qui ne détiennent pas de position en fin de journée. Quelle est votre réflexion sur ce sujet ?

M. Charles-Albert Lehalle. À partir du moment où l'on se dit que la compétition entre les places de marché est une bonne chose, il faut une catégorie d'agents pour jouer ce rôle de passe-plats de liquidité. Certes, ils ne vont pas être à 100% de leur temps des fournisseurs de liquidité. Ils seront partiellement fournisseurs, et partiellement consommateurs, sur un marché ou sur un autre. Mais on ne peut pas imaginer aller disperser des échanges sur des lieux physiques différents, sans essayer de réconcilier la liquidité, pour éviter que les prix ne soient différents d'un lieu à l'autre, et donc avoir une catégorie d'acteurs qui n'est intéressée qu'à ajuster ces différences.

Le trading haute fréquence est le prix à payer pour avoir cette fragmentation et cette compétition. Maintenant, je suis parfaitement d'accord avec votre analyse. Jusqu'où va-t-on payer ? Jusqu'où est-on prêt à payer ? Jusqu'où peut-on laisser ce genre d'acteur rogner sur l'efficacité du processus de formation des prix ? Essayons de valoriser cela à la hauteur du service qu'ils rendent, afin de rendre possible une compétition qui, jusqu'à présent, en termes de qualité de service globale, a conduit à une amélioration. Je rappelle qu'il y a encore un an et demi, le London Stock Exchange, c'est-à-dire la place primaire anglaise, a eu des bugs dans son système. Le système a « planté » pendant une demi-journée. D'ailleurs hier après-midi, Euronext Paris a lui aussi « planté ». On est encore dans un système où il y a des « plantages » des places principales.

Pourquoi parler de science et de technologie dans ce contexte ? En termes technologiques, il y a parfois une confusion, due au terme « trading haute fréquence ». Nous sommes bien en deçà de ce que l'industrie aérospatiale connaît comme haute fréquence. Il n'y aura certainement pas, à mon sens, d'innovation technologique financée par des acteurs de ce type, soyons-en certains, alors même qu'on mesure, dans des fusées ou dans des drones, la fréquence, à l'échelle de 50 000 Hz, et qu'aujourd'hui, sur les marchés, on atteint 1 000 Hz. Je ne pense pas qu'on puisse attendre de ces acteurs de financer de la recherche technologique et des innovations technologiques.

M. Claude Birraux. Vous avez parlé de vision de long terme pour ceux qui font des opérations. Je pense qu'il y a longtemps que la vision de long terme a disparu. Cela s'apparente beaucoup plus à jouer à colin-maillard dans une grotte sombre, ou à faire du gambling à Las Vegas, sans relation directe avec l'économie réelle. On est ici totalement dans le virtuel. Peut-être que Michel Barnier a raison de parler de responsabilité.

« Impact des produits financiers innovants sur les PME cotées : volatilité, liquidité, notoriété »

Mme Clotilde Bouchet, directeur financier, présidente du Comité scientifique de la DFCG (Association nationale des directeurs financiers et de contrôle de gestion). M. Christophe Remy et moi-même sommes membres de l'association nationale des directeurs financiers et de contrôle de gestion (DFCG), qui regroupe trois mille professionnels des fonctions finance en entreprise, représentant à peu près deux mille entreprises, dont 85% de PME (Petites et Moyennes Entreprises).

M. Christophe Remy préside le club des sociétés cotées de notre association, cent cinquante deux PME sont aujourd'hui cotées sur l'Alternext. M. Christophe Remy va vous faire part de son expérience opérationnelle de directeur financier quant à l'impact des nouvelles technologies sur le cours d'une action ayant peu de liquidité.

M. Christophe Remy, directeur financier, président du club Sociétés cotées de la DFCG. Ce qui caractérise un directeur financier, c'est le pragmatisme. Nous allons donc revenir à ce que nous connaissons, c'est-à-dire l'économie réelle, la vraie vie des entreprises, et ce qui se passe pour les PME. Le thème, c'est la technologie et l'impact des produits financiers innovants pour les PME. Comme l'a rappelé Clotilde Bouchet, il y a, en France, beaucoup de PME, mais très peu font appel aux marchés financiers : un petit peu plus de cent cinquante PME sur l'Alternext. Si on inclut le marché Eurolist, compartiment C, on arrive à trois cent cinquante PME. La notion de PME est large : ce peut être Dassault Aviation et Thalès ; à l'échelle mondiale, ce sont des PME. Les plus petites de ces sociétés, pour la plupart, subissent les marchés financiers. Elles vont généralement sur les marchés pour se refinancer de manière moins onéreuse qu'auprès des banques. De ce point de vue, l'impact des nouvelles technologies sur leurs problématiques est assez faible. Les systèmes technologiques dont on parle concernent plutôt des traders qui vont, en réalité, passer leur temps à spéculer sur des marchés dérivés. Pour nous, il s'agit de regarder un titre de bourse, acheté et vendu dans la journée : ce qui nous intéresse, ce sont les volumes échangés chaque jour, lesquels, normalement, reflètent le juste prix de notre entreprise. Pour la majorité des PME, il y a, en réalité, assez peu de volume chaque jour. L'impact des systèmes exposés précédemment est donc tout à fait dérisoire. Effectivement, quand il y a peu de volume, il y a peu de chance qu'on vienne vous bombarder avec de multiples achats, ventes et modifications d'ordres en quelques instants.

Par contre, il est intéressant de parler d'un vecteur qui semble être oublié : la communication et les technologies afférentes. Vous connaissez tous des systèmes comme Boursorama. Boursorama abrite un forum boursier, où s'échangent de nombreuses informations ou...désinformations. Il faut savoir que la vie de la PME est plus impactée par ce qui se passe sur Boursorama, par exemple, que sur les marchés financiers et les traders (mise à part les conséquences de la crise actuelle sur les liquidités disponibles). Pourquoi ? Sur Boursorama, vous avez une chose absolument terrifiante pour une PME, c'est que l'on a organisé des zones de non droit. En effet, chaque personne qui s'y enregistre peut intervenir sur le marché en étant totalement anonyme, ou du moins en croyant l'être. Pour directement intervenir sur Boursorama, il suffit de créer un pseudonyme. Vous achetez et vous vendez des titres de PME françaises comme vous le voulez et vous pouvez raconter tout et n'importe quoi sur le forum du site de façon tout à fait anonyme. Dans la rue, ce phénomène serait totalement impossible. Imaginez quelqu'un qui viendrait coller des affiches, par exemple antisémites, sur la voie publique. La loi française est très claire. Le premier responsable de cet acte, c'est l'imprimeur. Au regard de la loi, l'imprimeur est responsable de ce qu'il imprime. Boursorama est une sorte d'immense tableau, où n'importe qui peut écrire, et où personne n'est responsable, ni l'auteur, ni celui qui met à disposition ce tableau. De fait, le forum de Boursorama autorise des manipulations de cours et expose les PME au risque de réputation de façon très aisée. Je vous explique comment : un seul individu peut créer deux cents pseudonymes et intervenir sur les forums. Les systèmes étant anonymes, cet individu peut colporter une fausse information sur des PME sous ses deux cents pseudo, s'auto-congratuler, c'est-à-dire que l'individu sous un pseudo X va confirmer que le message délivré par son pseudo Y est une bonne information. Ceci sera confirmé sous les autres pseudos B, C, etc. Le système informatique est tel que plus personne ne pourra démentir ce message ou le faire supprimer. A contrario, si un message contradictoire d'une source correctement informée arrive, le même individu peut discréditer ce message sous ses différents pseudos. Il n'aura qu'a alerter le site que le message qui lui est contradictoire est diffamant, et ce, via le truchement de plusieurs de ses pseudos, et le système supprimera automatiquement le message, sans autre forme de contrôle...laissant seul, gravé dans le dur, son premier message comportant une fausse rumeur.. En résumé, de manière très simple, vous pouvez intervenir sur les PME françaises en racontant n'importe quoi, à l'abri de tous les regards, au vu et au su de tout le monde, avec un vecteur technologique d'information totalement anonyme.

Tous autant que nous sommes, nous regardons cela, et cela ne pose de problème à personne. Sauf aux PME françaises ! Pourtant, des solutions existent... J'ai bien entendu M. Michel Barnier parler de transparence et de responsabilité. Mais avant de commencer à vouloir réguler les marchés mondiaux et leur faire prendre des responsabilités, il faudrait avant tout être capable de le faire à petite échelle, ce qui serait merveilleux pour la vie des PME. Pour cela, je me permets de vous suggérer tout de suite une solution basique. Il suffirait d'aligner la responsabilité des détenteurs de forum boursier de type Boursorama sur celle des afficheurs que j'ai décrite précédemment : cela obligerait des sociétés comme Boursorama, et consorts, à ne pas fournir des accès simplement par retour de mail, mais à contrôler les adresses IP, en confirmant les adresses des gens qui s'inscrivent. Comment cela se traduirait-il ? Lors de votre demande de pseudonyme, vous seriez obligé de donner votre adresse e-mail et physique afin que le site puisse vous envoyer, par courrier physique, un code. Ce code vous permettrait d'activer votre compte sur le site et d'accéder au forum et aux passages d'ordres. Comme vous n'êtes plus anonyme, vous éviterez de raconter tout et n'importe quoi : c'est la vertu la transparence !

Je vois que j'ai lancé un grand pavé dans la mare. Tout le monde est silencieux.

M. Claude Birraux. Cela me rappelle une chose qu'on a vue il y a quelques mois déjà. C'était Hadopi, c'est-à-dire le piratage sur Internet, au mépris des règles de la propriété intellectuelle et industrielle.

Mme Alexandra Givry, adjointe au chef du service de la surveillance des marchés, Autorité des marchés financiers. Je voudrais juste préciser que l'AMF n'est pas du tout indifférente à ces messages qui sont postés sur les forums. Bien au contraire, l'AMF met elle-même en place des outils pour les suivre. L'AMF a la possibilité d'identifier les personnes qui sont à l'origine des messages. Cependant, c'est assez complexe d'étudier les problématiques de rumeurs. Effectivement, il existe certainement des cas sur lesquels nous n'arrivons pas à trouver finalement les responsables. En tout cas, c'est une des préoccupations de l'AMF. Nous mettons en place des moyens pour y répondre.

M. Christophe Remy. Je sais bien que l'AMF est vigilante là-dessus. Ce ne sont pas forcément de grosses rumeurs. Cela peut être des choses très banales. Mais quand vous êtes sur des petites valeurs, où vous avez peu de transactions, cela prend tout de suite des proportions assez importantes. Imaginez un forum sur une valeur où vous avez assez peu d'intervenants. Des gens mal intentionnés et qui manipulent l'information feront fuir l'investisseur. Et comme l'investisseur fuit, forcément, le titre n'est plus échangé, et donc la valeur du titre stagne et s'écroule. Et cela, vous pouvez le manigancer très facilement, parce que vous avez assez peu de mouvement, assez peu de flottant sur ces valeurs-là.

Personnellement, j'ai la chance d'être directeur financier de deux sociétés cotées, sur des marchés différents, dans le même groupe. Nous étions assez attaqués de tous les côtés, y compris par des anciens collaborateurs dont le groupe s'était séparé, et qui nuisaient volontairement à l'image de la société sous couvert d'anonymat. Et je sais que j'ai été le premier directeur financier, depuis bien longtemps, à oser intenter une action avec cette entreprise contre Boursorama, pour obtenir les adresses IP des gens qui étaient régulièrement présents sur les forums. Nous avons réussi à obtenir les adresses IP devant la justice. Ensuite, il nous a fallu poursuivre les providers pour obtenir le nom des gens qui se cachaient derrière les adresses IP. Puis nous avons emmené tout ce petit monde au tribunal et l'affaire dure depuis deux ans. Malheureusement, je peux vous dire qu'au final il ne se passera pas grand chose. Ce que je vous raconte-là, c'est la vie des PME tous les jours. Il n'y a pas besoin de se cacher derrière des traders et de grands mouvements financiers pour voir de quoi est fait notre quotidien.

M. Claude Birraux. Merci. Je sais qu'il y a, dans la salle, de très hauts magistrats. Peut-être qu'ils pourront intervenir. En fait, c'est un peu comme dans les romans policiers. On a commencé par la vision à long terme. On a continué par les bureaux sombres. Et maintenant on en arrive au corbeau qui peut écrire n'importe quoi. Cela devient de plus en plus excitant et de plus en plus obscur.

« L'importance des mathématiques dans la finance moderne : concepts, modèles, méthodes et règles »

M. Denis Talay, directeur de recherche à l'INRIA, professeur chargé de cours à l'École polytechnique, ancien président de la Société de mathématiques appliquées et industrielles . J'avais prévu de commencer mon intervention par une adresse au législateur. Ce sera très court puisque Michel Barnier a dit l'essentiel de ce que j'avais prévu de dire. En tant que citoyen, je voudrais enfoncer le clou, avant que le mathématicien ne prenne la parole. Le grand penseur de notre culture moderne, Georges Steiner, regrette amèrement que, depuis quelques décennies, nous soyions passés de l'ère de la création des idées à l'ère du commentaire. Mon souhait, c'est que l'ère du commentaire, qui est la nôtre cet après-midi -- des commentaires aussi intelligents que possible --devienne aussi l'ère de l'action politique, qui amènera les régulations nécessaires à l'économie en général, et à l'économie financière en particulier.

L'étymologie du mot banque semble être le mot italien « banco » , qui désigne le banc sur lequel s'asseyaient des Italiens astucieux à la Renaissance, à l'occasion des grandes foires des marchés génois ou florentins, pour écrire des lettres de change aux Italiens qui allaient vers le nord acheter des soieries en Flandres. Ces lettres de change leur évitaient de se faire détrousser en chemin. Le rôle de la banque moderne a été adossé à l'économie réelle -- il s'agissait au fond de favoriser des échanges entre les pays du nord et du sud. Cependant, de même qu'il y a eu un glissement de la création des idées au commentaire, il y a eu un glissement des instruments financiers de l'économie réelle vers un fonctionnement interne qu'on a déjà bien repéré dans les présentations précédentes.

Dans ce paysage, les mathématiques jouent un rôle très particulier. Je voudrais très brièvement donner quelques éléments d'explication de l'origine des mathématiques en salle des marchés, en particulier de l'utilisation des mathématiques dites financières. La première grande date est donnée par le modèle de Louis Bachelier. Ce mathématicien français a remarqué, en 1900, qu'on pouvait décrire l'évolution des cours à l'aide d'une transformation très simple, très élémentaire, d'un objet mathématique qui venait d'apparaître, le mouvement brownien. Si l'on dessine des historiques de cet objet aléatoire, on s'aperçoit que cela ressemble beaucoup à des évolutions en temps de cours boursiers très agités. Le rôle particulier d'une mesure de la manière dont ces objets évoluent au cours du temps, c'est-à-dire la volatilité, est apparu tout de suite comme quelque chose de fondamental, et qui ne pouvait pas être pris en compte par des modèles plus simples, en particulier des modèles sans aléa.

La deuxième grande date, c'est évidemment l'analyse de Black et Scholes en 1973. Ils introduisent l'idée extraordinaire que pour valoriser une option, un objet contingent, on peut calculer sa valeur comme la masse d'argent initiale qu'il faut pour obtenir, à la fin, le flux financier qui est représenté par le contrat, exactement, quels que soient les états du monde entre aujourd'hui, date à laquelle je signe le contrat, et la date T à laquelle le contrat arrive à échéance. C'est une idée extraordinaire. Il y a une quantité unique d'argent telle que, si je prends cet argent, et si ensuite j'investis, j'achète et je vends, en utilisant éventuellement les marchés haute fréquence, de manière aussi continue que possible jusqu'à l'instant T, la valeur de mon portefeuille financier à l'instant T sera exactement ce que je dois à mon client.

On conçoit bien que cette notion théorique est une notion de juste prix. Je ne suis pas prêt à acheter plus cher, et a contrario , si je vends moins cher, je vais fatalement perdre de l'argent. Cela étant, j'insiste beaucoup là-dessus, la valeur en question est justifiée dans le cadre strict d'un certain modèle mathématique. Qui dit modèle mathématique veut dire aussi hypothèses. Cette notion qu'il y a un juste prix, c'est uniquement dans le cadre d'un modèle satisfaisant des hypothèses, et des hypothèses très fortes. Premier exemple d'hypothèse : il faut croire qu'il y a un dieu des marchés, un dieu de l'économie ou un grand horloger, qui a décidé que l'historique du marché est décrit par un objet mathématique qui s'appelle une semi-martingale. Deuxième credo : il faut croire que l'actif contingent que je suis en train de gérer a une couverture parfaite, c'est-à-dire que je suis capable de développer une stratégie financière qui va me permettre de répliquer exactement le flux financier à l'échéance. Or, on sait très bien que les deux hypothèses ne sont pas vérifiées par les marchés. La finance est gouvernée par cette dualité. C'est encore mieux que de lancer des dés. Faute de mieux, on applique des théories mathématiques, mais en dehors du cadre dans lequel elles sont validées.

Qu'est-ce qui explique le succès de ces théories mathématiques ? D'une part, elles ont rempli un vide conceptuel. Personne ne savait comment développer une approche rationnelle de ces contrats-là avant le modèle de Black et Scholes. Tout le monde s'est précipité en disant que c'était une excellente idée, qu'on allait appliquer cette théorie pour essayer d'évaluer les actifs contingents. Fait remarquable dans l'histoire des sciences, il s'est trouvé que cela coïncidait avec le développement colossal de la théorie du calcul différentiel stochastique justement dans ces années-là. Or, le calcul différentiel stochastique était justement l'objet théorique qu'il fallait pour valider et pour étendre les idées de Black et Scholes. Je parlais de semi-martingale à l'instant. Le calcul différentiel stochastique a pour objet fondamental les semi-martingales. Exemple : une option américaine est un objet contingent sur les marchés financiers. Il se trouve que cela correspond très exactement à un objet mathématique qui avait été défini, cerné, étudié bien avant la théorie de Black et Schole qui s'appelle « enveloppe de Snell » en théorie des probabilités. Il y a vraiment une coïncidence entre des objets mathématiques en plein développement et les besoins des salles de marché. Il y a donc cet engouement à la fois du monde académique et des praticiens pour utiliser cette approche en l'absence d'opportunité d'arbitrage.

Par ailleurs, cette approche avait suscité une nouvelle cassure mathématique et numérique absolument passionnante. Par exemple, la formule de Black et Scholes a eu beaucoup de succès, parce que c'est une formule dite fermée, c'est-à-dire qu'à partir d'une transformation très simple d'un paramètre, vous obtenez le prix. Le modèle élémentaire de Black et Scholes n'est pas plus compliqué que le modèle de Bachelier de 1900. Comment, à partir de modèles un peu plus compliqués, passer à des formules fermées ? Cela a été rendu possible grâce à des travaux très profonds en théorie des probabilités, notamment ceux conduits par l'école de Marc Yor. Il y a eu des questions extraordinaires, abstraites, sur la manière de caractériser et de prouver l'existence de stratégies optimales de réplication parfaite dans des contextes qui sont un peu plus généraux que le contexte de Black et Scholes. Ils s'approchent un peu plus, on l'espère, de la réalité des marchés. La théorie a suscité aussi des questions, tout à fait originales et profondes, sur la calibration de modèles. On a un modèle mathématique, mais il faut ensuite trouver les valeurs numériques des paramètres qui gouvernent le modèle. Comment trouver ces valeurs numériques à partir des observations du marché ? Il y a eu un renouvellement extraordinaire mais, à mon avis, très insuffisant, de la théorie du contrôle stochastique. C'est une sous-partie de la théorie des probabilités qui permet de répondre à la question : dans le cadre stochastique, comment piloter un système, l'optimiser au mieux, en fonction de certains critères ? Ce sont des problèmes excessivement difficiles qui ont été renouvelés en partie par la finance. Je glisse sur les équations différentielles stochastiques rétrogrades qui sont des objets compliqués. Ils permettent de construire les stratégies de réplication dont je parlais avant. Enfin, d'un point de vue de l'analyse numérique, comment calculer de manière aussi rapide que possible les fameuses stratégies en question ? Ceci pose des problèmes numériques très originaux.

Maintenant, parlons de l'importance très relative des mathématiques, les succès et les échecs. Je commence tout de suite par un point assez fort. Je parle sous le contrôle de Michel Crouhy, présent dans cette salle, directeur de la recherche et du développement chez Natixis, et je vérifierai encore auprès de lui. Les « quants », c'est-à-dire les mathématiciens qui se retrouvent dans les salles de marché pour essayer d'aider les traders à identifier les modèles, à faire de la calibration, n'ont aucun pouvoir décisionnaire. Les bulles, la création de filiales dans des paradis fiscaux, les règles de rémunération dont parlait Michel Barnier, n'ont rien à voir avec les modèles mathématiques que les « quants » développent. On ne peut pas faire porter aux mathématiciens la responsabilité d'une crise à laquelle ils ne contribuent que d'une manière très marginale. Je ne veux pas dédouaner complètement la communauté à laquelle j'appartiens. Il est vrai qu'une partie de la communauté mathématique a aussi une part de responsabilité, en ce sens que, peut-être, dans son enthousiasme à développer des outils de mathématiques financières, elle n'a pas suffisamment fait porter l'accent, non pas sur la valorisation, sur le calcul des stratégies, mais sur les problèmes que suscite la modélisation imparfaite, et sur l'évaluation des risques. Cela étant, grâce à la crise, la tendance a changé. Il y a maintenant de plus en plus de travaux académiques sur ces questions-là, et c'est un bienfait.

M. Rama Cont. Je suis moins optimiste que vous sur le renversement de la tendance.

M. Denis Talay. Je vais donner quelques exemples de succès. Je parlais tout à l'heure de la théorie de l'arbitrage ; j'ai parlé de l'approche rationnelle du « pricing » , ce qui n'existait pas auparavant ; j'ai parlé aussi des progrès de la culture du calcul scientifique dans les banques. Quelques échecs, je l'ai dit : un nombre insuffisant de travaux sur l'évaluation des risques et sur la calibration ; des engouements factices pour certaines modélisations qui sont malheureusement très loin de la réalité du marché, en dépit de leur intérêt théorique ; idem pour certains algorithmes ; et aussi une certaine difficulté à localiser le « gras » des problèmes.

En forme de conclusion, je me demanderai si la modélisation mathématique en finance est un Graal ou un leurre. Il faut bien réaliser que le mot « modèle » en finance ne peut pas avoir le même sens qu'ailleurs. Il n'y a aucune loi physique en finance. Il ne s'agit pas d'identifier des lois de Kepler ou le principe fondamental de la dynamique. Ce sont en fait des facteurs humains qui sont à l'origine des cours. Et en plus, ce sont les agents qui fabriquent le modèle. Le modèle est donc fabriqué par l'activité elle-même. C'est un cercle un peu infernal qui pose des problèmes monstrueux du point de vue de l'étude et de l'évaluation de ce que peuvent faire les techniques mathématiques sur les marchés. La calibration est très difficile, parce qu'on ne peut pas répéter une expérience en finance, comme on peut le faire en physique. On ne sait pas répondre à des questions très basiques, du style : comment caractériser le bruit aléatoire qui excite les dynamiques des cours ? Quelle est leur dimension ? Finalement, on a assez peu de données pour identifier correctement des cours. Un dernier point, qui n'est pas négligeable : pourquoi un modèle, qui peut s'avérer bon sur les dix années passées, pourrait rester bon sur les mois à venir ?

Il y a quelque temps, j'avais essayé d'associer la Direction du Trésor à des travaux du monde académique, dans l'idée de faire profiter les futures dépenses de l'État du savoir-faire mathématique et numérique. Malgré toute la bonne volonté des gens que j'ai rencontrés, je me suis heurté à une difficulté : le turn-over fréquent des modélisateurs à la Direction du Trésor. Ils travaillaient dans l'urgence pour pouvoir répondre le lendemain à une demande du cabinet de la ministre. Le résultat, c'est que les effets temps longs sont très mal pris en compte.

Ce que je souhaite personnellement, c'est qu'on ait une réflexion, en amont du travail du législateur, sur le vrai travail des marchés, qui est de contrôler les risques, comme l'a dit Michel Barnier, de développer des stratégies robustes au risque de modèles, parce qu'encore une fois on ne saura pas bien modéliser. Et puis, on voudrait éviter que, finalement, on se retrouve comme à la fin de La Condition Humaine, où tout le monde meurt, physiquement ou émotionnellement, à cause de la haine ou de douleurs trop intenses. Le seul personnage qui s'en tire, c'est le baron de Clappique, grâce à son égoïsme et à ses transactions aventureuses. Je souhaiterais que lors de la prochaine crise, on évite qu'il n'y ait que des Clappique qui survivent.

M. Claude Birraux. On pourrait peut-être aussi souhaiter que l'oeil soit toujours dans la tombe et regarde Caïn. Monsieur, je vous remercie. Vos hypothèses sont vraisemblablement ce qu'on peut appeler en mathématiques des postulats, puisqu'elles ne sont pas démontrées ; on a fait longtemps de la géométrie euclidienne à partir du postulat d'Euclide, et un jour, on a démontré des choses dans une géométrie non-euclidienne. Il faut peut-être aussi que les milieux, ou les mathématiques financières, puissent retrouver le monde réel. Quant à l'omniscience, vous savez, depuis Kant, les physiciens et les philosophes ont divergé, à quelques exceptions près, comme Hervé Chneiweiss, membre du Conseil scientifique de l'OPECST, ou Jean Dercourt, secrétaire perpétuel de l'Académie des sciences. Mais ce sont quelques exceptions.

M. Hervé Chneiweiss, membre du Conseil scientifique de l'OPECST. La semaine dernière s'est déroulé le festival Pariscience, l'un des principaux festivals internationaux de films scientifiques, et le grand Prix de la Ville de Paris a été attribué à un film néerlandais intitulé « Quants, les alchimistes de Wall Street ». il pourrait venir en illustration du rôle des mathématiciens dans les salles de marché.

« Les systèmes informatiques en finance »

M. Arnaud Vincinguerra, co-fondateur et responsable de la R&D de la société Sophis . Je vais expliquer ce que nous faisons. La mathématique financière, comme l'expliquait l'interlocuteur précédent, a montré qu'un produit dérivé, une option, un échange de flux, avait une valeur d'arbitrage par rapport aux valeurs des actifs aujourd'hui. Cela a considérablement développé les marchés financiers, parce qu'effectivement, cela permet de transférer les risques financiers des projets industriels vers les marchés financiers. Par exemple, EADS peut se couvrir contre son risque d'une baisse du dollar à trois ans ; Air France peut se couvrir contre son risque de kérosène ; un particulier peut investir dans le CAC 40 et se protéger à la baisse. Tout ceci, c'est grâce aux mathématiques financières. Finalement, la banque va prendre des engagements auprès de ses clients : garantir des cours, livrer à des prix, et en face, elle va prendre des positions sur le marché pour couvrir les engagements qu'elle a pris. Pour gérer l'ensemble de ses engagements, et les couvertures qu'elle prend, elle a besoin de systèmes informatiques, et c'est là où Sophis intervient.

Les fonctionnalités requises d'un système tel que celui-ci consistent à pouvoir, bien sûr, récupérer les données de marché, les transactions effectuées, à pouvoir évaluer les produits dits dérivés, à visualiser les positions, à faire des scénarios de risque de changement de paramètres de marché, pour permettre aux traders de se couvrir contre les évolutions de marché. Et bien sûr, ce sont des systèmes qui sont assez gros, avec plusieurs centaines de postes utilisateurs. Il faut aussi sécuriser l'ensemble des transactions du trader au back office, au paiement, à la comptabilité, jusqu'au message de confirmation. Ce sont également des systèmes qui ont besoin d'énormément de temps de calcul. Malheureusement, toutes les formules ne sont pas fermées, et nécessitent des prix de type Monte Carlo, où l'on fait des millions de simulations pour avoir un prix. Enfin, l'innovation est extrêmement fréquente, et donc, il faut pouvoir investir constamment pour s'adapter aux demandes des marchés financiers.

Un mot sur la société Sophis. Créée en 1986, Sophis est un éditeur de logiciels qui a fait sa première version d'un système pour une table de dérivés actions pour la Caisse des Dépôts en 1992. Depuis, le logiciel a considérablement évolué. Il s'élargit aussi à d'autres types d'acteurs, comme les hedge funds et les gestionnaires institutionnels. Aujourd'hui, Sophis fait quatre-vingts millions d'euros de chiffre d'affaires, emploie trois cent cinquante employés, essentiellement des ingénieurs hautement qualifiés, et elle a plus de cent cinquante clients à travers le monde, en particulier en France, Natixis, Crédit Agricole, Axa, BNP Paribas, Dexia.

Quelles évolutions avons-nous vues depuis la crise, qu'est-ce qui a changé ? Les banques ont moins d'appétit pour les produits exotiques qui ont du mal à évoluer. Elles s'occupent davantage de produits plus ou moins standards et plus faciles à faire évoluer. Pour prendre un exemple, les cute finance , c'est quelque chose qui a progressé en termes de demande. Ils consistent à financer l'achat d'actions de leurs clients. On voit aussi que les départements de risque, qui, auparavant, avaient leurs propres outils d'évaluation, vont utiliser les outils de front office sur la gestion. En ce qui concerne les gestions institutionnelles, bien sûr, elles ont beaucoup souffert, puisque les marchés ont baissé et que leurs revenus sont proportionnels à la valeur des actifs de gestion. Elles sont à la recherche de productivité dans leur organisation informatique. Elles passent d'un système qui était le meilleur des systèmes pour chaque petite partie de leur organisation, à un système qui est globalement capable de répondre à l'ensemble de leurs besoins. Elles aussi veulent utiliser les outils de gestion de risque employés par les banques au bénéfice de leur propre gestion. Quant aux hedge funds , ils ont particulièrement souffert, en 2008, par un rachat massif de liquidité par leurs investisseurs. Depuis l'été 2009, le marché se redresse pour elles. La demande de leurs investisseurs, et donc la demande qu'elles nous font, va vers plus de transparence sur leur gestion, et donc vers plus de rapports avec leurs investisseurs, avec une meilleure évaluation des risques, en particulier le risque de liquidité. Comme elles se sont retrouvées bloquées avec des demandes de retraits et des actifs très peu liquides, elles ont dû verrouiller l'ensemble de leur gestion.

« Innovations financières et incidences sur les marchés financiers »

M. Jean-Paul Betbèze, chef économiste et directeur des études au Crédit Agricole. Monsieur le Président, mesdames et messieurs, je vais vous parler en tant qu'économiste, selon une série de parties, divisées elles-mêmes chacune en deux sous-parties.

Deux temps. Les économistes vivent selon deux temps. Un temps long, c'est le temps de l'entrepreneur, le temps de ses choix et de ses stratégies, et le temps court, qui est plutôt le temps spéculatif, le temps des marchés. Le temps long est le temps de la réflexion et le temps court est le temps de la réflexion, mais au sens du miroir, c'est-à-dire que je me regarde dans le miroir, je regarde les autres et je regarde si, derrière moi, une majorité se forme (à l'achat ou à la vente). Donc, entre le temps long du « Je » et le temps court du « Nous », existe en permanence une ambiguïté, pour ne pas dire une contradiction. Les entrepreneurs sont ainsi dans le temps long, en même temps qu'ils vivent dans le temps court de Boursorama !

Deux types d'actions : face à ces deux types de temps, long et court, deux types d'actions se présentent. D'une part, ce sont des actions de régulation, celles de l'AMF par exemple, de suivi, d'organisation ; d'autre part, ce sont des actions d'éclairage de la politique monétaire. La politique monétaire est en effet devenue de plus en plus importante dans la façon de former les anticipations. Si je suis "pris" entre un temps long et un temps court, je vais essayer de trouver des gens qui peuvent s'appeler Alan Greenspan, Jean-Claude Trichet ou Ben Bernanke et qui vont me dire : « Suivez-moi, je vais dire des choses sur le futur». Et, d'une certaine manière et pendant quelque temps, ils peuvent réussir.

Deux problèmes : le fait que des responsables ou experts « réussissent » ainsi en économie conduit à deux types de problèmes. Le premier, c'est qu'on va les croire, parce que dans un premier temps au moins, cela marche. C'est ce qu'on appelle le « paradoxe de la tranquillité ». Et si cela a marché si longtemps (dans leurs analyses et prévisions), s'ils sont tellement bons, c'est qu'au fond, je suis moi-même trop inquiet. Le deuxième problème qui peut « m'arriver » quand je suis un banquier central, c'est ce qu'on appelle le « paradoxe de la crédibilité ». C'est-à-dire que, d'une certaine manière, M. Alan Greenspan a « vu » le monde économique et financier avant que les autres ne le voient, il l'a "éclairé". Il « savait » les problèmes avant que les autres ne les devinent, et nous a tous aidés. Mais il nous a, ainsi, tous conduits dans les problèmes qu'il a lui-même fabriqués... en nous disant qu'il n'y en avait pas. Le "paradoxe de la crédibilité" est un processus dans laquelle nous diminuons en effet, chacun, nos défenses immunologiques (nos inquiétudes sur le futur). Le prix du risque diminue alors, mais sans que le risque lui-même diminue. Au contraire : le fait que le prix du risque diminue fait que le risque augmente, puisque plus de risques sont pris. Au fond, quand vous avez d'excellents éclaireurs, vous avez d'excellents risques d'avoir des problèmes !

Deux innovations. Face à cela, deux types d'innovations se présentent. Les premières consistent évidemment à essayer d'éviter les règles de l'AMF - pardonnez-moi Mme Givry --, les règles d'une façon générale, afin d'essayer de trouver un lieu sans règle, qu'on pourra appeler un « paradis ».  En quelque sorte, l'innovation, c'est dans ce cas éviter le régulateur. La deuxième façon d'innover consiste, si l'on peut dire, à éviter le succès du banquier central. En effet, si j'ai un banquier central qui, par sa crédibilité, réduit les primes de risque, il fait en sorte que les taux d'intérêts sont extrêmement bas. Mais comment vais-je vivre, puisque je cherche des rendements ? Donc il va y avoir des innovations, justement pour faire en sorte que la vie soit un peu plus excitante, que les rendements soient un peu plus élevés, et que je m'éloigne de cette « tranquillité » que les autres ont amenée. Cette innovation a eu un nom de code général... le « subprime » . C'est un produit qui s'est développé, enfant naturel de la tranquillité et de la crédibilité, donc du succès paradoxal des régulateurs et des éclaireurs. Cette innovation là est un enfant de l'ennui !

Deux réactions. Face à ces deux innovations, deux réactions vont apparaître. La première, c'est celle que nous vivons actuellement, en suivant les propos du commissaire Barnier. Aujourd'hui, on va ainsi vers deux types de contrôles, que j'appellerais le « contrôle des causes » et le « contrôle des masses ». Le "contrôle des causes" consiste à surveiller les banques et les crédits. Je n'ai rien contre. Il consiste aussi à faire des stress tests, évidemment pour... stresser les banquiers. Ajoutez là-dessus des excès de vertu, comme le dit la profession, à tout le moins des "demandes de vertu", dites Bâle 2 ou Bâle 3. Nous sommes entrés dans un processus du retour du contrôle, étant entendu qu'auparavant nous étions dans un système de diminution du contrôle. À côté de ce "contrôle des causes" (normes de la BRI 5 , rapport de Larosière 6 , nouveaux rôles des banques centrales), il y a  le "contrôle des masses", avec le contrôle des dépôts ou encore celui des très grandes entités systémiques, les « too big to fail» , ces quinze grandes entreprises bancaires et financières qui ne devraient surtout pas sauter, sauf à faire prendre des risques à l'ensemble de l'économie.

Aujourd'hui, après les "deux temps", les "deux actions", les "deux innovations", nous en sommes à ces "deux contrôles". Et ces deux types de contrôles, immanquablement, vont appeler les nouvelles innovations qui fabriqueront... les nouvelles difficultés de notre prochaine crise. Elle aura lieu dans les cinquante prochaines années, ce qui fait qu'on a le temps de s'y préparer. Je vais simplement indiquer quelques pistes qu'elle pourrait emprunter. La première, c'est qu'il va y avoir des hedge funds qui vont se développer, des structures qui vont naître à côté des systèmes régulés. N'oubliez pas que le système bancaire était régulé pour une partie, et que ce qui n'était d'ailleurs pas régulé s'appelait « shadow banking », c'est-à-dire la banque de l'ombre, d'où la crise est venue. La banque de l'ombre a fait de l'ombre à l'autre. Aujourd'hui, ce peut être des hedge funds , des endroits moins régulés qui se développent, et dans lesquels il y aura plus de risque. Bien entendu, deuxième idée, de nouveaux produits vont se/s'y mettre en place, ce qui fait que les mécanismes et l'innovation des finances seront encore plus importants.

En résumé, il faut je crois se rendre compte de tous ces éléments. Entre les deux temps de l'économie, les innovations, le jeu entre « j'innove et je régule », « j'essaie de réguler et j'essaie d'éviter la régulation », est perpétuel, permanent. Appeler à l'éthique de la responsabilité, je n'ai évidemment rien contre. Regarder de plus près l'évolution des crédits, je n'ai évidemment rien contre. Mais faisons tous très attention. Nous avons aujourd'hui des enjeux beaucoup plus importants et beaucoup plus risqués dans ce rapport entre innovation et finance. Cette fois, nous sommes passés à côté du gouffre. J'espère que dans la prochaine vague d'innovations, on l'évitera également. Mais faisons très attention, et surtout faisons très attention le jour où nous serons tranquilles. La tranquillité est l'élément le plus sûr qui annonce la crise.

M. Claude Birraux. C'est vrai qu'on enseigne dans beaucoup d'écoles de commerce l'éthique du commerce, qui est en gros : comment rouler dans la farine son concurrent, mais d'une manière éthique ? On est d'accord.

M. Jean-Paul Betbèze. On ne doit pas forcément fréquenter les mêmes écoles de commerce.

M. Claude Birraux. Je n'ai pas fréquenté du tout les écoles de commerce.

M. Jean-Paul Betbèze. Je suis professeur de faculté... Simplement, ce qui se passe, c'est que c'est un jeu dangereux. J'en appelle à l'idée de la vigilance. Bien entendu, il faut aussi des gens qui nous éclairent et qui nous tranquillisent. Mais les gens qui nous tranquillisent ne doivent pas nous endormir. A nous de rester vigilants.

M. Claude Birraux. Il faut peut-être qu'il y ait aussi parfois le doute, non pas le scepticisme, mais en tant que source de fertilisation de l'imagination et du processus scientifique.

« Diffusion de l'information et facteurs psychologiques sur les marchés »

M. Olivier Oullier, enseignant-chercheur en neurosciences, Laboratoire de psychologie cognitive, Université de Provence. Après ces présentations qui ont porté sur des évolutions techniques impressionnantes, je vais traiter du système le plus élaboré et le plus complexe que l'homme ait pu créer, à savoir l'homme lui-même. De par ma formation et mon domaine d'activité, mon propos sera principalement centré sur ce que John Maynard Keynes appelait les « esprits animaux », dans sa Théorie générale de l'emploi de l'intérêt et de la monnaie publiée en 1936, et que nous qualifions aujourd'hui de facteurs humains ou comportementaux.

Parmi les facteurs et les acteurs qui participent au comportement du marché, se trouvent des êtres humains. Des humains, avec leur personnalité, leurs émotions, leurs faiblesses, leur histoire, et leur futur. Ces humains interagissent en permanence avec un environnement physique et social qui va grandement participer à l'émergence de leur comportement et jouer un rôle prépondérant dans leurs décisions.

Les humains ont quelques traits communs avec les marchés. Le principal est qu'ils constituent des systèmes complexes, auto-organisés, c'est-à-dire qu'ils peuvent adopter certains comportements et être organisés sans qu'il n'y ait, pour autant, l'intervention d'un tiers prescripteur. Les comportements du marché, comme des humains, ne sont donc pas uniquement le fruit d'une réaction à des informations exogènes, mais résultent aussi d'une dynamique endogène, que l'on peut contraindre, mais difficilement contrôler. On observe, ainsi, une succession d'états, (plus ou moins) stables et de transitions de phases, abruptes, entre ces états. Une perspective relativement éloignée des modèles d'efficience en vigueur puisque le tout agrégé, n'est pas forcément supérieur, mais différent, de la somme des parties. De fait, quand bien même connaîtrions-nous le comportement de chaque composant (individu ou machine) qui intervient dans un marché, il nous est impossible d'en déduire, selon des relations directes, linéaires et univoques, le comportement d'ensemble résultant de leurs interactions.

Dès lors, il est légitime de se demander si, face à de telles propriétés, l'étude du comportement humain peut éclairer les travaux en finance. Mon sentiment - et je suis loin d'être le seul à le penser - est qu'il le faut. Pourquoi ? Parce qu'en dépit des propriétés que je viens d'énoncer, le comportement d'un individu isolé, ou d'un groupe d'individus, peut déstabiliser une institution, voire faire fluctuer un marché. Les exemples sont légion. Pensez aux conséquences de l'affaire de la Société Générale et à ses répercussions au niveau des taux d'intérêt de la Réserve Fédérale Américaine. Quid du flash crash du 6 mai dernier, ou de Steven Noel Perkins, sous l'emprise de l'alcool, qui, au matin du 30 juin 2009, fut, à lui seul, au coeur de transactions avoisinant 30% de la production totale des pays exportateurs de pétrole, participant à une augmentation record du prix du baril. Sans oublier, les fat fingers : en 2001, un trader de chez UBS a fait perdre à sa banque près de cent millions de dollars après avoir vendu six cent dix mille actions à six yens alors qu'il cherchait à vendre seize titres à six cent mille yens. Ou encore, l'exemple survenu, il y a quelques jours, quand une faute de frappe a déstabilisé le marché de l'aluminium. La liste est longue.

Mon propos n'est pas de dire que ces actes « manqués », au sens premier du terme, sont les responsables uniques de telle ou telle situation, mais qu'ils font partie des éléments participant à la déstabilisation des marchés financiers. C'est pourquoi l'économie et la finance comportementales, portées par des pionniers tels Richard Thaler, Daniel Kahneman ou encore Robert Shiller, connaissent un réel engouement. Ces disciplines étudient les « forces irrationnelles » qui sont au coeur des comportements économiques et financiers : les erreurs de jugement systématiques, l'excès de confiance, l'illusion monétaire, l'aversion à la perte, le souci d'équité, la réciprocité, l'imitation, le mimétisme, la peur, la panique, la contagion émotionnelle, etc. Au-delà de la recherche académique, nombre d'institutions publiques et privées, comme, par exemple, le Forum Economique Mondial et son Global Agenda on Decision Making and Incentive Systems , auquel j'appartiens, sollicitent l'éclairage des sciences comportementales et du cerveau, comme complément des théories et outils traditionnellement employés en finance.

La finance comportementale a donc pour objet d'étudier, non pas les modèles en vigueur, mais le fonctionnement réel de la finance. Il ne s'agit pas de s'intéresser à la finance telle qu'elle est (ou a été) décrite, par la plupart des experts : des marchés efficients, capables de s'autoréguler avec, en leur sein, des individus faisant des choix rationnels. Elle porte, plus précisément, sur les comportements qui s'écartent de la rationalité, telle qu'elle est envisagée dans les sciences économiques, ce qu'il est d'usage d'appeler des « anomalies ». Mais n'est-ce pas un paradoxe que de qualifier d'anomalie un comportement qui n'est pas économiquement rationnel, qui est influencé par des interactions sociales, et dans lequel les émotions peuvent jouer un rôle non négligeable ? Car, tout ceci n'est en fait qu'un comportement banal, dès lors que l'on n'est plus dans la sphère économique ou financière mais dans la vraie vie. Ne devrait-on pas, plutôt, considérer la théorie standard, elle-même, comme une anomalie, plutôt que de qualifier ainsi le vrai comportement des individus ?

Toutes ces problématiques, nous les étudions avec des méthodologies d'enregistrement du comportement, tels que le mouvement des yeux, le temps de réaction, la réaction électrodermale, les pulsations cardiaques, l'estimation de l'activité du cerveau à travers des expériences de laboratoire, certes, mais également de terrain, pour d'autres. Tout un ensemble de travaux est réalisé avec ces méthodologies, afin d'espérer apporter des éclairages nouveaux sur la façon dont les acteurs du monde financier vont prendre des décisions, comment les biais psychologiques les affectent ou encore en essayant de comprendre comment l'information est prélevée et utilisée. Mais le peut-on vraiment quand l'échelle temporelle des opérations est désormais de l'ordre de la micro, voire de la nanoseconde ?

Citons, par ailleurs, l'expérience in vivo réalisée par une équipe de Cambridge qui a enregistré les variations hormonales de traders , pendant une journée de travail, et corrélé ces données d'endocrinologie avec la volatilité du marché. Les résultats montrent qu'un trader , avec un fort taux de testostérone, a statistiquement plus de chances d'avoir de bons résultats en fin de journée. Les médias n'ont généralement communiqué que sur cette partie des résultats de l'article scientifique. La conséquence a été une recrudescence de prise de testostérone exogène chez les traders , puisqu'ils ont lu qu'avec un haut taux de testostérone en début de journée, ils finissaient par avoir de bons résultats. Cet aspect rejoint une autre préoccupation que nous avions abordée lors de ma précédente audition par l'OPECST dans le cadre de la préparation de la révision des lois de bioéthique : l'utilisation des données de neurosciences hors des laboratoires de recherche scientifique et médicale.

Dernier point sur lequel des travaux de recherche sont réalisés : les questions d'addiction. En ce qui concerne les acteurs des marchés financiers, il est possible de distinguer deux niveaux. Tout d'abord, les addictions dites « sans substance ». Elles sont plus liées au goût et à la prise de risque, faisant que la personne travaillant dans un environnement extrêmement stimulant et stressant, va avoir certains comportements de dépendance ou, tout du moins, de pratique excessive, et donc, devenir « addict » au « jeu » que représentent les opérations financières. Ensuite, il y a la recrudescence de la prise de stupéfiants et le changement de comportement. Il fut une époque, où la prise de drogue pouvait être qualifiée de « sociale », dans ce sens où son but premier n'était pas vraiment d'améliorer la performance professionnelle. Aujourd'hui, cela s'apparente plus à du dopage, comme dans le sport. La prise de cocaïne, par exemple, sans que je ne la recommande ni ne l'approuve, permettrait, pour certains, d'avoir un niveau de vigilance plus élevé, de moins dormir, et donc d'être plus actif pendant un certain temps. Les conséquences sont pourtant dramatiques à la fois pour l'homme et pour le système, si des actes inconsidérés sont réalisés, une fois qu'il y a accoutumance, et que tous les biais sont renforcés, voire exacerbés, notamment l'excès de confiance. Ces pratiques se répandent tellement que, notamment en Suède, des contrôles anti-dopage sont réalisés au moment du recrutement de certains acteurs de la finance, mais aussi des contrôles inopinés pendant le travail, pour essayer d'éviter des dérives qui sont dues à la prise de stupéfiants.

Pour en finir avec cette première partie de mon intervention, ne vous méprenez pas, je ne pense pas que les sciences comportementales constituent le remède à tous les problèmes évoqués aujourd'hui. Toutefois, ne pas les convoquer plus fréquemment en finance, comme complément nécessaire aux théories et outils en vigueur, constituerait assurément une erreur.

Débat.

M. Claude Birraux. Merci. Ce que vous venez de dire ne concerne peut-être pas seulement les traders compulsifs. Il me revient en mémoire une visite chez Areva Inc. à Lynchburg aux Etats-Unis, où le directeur venait de passer une série de tests. Il devait répondre à 500 questions qui avaient pour but de tester ses capacités à exercer ses fonctions de directeur d'une société comme Areva Inc. En fonction des résultats, on disait au patron : celui-là, il peut faire face à ses responsabilités ou il ne peut pas. On va donc peut-être sur cette voie, tout doucement. Ce directeur m'avait précisé qu'il ne fallait surtout pas s'amuser à donner des réponses fantaisistes, parce qu'alors on vous envoyait chez le psychiatre, et qu'à partir de là, cela devenait très compliqué. Nous n'allons donc pas faire de fantaisie. Je vais demander à M. Rama Cont de lancer le débat.

Rama Cont. Voici quelques questions autour du thème de cette journée, sur le rôle des méthodes quantitatives et des technologies en finance. J'ai choisi de me focaliser sur les questions liées à la gestion et à la régulation des risques financiers, puisque c'est cela qui nous intéresse principalement ici.

Certaines interventions ont clairement insisté sur le fait qu'il y a au moins trois facteurs qui ont changé la nature des marchés financiers dans les deux dernières décennies :

- l'automatisation, c'est-à-dire l'utilisation de plus en plus grande de l'outil informatique ;

- la globalisation des échanges sur les marchés financiers, qui a changé l'échelle à laquelle on fait les transactions ;

- l'apparition massive de transactions financières «complexes», de gré à gré, c'est-à-dire les produits auxquels ont fait allusion certains orateurs, qui sont dans un créneau du marché peu réglementé, soit à l'extérieur du monde bancaire, dans les « shadow bank » et les hedge funds , soit hors bilan.

Ces trois aspects ont conduit à une mutation, un changement de nature, des échanges financiers. On peut dire que ces trois éléments ont modifié la dynamique des marchés. On a entendu des allusions à l'accélération du rythme des échanges et des variations de prix sur ces marchés. On parle de millisecondes, ce qui était inédit, il y a encore dix ou vingt ans. Ils ont fait apparaître de nouveaux risques systémiques. La globalisation des échanges et le fait que la plupart des acteurs ont des portefeuilles diversifiés font que, lorsqu'ils veulent sortir de leur position, ils vont déclencher des mouvements couplés sur des marchés qui sont, a priori, découplés, du point de vue fondamentalement économique. L'apparition des transactions, qui sont dans le domaine non régulé ou dénué de transparence, a diminué la visibilité des régulateurs sur les marchés et sur les risques qu'ils représentent. Force est de constater que les pratiques de gestion et de surveillance des risques, à la fois au sein des institutions financières et, surtout, chez les régulateurs, n'ont pas toujours évolué à la même vitesse que les changements et les mutations auxquels on fait allusion ici. On a donc des risques hors du champ des gestionnaires du risque et des régulateurs, qui sont soit mal surveillés, soit pas surveillés du tout.

La crise est-elle un échec pour la gestion des risques en général ? Beaucoup de personnes l'ont dit. La crise montre que les méthodes de gestion du risque ont failli. Il faut donc les remettre en question de fond en comble. M. Denis Talay a critiqué un peu ce point de vue simplificateur. Force est de constater que les méthodes de gestion du risque ont failli dans leur mission de surveillance des risques financiers lors de la crise. Une fois qu'on a fait cette constatation, il reste à éclaircir la cause de cette faillite. Est-ce la faute aux modèles et aux techniques de gestion ? Ou à l'incompétence des personnes qui les mettent en oeuvre ? Ou alors, de façon plus profonde, aux mécanismes d'incitation et de compensation qui sont les principaux mécanismes qui vont générer les actions de la part des acteurs financiers ? Même s'il y a des écarts par rapport à la rationalité, on peut constater que les marchés financiers sont les systèmes économiques les plus purs, dans le sens où ils sont le plus proche de l' homo economicus qu'on trouve dans certains livres d'économie. L'incompétence, ou les mécanismes d'incitation qui sont incompatibles avec les objectifs de gestion des risques, c'est quelque chose de très important. Cela a peu de rapport avec les apports scientifiques et technologiques, et leurs impacts sur les marchés, mais je pense que c'est fondamental. Dans le débat sur la crise, beaucoup d'intervenants ont mis l'accent sur cet aspect des mécanismes d'incitation. Faut-il changer les schémas de compensation des traders ? Etc. Je pense qu'on ne peut pas évacuer cet aspect-là. Je constate, ici, que la faute incombe aux régulateurs et aux gestionnaires de risque. Les gestionnaires de risque qui étaient en poste lors de la crise, ont, le plus souvent, été démis de leur poste, quand leur institution n'a pas purement et simplement disparu. Les régulateurs qui étaient en place lors de la crise sont toujours là, et se sont vus doter de plus de responsabilité. On peut s'interroger là-dessus.

Je constate également, et ce constat est partagé par certains orateurs, que malgré ses limitations, la gestion quantitative du risque fonctionne. Je pense qu'il faut ne pas tout mélanger en disant que les méthodes de gestion n'ont pas fonctionné. Certaines institutions, que je ne citerai pas, ont pris au sérieux la gestion du risque dans leur gouvernance. Elles ont investi en interne dans les techniques de gestion du risque. Et surtout elles ont pris en compte le risque dans la prise de décision au niveau de la stratégie globale de la banque. C'est une chose que d'avoir un système de risque très avancé au niveau technologique, c'en est une autre que de consulter le chef de risque de la banque au moment de prises de décision importantes dans l'orientation stratégique des investissements de la banque. On a pu voir que ces institutions ont pu naviguer dans les eaux troubles de la crise de façon satisfaisante. D'autres acteurs financiers, qui étaient réputés avoir une approche peu sophistiquée de la gestion des risques, ont subi de grosses pertes lors de la crise. Ils n'ont pas su gérer le risque. Il y a enfin de grandes institutions financières, par leur taille, qui, bien qu'étant relativement sophistiquées dans le trading , en ayant investi énormément dans les technologies et les méthodes quantitatives, ont négligé de développer les techniques de gestion du risque au niveau de la gestion globale de la banque. La gestion du risque était très bien gérée au niveau des desk et au niveau micro, mais le PDG, ou le pilotage de la banque, n'avaient pas forcément une vue très correcte du risque que représente l'investissement de leur desk trading . Cela, je l'ai malheureusement constaté lors de mes interactions répétées avec certaines institutions financières, en Europe et aux Etats-Unis. Dans certaines institutions, la gestion du risque a surtout été vue comme une « source de coût » et non pas comme une « source de profit ». L'investissement dans la gestion du risque n'a pas été privilégié. Et, dans ce cas-là, on ne peut pas dire que c'est un problème technologique ou scientifique. C'est plus un problème de culture de gestion et de gouvernance, dans la mesure où les techniques étaient disponibles, dans le domaine public, depuis longtemps. Les institutions de la première catégorie, que j'ai citée, avaient une avance technologique certaine, mais l'essentiel des techniques de gestion du risque, sans parler des techniques de trading , étaient dans le domaine public, depuis longtemps. Je ne pense pas qu'on puisse dire que dans toutes les institutions financières de grande taille, en Europe et aux Etats-Unis, l'état de l'art de la gestion du risque était mise en oeuvre au moment de la crise.

Autre constat. Les outils scientifiques et technologiques mis en place dans les banques au service du trading haute fréquence, par exemple, sont pour la plupart, dans le domaine public, et déployables au service des régulateurs. Or, on constate, aujourd'hui, que les régulateurs n'en font pas un usage intensif. Il y a une asymétrie, extrêmement forte, entre les technologies utilisées pour réguler et surveiller, et les technologies utilisées par les acteurs financiers. Évidemment, on dira que c'est faute de moyens, parce que le régulateur n'a pas à sa disposition le budget d'un Goldman Sachs, mais je pense aussi que c'est faute de compétence. Il y a aussi une asymétrie de compétence. La régulation financière est à la traîne. D'une part, elle est cantonnée à un cadre national, alors que les échanges et les institutions sont multinationales et transnationales. D'autre part, elles sont focalisées sur les approches macroéconomiques. C'est la question des deux temps que vous évoquiez. On fait très attention au temps long, mais il se passe des choses, dans le temps intermédiaire ou dans le temps court, qui semblent échapper à la vision du régulateur. De ce fait, la régulation financière a semblé, lors de la crise, décalée par rapport à la réalité du marché qu'elle est censée réguler.

Ce qui m'a frappé dans l'exposé de M. Yves Bamberger, c'est son insistance sur l'observabilité et la prévisibilité. Ces deux aspects, si importants pour la "contrôlabilité" d'un système, manquent tant au système financier. Il s'agit, en partie, d'instaurer - je ne parle pas de restaurer, puisqu'elle n'a jamais été vraiment là- une certaine prévisibilité, une certaine visibilité. C'est là où les méthodes scientifiques et les nouvelles technologies peuvent aider. C'était très visible au moment du déclenchement de la crise. Aucun régulateur n'avait de visibilité par exemple sur les conséquences de la faillite de la banque d'affaires Lehman Brothers. Ils ne savaient déjà pas quelles étaient les expositions des autres banques, de leur pays, ou des autres banques internationales, à cette banque qui faisait faillite.

M. Jean-Paul Betbèze. Quand une banque de cette ampleur se refinance overnight , vous pouvez vous poser quelques problèmes. Sans faire de mathématiques sophistiquées, cela veut dire que si le lendemain à huit heures, vous n'avez pas l'argent, vous sautez. C'est ce qui s'est passé.

M. Rama Cont. Dans ma partie sur la visibilité, je ne parle pas de mathématiques ou de technicité.

M. Jean-Paul Betbèze. Non, mais là, c'est de l'invisibilité.

M. Rama Cont. C'est simplement l'existence de données, ou de vision sur ce qui est là. Ces données sont là, mais personne ne les regardait dans l'ensemble pour voir ce qui se passe. Alors je pense que là, il y a des données existantes. Vous avez fait allusion à des choses qui étaient connues des régulateurs, mais sur la base desquelles ils n'ont pas agi.

Il y a aussi des données qui étaient invisibles pour le régulateur. Par exemple, les expositions mutuelles des institutions financières, aujourd'hui, ne sont visibles à aucun régulateur. Les régulateurs nationaux peuvent, tout au plus, regrouper, à leur demande, des données sur les expositions interbancaires des institutions de leur pays, mais évidemment, les expositions les plus importantes des institutions françaises ne sont probablement pas aux institutions françaises, mais, plutôt, aux institutions qui se trouvent en Allemagne, à Londres ou aux Etats-Unis. De telles bases de données n'existent pas aujourd'hui. La mise en place de ces données, sous une forme sécurisée, peut être un premier pas, pour rendre un peu plus de visibilité dans un système qui est relativement complexe et peu visible.

Ensuite, vient la prévisibilité. Il y a des marchés totalement transparents, comme les marchés boursiers, dans lesquels les carnets d'ordres sont enregistrés électroniquement. Cette transparence totale ne rend pas pour autant le système prévisible. Pour faire des prévisions de risque, des extrapolations et des simulations de risque dans ce type de contexte, le régulateur doit se doter d'outils analytiques et de modélisation. Dans ce cas, l'interface entre la technologie et la recherche reste à développer. Cette interface a été développée, et on est allé très loin dans la recherche, entre la recherche et les salles de marché, qui se sont effectivement équipées de systèmes sophistiqués de gestion du risque. Les régulateurs, ceux qui sont chargés de surveiller le marché, peuvent aussi le faire. Évidemment, il y a un coût. Qui va supporter ce coût ? Je pense que si on veut avoir un peu de visibilité et de prévisibilité, c'est ce vers quoi il faut aller.

En conclusion, je dirais que restaurer la visibilité du risque, c'est un contexte dans lequel les méthodes scientifiques et les nouvelles technologies peuvent intervenir au service de la régulation. Les technologies et les méthodes qui ont été mises au service des institutions financières peuvent-elles aussi avoir une utilité sociale dans un sens un peu différent ? Cette question sera abordée dans la deuxième partie. Ces techniques sont utiles et intéressantes pour la surveillance et la régulation de ce système financier. Des exemples existent, dans d'autres pays. J'évoquais la mise en place de données sur les expositions interbancaires. Dans des pays comme le Brésil, par exemple, il existe une base de données sur l'exposition, entre toutes les institutions financières, banques et établissements de crédit. Les établissements brésiliens sont tenus de mettre à jour leurs expositions à toutes les contreparties, et ce, chaque jour, auprès de la banque centrale brésilienne, qui maintient donc ces données à des fins de surveillance. Pour ce qui concerne la constitution de bases de données de transaction, il y a aussi l'initiative intéressante aux Etats-Unis, inscrite dans la loi Dodd-Frank 7 , de la création d'une agence gouvernementale « Office of Financial Research » . J'ai contribué à la mise en place de la maquette de cette agence. Cette initiative consiste à regrouper des données de transaction et de position, via les sources commerciales existantes, et l' « Office of Financial Research » est une tentative pour compléter cette base, pour être une base de données pertinente, remise à jour en temps réel ou presque, au service des régulateurs.

Toutes ces initiatives n'ont vraiment de sens qu'au niveau européen, voire mondial. On aura, à ce sujet, une intervention de M. Marcel-Eric Terret à la Direction générale du marché européen. Si l'on prend des initiatives de ce type au niveau national, la collecte de données au niveau national n'aurait pas grand sens, au regard du risque systémique. Et si on va au-delà de cette collecte, la mise en place de régulations au niveau national peuvent être différentes d'un pays à l'autre. Si ces régulations sont différenciées entre pays, cela donnera lieu aux arbitrages géographiques que l'on sait. Par conséquent, il faut être ambitieux tout de suite, ou alors on n'obtiendra aucun effet.

Je vais m'arrêter là. Des points ont déjà suscité des réactions.

M. Claude Birraux. Merci M. Rama Cont pour cet exercice remarquable de synthèse des débats qui ont eu lieu pendant toute cette première table ronde. Nous sommes admiratifs. Le débat est ouvert. Avez-vous des questions à poser ? Je dis bien des questions aux différents intervenants. Je sais bien que des représentants des banques sont présents. Nous n'attendons pas de déclaration, la main sur le coeur, comme quoi ce qui est arrivé à une banque n'arrivera pas à la vôtre.

Raphaël Douady, directeur de la recherche à Risk Data. Je travaille pour une société éditrice de logiciels de risque, un peu comme celle de M. Arnaud Vincinguerra, qui est un ami. Je souhaite poser ma question à M. Rama Cont, mais peut-être que d'autres intervenants auront aussi des réponses. Une des réactions actuelles, bien compréhensible, des régulateurs face à la crise, a été de demander une transparence totale des transactions à tous les acteurs financiers. Cette réaction a été générale. Or, comme l'a souligné M. Rama Cont, les moyens des régulateurs sont limités. Je vois trois dangers à cette demande de transparence totale, telle qu'elle a été présentée. Le plus grand danger, c'est la déresponsabilisation des institutions financières en termes de calcul de leur risque. Un banquier à qui on demande d'être totalement transparent va dire de calculer les risques à sa place. Et s'il peut essayer de développer son « shadow banking » , comme l'a appelé M. Jean-Paul Betbèze, effectivement, tout ce que vous ne voyez pas, d'une certaine manière, la banque en sera totalement blanchie, parce qu'elle vous aura donné tout ce que vous lui avez demandé. Il y aura toujours des choses que le régulateur ne verra pas, d'une part, parce que c'est impossible de tout voir, et d'autre part, parce qu'il n'en a pas les moyens. C'est pourquoi, j'aurais plutôt tendance à penser que le régulateur devrait demander une transparence des risques. C'est quelque chose de complexe. Et c'est d'ailleurs ce qu'il avait demandé. Il avait demandé une Value at Risk . Mais une Value at Risk est un résumé extrêmement réduit de ce que devrait être la transparence des risques. Je pense que les régulateurs devraient demander aux institutions financières quelque chose de très détaillé : « Qu'est-ce qui leur arrive si... ? » « Quelles sont leurs expositions ? » Et ensuite, les responsabiliser s'ils ont mal régularisé. C'est un petit peu la méthode du CD qui enregistre la vitesse des camions. Pour que, après coup, le régulateur puisse dire : « Vous m'aviez déclaré que si le marché faisait telle ou telle chose, il arriverait telle chose. » En définitive, ne vaudrait-il pas mieux demander une transparence des risques plutôt qu'une transparence des positions ?

M. Rama Cont. Quand on parle de transparence, il faut être très vigilant. Il faut distinguer, d'une part, la transparence pour le marché, donc révéler publiquement des prix ou des volumes de transactions, et d'autre part, la transparence pour le régulateur. La transparence pour le régulateur existe déjà dans une certaine mesure. Aujourd'hui, le régulateur est en droit d'exiger, à une institution financière qui tombe sous le coup de sa régulation, et non pas à un hedge fund , des détails sur ses positions, sur ses transactions, etc. Cette transparence, qui existe déjà, n'est pas automatisée. Si vous faites allusion au débat qui a lieu au Etats-Unis, ce débat-là porte surtout sur la transparence de marché. Par exemple, il y a des marchés de gré à gré, où l'on ne sait pas à quel prix et en quelles quantités les choses sont échangées. Faut-il les rendre transparents, comme à la bourse, où les carnets d'ordres sont publics ? Le régulateur américain répond oui. Son discours est de dire que la transparence, c'est bien, donc il faut les rendre transparents. Je ne pense pas que ce soit la bonne réponse, parce que la transparence n'est pas un objectif en soi. On l'a vu dans le « flash crash ». C'est arrivé sur un marché électronique totalement transparent, où les carnets d'ordres sont révélés à tout le monde, et cela n'a pas empêché les prix de chuter de 20%, et d'entraîner des chutes de prix sur tous les autres marchés, qui étaient eux aussi des marchés organisés et transparents. Je pense que le but, ici, du régulateur, va plutôt être d'assurer la stabilité à la liquidité du marché, d'éviter des ruptures. Si la transparence peut aider à cela, alors oui, il faut plus de transparence.

Mais ce n'est pas évident que ce soit le cas sur tous les marchés. Dans un marché fragmenté, où le prix du marché est agrégé à partir des petites transactions de plein de petits acteurs, la transparence peut canaliser cette fragmentation dans un carnet d'ordres, ou dans un système électronique, et rendre le fonctionnement plus lisse. Mais dans un marché tel que le Swap de taux d'intérêt par exemple, essentiellement institutionnel, où il y a peu de transactions, et où chaque transaction représente de gros volumes de l'ordre de cent millions d'euros, au contraire, le fait de rendre transparentes ces grosses transactions peut créer des fluctuations de marché violentes, dans la mesure où les autres vont agir dessus comme ils ont agi lors du « flash crash » quand un gestionnaire de fonds du Kansas a vendu massivement soixante quinze mille titres. La transparence n'est pas en but en soi. C'est plutôt un objectif s'il est démontré qu'elle permet une plus grande stabilité et liquidé du marché. Et ce n`est pas le cas de tous les marchés. Il faut donc régler cela au cas par cas. Une étude, actuellement en cours auprès de la FED, va dans ce sens. Identifier, aujourd'hui, les marchés non transparents, dans lesquels la transparence peut être bénéfique.

M. Charles-Albert Lehalle. Je suis parfaitement d'accord avec l'analyse de M. Rama Cont sur ce sujet, très important, de la transparence des données, de la façon dont on peut les partager, et de la façon dont le régulateur peut les utiliser ou pas. En plus de cela, quand on parle du processus de formation des prix, il ne faut pas oublier de se demander si le juste prix est atteint, par cet équilibre entre l'offre et la demande, avec toutes ces problématiques de liquidité. Et ne pas masquer le fait, non plus, qu'aujourd'hui, les régulateurs ou, en tout cas, les législateurs, quand ils posent des questions pour la révision de la réglementation, se tournent vers les universitaires. Les universitaires ont peu de réponses, car il y a peu de données disponibles.

C'est là que j'ajoute un troisième volet qui, pour moi, est très important. C'est de rendre disponible plus de données, encore plus détaillées, aux études universitaires, afin de comprendre le processus de formation des prix. Certes, ces données doivent porter sur des périodes plutôt courtes, pour ne pas qu'on puisse en inférer des choses qui viendraient perturber le processus de formation des prix. On peut même rajouter des informations, et exiger cela. Le régulateur peut le faire. Sa fenêtre de tir est très courte, pour exiger des opérateurs de marché de stocker dans leurs bases de données des informations complémentaires. Par exemple : cette transaction ou cet ordre est-il inséré par un trader haute fréquence ou pas ? Si on ne le stocke pas au moment où c'est fait, en vue de faire des études universitaires sur la nature du processus de formation des prix quand il y a plus ou moins de traders haute fréquence, cette fenêtre de tir va se refermer, et, ensuite, on pleurera de nouveau, dans trois ou quatre ans, en se tournant de nouveau vers les universitaires, lesquels n'auront toujours pas de réponse sur ces problématiques. Je crois que c'est très important d'enrichir le panel des informations, non seulement pour l'analyse post-trade , en cas de suspicion de manipulation de cours, mais aussi pour comprendre le processus de formation des prix, et pour éclairer les analyses, via une approche scientifique, afin qu'on puisse prendre les meilleures décisions lors de la prochaine vague réglementaire.

Mme Alexandra Givry, adjointe au chef du service de la surveillance des marchés, Autorité des marchés financiers. Je voudrais aller dans votre sens. Il est évident que le régulateur souhaiterait également recevoir et pouvoir conserver plus d'information. Cependant, il ne faut pas oublier que ce n'est pas le régulateur qui écrit la MIF, mais bien la Commission européenne. Nous insistons en ce sens, pas seulement pour obtenir les informations relatives au fait qu'une transaction a été réalisée sur la base d'un ordre algorithmique ou non, mais plus largement, pour disposer des informations sur les ordres. Pour l'instant, nous n'avons même pas un accès systématique aux ordres sur l'ensemble des plateformes. Donc le problème est bien plus large que la seule question du trading algorithmique.

Je souhaiterais aussi réagir aux propos de M. Raphaël Douady, qui comparait la transparence, vis-à-vis des régulateurs, sur les risques et sur les positions. À mon sens, le régulateur ne doit pas venir en premier lieu. Il ne peut pas être celui qui, sur la base de données sur les positions, va être capable de recalculer finalement les risques pour l'ensemble des établissements. Nécessairement, le régulateur doit pouvoir profiter d'une certaine transparence au niveau des risques. Vous le disiez dans votre conclusion, la maîtrise des risques a souvent été vue comme un coût, et, par conséquent, elle n'a pas été suffisamment prise en charge par les intervenants. Pour un régulateur qui devrait faire le travail sur l'ensemble du marché, assurer seul ce coût, serait absolument impossible. Il y a, effectivement, un manque de moyens chez les régulateurs pour faire ce travail, et je pense qu'on ne peut pas résoudre le problème seulement en donnant les moyens nécessaires pour que le régulateur fasse tout le travail. En premier lieu, le contrôle des risques doit être exercé au niveau de chaque établissement, surtout sur les aspects prudentiels. Si l'on revient sur la crise récente, je ne parle pas seulement au nom de l'AMF, mais également pour l'Autorité de contrôle prudentiel, les autorités exercent une surveillance de second niveau, après le contrôle réalisé par les établissements. Cela ne signifie pas pour autant que l'Autorité de contrôle doive se contenter de vérifier qu'il existe des procédures de contrôle au sein des établissements. Il est très important de maintenir une activité, de la part de l'Autorité de contrôle prudentiel, qui consiste à vraiment aller au fond des choses. Mais les autorités ne peuvent pas être responsables de l'intégralité du contrôle des risques, à la place des établissements.

Je voulais également réagir sur le problème des moyens et des compétences. Vous avez dit que nous manquions de moyens, c'est vrai. Nous manquons également de compétences, et je pense que les deux problèmes sont liés. Quand on n'a pas de moyens, on ne peut pas attirer de compétences. Il y a deux ans, moins de quinze personnes surveillaient les marchés à l'AMF. Aujourd'hui, on développe le recrutement, et on est vingt. Ce n'est pas énorme, c'est insuffisant, mais on voit bien que plus on a de moyens, plus on peut attirer des compétences. Et je ne parle pas seulement de moyens financiers pour développer les équipes, mais aussi de moyens réglementaires, pour pouvoir faire notre travail.

M. Jean-Philippe Bouchaud, président de Capital Fund Management, professeur à l'École polytechnique. Je voulais revenir sur le problème de la liquidité et de son organisation et sur une remarque que M. Rama Cont a faite, tout à l'heure, et qui m'a un peu frappé. Vous semblez suggérer que des sociétés qui partent d'une position nulle en début de journée et qui repassent à une position nulle en fin de journée avaient quelque chose de critiquable. Mais le market maker d'antant faisait exactement cela.

M. Rama Cont. Je n'ai pas fait de jugement ; j'ai posé la question de leur utilité économique.

M. Jean-Philippe Bouchaud. C'est pour cela que je lance le débat là-dessus. Tu semblais même impliquer que leur utilité économique n'était pas démontrée. Or le market maker d'antan fonctionnait exactement comme cela. Contrôler son inventaire, cela fait partie du métier de market maker et de ces sociétés qui ont, il me semble, une utilité économique incontestable. Est-ce que tu le remets en question ?

M. Rama Cont. Si on veut être plus précis sur ce point, l'étude de la CFTC-SEC (Comité consultatif conjoint de la Commodity Futures Trading Commission et de la Securities and Exchange Commission ), que je citais, distingue les traders haute fréquence, les institutions qui opèrent à des millisecondes, et d'autres intermédiaires, qui, également, commencent à zéro et finissent à zéro. Ils jouent le rôle de market maker , comme tu disais, mais en opérant à une fréquence plus basse, même si pour nous, la fraction de seconde reste encore de la haute fréquence. Cette étude montre qu'il y a un flux systématique de profits, des market maker lents, vers les market maker haute fréquence. C'est quelque chose que la CFTC a constaté dans ses données. Ce sont des données propriétaires, je n'y ai pas accès. Et les market maker classiques, auxquels tu faisais allusion, qui opéraient à des échelles de fréquence plus basses, fournissent de la liquidité là où il n'y en a pas. Ils vont augmenter la liquidité des carnets d'ordres, ils vont émettre des ordres de vente, et d'achat, pour peupler les carnets d'ordres lorsque ces carnets d'ordres se vident, suite à des transactions. L'étude de la CFTC dit, au contraire, que les seize acteurs haute fréquence, qu'elle a distingués parmi les market maker , sont des acteurs qui mangent la liquidité, et donc qu'ils tirent le tapis sous les pieds des autres. C'est la classification de la CFTC. Ce n'est pas ma conclusion. Je n'ai pas accès à ces données.

M. Jean-Philippe Bouchaud. Je trouve cela extrêmement surprenant qu'un consommateur de liquidités puisse survivre très longtemps.

M. Rama Cont. C'est surprenant, et un peu inquiétant.

M. Claude Birraux. Pour conclure cette première table ronde, je propose que nous regardions ensemble un extrait d'un film récent, qui illustre parfaitement bien notre sujet. Il s'agit de «Cleveland contre Wall Street» , un documentaire fiction de Jean-Stéphane Bron, distribué par «Les Films du Losange», la société de production d'Eric Rohmer, auprès de laquelle nous avons recueilli les droits de cette projection de quelques minutes. Je signale d'ailleurs à la régie audiovisuelle que cette projection ne doit pas être reprise sur le canal intérieur.

Jean-Stéphane Bron, que je remercie au passage pour son autorisation, est un réalisateur suisse. Le film reconstitue le procès en responsabilité intenté, par la ville de Cleveland (Ohio), contre les banques d'investissement de Wall Street, pour réparation du sinistre causé à des quartiers entiers de la ville, rendus dangereux et insalubres, du fait de la multiplication des maisons laissées à l'abandon par leurs occupants, victimes des crédits « subprimes » . En fait, la procédure judiciaire a été bloquée par les banques, mais Jean-Stéphane Bron a obtenu, de tous les protagonistes réels, y compris le juge compétent et l'avocat des banques, qu'ils se prêtent au jeu d'un procès fictif, tel qu'il aurait pu avoir lieu. L'extrait montre l'audition de Michaël Osinski, qui s'est fait connaître, à travers un article paru fin mars 2009 dans le New York Magazine, comme l'un des informaticiens ayant conçu le logiciel de titrisation des prêts immobiliers, à la base du mécanisme des « subprimes » .

Page mise à jour le

Partager cette page