De la faillite de la simplicité «normale» à l’avènement d’une complexité chaotique

0
760
Silhouette businessman jump through the gap with sunset, Business competition concept

La crise économique à laquelle nous survivons actuellement présente une complexité qu’il n’est plus utile de rappeler. Dès lors, il est difficile d’attribuer les responsabilités de ce grand chambardement à des entités particulières. Nous pouvons tout de même dénigrer l’attitude pré-crise de la Fed et sa politique laxiste sur les marchés. Ou même étendre cette critique aux pouvoirs politiques américains de l’époque qui cherchaient à faire croître l’usufruit au sein de leur population tel un idéal national. Mais il reste indéniable qu’une accusation honorable peut être portée aux hypothèses des modèles mathématiques supportés par les groupes bancaires et leur gestion des risques.

Pour comprendre ô combien la finance repose sur des lois fragiles, il faut revenir aux sources. Les opérateurs financiers disposent essentiellement de trois analyses possibles qui constituent finalement leurs outils de travail : l’analyse fondamentale, l’analyse technique et l’analyse classique de la finance. L’analyse fondamentale prétend comprendre l’information émise par le marché et s’appuyer sur celle-ci pour effectuer ses prévisions. L’analyse technique, quant à elle, observe directement les cours du marché à l’aide de formes graphiques et tente d’y dégager certaines « tendances » qui permettent d’appréhender l’avenir. Alors que le premier outil est considéré comme incohérent et instable, le second est accusé d’être pseudo-scientifique et auto-réalisateur. Dans les années 1960 arrive aux Etats-Unis ce qui sera renommé plus tard le « modèle classique » de la finance. Ce modèle d’analyse est par la suite devenu prépondérant et a été adopté par la majorité des professionnels du secteur financier. Or, il apparaît que les hypothèses sous-jacentes à ce modèle soient entièrement infondées.

Le modèle classique de la finance repose sur un rêve d’économiste qui voudrait traduire le monde en équations et donner une valeur à toutes choses. La révolution marginaliste de Léon Walras (1834-1910), de Carl Menger (1840-1921) et de William S.JEVONS (1835-1882) et leur théorie de la valeur marquent le début de cette ambition chez les économistes. Ils parviennent à quantifier le niveau de consommation d’un individu selon le principe de l’utilité marginale. Cette innovation en économie donnera alors naissance à l’école néoclassique. Elle posera des hypothèses de base qui ne quitteront jamais plus le territoire de la théorie financière.

En microéconomie, l’étude de la consommation est appelé la théorie du choix du consommateur. Elle met en relation une fonction d’utilité, traduisant la satisfaction d’un individu à la consommation d’un ou plusieurs biens, et une contrainte budgétaire. Ainsi, un optimum est atteint quand la satisfaction de l’individu rencontre la contrainte financière. Tel un physicien qui passerait du comportement microscopique des particules à une analyse macroscopique de leur interaction,  Walras propose une théorie de l’équilibre général qui prétend expliquer la formation des prix à partir de la théorie marginaliste. Or, ce tour de force n’est possible qu’au prix d’une hypothèse audacieuse : les individus sont rationnels et maximisent leur utilité. Cet axiome est aussi à la base de la théorie financière moderne qui considère les opérateurs de marché comme hédonistes et logiques. Cependant, la finance comportementale a depuis décelé les nombreux biais dont pouvaient souffrir les décisions d’investissement : travers cognitifs, mimétismes ou encore les prophéties auto-réalisatrices.

Un autre postulat orthodoxe voudrait que les individus qui évoluent sur les marchés soient similaires et qu’ils agissent d’une manière homogène. Encore une fois, cette conception permet d’analyser les tendances macroéconomiques comme l’agrégation des comportements individuels microéconomiques des agents. Seulement, les individus dits « rationnels » ne se comportent pas collectivement telles les molécules d’un gaz parfait. De multiples critères de choix, comme l’horizon d’investissement ou la rentabilité attendue, motivent les décisions des individus sur les marchés financiers. Nous voyons dès lors les marchés comme plus anarchiques qu’ils n’apparaissent sous les conventions classiques.

Une dernière hypothèse centrale à l’édifice moderne de la finance reste que les variations des cours boursiers suivent un processus brownien. Il s’agit d’un outil emprunté à la physique décrivant le cheminement d’une particule au sein d’un fluide. L’application de cette théorie aux cours boursiers suppose que les variations de cours suivent une loi normale, que le processus est stationnaire en tout temps et que les évènements sont indépendants.  Mise au jour par Robert Brown (1773-1858) en 1827, cette description mathématique a été reprise et adaptée aux cours boursiers par Louis Bachelier (1870-1946) dans sa thèse Théorie de la spéculation (1900). Alors que cette idée était tombée en premier lieu dans l’oubli, elle a ensuite été reprise en 1952 par Harry Markowitz qui initie la théorie du portefeuille. Dans cette dernière, il établit une relation rendement-risque dans laquelle le bénéfice escompté et le risque sont estimés par une loi normale. Ce modèle conduira à la construction du Modèle d’Equilibre des Actifs Financiers (Medaf) imaginé par William Sharpe (1934) et à la notion de prime de risque des actifs. Finalement, le mouvement brownien trouve une dernière application dans l’évaluation des options sous le modèle Black-Scholes-Merton (1973) dont le principe fondamental est de relier le pricing des options au concept de volatilité de l’actif sous-jacent. Le point commun de tous ces développements, aujourd’hui devenus indispensables dans les activités financières,  est qu’ils reposent sur un corpus d’hypothèses fragiles, voire dangereuses.

En effet, une conception « normale » des cours voudrait que les variations suivent la loi des écarts-types 68%-95%-99.7%. Ainsi 99% des variations de cours devraient se situer dans l’intervalle [Moyenne-3*écart_types ;  Moyenne+3*écart_types]. Benoit Mandelbrot (1924-2010) a testé cette prétendue normalité sur les cours du Dow Jones et révèle : de 1916 à 2003, « la théorie prédit 6 jours où l’indice varierait  de plus de 4.5% ; en réalité, il y en a eut 366 ». Nous voyons que le comportement des cours financiers ne peut être représenté par une loi gaussienne. Secondement, le processus mathématique qui génère les variations est loin d’être stationnaire. Alors que Bachelier avançait l’idée d’une « marche aléatoire », il apparaît que les cours n’ont pas la même chance d’être haussiers ou baissiers ; mais qu’ils font l’objet d’interprétations de la part des intervenants sur les marchés, ce qui crée des distorsions. De même, les variations des prix ne sont pas indépendantes les unes des autres, il existe bel et bien une mémoire de marché. Cette dernière est engendrée par les profils des investisseurs qui réagissent de manières différentes aux informations. Ainsi, l’équiprobabilité entre les mouvements haussiers et baissiers est un argument spécieux. Dans la même optique, l’hypothèse d’efficience des marchés, imaginée par Eugène Fama (1939) en 1970 et admise par la communauté financière, selon laquelle l’information est systématiquement et efficacement intégrée au prix du marché, peut également être remise en cause. Cette dernière étape suppose qu’aucun opérateur ou investisseur ne puisse tirer parti d’une information de manière à réaliser un profit. Ainsi, les variations des prix ont autant de chances d’être haussières ou baissières et l’efficience des marchés rejoint la marche aléatoire théorisée par Louis Bachelier en 1900. En fait, la réalité est toute autre ; les variations sont dépendantes, il existe une « mémoire de marché » et les cours suivent des lois de puissance.

Que ce soit du point de vue de l’analyse financière, de la maîtrise des risques ou même de la gestion de portefeuille, il est flagrant que les hypothèses de la théorie financière actuelle fragilisent les marchés aussi bien à un niveau microéconomique qu’à un niveau macroéconomique. Les conséquences de ces conceptions « classiques » sont d’autant plus évidentes quand des situations extrêmes de marchés se présentent, comme c’est le cas en temps de crise.  Il est ainsi intéressant d’analyser le comportement de la Value At Risk lorsque surviennent ces évènements extrêmes. Cet outil a été imaginé en complément de la théorie du portefeuille efficient de Markowitz pour déterminer la perte maximale que pourrait subir une position ou un ensemble de positions financières sur un horizon temporel précis ; et définir en conséquence un niveau de capital contrebalançant ces éventuelles pertes. Concrètement, une simulation VaR nous donnera la probabilité (exprimée par un quantile) que la position étudiée aura une perte supérieure à un niveau X prédéfini. Nous percevons dès lors que cette conception du risque est pragmatique : elle est vraie en tout temps et pour toute position.

Cependant, elle n’est pas sans défauts. A l’image de la théorie classique du portefeuille, la loi sous-jacente est normale, ce qui tend à ne pas prendre en compte les « cygnes noirs » et donc à sous-estimer la perte maximale probable. De même, la distribution statistique sera basée sur un court historique de valeurs. L’estimation de la perte maximale d’une année se basera ainsi naïvement sur l’année précédente. Comme l’affirme le consultant en risk management Marc Groz (in english in the text ): “The years 2005-2006 aren’t a very good universe for predicting what happened in 2007-2008.”. La crise financière débutée aux Etats-Unis en 2007 est maintenant perçue comme l’exemple type d’évènement aux conséquences fatales  inattendu par les modèles de risk management. Selon N.N.Taleb, il est nécessaire de révolutionner l’estimation des risques de marché en introduisant des distributions « fat tails » qui n’ignoreront désormais plus les situations extrêmes.

Un autre exemple fameux qui repose sur les hypothèses fallacieuses de la théorie moderne et a échoué en temps de crise reste le modèle d’évaluation des dérivés de crédit estampillés « credit default ». Cette valorisation s’appuie sur les copules gaussiennes développées par David X.Li, un ancien quant de Barclays d’origine chinoise. A partir de la fin des années 1990, son travail a conduit au développement exponentiel des contrats d’assurance contre le risque de défaut de contrepartie, CDS ou CDO. Il s’agissait de vendre aux investisseurs un contrat garantissant le remboursement du capital sur les bonds ou swaps en cas de défaut de la contrepartie à laquelle ils ont affaire. Dans un environnement de titrisation croissante, les financiers professionnels ont ensuite proposé de « découper » en tranches les dettes des émetteurs et de vendre ces nouveaux contrats d’assurance en appui. Encore une fois, nous retrouvons la patte de Carl Friedrich Gauss comme signe de la moyennisation des trends, alors que les situations extrêmes sont pléthores. Secondement, le principe de corrélation est décrié par le monde financier comme étant inefficace et instable. La crise des subprimes est l’exemple criant de l’inefficacité de la méthode des copules ; le risque a en effet été dilué sur le marché immobilier américain sans que les spreads ni les notations sur les produits dérivés n’aient été adaptés à l’évolution de la situation. L’auteur du Black Swan l’affirmait par ailleurs: “Co-association between securities is not measurable using correlation, because past history can never prepare you for that one day when everything goes south. Anything that relies on correlation is charlatanism”. La pérennité de ce modèle de croissance était assurée par la hausse des prix immobiliers, alors que sa baisse s’est généralisée durant la crise.

Finalement, il est flagrant que la finance moderne a un grand besoin de renouveau. Il est nécessaire de refondre les hypothèses sur lesquelles s’appuient les modèles financiers, que ce soit pour l’analyse des investissements, la gestion de portefeuille, les méthodes d’évaluation des options ou encore la gestion des risques. Déjà dans les années 1960, certaines voix s’élevaient en hérésie contre les outils employés par le monde financier. C’est le cas de Benoît Mandelbrot (1924-2010), inventeur des fractales, qui a très tôt décrit les marchés comme étant chaotiques. Il a notamment insisté sur la discontinuité et la dépendance des cours boursiers, démontré la dimension fractale des marchés et pourfendu la dictature du tout gaussien au sein des modèles. Son ouvrage Une approche fractale des marchés devrait être la Bible de chevet de tout financier prétendument sérieux tellement il affiche clairement l’état embryonnaire de la finance actuelle et propose des pistes d’études variées.

Ainsi, il serait urgent de refonder la méthode « originelle» d’évaluer le prix des options. La modélisation Black-Scholes publiée en 1973, bien que simple d’utilisation dans la pratique, inclut des hypothèses irréalistes : des variations de cours « normales », des coûts de transaction inexistants, une volatilité constante et aucune discontinuité. Des ajustements à la marge ont été réalisés a posteriori pour rendre l’évaluation plus juste. Par exemple, le modèle GARCH introduit une volatilité locale non constante et précise l’évaluation du prix des options pendant leur durée de vie. D’autres aménagements restent néanmoins envisageables dans le modèle Black & Scholes et il serait utile de prendre en compte le caractère chaotique des marchés pour améliorer l’évaluation des options. La gestion des risques a elle aussi beaucoup à gagner de l’analyse fractale des marchés. Le défaut de la méthode VaR devrait encourager le monde financier à employer de nouvelles lois d’échelles aux queues de distribution plus épaisses et d’inclure un facteur de dépendance temporelle des cours pour survenir aux situations extrêmes.

Par conséquent, il est devenu évident que le paradigme actuel de la finance ne permet pas de survivre convenablement aux évènements extrêmes et aux situations de tensions financières. C’est pourquoi il est plus nécessaire d’amorcer les négociations pour une révolution copernicienne qui viendrait bouleverser les fondamentaux théoriques de la finance moderne.

Rémi LEVEQUE

LEAVE A REPLY

Please enter your comment!
Please enter your name here