1La mondialisation est avant tout une mondialisation financière qui présente cette particularité d’avoir atteint un niveau de complexité technique sans précédent, tout au moins dans les sphères les plus innovantes des marchés financiers. Ce sont en effet des standards probabilistes sophistiqués qui sont utilisés pour décider d’acheter ou de vendre les « produits dérivés » dont la prolifération a été étroitement associée à la crise qui vient de secouer le monde. Mais en même temps, les ressources d’un grand nombre de personnes sont étroitement dépendantes des cours de ces produits et, quotidiennement, journaux et radios nous tiennent informés de l’évolution des cours sur les places boursières. « À la fin des années soixante-dix, la Bourse était [...] un univers lointain, séparé et secret, une activité réservée à un petit monde de professionnels fort semblable à celui des notaires. Aujourd’hui, pour le plus grand nombre, les marchés financiers sont devenus étrangement familiers. » (Godechot, 2001). Cette proximité quotidienne rend-elle les mécanismes de ces transactions transparents pour les profanes ? Rien n’est moins sûr. On assiste en fait à un phénomène qu’on pourrait juger paradoxal puisque les activités des marchés financiers sont à la fois familières, quotidiennes et opaques.
2La crise de ces derniers mois a suscité des débats qui ont parfois attribué à ces mathématiques financières nouvelles la responsabilité de l’emballement et de l’effondrement de marchés. En admettant que les outils théoriques et conceptuels doivent être incriminés, où situer exactement cette responsabilité ? Au niveau du choix des modèles probabilistes utilisés – largement inspirés jusqu’ici du mouvement brownien (Walter, 2009) ? Au niveau de la croyance en la possibilité de « probabiliser » l’aléatoire des marchés financiers (Mandelbrot, 1997 ; Taleb, 2004) ? Ou plus radicalement au niveau de la finance conventionnelle elle-même (Causse-Broquei, 2009) ?
3Il ne s’agit pas, dans cet article, d’évaluer et de confronter les arguments qui soutiennent ces thèses, mais de contribuer indirectement à ce débat en examinant comment les concepts et théorèmes de la théorie des probabilités au c œur de ces techniques sophistiquées, sont « traduits » dans la langue courante. Dire l’incertain ne va pas de soi : dans le domaine de la finance, profanes comme experts tendent à réduire le caractère imprévisible, sauvage des processus, à les « dérandomiser ». Ce néologisme veut signifier que l’on « traduit » un phénomène aléatoire d’un certain type à l’aide d’un modèle aléatoire plus régulier, plus continu, moins imprévisible. C’est ainsi, par exemple, qu’un événement probable est annoncé comme une certitude, qu’un phénomène aléatoire est assimilé à un jeu de pile ou face, qu’une incertitude radicale est probabilisée ou qu’une convergence en probabilité est transformée en une convergence simple.
Traduire ou transcoder ?
4Avant d’explorer ces manières de dire l’incertain « en langue », il faut s’entendre sur ce que traduire veut dire dans ce contexte. Les langages formels sont réputés pouvoir être transposés sans distorsion d’une langue dans une autre. Mais cette affirmation est trompeuse. Il faut distinguer la partie du sens qui est conventionnellement déterminée par le système de la langue (le « sens langagier »), et la partie du sens attachée à l’énonciation. Convenons d’appeler la première la signification de la phrase, la seconde son sens. Cette distinction apparaît indispensable dès lors qu’on observe qu’un narrateur peut tout à fait énoncer une phrase signifiante sans pour autant être en mesure de lui donner un sens précis ; et que le lecteur, en revanche, est sommé de comprendre, de forger un sens, à partir de la signification qui lui est adressée et des connaissances extralinguistiques dont il dispose. Le dualisme frégéen (sens/référence) ne peut suffire là où nous avons besoin de distinguer, comme ici, le transcodage de l’énoncé formel (à l’aide de la combinaison des significations des symboles entrant dans la phrase) et les traductions proprement dites, qui concernent le sens de la phrase et requièrent de comprendre l’énoncé, d’être capable de le relier à des situations concrètes où l’énoncé est valide (et à des situations où il ne l’est pas), de le relier à d’autres énoncés, etc.
5S’il s’agit simplement de « lire » en langue ce que les symboles désignent – de transcoder –, cette mise en mots « littérale » d’une phrase mathématique ne requiert qu’une langue simplifiée et résistera à l’épreuve de la « traduction de la traduction » (Cassin, 2007). Mais il en va autrement si la phrase mathématique est « traduite » dans sa propre langue pour en restituer le sens. Lorsqu’il s’agit de phrases mathématiques relatives à des processus aléatoires qui concernent la vie de tous, renoncer à cet effort de traduction au profit d’énoncés simplificateurs, conduit le plus souvent à des formes de dérandomisation qui compromettent l’intelligence véritable du texte. C’est à ces traductions « dérandomisées » (et par là même erronées), complaisantes à l’égard des désirs de sécurité des acteurs, que cet article est consacré.
6Il convient au préalable de rappeler que les formalisations scientifiques sont autant des résultats de dynamiques d’abstraction ou de généralisation, que des ressources élaborées pour démêler et trancher des controverses. L’écart peut sembler mince, mais il est crucial. Les sciences se développent autant par généralisation que par distinction.
7C’est à ce titre que les langages scientifiques ne peuvent être confondus avec des langues-codes pour la coordination de l’action, avec des langues de service : ces langages scientifiques ne cherchent pas seulement la simplification pour devenir le véhicule d’une communication « sans bruit parasite », elle se complexifie parallèlement à la complexification des enjeux et au déplacement et à l’approfondissement des objets de controverses. Elles participent, dans leurs phases d’inventivité, de création de symboles ou/et de concepts, à un enrichissement de la culture et partant à l’avancée créatrice du monde. Elles sont à ce titre des langues historiques au même titre que les langues « naturelles ». Les manières de dire l’incertain, et d’énoncer les résultats fondamentaux des théories de l’aléatoire, témoignent du danger qu’il y a à se contenter d’un simple transcodage paresseux, de formulations simplificatrices pour énoncer ces propositions dans les langues naturelles. On ne peut se passer d’un véritable travail de traduction lorsque l’on souhaite participer à la formation d’une compétence publique (par la vulgarisation et l’enseignement) capable d’en saisir les enjeux décisionnels.
Les sciences de l’incertain : des sciences comme les autres ?
8À la fin du xviie siècle, les ambitions du calcul des probabilités sont grandes : il doit permettre de « calculer » les jugements des hommes éclairés, dans des situations incertaines. La conception « classique » des probabilités, selon l’expression de Lorraine Daston, a dominé le champ de l’incertitude pendant plus de trois siècles. Cette théorie classique, nous dit l’auteur, prétend répondre à un certain type de questions : est-il rationnel de jouer à cette loterie ? de croire en Dieu ? d’acheter une rente viagère ? de condamner un accusé sur la base des informations disponibles ? etc. (Daston, 1989). Ce projet, qui consiste à déterminer à l’aide des probabilités les décisions que doit prendre l’homme « bernoullien », continue de guider des travaux contemporains (Rashed, 1972 ; Dubucs, 1987) et il s’actualise aujourd’hui encore dans les modèles probabilistes utilisés sur les marchés financiers (Bouleau, 1998). « La fortune de la théorie classique des probabilités dépendait de la conformité de ses résultats aux intuitions des hommes raisonnables » (Daston, 1989, p. 716). Peu à peu, cependant, de nombreux jugements intuitifs sur l’aléatoire se sont révélés erronés. Mais aujourd’hui encore, de nombreux utilisateurs de statistiques ignorent le caractère contre-intuitif de nombreux résultats probabilistes (Delaigue, 2006).
« Dérandomisation » des énoncés sur l’aléatoire
9Les déclarations successives de l’ancien président de la Réserve fédérale américaine (FED), Alan Greenspan, de 2002 à aujourd’hui, illustrent le « refus d’aléatoire » dont témoignent de nombreux responsables d’organismes financiers. C. Walter et M. de Pracontal (2009) en citent quelques unes : « au total, une bulle immobilière semble très peu vraisemblable aux États-Unis » (octobre 2004) ; « je n’ai pas vu venir la crise des subprimes » (septembre 2007) ; « la crise financière qui a explosé le 9 août était un accident attendant de se produire » (octobre 2007) ; « je suis en état de choc et d’incrédulité » (octobre 2008).
10Pourtant, John Maynard Keynes avait déjà attiré l’attention sur le danger qui guette tout utilisateur de modèles probabilistes. Dans sa thèse soutenue en 1906, A Treatise on Probability, il écrivait en introduction à un chapitre consacré à l’application du calcul des probabilités : « Le probable étant de fait la base de la connaissance dont nous disposons, il est pour nous, je l’ai dit, ce qu’il est raisonnable de croire. Il ne s’agit pas là d’une définition. Car il n’est pas raisonnable de croire que le probable est vrai ; il est seulement raisonnable de lui accorder une croyance probable ou d’y croire de préférence à des croyances alternatives. Croire une chose de préférence à une autre – ce qui n’est pas croire que la première est vraie ou plus probable et la seconde fausse ou moins probable – doit se référer à l’action et constituer une manière approximative d’exprimer cette propriété de l’agir qui consiste à choisir comme base une hypothèse plutôt qu’une autre. On pourrait dire, par conséquent, que le probable est l’hypothèse sur laquelle il est raisonnable pour nous de baser notre action. Ce n’est cependant pas aussi simple que cela, pour la bonne raison qu’il peut être raisonnable d’agir selon l’hypothèse la moins probable si celle-ci conduit à un bien plus grand. Pour l’instant, nous pouvons dire qu’avant d’agir selon une hypothèse, une des choses à faire est de déterminer sa probabilité et de la prendre en compte, mais rien de plus [1]. »
11Les praticiens de la finance n’échappent pas à ce penchant. Jack D. Schwager, gérant de portefeuilles d’une banque d’investissement, The Fortune Group, a publié plusieurs ouvrages d’entretiens avec des traders, réputés avoir été des « magiciens » des marchés de produits dérivés. Il introduit son dernier livre (2008, p. xiii) par une série d’affirmations relatives aux marchés financiers : « Les marchés ne sont pas aléatoires. Peu m’importe si, mis bout à bout, les universitaires qui ont discuté l’hypothèse de l’efficience des marchés sont assez nombreux pour aller jusqu’à la lune et revenir : ils ont simplement tort. Les marchés ne sont pas aléatoires car ils reposent sur des comportements humains, et le comportement humain, tout particulièrement le comportement de masse, n’est pas aléatoire. Il ne l’a jamais été et ne le sera probablement jamais [2]. »
12Mais les recommandations formulées par les bureaux de conseil aux spéculateurs divergent. Schwager (2008, p. xiv) affirme : « Réussir dans le trading requiert à la fois du talent et beaucoup de travail (curieusement, comme dans tout domaine où on vise l’excellence). […] Je suis convaincu que gagner sur les marchés est affaire d’habileté et de discipline, non de chance [3]. » À l’inverse, sur un site en ligne qui encourage chacun à spéculer sur le CAC 40, on peut trouver une étude des cracks boursiers qui conclut en ces termes une analyse des courbes reproduisant les variations des cours : « Quand on observe quelque chose d’aussi complexe que la Bourse, il est très facile de faire parler les chiffres, de les présenter d’une manière qui semblera à votre avantage. Mais si toutes ces théories étaient réelles, elles disparaîtraient d’elle-même, car le marché les jouerait et ferait disparaître cet avantage. […] Il y a tellement d’acteurs en Bourse qui cherchent des solutions pour tirer profit de la Bourse que chaque fois qu’un biais apparaît, les gens qui vont le jouer vont participer à le faire disparaître. C’est la raison pour laquelle les choses élémentaires n’ont aucune autre probabilité que celle du hasard : une chance sur deux de se réaliser [4]. »
13Ces deux derniers fragments contrastent par le sens des recommandations qui s’y trouvent inscrites : il est inutile, affirme le dernier extrait, de chercher des critères de décision sophistiqués ; finalement, sur le temps long, les séries se ramènent aux résultats d’un jeu de pile ou face. À l’inverse, J. D. Schwager, praticien réputé, soutient qu’il s’agit d’un métier comme un autre qui requiert compétence et expérience car les marchés ne relèvent pas du hasard.
Légitimer les modèles standard probabilistes
14Dans la théorie des probabilités, les théorèmes de convergence jouent un rôle capital pour délimiter les situations dans lesquelles il est légitime d’utiliser un modèle – par exemple, le mouvement brownien. Le « Théorème central limite » en est l’expression la plus achevée. Les commentaires explicatifs dont il est l’objet attirent en général l’attention sur son haut degré de généralité : « Il y a vraiment très peu d’hypothèses sur la suite (Xn) [5]. Quelle que soit la loi de probabilité d’un événement aléatoire, si on le répète infiniment souvent, sa moyenne finit par se comporter comme une loi normale. C’est ce théorème qui permet d’affirmer que la loi normale est la loi des phénomènes aléatoires [6] » (bibm@th.net, 2009). Mais les commentaires oublient le plus souvent de noter que ces hypothèses peuvent ne pas être satisfaites et ils ne donnent aucun exemple de situations où elles ne le sont pas.
15Le directeur d’un grand établissement hospitalier, déclarait récemment que « le nombre de demandes quotidiennes d’accueil dans mon établissement varie, mais je sais que, sur une année, il est de “tant”. Ce chiffre-là n’est pas aléatoire. Si on prend en compte un nombre suffisant de jours, l’aléatoire disparaît. D’ailleurs, si ce n’était pas comme cela, comment pourrais-je faire mes commandes ? gérer mon établissement ? ». On entrevoit derrière ce raisonnement une référence à la Loi des grands nombres, premier théorème de convergence. On pourrait être tenté de considérer cet énoncé qui néglige l’incertitude attachée au total annuel des demandes d’admission, comme une simple défaillance de la langue courante et que les utilisateurs des outils statistiques n’ont pas besoin dans leur pratique professionnelle de les « traduire » en langue. Ils connaissent de manière « incarnée » le sens de ces outils statistiques et penseraient directement dans ces langages formalisés sans commettre ces erreurs de « traduction » induites par les situations de communication avec des profanes. Les pédagogues, veillent-ils à ne pas simplifier ainsi la spécificité de ces schèmes de pensée relatifs au champ de l’aléatoire ?
16Il y a moins d’un an encore, un cours de probabilités dispensé à l’École polytechnique et intitulé « Aléatoire » était téléchargeable sur Internet. Le chapitre 5 y est introduit par les phrases suivantes : « Nous allons présenter dans ce chapitre l’un des résultats essentiels de la théorie des probabilités, qui va justifier toute la théorie que nous avons construite à partir de l’approche heuristique du chapitre 2. Ce résultat montre rigoureusement que, quand le nombre de répétitions de l’expérience tend vers l’infini, la fréquence de réalisations d’un événement converge vers la probabilité de réalisation de cet événement. Ainsi, notre modèle est bien cohérent avec l’intuition. Par ailleurs, ce résultat, appelé Loi des grands nombres, a d’autres portées fondamentales. Philosophiquement tout d’abord, puisqu’il permet de voir le monde déterministe comme la limite macroscopique d’une accumulation de phénomènes élémentaires microscopiques aléatoires. Portée numérique aussi, car nous verrons que ce théorème est à l’origine des méthodes de calcul numérique appelées Méthodes de Monte-Carlo, qui sont extrêmement puissantes et robustes. Elles sont par exemple très utilisées en physique ou en mathématiques financières. » Aujourd’hui, cette page a disparu du site de Polytechnique [7].
17Quelques observations. D’abord, on y constate la même « dérandomisation » que celle opérée par le directeur d’hôpital. Ensuite, ce texte réaffirme le caractère prétendument intuitif des résultats de la théorie des probabilités. Enfin, la « traduction » proposée de la Loi des grands nombres laisse croire que la fréquence de réalisations d’un événement aléatoire donné, se rapproche inéluctablement de la probabilité de cet événement. Pourtant, ce théorème de Bernoulli ne dit pas exactement cela. Il serait beaucoup plus exact de dire que si l’on procède à un grand nombre de séries d’expériences la plupart de ces séries présente cette propriété, mais le théorème n’écarte pas l’éventualité que parmi ces séries, certaines puissent présenter une fréquence éloignée de cette probabilité. Les scientifiques ont tenté de réduire les hypothèses sous lesquelles une convergence plus régulière pouvait être affirmée, ce qui a donné lieu à l’établissement du Théorème central limite évoqué plus haut. Mais en dépit des espoirs de Poisson au xixe siècle, les expériences aléatoires concernées doivent présenter certaines propriétés pour que les théorèmes de convergence les plus généraux puissent s’appliquer.
Tous les phénomènes aléatoires sont-ils probabilisables ?
18L’approche probabiliste, à ses débuts, a convaincu qu’elle apportait au dogmatisme de la causalité des correctifs exigés par l’action. Mais cet apprivoisement de la contingence s’est opéré au prix de l’oubli de l’« incroyable », de l’inouï. Pourtant, après la crise financière de 1929, des auteurs ont rappelé que tout phénomène aléatoire n’est pas d’emblée « calculable » à l’aide des techniques probabilistes. Notamment Keynes (1937, p. 213-214), qui écrivait : « Par connaissance “incertaine”, je n’entends pas distinguer simplement ce que l’on connaît avec certitude et ce qui est seulement probable. En ce sens, la roulette n’est pas un jeu soumis à l’incertitude, pas plus que l’espoir d’un bon de la Victoire tiré au hasard. L’espérance de vie, également, est à peine incertaine. Même le temps qu’il fait n’est que modérément incertain. J’utilise ce terme dans le sens où la perspective d’une guerre européenne est incertaine, ou le prix du cuivre, ou le taux d’intérêt dans 20 ans, ou l’obsolescence d’une nouvelle invention, ou la position des détenteurs de richesse en 1970. Sur ces questions, il n’y a aucune base scientifique pour soutenir le calcul de quelque probabilité que ce soit. Nous ne savons pas, tout simplement. Néanmoins, la nécessité d’agir et de décider nous oblige, en tant qu’individus pratiques, à faire au mieux pour oublier ce fait embarrassant et nous comporter exactement comme si nous disposions derrière nous d’un bon calcul à la Bentham, d’une série d’avantages et de désavantages présumés, chacun multiplié par sa bonne probabilité, en attente d’être additionnés [8]. »
Conclusion
19Depuis plusieurs années, des chercheurs mettent en garde contre cet optimisme qui consiste à considérer l’aléatoire des marchés comme un aléatoire probabilisable, feignant le plus souvent de croire que les cours sont modélisables par des processus browniens sans « sauts » (Mandelbrot, 1997 ; Taleb, 2004). Ces voix sont rarement entendues quand elles ne sont pas délibérément écartées. Ce n’est pas le lieu de débattre du bien-fondé de ces critiques des modèles standard. On peut néanmoins s’interroger. Le peu d’attention accordée à ces problèmes de « traduction » des énoncés fondamentaux de la théorie des probabilités et l’idée que dans ces domaines, une lingua franca suffit pour restituer la complexité des phénomènes hautement imprévisibles, ne sont-ils pas corrélés à ce déficit de « culture de l’aléatoire » qui maintient la grande majorité des citoyens à distance des débats entre experts sur ces questions pourtant décisives pour l’avenir de nos sociétés ?
20La tendance à « dérandomiser » les phénomènes aléatoires en les traduisant abusivement par des formulations qui en gomment les irrégularités, les discontinuités et l’imprévisibilité – que ce soit en énonçant un résultat probable comme étant certain, ou en réduisant l’aléatoire sauvage à un aléatoire « sage » – est récurrente et largement partagée. Elle n’épargne pas toujours les experts : « La méthodologie de type Black et Scholes est établie dans des conditions de liquidité parfaite à l’achat et à la vente, ce qui n’est pas le cas en période de crise où les intervenants n’effectuent pas de vente à découvert. Les modèles mathématiques sont efficaces en période de stabilité financière, lorsque les volatilités ne sont pas trop élevées. Cette méthodologie est néanmoins assez robuste pour être utilisée lorsque ses conditions d’applications ne sont pas parfaitement vérifiées, parce que les praticiens ont besoin de quantifier leur stratégie de couverture » (El Karoui et Jeanblanc, 2008). Décidément…
Notes
-
[1]
Traduit par nous du texte de Keynes (1921, p. 307) : « Given as our basis what knowledge we actually have, the probable, I have said, is that which it is rational for us to believe. This is not a definition. For it is only rational for us to believe that the probable is true ; it is only rational to have a probable belief in it or to believe it in preference to alternative beliefs. To believe one thing in preference to another, as distinct from believing the first true or more probable and the second false or less probable, must have reference to action and must be a loose way of expressing the propriety of acting on one hypothesis rather than on another. We might put it, therefore, that the probable is the hypothesis on which it is rational for us to act. It is, however, not so simple as this, for the obvious reason that of two hypotheses it may be rational to act on the less probable if it leads to the greater good. We cannot say more at present than the probability of an hypothesis is one of the things to be determined and taken account of before acting on it. »
-
[2]
Traduit par nous du texte de Schwager : « The markets are not random. I don’t care if number of academicians who have argued the efficient market hypothesis would stretch to the moon and back if laid end to end ; they are simply wrong. The markets are not random because they are based on human behavior, and human behavior, especially mass behavior, is not ramdom. It never has been, and it probably never will be. »
-
[3]
« To excel in trading requires a combination of talent and extremely hard work – (surprise !) the same combination required for excellence in any field. […] I became absolutely convinced that winning in the markets is a matter of skill and discipline, not luck. »
-
[4]
<http://www.mistercac40.com/free/disp.php?date=automne>. Ce texte a sans doute été rédigé en 2007. Il n’a pas été révisé depuis.
-
[5]
(Xn) désigne une suite de variables aléatoires indépendantes, de même loi…. La suite des moyennes arithmétiques centrées réduites de ces variables (Xn) converge en loi vers une loi normale N (0,1).
-
[6]
Souligné par nous.
-
[7]
Ce cours de 2006 était téléchargeable en décembre 2008 à l’adresse <http://www.catalogue.polytechnique.fr/Files/poly160407final.pdf>. Il reste accessible sur Google.
-
[8]
Traduit par nous du texte de Keynes (1937) : « By “uncertain” knowledge, let me explain, I do not mean merely to distinguish what is known for certain from what is only probable. The game of roulette is not subject, in this sense, to uncertainty ; nor is the prospect of a Victory bond being drawn. Or, again, the expectation of life is only slightly uncertain. Even the weather is only moderately uncertain. The sense in which I am using the term is that in which the prospect of a European war is uncertain, or the price of copper and the rate of interest twenty years hence, or the obsolescence of a new invention, or the position of private wealthowners in the social system in 1970. About these matters there is no scientific basis on which to form any calculable probability whatever. We simply do not know. Nevertheless, the necessity for action and for decision compels us as pratical men to do our best to overlook this awkward fact and to behave exactely as we should if we had behind us a good Benthamite calculation of a series of prospective advantages and disadvantages, each multiplied by its appropriate probability, waiting to be summed. »