CAIRN.INFO : Matières à réflexion

LA PLACE D’UNE HISTOIRE DES TECHNIQUES DANS L’HISTOIRE DE L’ÉCONOME ´ TRIE

1Il serait dangereux de prétendre que l’histoire de l’économétrie, même dans son paradigme de la modélisation structurelle antérieur aux critiques de Lucas et de Sims, se ramène entièrement à celle de ses techniques, et en particulier de ses méthodes inférentielles empruntées à la statistique mathématique. Nous avons montré (Armatte et Desrosières [2000]) l’avantage qu’il y avait à utiliser les matériaux d’autres champs historiographiques : les programmes et agences de recherche de la seconde guerre mondiale, l’État et son nouveau rôle dans la régulation des crises, les moyens de calcul, le keynésianisme, la rénovation du système statistique par la comptabilité nationale, ou encore la planification. Cependant, l’étude que nous proposons ici des avatars d’un outil élémentaire de statistique mathématique – le coefficient de corrélation – sur la période (1910-1944) met en évidence la structure, les enjeux et la dynamique de la méthodologie économique. Il s’agit de prendre la corrélation comme un fil conducteur et non comme l’essence même de l’économétrie, et de suivre les mutations de l’objet « corrélation » d’une problématique à une autre. Contrairement à l’idée un temps exprimée par Isabelle Stengers et Michel Veuille [1] que ce concept « nomade » ou « pirate » avait sa propre autonomie, et sa propre efficacité immédiate, nous verrons qu’il est sans arrêt l’objet d’un travail de reconstruction, en fonction des agendas de différents groupes d’acteurs, réagissant à des événements qui se produisent tantôt dans le champ précis de la méthodologie statistique, tantôt dans ceux de l’économie « réelle », de l’information, de la politique, de la théorie, ou de l’épistémologie économiques.

LES ORIGINES BIOMÉTRIQUES DE LA CORRÉLATION

2La corrélation, concept ancien de la biologie désignant les relations entre propriétés physiques de deux organes dans les corps d’une même espèce, n’a reçu un statut de mesure statistique que par le biais des travaux de Galton. C’est dans le cadre de son programme eugéniste et biométrique, et plus précisément de ses expériences sur la taille des pois de senteur puis sur la taille humaine, que Galton avait découvert d’abord la réversion, puis la régression et enfin la corrélation. Rappelons qu’il travaillait sur des données classées, qu’il préférait les caractéristiques de rang (quartiles, médiane, écart probable) aux moments usuels de Gauss puis de Pearson (moyenne, variance). Et donc que sa mesure de la corrélation n’est pas encore donnée par une formule.

3Le coefficient r apparaît d’abord par son carré comme rapport des variations de y conditionnelles en x à la variation totale de y, donc comme part de la variance « expliquée » à la variance totale, puis comme pente de la droite de régression si l’on travaille sur des variables centrées réduites, puis encore comme paramètre de la densité normale conjointe des deux variables x et y, et enfin dans un quatrième temps comme une mesure symétrique d’association de deux caractères, calculable indépendamment de toute hypothèse de distribution. Dans le seul espace des recherches biométriques de Galton entre 1875 et 1888, le coefficient de corrélation aura déjà changé quatre fois de statut. Bien sûr, il a toutes ces caractéristiques à la fois si la distribution est binormale, ce qui en fait un puissant outil de mise en équivalence. Mais il est clair que l’on peut mobiliser ces différents statuts ou propriétés en fonction des programmes de recherche, de la nature des données, de l’épistémologie implicite à laquelle on adhère. Galton, par exemple, valorise les deux premières propriétés, car ce qui l’intéresse est une mesure de la regression toward mediocrity qui veut que nos caractéristiques moyennes soient intermédiaires entre celles de nos parents et celles du type, et le coefficient r se confond pour lui avec la pente de la droite de régression des tailles-enfants sur les tailles-parents, et avec une mesure de l’hétéroscédasticité qui symbolise la constance d’un phénomène pour toutes les couches de la population.

4Karl Pearson a reconstruit mathématiquement les propriétés de la corrélation, en particulier dès 1896 la « formule du moment produit » r = cov ( x, y ) /?x ?y reliée à une distribution normale bivariée, et directement calculable sur les données. Conformément à la philosophie phénoménaliste et empiriste qu’il a exposée dans la Grammaire de la science, et qui assimile la science à la production de « résumés de routines de perceptions » sans jamais postuler de « chose en soi », Pearson privilégie un autre usage de la corrélation, lié à la notion clé de contingence : à l’inverse des astronomes, le nuage de points préexiste à la droite qui l’ajuste, et le coefficient r est alors le résumé le plus concentré de cette contingence, y compris dans les usages rhétoriques que Pearson fait de la corrélation [1]. C’est bien l’inscription dans un certain programme de recherche et dans une épistémologie et une praxis données qui fixent les propriétés de l’objet « corrélation » et de sa formule.

LES ÉCONOMISTES S’EMPARENT DE LA CORRÉLATION

5L’année où Galton publie ses résultats sur la régression (1885) est aussi celle de la leçon inaugurale de Marshall à Cambridge, celle de la fondation de l’Institut international de statistique, et de l’American Economic Association. C’est aussi la fin d’une longue période de libéralisme, et le début de la Grande Dépression, qui mettra fin à l’hégémonie anglaise. Avec la crise, se développent les grandes enquêtes sur le paupérisme de Booth, puis de Rowntree. Cette même date marque en France l’apparition des premières chaires d’économie, du solidarisme, de l’État providence au travers de l’Office du travail. Le redressement de la Société de statistique de Paris, l’institutionnalisation de l’enseignement de la statistique et de l’économie, la création de la Revue d’économie politique en 1887, l’introduction des machines Hollerith en France par Lucien March, et le rattachement de son service et de la SGF à l’Office du travail, indiquent le début d’une nouvelle ère pour la statistique économique. Dans ce nouveau contexte, deux textes marquent les premières apparitions de mesures de corrélation en économie. Le premier est le manuel de Bowley [1901], élève d’Edgeworth et professeur à la London School of Economics, qui présente au public des économistes, de manière claire et sans concession à la rigueur, les principaux résultats de la statistique « moderne », en particulier les mesures de dispersion, les sondages, et la théorie de la régression et de la corrélation. Le second texte est une intervention de Yule à la 12e session de l’IIS, qui se tient à Paris en juillet 1909 et a été couplée avec une réunion de la SEP et de la SSP.

6Yule est le propagandiste d’une véritable réinterprétation de la corrélation, « fondée » sur la recherche d’une équation de régression (qu’il préfère nommer équation d’estimation) de la forme y = bx ou x = cy, et dont on peut déduire un coefficient r = bc qui « mesure l’exactitude avec laquelle ces deux équations s’appliquent ». Le coefficient de corrélation est donc de nouveau (comme chez Galton) un output secondaire dans la recherche d’une relation de régression linéaire qu’il appelle « causalité statistique », et le lien est rétabli avec la théorie des erreurs, en parfaite opposition à Pearson qui s’était évertué à s’en démarquer. De plus, comme la forme de la distribution des fréquences donnée par la loi des erreurs n’est pas commune dans les statistiques économiques, il est important d’obtenir la formule de corrélation et ses propriétés sans avoir recours à la distribution de fréquence. Yule a démontré, en 1897, que, dans le cas d’une régression linéaire ou quasi linéaire (ce qui élargit le cas normal), la droite des moindres carrés coïncide avec la droite de régression. Cette nouvelle approche, libérée de la condition de normalité, est proposée aux économistes avec l’appui d’Edgeworth (en 1902 et 1908) et de Bowley (par exemple dans son traité), et il ne reste plus qu’à montrer sa pertinence et son efficacité en économie.

7C’est l’objet de l’article de 1909 qui présente d’abord sa propre étude sur le paupérisme, sur des données en coupe par union : les corrélations totales et partielles positives (effet de salaire éliminé) entre le paupérisme total et le taux d’assistance à domicile démontrent que « le mode d’administration de ces unions était un facteur aussi important du paupérisme que la pauvreté elle-même ». La plus-value apportée ici par la corrélation dans l’administration de la preuve, avec son raffinement de la corrélation partielle, ouvre des horizons nouveaux à la rhétorique économique, et va peser dans la réfection des Poor Laws. Les trois études suivantes présentées rapidement par Yule en 1909 portent sur la relation entre les taux de mariage (ou de naissance) et le prix du blé (ou le taux de chômage). Elles prolongent la problématique de Malthus au début du siècle, puis de Farr, le fondateur des vital statistics anglaises et premier directeur du General Registrar Office, et forment le principal contexte d’une réinterprétation économique de la corrélation (Armatte [1995], Morgan [1995]).

LES PIÈGES DE LA COVARIATION

8Comme le dit Yule, des questions de ce genre offrent une diff?culté particulière, totalement nouvelle par rapport aux usages de la corrélation en biologie. Elle provient de la nature temporelle (chronologique) des observations recueillies pour les variables x et y dont on calcule la corrélation. Plusieurs économistes parmi les classiques (J.S. Mill, Fawcett) ont affirmé que le nombre des mariages augmentait lorsque la nourriture, et plus particulièrement le pain, devenait bon marché. William Farr, sans plus de preuve, reprend cette idée d’une liaison inverse entre nuptialité et prix du blé dans son huitième rapport annuel du GRO. Son successeur William Ogle [1827-1912] affirme cependant que « le taux de mariage ne varie pas inversement mais directement avec le prix du blé », comme il ressort de l’observation des deux séries sur les vingt dernières années. Il souligne aussi que la série des exportations anglaises par habitant est encore « plus étroitement synchrone » avec celle des taux de mariage que ne l’est celle des prix. Et, bien sûr, Ogle fournit une explication de cette liaison antimalthusienne. Il y a toujours une explication possible d’une corrélation quel que soit son signe !

9Hooker [1891] applique les toutes nouvelles méthodes de la corrélation à cette question, et trouve une corrélation négative entre les séries brutes anglaises du taux de mariage et du prix du blé pour la période 1845-1864 ( r = ? 0,30 ), mais une corrélation positive des mêmes séries pour la période 1875-1894 ( r = 0,47 ), tandis que la corrélation entre taux de mariage et total des exportations et importations par tête reste faiblement positive, des résultats que Bowley incorpore dans la première édition de son manuel. Liaison négative chez Farr, positive chez Ogle et changeante (donc quasi nulle sur toute la période) pour Hooker et Booley, la confusion est totale et le débat est relancé. Ce soidisant concept nomade transportant avec lui sa propre efficacité se montre très réticent à faire sens chez les économistes des times-series. Appliquez-le à deux séries chronologiques et vous voilà incapables de dire ce que signifie la valeur trouvée, à proprement parler insensée.

10Hooker fournit, semble-t-il, un début de solution à cet imbroglio dans le JRSS de 1901 : il y a confusion entre deux phénomènes. Sur les quarante dernières années, d’une part les tendances sont inverses puisque la nuptialité décroît pendant que le commerce croît, d’autre part les oscillations sont positivement liées. La corrélation faible de r = 0.18 entre taux de mariages et exportations par tête pour 1861-1895 en valeurs brutes ne veut rien dire. Il faut donc, selon lui, séparer ces deux mouvements par la méthode des moyennes mobiles (ici sur neuf ans), et ne considérer que la corrélation entre les écarts à ce trend. Celle-ci devient alors fortement positive ( r = 0.80 ), et peut encore être renforcée par le recours à un décalage (lag) d’une demi-année sur l’une des variables. L’efficacité de la corrélation est donc à payer au prix fort de l’invention d’une séparabilité entre cycle et tendance. Les techniques de filtrage des séries, indispensables pour pouvoir faire un usage significatif de la corrélation, sont mises en place dès le début du siècle [1] : la notion de moyenne mobile date de Poynting [1884]; l’élimination du trend par écart (ou rapport) à cette moyenne mobile est introduite par Hooker et deviendra la méthode du Census Bureau. La méthode des link relatives de Warren Persons consiste à prendre les médianes des rapports yt / yt?1 comme coefficients saisonniers de type chaîne. Hooker, Student, et Pearson ont également étudié la méthode de différenciation et ont montré qu’elle permettait d’éliminer un trend polynomial de degré quelconque. L’analyse spectrale de Fourier, introduite pour décomposer une série quelconque en somme de séries purement périodiques en sinus et cosinus, a été très utilisée par Moore, Persons, et Beveridge.

11Mais l’application de ces techniques ne résout pas complètement le problème de la corrélation, et en particulier de sa signification. Après le détachement opéré par Yule des hypothèses de normalité, certains souhaitent se séparer de toute référence à une quelconque distribution, pour se rattacher simplement au principe des variations concomitantes de Stuart Mill. Pour Lucien March par exemple [1910] : « Le coefficient de corrélation exprime la ressemblance numérique des variations des grandeurs comparées, sans aucune hypothèse sur le mode de distribution de ces grandeurs. De plus […] il ne s’applique pas précisément à une mesure de la relation de deux ou plusieurs faits ; il précise seulement l’accord des variations des faits et serait plus exactement désigné sous le nom de coeff?cient de covariation, expression employée par J.P. Norton. » March débusque un autre problème, à savoir que la corrélation entre les séries en niveau, rapportées à leurs moyennes (soit le r de Pearson) et la corrélation entre les différences premières des séries (le k de March), qu’en 1928 il rebaptise respectivement coefficient de covariation tendancielle, et coefficient de covariation différentielle, fournissent des valeurs et des significations totalement différentes ; par exemple, elles peuvent valoir respectivement 1 et 0 si les tendances sont similaires mais les accroissements au hasard. Virgilii [1912], étudiant une fois de plus la liaison entre le prix moyen de dix-neuf denrées et la nuptialité, obtient une valeur négligeable de k (0,06 et 0,11) et relativement élevée de r (0,47 et 0,84). Donc, « un seul des deux coefficients ne suffit plus pour suggérer la corrélation ».

LA REPRÉSENTATION GRAPHIQUE IRREMPLAÇABLE ?

12Il est remarquable que la statistique économique ait démarré dans les années 1880 par une reconnaissance de l’utilité des représentations graphiques, et une prolifération de ses formes et de ses usages. On peut évoquer les travaux de Cheysson à l’Exposition universelle de 1878 et au ministère des Travaux publics, de Levasseur dans ses enseignements et au Jubilee de la RSS, les conférences de Pearson à Gresham College en 1892, et l’Album graphique de Lucien March à la SGF, ou encore le dispositif de « météorologie économique et sociale » que Foville [1888] obtient, par simple traduction colorée, des valeurs de plusieurs indicateurs. La méthode des abaques chez les ingénieurs et les artilleurs, et les nouvelles techniques d’enregistrement du mouvement par Marey témoignent qu’en économie comme en physiologie et en art, on entre dans l’ère de la cinématique.

13Mais il est plus étonnant que l’on ait continué à faire usage des graphiques après l’invention de la corrélation et de la « covariation » de deux séries. Pour Persons, inventeur du baromètre de Harvard, « les relations spécifiques entre deux séries chronologiques sont davantage mises en évidence par des graphiques que par des mesures numériques. De plus, il y a un réel danger que des coeff?cients calculés sur des séries chronologiques soient mal interprétés ». La méthode graphique est au centre des baromètres développés dans les années 1920 : les graphiques des séries portés sur des transparents sont comparés par superposition sur une table lumineuse, après élimination de la tendance et des variations saisonnières et réduction à la même unité de variation [1]. Le calcul d’une corrélation ne fournit qu’un indicateur de la qualité de cet ajustement visuel et permet de confirmer le retard optimal. La technique graphique est longuement développée dans les manuels et dans les nouveaux départements des universités américaines (Karsten [1924]). Le recours systématique au graphique, comme instrument d’analyse et ersatz de laboratoire, est une sorte de preuve par neuf de l’impuissance de la corrélation à faire sens, et plus encore à faire preuve.

LA CORRÉLATION ENTRE CONTINGENCE ET NÉCESSITÉ

14Mary Morgan suggère que cette difficulté est renforcée par le fait que les économistes cherchent essentiellement des inférences causales. De fait, la gamme très variée d’interprétations de la corrélation, entre contingence et nécessité, montre que les économistes ne se sont pas accordés sur la valeur épistémique de la corrélation.

15Le causalisme modéré de Bowley, interprétant la mesure de corrélation comme le ratio des causes communes au total de leurs causes, ce qui suppose une indépendance des causes improbable en économie, n’a guère été repris. Et Yule s’écarte sensiblement du vocable causaliste en parlant de facteur, d’influence, ou d’indice. Les relations économiques estimées statistiquement par H.L. Moore dans ses ouvrages de 1911,1914, et 1917 développent, par contre, un véritable réseau d’influences causales – validées par des mesures de corrélation ? qui vont du transit de Vénus au climat, du climat aux récoltes, des récoltes aux prix des denrées agricoles, de ces prix au mouvement de toute l’économie. L’étude des cycles économiques s’identifie pour lui à une « théorie de leurs causes », dont la phase keplérienne (statistique) n’est qu’un moment provisoire, le but ultime étant la production des lois newtoniennes de sa mécanique.

16Mais d’autres économistes invalident totalement le cadre de pensée du déterminisme en économie. Au modèle de la physique (et ses héros de référence), ils préfèrent celui de la biologie et de la médecine, tout autant capable selon eux de fournir des principes de base ou des types de raisonnement économique. Quel économiste n’a pas, à un moment ou un autre, enfourché le cheval galopant de l’analogie médicale ? Schumpeter [1939] le premier : « Les cycles ne sont pas comme les amygdales des choses séparables que l’on peut traiter par elles-mêmes. Au contraire ils appartiennent comme le battement du cœur à l’essence de l’organisme où ils se manifestent. » C’est sous le titre de séméiologie statistique que Liesse [1905], professeur au CNAM, rend compte de la méthode des corrélations et des baromètres dans l’un des premiers manuels de statistique économique français. Au chevet de nos économies malades et déréglées, l’économiste est comme le médecin réduit à l’observation de signes cliniques qu’il doit recueillir, organiser et interpréter comme des symptômes de l’état pathologique du corps social. L’art de la conjoncture cultive les analogies, les affinités, les similitudes propre à la médecine, voire à l’astrologie. La corrélation est-elle autre chose alors qu’une coïncidence ou une quadrature remarquable ? L’échec des baromètres à la fin des années 1920 conduira beaucoup de conjoncturistes à jeter le bébé statistique avec l’eau du bain, c’est-à-dire à se suffire d’une simple lecture symptômale des événements sous leur forme brute. C’est le credo de Wagemann à Berlin, de Lescure et Sauvy en France.

LA CORRÉLATION DANS LES BAROMÈTRES ÉCONOMIQUES

17Les baromètres à une seule variable, ou ceux qui ne sont qu’une juxtaposition d’un grand nombre de séries parfois hétéroclites, comme ceux de Neumann-Spallart [1887] ou de Beveridge [1909], ne peuvent guère remplir le rôle d’instrument de prévision qui est dévolu aux baromètres. Il reste donc la seule solution de combiner de nombreuses séries en un très petit nombre d’indices synthétiques. Le type en est le baromètre de Harvard qui se compose de trois agrégats A, B, C, « mesurant » respectivement le mouvement des marchés boursiers, industriels et monétaires, et qui a servi de modèle à Londres et Cambridge, Paris, Louvain, Vienne et Berlin. La corrélation joue alors un rôle important, d’abord dans la cuisine de composition de ces agrégats qui doivent combiner des séries de bases fortement corrélées, puis au moment de la prévision en fournissant la mesure de l’intensité de la liaison entre les trois marchés, et de la stabilité des décalages. C’est pourquoi les nouveaux conjoncturistes n’hésitent plus à promouvoir la corrélation comme « le chemin par lequel la théorie économique peut se rapprocher de la vie économique réelle » (Altschul [1925]).

18La mesure de corrélation subit alors une nouvelle distorsion de ses propriétés et de ses usages. L’impératif de prévision a totalement éliminé la prudence de ceux qui raisonnaient en termes de séméiologie, tandis que l’envie d’une explication mécanique chassée par la porte revenait par la fenêtre sous forme d’un lien, certes non causal mais systémique et reproductible entre les évolutions des séries A, B, et C, l’antériorité de A suffisant à en faire l’indicateur avancé de la crise. C’est cette automaticité de la prévision fondée sur la seule corrélation que vont critiquer les conjoncturistes des années 1930, en dénonçant l’application purement mécanique de cette méthode, en brûlant l’idole qu’ils avaient adoré. Dès 1926-1925, il est en effet devenu évident pour de nombreux analystes que la méthode barométrique se détraque. Le graphique des trois séries A, B, C de Harvard ne reproduit plus du tout les mêmes évolutions que celles qui ont été observées depuis 1919. Karsten [1926] propose carrément une interprétation différente du fonctionnement du baromètre de Harvard qui jette le doute sur le mécanisme en jeu derrière le baromètre et derrière la corrélation des séries. Un commentateur averti comme Aftalion note en 1928 avec humour que « le comité de Harvard n’a découvert la coïncidence entre les mouvements de la bourse et du taux d’escompte que quand elle a cessé d’être conforme aux faits » et il note que « les régularités statistiques observées ont surtout un caractère descriptif et ne permettent pas de prolonger avec toute certitude dans le futur ce qui a été reconnu vrai pour le passé ».

19La critique externe des outils statistiques (techniques de réduction, corrélation) par les économistes va rencontrer une critique interne venue du camp des statisticiens eux-mêmes. On se souvient que la validité de la mesure de la corrélation sur des séries chronologiques n’avait été maintenue que grâce à la décomposition des séries en tendances et variations cycliques ou saisonnières, à l’aide de filtres appropriés. Yule [1921] dénonce les effets pervers de certaines techniques de décomposition, et révèle par exemple la production artefactuelle de séries alternées lorsqu’on applique la différenciation à un bruit blanc, concluant que cette méthode doit être abandonnée au profit des écarts à la moyenne mobile. Mais Slutzky montre dans un texte célèbre de 1927 que ce filtre de la moyenne mobile a la propriété de produire artificiellement des cycles. La même année, Yule introduit le doute sur une autre technique de décomposition, à savoir l’analyse harmonique, en montrant que la présence d’une perturbation aléatoire peut en brouiller complètement les résultats. La critique la plus incisive de la corrélation vient de sa célèbre adresse présidentielle de novembre 1925 à la RSS (Yule [1926]) qui s’intéresse aux non-sense correlations between time-series, avec l’exemple de la corrélation forte (0.952) mais évidemment sans signification entre les séries chronologiques de la mortalité en Angleterre et de la proportion de mariages célébrés par l’Église anglicane, entièrement due à l’effet d’une autocorrélation sérielle de chacune des séries, comme Yule le montre par des simulations, ou par la confrontation des corrélogrammes et périodogrammes de séries longues de prix du blé (Beveridge) et de pluviométrie (Greenwich, 1545-1844).

20Un autre point aveugle dans l’interprétation des covariations observées est la séparation délicate entre la série et la temporalité qui la sous-tend. Comme le remarque Mary Morgan, lorsqu’on quitte la représentation chronologique des deux séries pour le nuage des points ( xt, yt ), on donne un sens à la corrélation et l’on peut même percevoir dans la liaison fonctionnelle une forme de loi ou de modèle théorique, mais on perd complètement celui de la temporalité des phénomènes. Ce divorce complet entre la chronique d’un phénomène (en termes de chemin temporel de données), et l’explication scientifique de ce phénomène (en termes de relations logiques nécessaires ou contingentes entre variables) va trouver son apothéose dans la question de l’identification d’une loi de demande, prise comme puzzle par la Cowles Commission.

UNE CABALE CONTRE LE COEFFICIENT DE CORRÉLATION À L’IIS

21Un autre épisode du débat sur la mesure de corrélation moins connu des économètres a eu lieu dans le milieu des années 1930 dans le cadre de l’IIS sur une initiative du mathématicien français Maurice Fréchet. Frappé par les ambiguïtés de la définition et de l’usage du coefficient de corrélation dans la littérature statistique, celui-ci publie dans la revue de l’IIS un premier article dans lequel il montre sur un contre-exemple très simple [1] que « contrairement à ce que supposent beaucoup de statisticiens, on ne peut dire que, si le coefficient de corrélation augmente en valeur absolue, la dépendance fonctionnelle, d’abord inexistante ou imparfaite, devient de plus en plus marquée ». La mesure de corrélation détachée de la forme de la ligne de régression est sans signification. De plus « si x et y n’obéissent qu’approximativement à la loi de Laplace-Gauss, les raisons pour choisir le rapport de corrélation ? subsistent, alors que celles qui concernent r s’évanouissent ». D’où il résulte « qu’un grand nombre des applications courantes du coefficient de corrélation sont très hasardées […] en particulier quand on cherche quel est le retard T pour lequel il y a maximum du coefficient de corrélation ». L’attaque, on le voit, porte de nouveau sur la sémantique légitime de la mesure, et s’en prend essentiellement à l’usage de la corrélation fait dans les années 1910 et 1920 sur le modèle méthodologique de Hooker et Bowley.

22Fréchet n’en reste pas là et profite de la session de Londres (1934) pour rendre compte d’une enquête qu’il a faite auprès d’une quinzaine de collègues [1] et qui établit clairement qu’une corrélation faible (< 0,3) n’est pas synonyme dans le cas général d’une absence de liaison. Cette enquête sert de support à une motion présentée à la même session qui exprime une défiance totale envers l’interprétation du coefficient de corrélation comme mesure de dépendance : « Il y a des morts qu’il faut tuer plusieurs fois : tel est le soi-disant coefficient de corrélation. » Fréchet obtient de la même réunion la mise en place d’une commission dont la mission est d’étudier les conditions d’une interprétation légitime du coefficient, et qui semble avoir été mobilisée pendant deux ans. Une enquête d’opinion, une motion de défiance, une commission pour légitimer les interprétations et usages d’une formule, c’est à n’en pas douter peu commun dans l’histoire des mathématiques, mais caractéristique d’un malaise qui ressurgira dans un autre contexte à la fin des années 1950 [2].

LE PROJET ÉCONOMÉTRIQUE AUX PRISES AVEC LA CORRÉLATION

23On sait que le projet économétrique de mettre fin à la dualité des approches mathématiques et statistiques en économie, tel qu’il s’est très clairement exprimé dans les statuts de la Société internationale d’économétrie fondée le 29 décembre 1930 à Cleveland, et dans les premiers textes d’Econometrica est directement issu d’une critique de la méthode des baromètres. Mais le paradigme dit de la Cowles Commission, et qualifié de structurel et probabiliste, n’apparaît pas avant le fameux manifeste de Haavelmo [1944]. La thèse que nous voulons soutenir dans cette dernière partie peut se résumer de la façon suivante :

  1. Ce nouveau paradigme est entièrement fondé sur le nouveau paradigme statistique que l’on appelle la théorie de la décision.
  2. La théorie de la décision n’est plus centrée sur la notion de corrélation mais sur celle de test d’hypothèse.
  3. La période 1930-1944 correspond assez précisément à la superposition des deux paradigmes, c’est-à-dire à la lente érosion de la corrélation comme problématique de l’économétrie, et à la difficile émergence de la théorie des tests dans le champ économique.

24Ragnar Frisch n’accepte pas la théorie de la régression de Yule et Fisher dans laquelle il faudrait décider à l’avance de la variable à expliquer et des variables explicatives, et n’affecter d’erreur qu’à la première. Le modèle alternatif qu’il met en place prend la forme d’un système d’équations stochastique liant les observables et les erreurs, et la méthode pratique de résolution ( l’analyse de confluence ) consiste à régresser chaque variable sur tous les sous-ensembles d’autres variables, et à rendre compte des coefficients de régression par des graphiques en faisceaux que Frisch a appelé bunch map, et qui fournissent une aide à la décision dans la construction d’un modèle à sélectionner. C’est dans ce sens par exemple que Tinbergen [1939] l’utilise. L’approche de la corrélation par Frisch renoue ainsi avec le modèle pearsonien de la variabilité conjointe et indifférenciée de p variables, a priori plus adapté à la science économique que le modèle gaussien de Yule.

25L’analyse de confluence était trop coûteuse (treize heures pour six variables) et l’idée statistique de corrélation qu’elle sous-tend est de toute façon supplantée chez Frisch par la notion nouvelle de macrodynamique, introduite dans son fameux texte de 1933 sur propagation et impulsion. La référence n’est plus du tout la théorie statistique « qui ne nous apprend rien si elle n’est pas éclairée par une analyse théorique » mais la mécanique des systèmes oscillants, dont l’archétype est le pendule (ou le cheval à bascule), c’est-à-dire un « modèle » au sens des physiciens anglais, dans lequel la dynamique est traduite mathématiquement par la présence simultanée de dérivées (taux de croissance), d’intégrales (accumulation), et de variables retardées. La statistique est même absente de la validation du modèle puisque celui-ci est chiffré par calibrage, avec des valeurs des paramètres qui produisent les solutions cycliques attendues de 3,5 et 8,5 années. Reste à opérer des chocs, ceux d’une politique économique, ou d’une innovation, sur ce système oscillant amorti.

26C’est ce que fera aussi Jan Tinbergen, après une thèse consacrée à l’application du calcul de variation à l’économie (comme Evans et Volterra). Mais au meeting de l’Econometric Society de Namur en 1935, Tinbergen présente un modèle ? le terme est nouveau ? qui n’a plus rien à voir ni avec le principe d’Hamilton, ni avec les oscillateurs. Tinbergen est recruté à la Société des Nations pour tester les théories du cycle des affaires discutées par Haberler. Cette mission se terminera par la publication d’un rapport (Tinbergen [1939]) dont le second volume contient le fameux modèle économétrique des États-Unis de 48 équations et 71 variables, dont les paramètres sont estimés sur les données de la période 1919-1932. Tinbergen souhaite parvenir par ce biais jusqu’au cœur du mécanisme qui produit les cycles, et en révéler complètement la dynamique endogène. Pour cela, il résout le modèle en une équation finale unique dont les solutions cycliques reproduisent de façon satisfaisante le mouvement des affaires.

27Or, curieusement, l’essentiel du volume méthodologique porte la dénomination de « méthode de la corrélation multiple ». C’est à la statistique que Tinbergen confie le soin de préciser pour chaque équation les facteurs à retenir ou éliminer, leur forme et leur retard. La méthode combine régression, superpositions de graphiques montrant l’influence de chaque variable, et bunch maps inspirées de Frisch permettant de résoudre les problèmes de multicolinéarité. Après la critique des baromètres, après un passage par la physique mathématique, puis par la dynamique des circuits oscillants, Tinbergen inaugure le grand retour de la corrélation comme moteur de la construction même d’un modèle économique. Il est vrai que la corrélation est l’outil central des méthodes de la conjoncture qu’il a également développées au Bureau de statistique.

28L’abandon des équations différentielles, et la sélection purement statistique de relations dont l’autonomie et la pertinence théorique ne sont pas garanties, sont critiquées par Frisch [1938] et son assistant Haavelmo. La réaction très défavorable de Keynes dans l ’Economic Journal est encore mieux connue. Keynes n’avait pourtant rien contre le programme de recherche économétrique, étant lui-même membre du comité éditorial de la revue Econometrica et fondateur du premier laboratoire d’économétrie en Angleterre. Sa charge contre Tinbergen s’explique principalement par la déconsidération de la méthode statistique aux yeux des économistes, ici poussée à son paroxysme avec un grand nombre de corrélations illusoires calculées sur un matériau assez pauvre de 14 observations annuelles, mais aussi par l’attachement de Keynes à une autre conception de la notion de modèle, que l’on trouve exposée dans une lettre à Roy Harrod de 1938 :
« Le progrès en économie consiste presque entièrement dans une amélioration progressive du choix des modèles... Mais il est de l’essence d’un modèle que l’on n’y fasse pas figurer les variables avec leurs vraies valeurs. Si l’on procédait ainsi, on rendrait le modèle inutile. Car dès qu’on fait cela, le modèle perd sa généralité et sa valeur en tant que mode de pensée [...]. L’objet de l’étude statistique n’est pas tant de déterminer les valeurs manquantes des variables en vue d’effectuer des prédictions, que de tester l’intérêt et la validité du modèle. »

LE TOURNANT PROBABILISTE ET L’OMNIPRÉSENCE DE LA THÉORIE DE LA DÉCISION

29La modélisation macroéconomique de Tinbergen marque la dernière apparition d’un usage de la corrélation tel qu’il s’est imposé dans la pratique des instituts de conjoncture après Harvard, et la première apparition timide mal maîtrisée de l’idée de structure à travers la notion de modèle à plusieurs équations simultanées. Quelques années plus tard, la Cowles Commission allait accoucher d’une méthodologie nouvelle rompant définitivement avec la « méthode des corrélations » et se prévalant d’une conception beaucoup plus rigide de l’approche structurelle. Une analyse serrée du texte de 115 pages qu’Haavelmo fait paraître, en 1944, sous le titre The Probability Approach in Econometrics, montre que ce qu’il reste de la corrélation – et c’est assez peu – est complètement redéfini par les quatre notions de modèle, de structure, de probabilité et de test d’hypothèse.

30La notion de modèle, dont nous avons pu tracer l’apparition en économie à partir de ses usages en physique et en statistique et dans les débats du cercle de Vienne, est le point de passage incontournable d’une stratégie de réunification des approches statistiques et mathématiques en économie. Haavelmo déjoue le dilemme de ce que nous avons appelé relation de temporalité et relation logique en imaginant trois niveaux de réalité : le modèle théorique qui se ramène à un jeu d’hypothèse sur les paramètres d’une structure causale et d’un vecteur d’erreurs aléatoires ; le « plan d’expérience » qui est une sorte de fiction du système des relations logiques ceteris paribus, le monde des mesures empiriques entachées d’erreurs. En bref, le modèle théorique est un jeu de restrictions qui simule la sélection naturelle dont rend compte le modèle de données.

31Haavelmo peut alors préciser ce que l’on doit entendre par la validation empirique d’une théorie : cela s’identifie totalement avec la notion de test statistique d’une hypothèse sur les paramètres d’une loi de probabilité. La statistique multivariée développée par R. Fisher entre 1915 et 1925 permet en effet « de considérer l’ensemble complet de n observations comme une observation de n variables (ou un point échantillon) suivant une loi de probabilité jointe, dont l’existence est purement hypothétique ». Cette généralité du multidimensionnel va permettre de tester toutes les formes de théories, pourvu qu’on les ait traduites en un jeu d’hypothèses stochastiques sur une loi multidimensionnelle, et pourvu qu’on accepte le principe de la fameuse « Révolution probabiliste » de la Cowles Commission : « Aucun outil développé dans la théorie statistique n’a de signification ? sauf peut-être, si l’objectif est celui de la description ? s’il n’est pas rattaché à quelque schème probabiliste. »

32La corrélation n’a donc pas disparu, mais elle a changé de statut. Elle ne caractérise plus statistiquement les relations entre variables observables, mais la loi théorique des erreurs inobservables. La corrélation ne se donne plus par une mesure, elle est devenue le paramètre d’un modèle théorique.

CONCLUSION : L’ÉMERGENCE DE LA DÉCISION

33L’objet principal de la statistique n’est plus la mesure de la covariation, mais le test d’hypothèse. Ce qui demeure de la première problématique est en fait plongé dans la seconde. Il est d’ailleurs remarquable que la théorie de l’inférence a émergé chez Ronald Fisher d’un long travail avec Student sur la signification du coefficient de corrélation, et que le test d’analyse de variance placé au centre de son ouvrage Statistical Research for Research Workers est directement dérivé des notions de corrélations intra-classes. Il faudrait rendre compte, comme nous l’avons fait pour la corrélation, des facteurs sociaux et cognitifs qui ont permis le transfert de la théorie fisherienne de la statistique agronomique où elle est née, à l’économétrie où elle a triomphé. Comme le suggère Biddle [1999], on trouverait sans doute que Mordecai Ezequiel est, avec Waugh, un personnage clé de cette transmission, grâce à son ouvrage encore intitulé Methods of Correlation Analysis.

34Cette irruption du test d’hypothèse comme fondement de la méthode économétrique ne se fait pas sans difficulté. La théorie des tests est encore mal assurée dans les années 1940. Une controverse s’établit entre la version fishérienne rattachée à un programme d’inférence inductive dont les objectifs sont ceux de la connaissance, et la version neymanienne rattachée à une vision décisionnelle des tests, dont le texte d’Haavelmo préfigure une sorte d’hybridation. L’emphase importante mise sur la théorie statistique des sondages et de l’inférence dans l’approche de la Cowles Commission sera jugée excessive par les économistes du NBER (voir la controverse Vining-Koopmans d’après-guerre) qui soutiennent qu’il y a en économie des sources d’erreurs plus importantes que les fluctuations d’échantillonnage.

35Cette mutation vers les tests ne se fait pas sans entraîner une mutation plus importante du raisonnement économique et de l’épistémologie économique. À travers la méthodologie de la Cowles Commission, les thèses de l’opérationnalisme (Bridgman) semblent l’emporter sur le vérificationisme. Et bientôt vont poindre les thèses de Popper sur la falsification qui sont étonnamment en phase avec la reconstruction de la modélisation économique à l’intérieur du paradigme de la Décision. Il faut attendre cependant les travaux de Wald, von Neuman et Morgenstern, pour que ce paradigme de la Décision s’impose. Celui de la corrélation, qui avait dominé toute la première économétrie jusqu’à la fin des années 1930 et qui avait généré tour à tour les plus grands espoirs et les plus grandes déceptions, allait s’effacer durablement de la méthodologie économétrique inspirée de la Cowles Commission, avant de ressusciter dans les corrélogrammes de Box et Jenkins, les ARIMA et les VAR. Mais c’est une autre histoire.

Notes

  • [1]
    Université Paris-Dauphine et Centre A. Koyré (CNRS, UMR 8560). E-mail : mmichel. armatte@ dauphine. fr Une version longue de cet article est disponible.
  • [1]
    « Le concept pirate de corrélation est par excellence le concept de l’interdisciplinarité absolue, apatride, autosuffisant, libre de toute attache à un concept local. Par définition il est à l’aise partout, et sa mise en application ne requiert nulle justification a priori ou a posteriori. » (M. Veuille, « Corrélation, le concept pirate », dans I. Stengers [1987], p. 65.)
  • [1]
    Par exemple dans Pearson [1910], « Nature and Nurture, the Problem of the Future ».
  • [1]
    Pour plus de détails sur ce point, voir Armatte [1992], Morgan [1990 et 1995], et Klein [1998].
  • [1]
    Lescure, Mourre et Sauvy s’offusquent qu’on puisse ainsi éliminer l’essence même du mouvement économique.
  • [1]
    x = 0,1,2,3,4,5,6,7,8; y = 0,1,2,3,8,7,6,5,4.
  • [1]
    Bowley, Wison, Darmois, Huntington, Rietz, Gumbel, Hotelling, von Mises, Risser, Jordan, Steffensen, Lévy, Gini, Guldberg, Frisch.
  • [2]
    Controverse dans The American Psychologist, 1957-1959. Voir Armatte [1995], chap. 1.
Français

Nous suivons les avatars d’un concept – la corrélation – et d’un outil – le coefficient de corrélation linéaire – dans les différentes étapes de la mise en place de la méthode économétrique, depuis leur importation à partir des travaux de la biométrie anglaise dans les premières années du siècle, jusqu’à leur abandon au profit de la théorie des tests dans l’approche structurelle de la Cowles Commission des années 1940, en passant par la période des baromètres économiques qui leur donna un rôle essentiel. Et nous montrons à la fois le travail des économètres pour adapter la mesure de corrélation aux objets et aux questions de l’économie, et la diversité des interprétations et des usages qu’ils lui ont attribuée.

RÉFÉRENCES BIBLIOGRAPHIQUES

  • ARMATTE M. [1992], « Conjonctions, conjoncture et conjecture. Les baromètres économiques », Histoire et Mesure, VII, p. 1-2.
  • ARMATTE M. [1995], Histoire du modèle linéaire. Formes et usages en statistique et en économétrie jusqu’en 1945, thèse EHESS (sous la direction de J. Mairesse).
  • ARMATTE M. et DESROSIEvRES A. [2000], « Méthodes mathématiques et statistiques en économie : nouvelles questions sur d’anciennes querelles », dans BEAUD J.-P. et PRÉ-VOST J.-G. (dir.), L’ère du chiffre, systèmes statistiques et traditions nationales, Presses Universitaires du Québec, Montréal, p. 431-481.
  • En ligneBIDDLE J. [1999], « Statistical Economics », 1900-1950, History of Political Economy, 31 (4), p. 607-651.
  • BOWLEY A.L. [1901], Elements of Statistics, Londres, King and Son, 2e éd. 1902,335 p.; 4e éd. 1920,454 p.; trad. française sur la 5e éd. par L. Suret et G. Lutfalla, 1929.
  • DE FOVILLE A. [1888], « Essai de météorologie économique et sociale », JSSP, mai 1888, p. 243.
  • En ligneDE MARCHI N. et GILBERT C. (eds) [1989], « History and Methodology of Econometrics », Oxford Economic Papers, 41, janvier 1989.
  • FISHER R.A. [1970], (1925), Statistical Methods for Research Workers, 14e éd., Edinburgh, Oliver et Boyd; trad. française. I. Bertrand sur la 10e éd., Paris, 1947.
  • FRECHET M. [1934], « Sur l’usage du soi-disant coefficient de corrélation », Rapport pour la 22e session de l’IIS à Londres, Bulletin de l’IIS.
  • FRISCH R. [1933], « Propagation Problems and Impulse Problems in Dynamic Economics », dans Economic Assays in Honour og Gustav Cassel, Londres, Allen & Unwin.
  • HAAVELMO T. [1944], The Probability Approach in Econometrics, Supplément à Econometrica, 12,115 p.
  • HOOKER R.H. [1901], « Correlation of the Mariage Rate with Trade », JRSS, 64, septembre 1901, p. 485-492.
  • HOOVER K.D. (ed.) [1995], Macroeconometrics. Developments, Tensions and Prospects, Kluwer Academic Publ.
  • KARSTEN K.G. [1924], Charts and Graphs ; an Introduction to Graphic Methods in the Control and Analysis of Statistics, Londres, I. Pitman & Sons.
  • En ligneKEYNES J.M. [1939], « Professor Tinbergen’s Method », Economic Journal, 49, p. 558-568. (Réponse de Tinbergen dans le n° 50, p. 141-156.)
  • KLEIN J. [1998], A History of Time Series Analysis, Cambridge, Cambridge University Press, 1999.
  • LIESSE A. [1905], La statistique. Ses diff?cultés. Ses procédés. Ses résultats, Paris, Guillaumin et Alcan; 2e éd. 1912; 3e éd. 1919; 4e éd. 1933.
  • MARCH L. [1905], « Comparaison numérique de courbes statistiques », JSSP, p. 255-277.
  • MARCH L. [1928], « Différences et corrélation en statistique », JSSP, p. 38-58.
  • MOORE H.L. [1967] (1923), Generating Economic Cycles, New York, Macmillan; reprint A.M. Kelley, 1967.
  • En ligneMORGAN M. [1990], The History of Econometrics Ideas, Cambridge, Cambridge University Press.
  • MORGAN M. [1995], « Searching for Casual Relations in Economic Statistics : Reflections from History », L.S.E., Centre for the Philosophy of the natural and social sciences, Discussion Paper.
  • NEUMANN-SPALLART [1887], « La mesure des variations de l’état économique des peuples », Bulletin de l’IIS, II, p. 150.
  • En ligneOGLE W. [1890], « On Marriage-Rates and Marriage-Ages, with Special Reference to the Growth of Population », JRSS, 53, juin 1890, p. 253-280.
  • PEARSON K. [1912] (1892), La grammaire de la science, traduction et préface de L. March sur la 3e édition (1911), Paris, Alcan.
  • PERSONS W. [1917], « The Variate Differences Method and Curve Fitting », Quaterly Publ. of ASA, juin.
  • SCHUMPETER J.A. [1939], Business Cycles, A theoretical, Historical, and Statistical Analysis of the Capitalist Process, New York, McGraw-Hill.
  • En ligneSLUTSKY E.E. [1937] (1927), « The Summation of Random Causes as Source of Cyclic Processes », trad. Econometrica, avril 1937, p. 105-146.
  • STENGERS I. (ed.) [1987], D’une science à l’autre. Des concepts nomades, Paris, Le Seuil.
  • TINBERGEN J. [1939], Vérification statistique des théories des cycles économiques ; vol. I : Une méthode et son application au mouvement des investissements, 178 p.; vol. II : Les cycles économiques aux Étas-Unis d’Amérique de 1919 à 1932, Genève, Société des Nations, 267 p.
  • En ligneYULE G.U. [1897], « On the theory of correlation », JRSS, 60, p. 812-854.
  • YULE G.U. [1909], « Les applications de la méthode de corrélation aux statistiques sociales et économiques », BIIS, 28 (1), compte rendu de la 12e session de Paris, p. 265-277.
  • En ligneYULE G.U. [1926], « Why do we sometimes get Nonsense-Correlation between Time-Series ? A Study in Sampling and the Nature of Time-Series », Presidential Adress, JRSS, 89, p. 1-64.
Michel Armatte [1]
  • [1]
    Université Paris-Dauphine et Centre A. Koyré (CNRS, UMR 8560). E-mail : mmichel. armatte@ dauphine. fr Une version longue de cet article est disponible.
Pour citer cet article
Distribution électronique Cairn.info pour Presses de Sciences Po © Presses de Sciences Po. Tous droits réservés pour tous pays. Il est interdit, sauf accord préalable et écrit de l’éditeur, de reproduire (notamment par photocopie) partiellement ou totalement le présent article, de le stocker dans une banque de données ou de le communiquer au public sous quelque forme et de quelque manière que ce soit.
keyboard_arrow_up
Chargement
Chargement en cours.
Veuillez patienter...