CAIRN.INFO : Matières à réflexion
linkThis article is available in English on Cairn International

1Cette histoire des statistiques mathématiques modernes retrace leur évolution depuis la révolution laplacienne, comme l’auteur l’indique si justement (même si son origine se trouve chez Bayes [1] en 1763), jusqu’au milieu du xxe siècle avec l’apport majeur de Fisher. Elle recoupe l’histoire des statistiques de Stigler [2] jusqu’à la fin du xixe siècle, avec cependant des différences qui seront soulignées plus loin. Elle introduit ensuite les développements du xxe siècle, non seulement par la synthèse fisherienne mais aussi par le renouvellement des méthodes bayésiennes qui implique un retour à Laplace.

2La première partie sur Laplace développe de façon chronologique et approfondie son approche des probabilités avec tout le détail mathématique et les déductions qu’il en tire. Elle commence avec ses premiers articles novateurs jusqu’à sa synthèse philosophique, montrant que l’ensemble des connaissances humaines se rattachent à la théorie des probabilités.

3L’auteur soulève ici un problème, non discuté par Stigler : celui de l’induction (p. 102-113), qui permet d’aller plus loin dans la compréhension de la probabilité selon Laplace. Il existe deux significations de ce terme proposées d’abord par Bacon [3] en 1620, puis par Hume [4] en 1748, que seules l’auteur considère ici. Pour le premier, l’induction consiste à découvrir les principes d’un système par l’étude de ses propriétés au moyen de l’observation et de l’expérimentation. Pour le second, l’induction n’est qu’une simple énumération qui ne peut conduire à aucune certitude. Laplace suit Bacon lorsqu’il écrit : « La méthode la plus sûre qui puisse nous guider dans la recherche de la vérité consiste à s’élever par induction des phénomènes aux lois et des lois aux forces ». Il ne cite d’ailleurs jamais à notre connaissance Hume, même si celui-ci a été traduit en français dès 1758. Pour Laplace, la probabilité est une nouvelle façon de raisonner à partir d’une connaissance partielle des phénomènes étudiés. L’exemple qu’il donne sur le lever du soleil doit bien se comprendre sous l’hypothèse que l’on ne dispose que de l’observation de ce phénomène depuis cinq mille ans. Mais comme il l’indique clairement, la connaissance du principe régulateur de ce phénomène en permet une estimation bien plus précise. De plus l’hypothèse utilisée ici d’une distribution a priori uniforme n’est absolument pas, comme semble le penser l’auteur, une assomption métaphysique aveugle, mais est toujours raisonnée, et Laplace utilise dans d’autres exemples des distributions a priori non uniformes (Stigler, 1986, p. 135-136). Ici, comme il s’agit de deux possibilités seulement (le soleil se lèvera ou non demain), le principe d’indifférence s’applique parfaitement. Toutes les critiques citées par l’auteur ne semblent pas avoir compris ce point et suivent la signification de l’induction proposée par Hume.

4La seconde partie, de Galton à Fisher, développe la mise en place d’une approche essentiellement fréquentiste, opposée à celle de Laplace, et basée sur le principe d’induction de Hume, sans que l’auteur l’indique clairement. Ses principaux acteurs essayent de mettre en place une approche statistique des sciences biologiques et sociales. Même si l’intérêt de ces chercheurs pouvait toucher plusieurs domaines de ces sciences, on peut rattacher Quételet et Lexis aux sciences de la population, Galton et Pearson à l’étude de l’hérédité et à la biométrie, Edgeworth et Yule à l’économie, Fisher à la biologie et à la génétique, etc.

5Les méthodes utilisées par Laplace s’appliquaient soit à des données astronomiques ou géodésiques, déjà théorisées, soit à des données simples dont la loi de probabilité est connue, comme le rapport de masculinité des naissances (loi binomiale). Pour les sciences biologiques et sociales, le problème est lié aux myriades de causes jouant sur les phénomènes étudiés et ayant sur eux un effet non négligeable : l’hypothèse d’homogénéité de la population n’étant pas tenable, comment tenir compte de la complexité des observations ? Tout l’effort de ces statisticiens a été de mettre en place les outils permettant de démêler ces liens : corrélation, analyse de régression, analyse multivariée, classifications croisées, etc. Cette analyse a culminé avec la théorie de l’estimation statistique de Fisher, que l’auteur décrit ici dans tous ses détails, y compris les différentes controverses qu’il a eues avec nombre de statisticiens : Bartlett, Jeffreys, Pearson, Neyman, etc. Pour Fisher, la probabilité représente la fréquence limite de l’événement étudié dans une population hypothétique infinie. Il ne s’agit plus ici de découvrir les principes d’un événement, mais simplement d’énoncer les propriétés d’une simple énumération. C’est donc finalement une théorie des probabilités fréquentistes qu’il convient de leur appliquer. Fisher est bien un objectiviste opposé à Laplace [5] qu’il critique largement dans ses écrits.

6Il est intéressant de constater ici que ni Fisher ni l’auteur de ce volume n’ont, dans leurs ouvrages respectifs, jamais cité ni discuté l’axiomatisation des probabilités objectives par Kolmogorov [6], alors que dans la partie suivante de cet ouvrage, les axiomatisations des probabilités subjectives de Ramsey, de Finetti ou de Savage sont présentées avec détail. L’axiomatisation de Kolmogorov porte sur l’occurrence d’événements susceptibles de se répéter dans des conditions jugées identiques, mais qui ne sont généralement pas rattachés à une théorie générale. Même si cette définition est légèrement différente de celle de Fisher, donnée dans le paragraphe précédent, elle en est très proche.

7Une troisième partie, plus courte, va explorer les extensions de la théorie de l’estimation statistique de Fisher ainsi que le renouveau des méthodes bayésiennes jusqu’au début des années 1960. En premier lieu, comme le remarque fort justement l’auteur, Fisher était opposé à une « mathématisation des statistiques » et ses démonstrations manquaient parfois de rigueur. C’est donc à la démonstration plus précise et à l’extension de ses idées que nombre de statisticiens cités ici se sont attachés. Retenons la discussion sur la théorie de la décision statistique de Wald qui généralise le problème d’estimation de Fisher et rejoint la discussion sur les tests d’hypothèse de Neyman et de Pearson. Mais si l’auteur indique que l’approche de Wald est pleinement fréquentiste, celui-ci a cependant appelé ses règles de décision des « stratégies bayésiennes ».

8C’est le retour des méthodes bayésiennes dès les années 1920, alors que Fisher triomphait avec ses théories fréquentistes, qui va marquer le début d’une nouvelle période. Mais celle-ci ne s’est vraiment développée que plus de cinquante ans après, avec en particulier la mise en place de l’informatique qui permet l’inférence sur tous les paramètres a posteriori, par des méthodes de simulation très lourdes en calculs. L’auteur cite Keynes, Ramsey, de Finetti, Jeffreys, Savage et Robins pour la période s’étendant de 1920 à 1956. Il développe même les axiomatisations proposées par Ramsey, de Finetti et Savage laissant de coté Jeffreys qu’il a déjà longuement cité dans la partie précédente au sujet de sa controverse avec Fisher.

9Si le traitement des probabilités épistémiques subjectives nous paraît bienvenu dans cet ouvrage, la mise à l’écart relative des probabilités épistémiques logiques [7] nous semble réductrice. Cette dernière approche suivie par Jeffreys [8] et axiomatisée par Richard Cox [9] rejoint parfaitement celle de Laplace en lui donnant des bases solides. Jeffreys reprend la notion d’induction de Bacon et indique que celle-ci conduit à des postulats ou axiomes, extraits de toute l’information disponible au chercheur au moment de leur élaboration : cette information porte non plus sur des événements, comme ceux de Kolmogorov, mais sur des propositions.

10À l’opposé, les probabilités subjectives vont continuer à suivre la définition de Hume sur l’induction (p. 648), en disant en particulier que chaque individu est libre d’adopter n’importe quelle évaluation de la probabilité d’un événement comprise entre zéro et un, et que « chacune de ces évaluations correspond à une opinion cohérente » [10].

11Pour conclure, cet ouvrage fournit une présentation riche et détaillée du travail des statisticiens tout au long de deux siècles. Nous irons même plus loin que l’auteur en parlant également des probabilistes, car nombre des auteurs cités ici ont enrichi notre vue de cette discipline plus théorique. On peut cependant regretter que l’auteur ait abordé le problème si important de l’induction pour les probabilités en utilisant la thèse de Hume, qui conduit à considérer les probabilités et les statistiques comme une simple énumération des propriétés d’une population supposée infinie. Celles-ci vont au-delà de cette énumération, en proposant une nouvelle logique bâtie sur des axiomes solides pour comprendre une population réellement observée.

Notes

  • [1]
    Bayes T.R., 1763, « An essay towards solving a problem in the doctrine of chances », Philosophical Transactions of the Royal Society of London, 53, p. 370-418.
  • [2]
    Stigler S.M., 1986, The History of Statistics : The Measurement of Uncertainty before 1900, Cambridge, Belknap Press of Harvard University Press, 432 p.
  • [3]
    Bacon F., 1620, Novum Organum, London, J. Bill.
  • [4]
    Hume D., 1748, Philosophical Essays Concerning Human Understanding, London, A. Millar. [Traduction française par Merian J.-B., 1758, Essais philosophiques sur l’entendement humain. Amsterdam : J.H. Schneider].
  • [5]
    Voir à ce sujet : Aldrich J., 2008, « R.A. Fisher on Bayes and Bayes theorem », Bayesian Analysis, 3(1), p. 161-170.
  • [6]
    Kolmogorov A., 1933, « Grundbegriffe der wahrscheinlichkeitsrenung », Ergebisne der Mathematik, vol. 2, Berlin, Springer.
  • [7]
    Voir sur la différence entre ces deux approches : Courgeau D., 2012, « Probability and social science. Methodological relationship between the two approaches », Dordrecht, Heidelberg, London, New York, Springer, Methodos Series vol. 10, 35 p.
  • [8]
    Jeffreys H., 1939, Theory of Probability, New York, Clarendon Press.
  • [9]
    Cox R., 1961, The Algebra of Probable Inference, Baltimore, The John Hopkins Press, 114 p.
  • [10]
    Voir : Finetti B., 1937, « La prévision : ses lois logiques, ses sources subjectives », Paris, Annales de l’Institut Henri Poincaré, 7(1), p. 1-68.
Mis en ligne sur Cairn.info le 19/05/2017
https://doi.org/10.3917/popu.1701.0159
Pour citer cet article
Distribution électronique Cairn.info pour Ined Éditions © Ined Éditions. Tous droits réservés pour tous pays. Il est interdit, sauf accord préalable et écrit de l’éditeur, de reproduire (notamment par photocopie) partiellement ou totalement le présent article, de le stocker dans une banque de données ou de le communiquer au public sous quelque forme et de quelque manière que ce soit.
keyboard_arrow_up
Chargement
Chargement en cours.
Veuillez patienter...