CAIRN.INFO : Matières à réflexion

1« La crise mondiale déclenchée par la crise des subprimes aux États-Unis à l’automne 2008 a eu l’effet d’un séisme sur l’économie globale. Grandes banques au bord de la faillite, une dépression économique sans précédent, une montée rapide du chômage, la plus importante chute du commerce mondial depuis trois quarts de siècle, sont les effets immédiats de cette onde de choc. » Ce constat de la violence de la crise économique, effectué par Pascal Lamy [1], est unanimement partagé. Ses conséquences sociales négatives sont bien connues. Même si le rythme et l’ampleur sont différents selon les économies, tous les pays capitalistes développés connaissent une augmentation des licenciements et plus encore du chômage, une érosion du pouvoir d’achat et de la protection sociale, une réduction du périmètre des services publics. Pour certains pays du Sud, la régression sociale est encore plus dramatique. Pour ne prendre qu’un exemple, dans son dernier rapport sur les Objectifs du millénaire pour le développement, l’Onu souligne que « les crises économiques et alimentaires mettent en péril les récentes avancées dans le domaine de l’éradication de la faim et de la pauvreté ».

2Pour l’opinion publique, l’incapacité des économistes à prévoir l’une des plus importantes crises de l’histoire récente du capitalisme signerait leur faillite collective. N’est-il pas exact que la plupart des économistes qui étaient invités à s’exprimer dans les médias minimisaient la gravité du krach financier et niaient la possibilité que celui-ci débouchât sur une récession d’une aussi grande ampleur ?

3En fait, la crise actuelle ne devrait-elle pas plutôt porter un coup fatal au seul courant mainstream auquel est assimilé un peu rapidement par les médias dominants l’ensemble des économistes, comme si la science économique était a priori indépendante, homogène, idéologiquement neutre ? Le paradigme néoclassique ne devrait-il pas être une victime collatérale de cette crise qu’il n’a pas vu venir et à laquelle il a contribué ?

4Ce paradigme repose sur un « modèle simpliste de l’économie de marché, le modèle de l’équilibre concurrentiel, où la main invisible d’Adam Smith fonctionne, et fonctionne à la perfection » [Stiglitz, 2002, p. 105]. « Dans ce modèle, il n’est nul besoin d’État – les marchés libres sans entraves, fonctionnent parfaitement » [ibid., p. 107]. Le marché est un acteur neutre et capable d’assurer, en toute indépendance, la cohérence de la multiplicité des choix individuels et de contribuer au bien-être de tous. Cette vision ancienne et idéalisée de l’économie dans laquelle des individus rationnels – y compris dans leurs anticipations – interagissent sur des marchés parfaitement efficients n’a-t-elle pas été définitivement invalidée par l’histoire récente ?

1 – Trois arguments dévoilés par la crise

5Le premier argument mettant en cause la théorie néoclassique concerne son caractère prédictif. La crise actuelle révèle l’échec des courants de pensée dominants de la science économique, qui ne l’avaient pas prévue [Galbraith, 2009]. La déclaration la plus caricaturale est l’œuvre de Fred Bergsten (directeur de l’Institut Peter G. Peterson pour l’économie internationale) qui affirmait quelques semaines avant que la crise n’éclate : « Il est inconcevable, je répète inconcevable, de connaître une récession » [cité par Ben Hammouda et al., 2010, p. 16]. Paul Krugman [2009] explique cette cécité par la construction d’édifices intellectuels aveugles à la possibilité même de crises dans une économie de marché. Plus précisément, dans la vision dominante, l’économie de marché est une économie « autostable » qui s’auto-ajuste grâce à des marchés efficients [Aglietta, 2008, p. 10]. Si une crise n’est pas impossible, elle ne peut être que de nature exogène et l’autorégulation des marchés suffit pour en sortir. Ces prévisions erronées sont d’autant plus dommageables pour les néoclassiques que ces derniers s’inscrivent dans une démarche positive [Friedman, 1953] où la validation de la théorie repose sur sa capacité à prévoir les évolutions réelles. Elles ont été reprises dans les propos des responsables de grandes institutions internationales. Ainsi Jean-Claude Trichet (gouverneur de la Banque centrale européenne) affirmait en juillet 2008, que si l’Europe connaissait une baisse de croissance lors des deuxième et troisième trimestres, la reprise s’effectuerait dès la fin de l’année. De fait, l’Europe a connu à ce moment-là l’une des récessions les plus fortes de son histoire. Dans son World Economic Outlook du printemps 2007, le FMI signalait que « les risques globaux sont moins menaçants qu’il y a six mois ». Convaincu que « les marchés libres et concurrentiels sont de loin la meilleure façon d’organiser l’économie sans équivalent », Alan Greenspan répétait dans ses mémoires – intitulées Le temps des turbulences ! – et jusqu’à quelques semaines avant le déclenchement de la crise, sa conviction dans la capacité des marchés financiers à absorber les excès et les chocs et à s’ajuster pour assurer un fonctionnement cohérent [2]. Il reconnut devant la Commission en charge du contrôle de l’action gouvernementale du Congrès américain le 23 octobre 2008 que « durant quarante ans au moins, j’ai été fermement convaincu que mon idéologie fonctionnait exceptionnellement bien » !

6Le deuxième argument concerne les politiques menées durant la dernière période conformément aux préconisations des économistes néoclassiques. Ceux-ci ont inspiré les politiques de désengagement de l’État et de déréglementation qui se sont imposées à partir des années 1980, l’État ne devant pas perturber le fonctionnement des marchés naturellement efficients ou se substituer à des marchés censés être plus efficaces grâce à des arbitrages plus neutres et moins coûteux pour la collectivité. Si l’impact négatif du néolibéralisme triomphant ne saurait se limiter au domaine de la finance, c’est dans ce secteur que les politiques néolibérales ont été systématisées à l’extrême et que leurs effets déstabilisateurs ont été les plus spectaculaires : les règles très strictes qui encadraient l’activité bancaire et les marchés financiers, élaborées patiemment dans le cadre de la régulation keynésienne en réponse à la crise de 1929, ont été méthodiquement démantelées. Les innovations financières introduites par les banques – aussi confiantes que les gouvernements dans la capacité des marchés à assurer l’autorégulation du système – ont permis des prises de risque inconsidérées et ont joué un rôle majeur dans la formation des bulles spéculatives. Si le mythe de l’efficience des marchés financiers libéralisés avait déjà été écorné par les multiples crises financières qui se sont succédé depuis le début des années 1930, il a été littéralement détruit par l’ampleur et la violence de la crise actuelle.

7Le troisième argument est plus indirect. Il s’agit de l’utilisation de modèles de plus en plus sophistiqués, où la fuite en avant dans la virtuosité technique ne suffit pas à masquer la fragilité des hypothèses et de la croyance en leur infaillibilité… jusqu’au dur verdict de la réalité. Paul Krugman [2009] souligne le goût des économistes pour les « beaux » modèles, même s’ils sont faux empiriquement, qui « donnent en outre l’occasion aux économistes de faire étalage de leurs prouesses mathématiques ». Les critères d’excellence internes à la discipline valorisent à l’excès la modélisation elle-même au détriment de la discussion des postulats fondamentaux – considérés comme allant de soi – ou de l’adéquation de ces outils à la qualité des données traitées et des résultats obtenus. Le recours à des modèles complexes correspond également à la volonté des économistes néoclassiques de mimer les sciences « dures » (en adoptant des méthodes censées permettre à la science économique de prévoir l’avenir avec une plus grande précision) et d’échapper à l’imperfection et à l’incertitude des sciences de la société.

8Cette modélisation concerne notamment la représentation d’ensemble de l’économie. La dernière génération de ces modèles, utilisés par toutes les grandes institutions internationales, comprend les modèles dynamiques et stochastiques d’équilibre général (DSGE). Ces modèles se situent dans le cadre de la théorie néoclassique. Même s’ils ont intégré des imperfections et des rigidités mises en avant par les néo-keynésiens, ils restent prisonniers d’une vision normative d’une réalité économique caractérisée par l’efficience des marchés et les anticipations rationnelles, et n’intègrent pas de perturbations endogènes. Les seuls chocs pris en compte sont exogènes et ne peuvent pas conduire à des situations instables car, par construction, les forces du marché sont toujours en mesure d’opérer les ajustements nécessaires afin de ramener l’équilibre dans le système. Il n’est dès lors guère surprenant qu’ils n’aient pas été en mesure de prévoir que la crise des subprimes pouvait déboucher sur la crise actuelle.
Cette fascination pour une modélisation reposant sur des hypothèses identiques s’est encore plus développée dans le secteur financier, les marchés financiers présentant l’avantage d’être ceux qui se prêtent le mieux à l’application de la vision normative des marchés efficients de la théorie néoclassique. Ce sont ces modèles mathématiques de plus en plus complexes qui ont été à la base de la création de produits très sophistiqués à fort effet de levier, comme les produits dérivés, censés permettre de se couvrir contre tous les risques, y compris ceux résultant de la titrisation des crédits. Ici aussi a été oublié le fait qu’un modèle n’est qu’une construction schématique du réel, à laquelle échappent de nombreux éléments, et qu’il faut relativiser la portée des résultats de leur simulation. Comme le reconnaît Nicole El Karoui, responsable de la formation la plus prestigieuse en mathématiques financières (Paris VI et École polytechnique), « les mathématiques donnent le sentiment que l’on peut mieux contrôler. Les mathématiciens auraient peut-être dû mieux préciser que leurs modèles étaient frustes. Nos modèles sont faits pour fonctionner dans des situations ordinaires pour des quantités raisonnables de produits vendus, dans un contexte d’activité standard (…) pas pour des périodes de surchauffe, de bulle » [Le Monde, 29 mars 2008]. Les créateurs de ces innovations financières pensaient pouvoir maîtriser les risques en les modélisant [3]. C’était oublier une distinction effectuée dès les années 1920 par Knight puis Keynes entre les risques probabilisables et l’incertitude radicale qui échappe à toute tentative de mesure ou de prévision. À l’inverse, c’est l’existence des produits dérivés qui fait qu’une crise sur un segment relativement étroit (une fraction du marché hypothécaire américain, les subprimes) a eu des effets aussi rapides que violents sur l’ensemble de la finance mondiale.

2 – Une victoire des économistes critiques ?

9Ces remises en cause de la théorie néoclassique provoquent un regain d’intérêt pour les théories critiques. Comme le note Paul Krugman [2009], « bien entendu, il y avait quelques économistes qui contestaient l’idée d’un comportement rationnel et se demandaient si l’on pouvait réellement faire confiance aux marchés, se référant au temps long des crises financières aux conséquences économiques dévastatrices. Mais ils nageaient à contre-courant, incapables de se faire entendre face à une complaisance largement répandue, et qui rétrospectivement nous paraît stupide ».

10Par-delà leur diversité revendiquée (qui s’est récemment traduite en France par la création de l’Afep [4]), les économistes critiques partagent la conviction fondamentale que le marché ne peut produire sa propre régulation. Leurs analyses des situations de crise inhérentes au système capitaliste ont en commun une explication fondamentalement endogène des crises, qui trouvent leur source dans le fonctionnement propre du système. À rebours de la théorie néoclassique tentant d’étendre à l’ensemble des phénomènes sociaux une analyse basée sur un mythique homo œconomicus, les théories critiques sont ouvertes aux apports des autres sciences sociales, en considérant qu’une authentique transdisciplinarité est indispensable pour tenir ensemble les multiples aspects des crises : n’est-ce pas un anthropologue et sociologue, Paul Jorion [2007], qui fut l’un des premiers à attirer l’attention sur l’imminence de la crise des subprimes, ses causes profondes et ses conséquences en chaîne ?

11Il est évidemment hors de propos d’effectuer une recension même partielle des travaux de multiples auteurs institutionnalistes, régulationnistes, postkeynésiens ou marxistes. Contentons-nous de mentionner quelques auteurs particulièrement inspirés dans l’anticipation de la crise actuelle. Dans des ouvrages écrits avant le déclenchement de la crise, Frédéric Lordon [2008] – disséquant la « prolifération financière parasitaire » – et Michel Aglietta et Laurent Berrebi [2007] soulignaient, contre l’hypothèse d’autorégulation de la finance, sa profonde instabilité et la forte probabilité de crises financières. Cette analyse de l’instabilité financière prolongeait les enseignements de Keynes à propos des dynamiques qui ont conduit à la grande crise des années 1930 : « Le risque d’une prédominance de la spéculation tend à grandir à mesure que l’organisation des marchés financiers progresse. » [Keynes, 1936, p. 173.] Dans un registre complémentaire, Michel Husson [2008] effectue une analyse serrée des contradictions du modèle néolibéral qui se substitue progressivement au modèle précédent fordiste. Dans le modèle néolibéral le taux de profit se rétablit sur la base d’un recul généralisé de la part salariale. Ce rétablissement du taux de profit ne conduit pas à un surcroît d’accumulation mais au dégagement de capitaux libres en raison de la raréfaction des occasions d’investissements rentables. Ce mouvement est rendu possible par la déréglementation et conduit à des bulles financières et à l’élévation des normes de rentabilité ; cette hyper-rentabilité financière crée une couche de rentiers dont la consommation compense en partie la stagnation de la demande salariale. Elle a pour contrepartie le creusement des inégalités et le recours au surendettement des salariés. Ce schéma se renforce lui-même : la déréglementation permanente permet la création de nouveaux produits financiers qui alimentent le surendettement tandis que l’élévation des normes de rentabilité réduit encore les occasions d’investissements fructueux dans la sphère productive et exerce une pression renouvelée sur les salaires. En résumé, la contradiction entre la baisse des salaires et le maintien des débouchés a été étalée dans le temps par la financiarisation mais au prix d’une accumulation de tensions. Les États-Unis étant le lieu où ces tensions sont les plus exacerbées, Michel Husson [2008, p. 61] anticipait que, « dans ce contexte, le scénario d’un ajustement brutal de l’économie des États-Unis gagne en plausibilité », les enchaînements décrits étant assez semblables à ce qui se passera quelques mois plus tard.
Cependant la pertinence des analyses critiques et leur regain d’audience ne suffisent pas pour éclipser durablement la théorie dominante.

3 – La brève éclipse de la théorie néoclassique

12Si les économistes néoclassiques se font plus discrets au début de la crise, la parenthèse est vite refermée, Paul Krugman [2009] affirmant que ceux-ci « ressortent les idioties d’avant les années 1930 en croyant livrer un discours nouveau et profond ». L’origine de la crise ne se situerait pas dans la libéralisation des marchés mais dans l’intervention intempestive de l’État, en particulier par une politique monétaire inadaptée et erronée, ce qui était déjà l’explication de Milton Friedman de la crise de 1929. Ainsi pour Gary Becker « cinq décennies ont montré combien les marchés libres sont bons pour l’économie » [Wall Street Journal, 21 mars 2009]. De même pour Pascal Salin qui affirmait que « la meilleure régulation passe par le libre fonctionnement des marchés et non par la réglementation » [Les Échos, 1er octobre 2008] et que « l’interventionnisme de l’État et l’excès de réglementation sont la cause principale de la crise actuelle » [La Tribune, 2 octobre 2008], c’est la politique monétaire qui est coupable : « Si on laissait faire le marché, on n’aurait pas de crise monétaire, on n’aurait pas de crise financière (…). Je crois [qu’] on n’a pas laissé ses chances au capitalisme. À mon avis, il n’y a pas à réformer le capitalisme, ni à moraliser le capitalisme. Il faut le restaurer car on ne l’a pas suffisamment laissé fonctionner. » [Interview à Radio Prague, 27 avril 2009.]

13La nouvelle offensive néoclassique va notamment se concentrer sur les politiques de relance budgétaire menées pas les gouvernements au début de la crise. Pour Jean-Marc Daniel, « le keynésianisme n’est pas la solution de la crise, c’est son origine. Ce sont les recettes de 1929 toujours appliquées aujourd’hui qui ont entraîné la crise. Il faut au contraire moins de régulation par l’État » [Le Monde, 4 novembre 2008]. Et dans le même journal, le 10 juin 2009, Pascal Salin affirme que « la relance globale keynésienne va en réalité accentuer les déséquilibres » tandis que Florin Aftalion souligne que « Friedman a montré que le déficit budgétaire a un effet négatif sur la sortie de crise ». Aux États-Unis, 222 économistes appuyés par Jeffrey Sachs signent un manifeste dans lequel ils indiquent que la poursuite des dépenses publiques « menace la santé à long terme de l’économie » [Raveaud, 2010].
Ces déclarations ne sont pas dénuées d’efficacité pratique. Certes, au début de la crise – notamment après la faillite de la banque d’investissement Lehman Brothers, en septembre 2008 –, la crainte que la récession ne se transforme en dépression comme dans les années 1930 a vu la mise en place d’interventions d’inspiration plutôt keynésienne : plans de relance, politiques de sauvetage et de recapitalisation des banques avec l’argent public, prêts massifs à de grandes entreprises. D’une certaine façon, ces politiques revenaient à socialiser les pertes du secteur privé et à substituer partiellement un endettement public à des dettes privées irrécouvrables. Ces politiques ont incontestablement limité l’ampleur de la récession mondiale. En cohérence avec cette conversion très momentanée au keynésianisme des gouvernements et des institutions internationales, ces politiques conjoncturelles devaient s’accompagner de mesures plus structurelles concernant les régulations bancaires et financières (renforcement des règles et des normes prudentielles, modifications des principes comptables et des systèmes de rémunération, pratiques de transparence) mais aussi des réformes de l’ordre international et de la gouvernance de l’économie mondiale. Pour l’essentiel, ces réformes structurelles en sont restées au stade des déclarations purement verbales et des mesures homéopathiques. Et à partir de 2009, se produit un retour en force des politiques conventionnelles de limitation des dépenses publiques, avec notamment la généralisation des plans de rigueur et d’austérité en Europe. Il est significatif que le seul objectif concret du G20 de Toronto en juin 2010 soit de diviser par deux les déficits publics d’ici 2013. Ce retour à des politiques dont les effets néfastes s’étaient pourtant fait sentir durant les années 1930 mais aussi lors de la longue phase de stagnation japonaise des années 1990 suite à l’explosion de sa bulle immobilière et boursière à la fin des années 1980 et à la défaillance générale de son système bancaire, montre que l’impact de la théorie économique néoclassique semble largement intact.

4 – Paradigmes économiques et rapports de force sociaux

14Il est vraisemblable que le paradigme néoclassique se maintiendra durablement. Certes, la théorie néoclassique relâchera peut-être quelques hypothèses sur la rationalité des acteurs économiques et sur l’efficience des marchés et intégrera quelques nouveaux développements comme elle a su le faire dans un passé récent (concurrence imparfaite, marchés contestables, rigidité des prix, contrats implicites et salaires d’efficience). On pense notamment aux nouvelles théories qui s’appuient sur les apports d’autres disciplines : biologie cellulaire pour la théorie des marchés adaptatifs basée sur des modèles de jeux évolutionnaires, neurologie pour une neuro-économie apportant un fonds théorique à l’économie expérimentale, théorie de la complexité avec la modélisation mathématique de l’irrationalité.

15Ce processus de recomposition interne du paradigme dominant plutôt que l’émergence d’un nouveau paradigme qui remplacerait l’ancien – dont l’inadéquation des concepts théoriques et de la perspective méthodologique serait révélée par son incapacité à rendre compte de la crise économique actuelle – semble démentir, dans le champ des sciences économiques, la thèse de Thomas Kuhn selon laquelle la science évolue nécessairement par révolutions. En effet, la science économique ne progresse pas de façon cumulative par invalidation graduelle d’hypothèses erronées ou de modèles incomplets, et ne se développe pas selon une succession de paradigmes se substituant les uns aux autres. C’est une science sociale où plusieurs paradigmes antagonistes coexistent, sont relativement invariants, et figuraient déjà, au moins à l’état d’esquisse, au moment de la constitution de la discipline – à l’exception remarquable de la théorie keynésienne apparue dans les années 1930 –, parce qu’ils correspondent à des représentations opposées des rapports fondamentaux de la société capitaliste.

16Finalement, le poids relatif des différentes théories est certes le fruit de leurs avancées théoriques internes, de leurs controverses scientifiques, de l’évolution de la situation économique et sociale, mais aussi et peut-être surtout le reflet des rapports de force sociaux et institutionnels, qu’il s’agisse de rapports de force ou de domination à l’intérieur du champ des sciences économiques ou de rapports sociaux « externes ». S’agissant de ces derniers, on notera que l’hégémonie du courant mainstream fut la plus importante durant les années 1980-1990 corrélativement à la dégradation des rapports de force sociaux (par exemple, la montée du pouvoir des actionnaires), que l’on a connu une remontée parallèle des théories critiques et des mouvements sociaux à partir du milieu des années 1990, et que l’on assiste actuellement à un durcissement des affrontements et à une radicalisation des positions tant sur le terrain du conflit social que sur celui des controverses théoriques. Quant aux rapports de domination internes à la discipline, ils restent marqués par un lourd déséquilibre institutionnel et par des phénomènes de verrouillage efficace des recrutements et des carrières académiques mais aussi des relations avec les médias et le champ politico-économique par les réseaux et lobbies du courant dominant, qui jouent sur la congruence de leurs conceptions du monde et de celles des milieux d’affaires [5]. Il reste que le développement des théories critiques, le dialogue entre elles et leurs capacités à formuler des analyses et des propositions concrètes attirant l’attention, peuvent contribuer à l’essor de mouvements sociaux critiques de l’ordre existant [6].

Notes

  • [1]
    Dans la préface à Ben Hammouda et al. [2010].
  • [2]
    Le 17 mars 2008, Alan Greenspan concluait un article dans le Financial Times (« We will never have a perfect model of risk » [Nous n’aurons jamais de modèle parfait du risque]) sur « nos plus fidèles et nos plus efficaces garde-fous contre l’échec économique : la flexibilité des marchés et la concurrence ouverte ».
  • [3]
    Ainsi Tim Guldiman qui conçut les premiers modèles de VaR (Value at Risk) pour JP Morgan reconnaît lucidement : « La VaR conduit à l’illusion de pouvoir quantifier tous les risques et par suite de les contrôler » [cité par Lordon, 2008, p. 163].
  • [4]
    Association française d’économie politique, dont le premier congrès a lieu à Lille les 9 et 10 décembre 2010 [cf. l’appel à contributions http://www.assoeconomiepolitique.org/spip.php?article124].
  • [5]
  • [6]
    De multiples initiatives utilisant les possibilités de diffusion d’Internet vont dans ce sens. Contentons-nous d’en mentionner deux particulièrement réussies : le blog de Jean Gadrey, http://www.alternatives-economiques.fr/blogs/gadrey et le portail d’économie critique de Michel Husson, http://hussonet.free.fr/ecocriti.htm

Bibliographie

  • Aglietta Michel (2008), La Crise. Pourquoi en est-on arrivé là ? Comment en sortir ?, Michalon, Paris.
  • Aglietta Michel et Berrebi Laurent (2007), Désordres dans le capitalisme mondial, Odile Jacob, Paris.
  • En ligneBen Hammouda Hakim, Oulkmane Nassim et Sadni Jallab Mustapha (2010), Crise… Naufrage des économistes ? Enquête sur une discipline en plein questionnement, De Boeck, Paris-Bruxelles.
  • Friedman Milton (1953), Essays in positive economics, Chicago Press.
  • Galbraith James K. (2009), « Who Are These Economists, anyway? », Thought & Action, Fall, p. 85-97.
  • Husson Michel (2008), Un pur capitalisme, Page deux, Lausanne.
  • Jorion Paul (2007), Vers la crise du capitalisme américain ?, La Découverte, Paris.
  • Keynes John Maynard (1936 [2005]), La théorie générale de l’emploi, de l’intérêt et de la monnaie, Payot, Paris.
  • Krugman Paul (2009), « How Did Economists Get It So Wrong? », New York Times, 2 septembre.
  • Lordon Frédéric (2008), Jusqu’à quand ? Pour en finir avec les crises financières, Raisons d’agir, Paris.
  • Raveaud Gilles (2010), « Les anti-Keynes sont de retour », Alternatives économiques, n° 293.
  • Stiglitz Joseph (2002), La grande désillusion, Fayard, Paris.
Mis en ligne sur Cairn.info le 01/12/2010
https://doi.org/10.3917/rfse.006.0003
Pour citer cet article
Distribution électronique Cairn.info pour La Découverte © La Découverte. Tous droits réservés pour tous pays. Il est interdit, sauf accord préalable et écrit de l’éditeur, de reproduire (notamment par photocopie) partiellement ou totalement le présent article, de le stocker dans une banque de données ou de le communiquer au public sous quelque forme et de quelque manière que ce soit.
keyboard_arrow_up
Chargement
Chargement en cours.
Veuillez patienter...