Lucien Karpik, L’économie des singularités, Gallimard, 2007, coll. « Bibliothèque des sciences humaines », 373 p.
1Jean GADREY
2CLERSE-IFRESI, Université Lille 1
4L’analyse du mode de fonctionnement des marchés, de la détermination des prix et des quantités échangées, est en principe prise en charge par la théorie économique néoclassique. Cette dernière a connu de très nombreux développements au fur et à mesure de l’expansion de marchés où s’échangent des produits « complexes » ou « différenciés », au sens où leurs « caractéristiques » techniques relèvent des dimensions très nombreuses. Dans cette approche « standard renouvelée », les clients n’achètent pas des biens, ils achètent des caractéristiques. Ces dernières sont valorisées par le marché et il est possible, par des méthodes économétriques, d’en repérer les prix (implicites). Il devient par exemple possible de savoir ce qui, dans l’évolution du prix observé des biens complexes, relève d’une « vraie » augmentation (ou diminution) des prix à qualité identique, et ce qui tient à des variations de cette qualité multidimensionnelle. L’opérateur de cette mise en équivalence est le marché lui-même. C’est lui qui révèle les préférences des acheteurs, et il suffit de bien l’observer pour en déduire les caractéristiques recherchées et les prix correspondants. La calculabilité triomphe apparemment. Avec l’assistance indispensable du marché comme instrument de mesure.
Des produits différenciés aux singularités
5En rendant visible une « économie des singularités », Lucien Karpik montre qu’il existe des marchés qui échappent totalement à de tels raisonnements, parce que les biens ou les services qui sont recherchés ne sont pas des produits différenciés mais des « singularités ». Leur qualité ne résulte pas d’un ensemble de caractéristiques techniques, observables et commensurables, mais d’un jugement global en situation de forte incertitude initiale. Sur de tels marchés, on est en quête d’un « bon » ou d’un « grand » vin, d’un bon avocat, d’un bon disque ou d’un bon film, d’un séjour touristique globalement réussi, et de bien d’autres sources de félicité esthétique ou culturelle. Mais on cherche aussi à y résoudre des problèmes cruciaux tenant à la santé, à l’éducation, à la défense de droits, etc.
6Dans le cadre néoclassique, ces marchés devraient disparaître, du fait d’une incertitude trop forte sur la qualité. Mais, nous explique Lucien Karpik, le « jugement » peut prendre le relais du calcul, si des « dispositifs » adéquats existent pour assister le consommateur dans l’exercice de choix qui restent raisonnés et réflexifs. Pour l’économie dominante, de telles singularités sont considérées comme des exceptions marginales au regard des grands marchés contemporains. Après tout, les « grands vins » et les services d’avocats ne sont pas le pain quotidien des catégories populaires. L’un des intérêts de ce livre est de montrer que les singularités sont désormais partout et (presque) pour tous.
Une théorie, et un programme de recherche
7L’intérêt de ce livre ne serait déjà pas mince s’il se contentait de contribuer à rendre visible une économie cachée (sous l’angle de la spécificité de la notion de qualité qui y prévaut), et à multiplier des « études de marchés » dont certaines prennent une forme discursive brillante et captivante. Les marchés de la Neuvième Symphonie, de la chaîne hi-fi et du violon « haut de gamme », mais aussi l’analyse de la puissance et de la concurrence des guides touristiques ou gastronomiques (restaurants, vins) sont ainsi appelés à devenir des classiques du genre. Mais l’accumulation de preuves de l’existence des singularités n’est pas l’objectif central de Lucien Karpik qui entend, sur une base théorique, ordonner cette profusion d’exemples significatifs en mobilisant des concepts appropriés, en particulier celui de « dispositifs de coordination », prenant appui sur une distinction entre trois grands types de dispositifs de jugement : impersonnels substantifs (lorsque les contenus spécifiques des singularités sont mis en avant), impersonnels formels (les classements), personnels (les réseaux). Les dispositifs de jugement, grands repères de l’économie des singularités, sont donc les principaux réducteurs de l’incertitude et du déficit cognitif des consommateurs. On peut les regrouper en cinq catégories : les réseaux, les appellations (labels, AOC, certifications professionnelles, marques), les « cicérones » (critiques et guides, autorités symboliques), les classements hiérarchisés (prix littéraires, palmarès, etc.), et les « confluences » (techniques de mise en valeur sélective sur les lieux de vente). Ce sont des « délégués » des consommateurs.
8La théorie proprement dite de la diversité des régimes de coordination de l’économie des singularités tient dans les douze pages de l’exigeant chapitre 9. Fort heureusement, les tableaux de synthèse des pages 140 et 146 fournissent de bonnes balises dans un univers complexe. Ce qui est ainsi ouvert n’est rien d’autre qu’un vaste programme de recherche sur un sous-continent fort peu exploré des échanges économiques marchands, alors qu’il y occupe une place significative et croissante.
Le marché et la culture
9À l’arrière-plan de cette théorie des marchés des singularités se trouve un « débat de société » récurrent. Il s’agit de la question des risques que fait peser l’extension du marché sur la culture et sur sa diversité. Or, rétorque en substance Lucien Karpik, cette hypothétique antinomie du marché et de la culture, qui fonde aussi bien les discours contre « la marchandisation du monde » que les discours inverses sur la capacité du marché à prendre en charge sans dommage la quasi-totalité des besoins humains, repose sur une confusion : celle qui associe la logique marchande à l’espace du calcul. Dès lors que l’on admet qu’une large fraction des échanges marchands ne peut exister sans l’exercice du jugement et sans ses dispositifs, le problème doit être reformulé autrement : bien des marchés ne semblent pas menacer la culture, et il se pourrait même qu’ils constituent, dans certaines conditions, des vecteurs de développement des singularités.
10Dans un premier temps, la thèse de Lucien Karpik réhabilite donc plutôt le marché (le marché-jugement en tout cas), puisque la liste est longue des singularités liées à la culture et qui ne semblent pas menacées – bien qu’elles s’échangent sur des marchés relativement concurrentiels – par une « désingularisation » affectant leur diversité, leurs qualités esthétiques, leur professionnalisme s’agissant de services personnels, etc. On peut toutefois se poser la question de leur accessibilité sociale, de la capacité de ces marchés et de leurs acteurs – y compris publics – à permettre à un plus grand nombre de consommateurs ou usagers de bénéficier des avantages manifestes de la participation au jeu de la concurrence par la qualité globale plutôt que d’être réduits, par la contrainte budgétaire, à la recherche systématique des prix les plus bas.
11Pour certains marchés des singularités, cette « démocratisation » est évidente. C’est notamment le cas du « régime de l’opinion commune » (celui des palmarès et des hit-parades), mais aussi de plusieurs « marchés-réseaux ». Les choix de consommation fondés sur des croyances communes (par exemple la croyance dans le fait que les meilleures singularités sont les plus vendues) ne marchent pas à la distinction sociale élitiste ou à l’imitation des pratiques culturelles des classes supérieures, mais au contraire au mimétisme généralisé.
Deux menaces sur la culture
12Mais, dans la plupart des cas précédents, il semble bien que l’extension sociale de l’accès au jugement fonctionne avec une forte dissymétrie entre les pouvoirs des entreprises et ceux des consommateurs en matière de contribution aux dispositifs de jugement, ce qu’il faut distinguer des pouvoirs de marché classiques (la capacité d’influer sur les prix). Il existe donc deux menaces que « le marché » peut faire peser sur la culture et sur la démocratie consumériste. D’une part, la menace de la désingularisation appauvrissante et déqualifiante, sur laquelle se concentre Lucien Karpik. D’autre part, à l’intérieur de l’économie des singularités, la domination, sur la formation des dispositifs de connaissance, de pouvoirs économiques excessivement concentrés, maintenant les consommateurs à distance de la construction des marchés et de la qualité, tout en cherchant à les intégrer comme consommateurs d’une offre de symboles « prêts à porter ». Pour simplifier : le monopole de fait sur un dispositif de jugement n’est pas une désingularisation des produits, mais il constitue pourtant une menace, d’une autre nature, qui pèse sur la diversité culturelle.
13Si les dispositifs de jugement sont bien au cœur de la compréhension des marchés des singularités, alors une question cruciale devient celle de la participation des acteurs à leur construction. Si les agents principaux du nouveau capitalisme devaient dominer ces processus à l’excès, le jugement, comme démarche réflexive qui associe valeurs et savoirs, comme « art de faire mobilisant des connaissances », serait tout aussi menacé d’appauvrissement que la culture, non par l’extension du marché en général, mais par la concentration des pouvoirs de construction des marchés.
Michel Aglietta et Laurent Berrebi, Désordres dans le capitalisme mondial, Odile Jacob, 2007, collection « Économie », 445 p.
14Bruno TINEL,
15CES-Matisse, Université Paris1
17À la faveur de la crise asiatique survenue il y a dix ans, la globalisation aurait changé de logique. Les interdépendances entre économies étaient, nous disent les auteurs, jusque là fondées sur la projection du capitalisme américain sur le monde ; projection légitimée par l’idéologie néolibérale que véhiculait le « consensus de Washington », lequel détaillait notamment les contraintes auxquelles devaient se soumettre les pays émergents pour accueillir des investissements étrangers. Avec la crise de 1997, les pays émergents se seraient libérés de la « sujétion de la dette en dollars » et auraient retrouvé leur souveraineté en matière de choix économiques. Désormais, la globalisation devrait être perçue comme « un système d’interdépendances multilatérales, où les puissances émergentes exercent une influence déterminante sur les économies développées » (p. 8). La forte concurrence que ces pays exercent désormais, associée à l’excès de main-d’œuvre sur le marché du travail, résultant de la montée en puissance de l’Inde et de la Chine, induisent une perte de pouvoir des entreprises et des salariés sur les prix. L’excès d’offre de marchandises et de travail mettrait l’économie mondiale dans une situation quasi déflationniste. À cela s’ajoutent des mutations institutionnelles liées à la diffusion du principe de la valeur actionnariale. Toutefois, même si les institutions se trouvent modelées par la globalisation, chaque pays n’en est pas affecté de la même manière car il existe différents types de capitalisme si bien que, en retour, des politiques disparates rétroagissent sur la globalisation. Ainsi, la contradiction entre la concurrence généralisée des économies émergentes, et la disparité des politiques économiques destinées à répondre à la globalisation provoquerait une accumulation de déséquilibres financiers insoutenables, ce qui autorise à imaginer des scénarios possibles d’ajustement où des changements profonds dans les politiques économiques auraient nécessairement lieu.
18Telle est la trame de ce patchwork de plus de 400 pages, qui alterne des passages assez grand public (par exemple les chapitres 5 et 6) et des pages plus ardues (chapitre 3). L’approche se situe d’emblée au niveau des trois principales zones économiques que sont les États-Unis, l’Europe et l’Asie (l’Afrique et l’Amérique du Sud sont absentes du champ d’investigation). Sur le plan de la méthode, la macroéconomie historique est associée à une analyse des transformations institutionnelles dans le monde de la finance et de la banque. Les décisions de politique économique sont à la fois resituées dans leur contexte, y compris idéologique, et appréhendées dans leur impact sur les performances des économies et sur les structures et les interrelations des économies concernées.
19Plus particulièrement, on notera dans la première partie de l’ouvrage, que le troisième chapitre développe de manière inductive, à partir d’une analyse de la corrélation des ruptures de rythmes dans les fluctuations des taux longs et des marchés d’actions, la thèse intéressante selon laquelle les marchés financiers seraient passés d’un cycle « inflationniste monétaire » à un cycle « déflationniste réel ». Ainsi, aujourd’hui, le risque pour les profits serait essentiellement la dérive baissière des prix. De structurellement inflationniste, l’économie serait devenue structurellement déflationniste ; cela aurait dès lors modifié le type de prime de risque de long terme. La démarche est méritoire, mais le résultat apparaît contradictoire avec la notion de régime d’accumulation qu’assument par ailleurs les auteurs. Dans le régime fordiste, la tendance est inflationniste alors qu’ici, la période fordiste est présentée comme étant « réelle », c’est-à-dire déflationniste, ce qui peut caractériser les années 1930 mais pas les quatre décennies suivantes ; d’autant que, dans les années 1940, la tendance inflationniste ne provenait pas des revendications salariales mais d’une insuffisance de l’offre. En outre, on peine à suivre les auteurs lorsqu’ils soutiennent que dans les années 1980, période de brutale désinflation, et les années 1990, « l’inflation étant alors le déterminant majeur de la prime de risque sur le marché des actions, le risque était bien d’origine monétaire » (p. 67). Non seulement l’écart entre le rythme effectif de l’inflation et la prime de risque calculée par les auteurs n’est pas expliqué, mais surtout il devient acrobatique de soutenir d’une part que l’inflation résulte d’un conflit de répartition et, d’autre part, que ce même risque, sur le marché des actions, est d’origine monétaire.
20Pour finir, il convient de relever deux points : en premier lieu, la bibliographie figurant en fin d’ouvrage est un peu maigre au regard des sources mobilisées par les auteurs et, en second lieu, beaucoup de graphiques sont peu lisibles ou incomplets. Malgré ces insuffisances, somme toute mineures, le foisonnement d’idées associé à l’esprit de synthèse rendent la lecture de ce texte stimulante.
Arnaud Berthoud, Bernard Delmas et Thierry Demals, Y a-t-il des lois en économie ? Presses universitaires du Septentrion, 2008, Villeneuve d’Ascq, 647 p.
21Bruno MANTÉ
23Cet ouvrage, issu du 11e Colloque de l’Association Charles Gide pour l’étude de la pensée économique qui s’est tenu à Lille 1, regroupe les contributions de trente-neuf chercheurs, et s’ouvre par la conférence inaugurale du Professeur G. Israël qui propose une interprétation de l’histoire de la pensée assez proche de celle de J. Beaufret. L’ouvrage se clôt par un texte de M. Pouchol sur le rapport entre économie et politique chez H. Arendt. Autant dire que la tentation est forte de rapporter les articles proposés au cadre heideggerien, même si certains auteurs s’en démarquent radicalement.
24La logique d’ensemble apparaît à la lecture de la table des matières : outre l’introduction composée par le texte de la conférence de G. Israël et les interventions de la table ronde, les contributions portant sur les différents aspects de la pensée économique sont organisées par ordre chronologique : xviiie siècle (3 textes), xixe siècle (6 textes), Walras et les néoclassiques (6 textes), xxe siècle (4 textes) ; suivent une conclusion sous le titre « fresques historiques » (2 textes), puis un retour sur la question épistémologique intitulé « thèmes épistémologiques généraux » (7 textes). Un survol rapide pourrait faire conclure à une surreprésentation du xixe siècle aux dépens de la pensée plus contemporaine. Il n’en est rien car les « thèmes épistémologiques » sont l’occasion pour chaque contributeur de présenter le concept de loi dans le cadre d’une théorie : autrichienne (E. Krecké d’une part, J. Turmo Arnal, A. Rodriguez Garcia-Brazales, O. Vara Crespo d’autre part), régulationniste (B. Billaudot, G. Destais, ainsi que R. Boyer dans l’introduction), « institutionnaliste radicale » (N. Postel). On pourrait regretter simplement l’absence d’étude directe sur l’école historique allemande, qui n’est abordée qu’en négatif, lors de discussions portant sur l’école autrichienne, et le fait que la tradition marxiste ne soit représentée que par un seul article, celui de R. Sobel sur Marx lui-même.
25Le choix des coordonnateurs de l’ouvrage, A. Berthoud, B. Delmas et T. Demals, s’explique par la place centrale occupée par la question mathé matique dans la pensée économique. Pouvait-il en être autrement, lorsque la conférence inaugu rale du colloque est confiée à un mathématicien et historien des mathématiques de grand renom ?
La loi comme procédé rhétorique
26Dans cette conférence, G. Israël tente de définir philosophiquement la « loi » à partir d’un historique du concept, étape nécessaire avant tout examen de son utilisation en économie. Dans un tableau de la pensée occidentale, fortement référencé à Heidegger, et qui, on peut le déplorer, laisse de côté toute la tradition démocritéenne, l’auteur oppose la pensée grecque, qui serait « épanouissement, déploiement », au projet moderne du xvii e siècle dans lequel la science va être instrumentalisée au service d’une volonté de maîtrise de la nature, cette transformation étant concomitante d’une mathématisation des théories.
27Cette science dominatrice va se constituer d’abord en science de la nature. Mais pour se constituer en connaissance autosuffisante, elle a besoin de prononcer le désenchantement du monde, la séparation du monde des hommes de celui de Dieu. C. Larrère à son tour, à partir de l’exemple des physiocrates, rappelle à quel point le concept de « loi scientifique » est dérivé de (et a donc à voir avec) l’autorité transcendante de Dieu, ou plutôt sa transcendance autoritaire. Tout comme G. Israël, elle montre que l’expression fonctionne comme une ruse légitimatrice de la science moderne alors naissante, employée tout d’abord par Descartes et Galilée, contre l’hégémonie intellectuelle de la religion : ce terme de « loi », en même temps qu’il affirme la toute-puissance de Dieu, puisque ces lois sont le produit de son arbitraire, affirme parallèlement l’indépendance de la physique par rapport à la théologie, puisque la loi contraint jusqu’à son concepteur. Or, si les lois physiques contraignent Dieu une fois qu’il les a énoncées, combien plus vont-elles contraindre les hommes dans leur comportement ! De là l’utilisation du concept par les physiocrates pour justifier l’effacement de la volonté politique face aux « lois naturelles » du fonctionnement de la société.
28Le texte d’A. Berthoud est plus qu’un exercice d’histoire de la pensée ; c’est une véritable étude épistémologique qui montre, au travers de Montesquieu, comment s’organisent les rapports entre science et idéologie, entre le descriptif (les lois sont intelligibles, c’est-à-dire causalement explicables) et le normatif (elles s’imposent à l’être sous peine de dénaturation), comment la science peut être conçue comme œuvre de libération (« sa notion de loi sera la clé du dispositif anti-despotique ») sans cesser d’être science (« les valeurs sont objectives et s’imposent à chaque société »). Et comment l’appel à la « loi » constitue un moment clé de la rhétorique de Montesquieu, avec un concept de loi divergeant radicalement de celui des physiocrates. Mais l’entreprise de Quesnay, comme le souligne R. Ege, se conçoit aussi comme entreprise de libération, libération des « ténèbres et égarements, confusions et désordres », au travers de l’instruction qui permet de reconnaître les véritables « lois naturelles » porteuses de bonheur, justice et harmonie. Contrairement à Montesquieu, qui trouve la liberté dans l’équilibre des pouvoirs et l’exercice d’une autorité modérée, Quesnay la recherche dans une soumission du politique à l’ordre naturel, rejetant ainsi un pouvoir pluricéphale qui pourrait être porteur de désordres et d’incohérences. Si c’est là une liberté fondamentalement différente de celles de Montesquieu ou de Smith, il est clair que, pour tous ces auteurs, la liberté passe par la reconnaissance de ces « lois ».
29Autrement dit, l’introduction du terme de « loi » pour désigner des vérités d’ordre général a une fonction cruciale dans l’acceptation et la reconnaissance de la nouvelle « science », non pas parce qu’il désigne quelque chose de nouveau, mais parce qu’il sous-entend comme vision globale du monde. La connotation est indissociable du concept, ainsi que l’a montré Castoriadis contre Frege, et elle en arrive à prendre le pas sur la dénotation.
30Ainsi, la « loi » ne dit pas simplement ce qui est, elle n’est pas uniquement disciplinaire, elle informe les tenants des autres disciplines, théologiens ou politiques, qu’il faudra « faire avec ». Elle est d’abord ambiguïté, au carrefour du positif et du normatif. Il est paradoxal alors de penser que l’utilisation du concept de « loi » en physique visait à établir une domination prométhéenne sur la nature, alors qu’en économie le concept aurait été au service d’une libération contre l’aristocratie dominante. À moins qu’il n’ait été que l’outil permettant le remplacement d’une domination par une autre, ce qui peut être une lecture de la thèse de J-T. Ravix : lorsque les économistes libéraux introduiront la notion de loi, ce n’est pas uniquement pour affirmer l’existence de vérités prenant naissance en dehors de l’univers politique, mais c’est pour revendiquer un autre type de gouvernance.
31Ce n’est que dans un second temps qui se situe entre Smith et Ricardo, selon E. Rothschild citant B. Webb, que la « loi » s’adressera aussi aux autres chercheurs de la discipline, là encore pour poser des marques à toute nouvelle option théorique. Dans cette optique, la « loi » tente aussi d’apparaître comme une vérité générale, c’est-à-dire non rattachée à un cadre théorique particulier. Ainsi la « loi de la baisse du taux de profit » (G. Deleplace), la « loi de population » (B. Delmas) ; R. Sobel montre à quel point Marx est ambigu quant à sa « loi de la valeur », et J.-P. Simonin retrace la manière dont la « loi de King » a pu être acceptée (ou rejetée) dans des cadres théoriques divers. Et la façon dont certains économistes ont cherché à transposer la « loi de Kuznets » dans le domaine de l’environnement, uniquement parce que la courbe mathématique qui en résultait était well-behaved, qu’elle avait la bonne forme au regard de leurs objectifs politiques (B. Zuindeau), ne peut que laisser perplexe.
La loi comme vérité
32Outre sa fonction rhétorique, il faut cependant qu’une loi ait une valeur de vérité pour qu’elle soit ainsi reconnue comme telle. Qu’est-ce qui fait qu’une loi est loi ? A. Berthoud, B. Delmas et T. Demals donnent deux « formules » de définition : « Première formule : la loi est un rapport constant entre des termes variables. Seconde formule : la loi est l’énoncé d’une causalité dont l’exercice est identifiable dans des conditions déterminées ». Mais ces deux définitions ne sont pas d’égale valeur car « une réflexion épistémologique ne commence vraiment qu’avec la seconde définition qui lie la notion de loi à la notion complexe de cause ». La première définition donnera naissance aux « lois statistiques », la deuxième, aux « lois scientifiques » ou « lois exactes » chez Menger.
33On pourrait « naïvement » penser en effet qu’une « loi naturelle » doit s’observer sous la forme d’une régularité statistique. L’existence d’« irrégularités » (G. Bensimon) cependant ne doit pas être interprétée comme l’absence de lois. La mise en évidence d’une régularité ne peut se faire que si on peut contrôler les conditions de l’expérience ; or, la clause ceteris paribus n’est jamais réalisée dans l’expérience historique. Ce qui fait dire à Say que la loi économique « n’est pas infirmée par des manifestations contraires, exactement comme « la gravitation » n’est pas infirmée quand une plume joue avec le vent avant de tomber à terre » (F. Etner). Il reste que ce travail de mise en relation statistique peut être fécond lorsqu’il encourage la recherche de causalités, comme nous l’enseigne par exemple l’histoire de la « loi de Pareto » sur la structure des revenus (T. Maccabelli). Pareto identifiait une régularité statistique portant sur la répartition des revenus qui, selon ses observations, se distribuaient en une courbe particulière quel que soit le pays considéré. D’une part Pareto en inférait (abusivement) qu’il ne servait à rien de vouloir modifier la répartition des revenus, car celle-ci reprendrait rapidement sa forme initiale. D’autre part l’intérêt d’une telle observation statistique ne réside que dans la relation qu’on peut établir avec le reste des connaissances, ainsi que le lui écrit de Molinari : « Vous avez montré que les revenus se distribuent suivant une certaine courbe ou figure, et que cette courbe ou figure ne diffère pas sensiblement d’un pays ou d’une époque à l’autre. Mais il me suffisait de considérer les statistiques pour l’apprendre et m’en faire une idée suffisante. Ce qu’il importe de connaître, ce sont les causes qui agissent pour déterminer cette distribution des revenus » (cité par A. Béraud). C’est à ce prix seulement qu’on pourra en inférer des conséquences qui guideront la politique. Le débat pourra alors s’ouvrir entre les tenants d’une loi « naturelle », ceux d’une loi particulière tenant aux institutions, et ceux qui ne voyaient là qu’une coïncidence statistique. Si donc la régularité statistique est le point de départ de la réflexion scientifique, la relation de causalité ne peut provenir que d’une activité intellectuelle de mise en cohérence avec le reste de la théorie, et c’est à ce moment-là seulement que l’on peut parler de loi scientifique.
34Si la loi ne peut être identifiée par l’observation directe, elle doit l’être alors par la méthode déductive, selon les économistes classiques et néoclassiques. C’est la conception de la « loi naturelle » développée par de Molinari (N. Gallois). Tout dépend alors des prémisses, dont certaines peuvent elles-mêmes prendre la forme de loi. Par exemple la « loi de l’économie des forces », donnée sans démonstration car censée représenter une évidence : « le mobile de l’activité humaine est de conserver et, s’il le peut, accroître ses forces vitales afin de se procurer des jouissances et d’éviter des souffrances ». Mais cela suppose, au mépris de toute observation, que l’ensemble du monde soit descriptible en deux catégories : jouissance et souffrance. Or, ces prémisses sont contestables.
35La « science économique » va alors glisser progressivement vers une autre forme de justification : la cohérence logique. Elle va être aidée en cela par l’évolution des mathématiques elles-mêmes vers le formalisme, sous l’influence de Hilbert. J-B. Tun montre comment le mathématicien A. Wald « démontre » la possibilité d’existence de l’équilibre général de façon purement formelle, qui n’engage en rien le concept économique d’équilibre, ni d’ailleurs aucun concept. Un malentendu va alors s’établir entre économistes et mathématiciens, dans la mesure où « l’image que les économistes ont des mathématiques est celle d’une boîte à outils conceptuels ».
36Or, l’explication causale peut-elle se limiter au formalisme mathématique ? C’est à cette question que G. Israël répond résolument non. Paradoxalement, la démonstration peut se faire à partir de la contribution d’un farouche défenseur de la loi économique, G. Bensimon, un texte d’une grande érudition.
La loi comme expression mathématique
37G. Bensimon se réfère au cadre de T. Kuhn, dans lequel il va tenter de traduire dans le langage de la logique mathématique les « lois économiques » de J.-S. Mill. Il commence par définir « l’homme économique » comme l’homme « mû par le désir de richesse » ; c’est là un exercice légitime de « séparation » (P. Mardellat) qui permettra éventuellement d’isoler les effets d’un sentiment particulier sur les comportements. Cette « définition » est pourtant déjà problématique, dans la mesure où la « richesse » n’est pas définie. Or, si on définit la richesse comme ce qui est recherché par l’homme, on aboutit à une tautologie ; si on adopte une définition conceptuelle, alors on ne pourra aboutir à une loi « universelle et abstraite », ce qui est l’objectif de l’auteur, car l’objet du désir variera en fonction du contexte institutionnel. La proposition suivante selon laquelle « l’homme est habité par l’aversion pour le travail » suppose de la même façon que le travail ne soit pas défini par son contenu, mais uniquement par sa relation à l’homme économique, c’est-à-dire ne soit passible que d’une « définition fonctionnelle » ; elle empêche par là toute critique du concept, et inverse la logique de fonctionnement de la science, qui est de découvrir les relations causales entre des objets déjà définis. G. Bensimon part au contraire de la relation causale qu’il veut établir pour définir ensuite de façon ad hoc des objets sur lesquels « ça fonctionne ». Or la pratique croissante d’activités de loisirs telles que le bricolage ou le jardinage prouve suffisamment que ce n’est pas la nature de l’activité qui fait sa pénibilité, mais les conditions sociales de son exercice ; la « loi » qui pourrait en être déduite n’aurait donc aucune vocation à l’universalité. D’autre part, la définition du travail par la pénibilité fait bon marché de toute une tradition sociologique qui, de Marx à Baudelot, en passant par Sainsaulieu, mais aussi, pour le travail domestique, par les travaux de Kaufmann et de Singly, montre que le travail participe de l’identité de l’homme, et peut être source de plaisir, ce qui jette un sérieux doute sur « les lois énoncées par Mill, [qui] constituent le noyau des lois économiques ». De plus, une telle attitude de clôture disciplinaire est en contradiction avec la deuxième « propriété » d’une « bonne théorie scientifique » énoncée par T. Kuhn : « la cohérence, tant interne qu’avec les autres théories généralement acceptées sur des aspects reliés de la nature ».
38La constitution d’une « science économique » construisant sa légitimité sur la seule logique mathématique procède de l’illusion que les mathématiques peuvent dire quelque chose de la réalité. Or elles ne sont qu’un langage formel, c’est-à-dire non conceptuel, si on admet que le concept, dans un sens kantien, est issu de faits d’expérience au travers de l’intuition et de l’imagination. Les mathématiques procèdent ainsi de la raison pure. La relation de causalité, elle, ne peut que concerner des faits de nature, et non des idées de la raison : dans la relation y=f(x), x n’est pas la cause de y ; ce n’est que lorsqu’on donne un contenu conceptuel à x et y, par exemple « prix » et « quantité », ou « taux de chômage » et « taux d’inflation », qu’on peut chercher à établir une relation de causalité. La relation de causalité est donc étroitement liée au concept, c’est une relation irréductible à toute autre forme de relation; elle résulte, comme Schopenhauer l’a montré, d’un choix de relation dans la représentation du monde. Les discussions autour de la « loi de Pareto » (T. Maccabelli) montrent à la fois que la relation de causalité est constitutive de toute science (on ne peut se contenter de la relation statistique, il faut encore l’expliquer), et qu’elle se décide en dehors de l’univers des mathématiques. Un discours qui ne s’appuierait que sur les mathématiques ne serait donc pas une science.
39Comment expliquer alors que l’économie possède « des allures de science » ? C’est que l’expression « est fonction de », en dehors de sa définition mathématique, garde une connotation de causalité dans le langage courant, ce qui peut donner l’illusion que la relation mathématique explique le fait d’expérience.
Conclusion
40Une théorie n’est acceptable que si elle a un sens, c’est-à-dire si elle participe de l’explication du monde réel. Or, le sens se construit sur l’ensemble des connotations que véhiculent les concepts, ce qui est la grande leçon de Frege. Il s’ensuit qu’une théorie purement formelle, mathématique, non conceptuelle, n’aurait aucun sens, et que, pour que l’économie puisse prétendre au rang de science explicative, il lui faut manipuler des concepts. Mais on ne peut, lorsqu’on utilise un concept, en « purifier » la dénotation de toute connotation, ainsi que l’a montré Castoriadis, et nulle « psychanalyse » ni « déconstruction » n’y changeront rien : la mise en évidence des liens qu’entretient ce concept avec le reste de la représentation du monde est utile en ce qu’elle constitue une prise de conscience, mais la recherche d’une représentation globale, d’un sens du monde fait partie du travail naturel de la raison. Une illustration peut en être trouvée dans la tentative de Pareto d’imposer le terme d’« ophélimité », dont l’échec doit être cherché non dans la difficulté de mesurer cette ophélimité ou d’en faire un objet d’expérience, comme le suggère A. Béraud (après tout, il en va de même pour l’« utilité »), mais dans le fait qu’un tel néologisme ne renvoyait pas à grand-chose dans l’imaginaire collectif. Les tenants de l’économie mathématique ont toujours protesté du caractère purement formel de leurs descriptions, tout en utilisant subrepticement les concepts à des fins heuristiques ; un exemple en est donné par Ch. Lavialle dans la façon dont M. Friedman baptise son NAIRU taux de chômage « naturel ».
41L’économie mathématique ne respecte donc en rien la « neutralité axiologique » qui a été le modèle de la scientificité à la fin du xixe siècle. Elle a été par excellence l’idéologie de la modernité. Le très beau texte de M. Pouchol propose un chemin qui, à partir de H. Arendt, permet de relativiser l’économie pour redonner tout son sens à la politique. Une véritable critique de l’économie politique passe par un travail rigoureux sur les concepts, qui n’évacue pas la question du sens. Et ce sens ne se trouve pas dans l’enfermement disciplinaire, mais doit prendre en compte l’ensemble de l’expérience vécue. La description de l’objet réel ne peut se faire qu’à partir d’un point de vue, et c’est la confrontation des points de vue – éventuellement contradictoires mais ayant la même valeur de vérité – qui nous permet de l’appréhender, comme nous l’enseigne la métaphore du cube de Wittgenstein. Accepter de renoncer à une vision de la vérité comme « loi » transcendante, pour reconnaître que la connaissance se construit dans la multitude des expériences et des points de vue, c’est la condition nécessaire pour constituer une science démocratique. « Penser, c’est se limiter à une unique idée qui, un jour, demeurera comme une étoile au ciel du monde » (Heidegger).