1Il est certes tentant, mais aussi aventureux, et quelque peu présomptueux, d’essayer de rendre compte de l’évolution de la macroéconomie à l’occasion du passage à un nouveau siècle. D’autant que le débat contemporain est très ouvert; un certain nombre d’économistes envisagent l’apparition d’une « nouvelle synthèse », alors que, pour d’autres, les développements actuels sont largement controversés…
2Le problème n’est pas nouveau, les débats récurrents. Il y a plus d’un siècle, Charles Péguy, en réponse aux différents détracteurs de l’approche mathématique en économie, se livre à un panégyrique de la méthode incarnée par Léon Walras [1]. Plus près de nous, dans les années 1950, les universitaires français se lamentent sur la « crise de la science économique »; dans un « Que sais-je ? » paru en 1951, Henri Denis dénonçait une crise de la pensée économique, non seulement en France, mais à l’étranger. Presque en même temps, dans la revue Banque [2], Jean Marchal parlait de la « crise contemporaine de la science économique ». Lors d’une de ses dernières interventions, à la fin des années 1980, Henri Guitton rappelait l’étonnement, la difficulté à comprendre la Théorie générale au moment de son apparition : « un étonnement, une difficulté à comprendre un livre qui correspond si mal à la méthode que l’on nous transmettait dans les leçons d’agrégation [3] ».
3Les difficultés d’appréciation, les risques d’erreur ne sont pas réservés aux économistes français. À propos de la surprise occasionnée par la confrontation avec la Théorie générale, Samuelson écrit :
« The General Theory caught most economists under the age of 35 with the unexpected virulence of a disease first attacking and decimating an isolated tribe of South Sea Islanders. Economists beyond 50 turned out to be quite imune to the ailment. With time, most economists in-between began to run the fever, often without knowing or admitting their condition [4]. »
5Plus près de nous, il faut rappeler le propos de R. Lucas qui, en 1980, donnait pour titre à l’une de ses contributions : « The Death of Keynesian Economics »; « One cannot find good, under-forty economists who identify themselves or their work an “Keynesians”. At research seminars, people don’t take Keynesian theorizing serioulsly any more; the audience starts to whisper and giggle to one another [1]. » Si, à ses yeux, aucun économiste de moins de 40 ans n’osait plus se prétendre keynésien, l’oraison funèbre était sans doute prématurée. Bon nombre d’auteurs ont, depuis lors, évoqué l’émergence possible d’une « nouvelle école de la synthèse [2] ». On s’interrogera d’abord sur les grandes lignes de la reconstruction qui est peut-être en cours avant de privilégier un certain nombre de points.
La reconstruction d’un modèle de la synthèse est-elle en cours ?
6C’est donc avec beaucoup de prudence que je vais m’aventurer sur un terrain pourtant apparemment bien balisé de la macroéconomie contemporaine. S’il ne me paraît pas faire de doute que la recherche macroéconomique de ces vingt-cinq dernières années a mis l’accent sur le caractère intertemporel des décisions, sur la construction de modèles d’équilibre général intertemporels stochastiques, la reconstruction d’un modèle intégrée me paraît prématurée.
7Bien entendu, le programme fixé par Hicks en 1965 dans son introduction à Capital and Growth, à savoir l’élaboration d’une explication globale de la croissance et des fluctuations, semble avoir progressé. Il est d’ailleurs remarquable que cette reconstruction n’a sans doute pas suivi complètement le cheminement envisagé par ce même auteur. Dans ce grand ouvrage, Capital and Growth, paru en 1965, aucune référence n’est faite au principe de Pontryagin qui est pourtant devenu, depuis lors, un des « ponts-aux-ânes » de l’analyse de la croissance et des fluctuations ; plus étonnant encore, aucune allusion non plus dans l’ouvrage, postérieur de vingt ans, Methods of Dynamic Economics (1985). L’utilisation généralisée du principe de Pontryagin a pourtant joué un rôle important en la matière; elle a permis de passer de la comparaison de régimes permanents à une analyse de la dynamique transitionnelle; en outre, on a pu montrer que certains problèmes, qui apparaissaient centraux dans la première optique, devenaient de mesure nulle dans la seconde [1].
8Pendant longtemps cependant, comme l’ont noté T.F. Cooley et E.C. Prescott, « The generally accepted view was that we needed one theory to explain long-term growth and a completely different one to explain short terms fluctuations in output… Modern business cycle theory starts with the view that growth and fluctuations are not distinct phenomena to be studied with separate data and different analytical tools [2]. » Pourtant, les modèles pionniers de cycle réels, ceux de Kydland et Prescott (1982), n’incorporent aucune forme de croissance.
9La nouvelle macroéconomie a notamment pour objectif l’intégration de la croissance et des fluctuations ; elle se préoccupe également la construction de modèles avec des fondements microéconomiques, mais présentant des caractéristiques « keynésiennes » : existence d’équilibres à niveau déprimé, présence de défauts de coordination, de pouvoirs de marchés, de prise en compte des négociations et de l’importance des chocs nominaux. Dans cette reconstruction en cours que l’on ne peut qu’évoquer ici, la référence à l’hypothèse d’anticipations rationnelles apparaît fréquemment retenue, au moins à titre de commodité, « faute de mieux »; la distinction entre équilibre « déterminé » et « indéterminé » apparaît centrale pour le traitement sophistiqué des problèmes de « croyances ». Par ailleurs, le souci de confrontation avec les faits sur la base de l’étalonnage et de la simulation stochastique du modèle théorique, même s’il a suscité bien des débats, témoigne bien du souci croissant de « coller » à la réalité. Comme le note J.O. Hairault, « le courant des cycles réels a imposé une définition quantitative des fluctuations économiques : le niveau des variances, des auto-corrélations et des corrélations croisées doit permettre en effet de quantifier les caractéristiques qualitatives que sont les phénomènes de variabilité relative, de persistance et de co-variation [3] ». Le paradoxe n’est pas mince de voir apparaître, sous une forme renouvelée, la discussion ouverte par N. Kaldor concernant les « faits stylisés » que les théoriciens devaient s’efforcer d’expliquer [4].
10Puisqu’un choix s’impose, il m’a semblé utile d’attirer l’attention sur certains thèmes qui m’ont paru significatifs. Le premier concerne la prise en compte du chômage dans les modèles macroéconomiques. Le second concerne l’analyse de la différenciation dans le système productif. Poursuivant cette prise en compte de l’hétérogénéité des secteurs, puis des agents, un troisième point soulignera les insuffisances actuelles du traitement du comportement des agents dans la macroéconomie contemporaine, renouant ainsi avec le thème du « sophisme de composition », des « fondements micro de la macroéconomie ».
La prise en compte du chômage dans les modèles macroéconomiques : taux de chômage « naturel » ou taux de chômage « d’équilibre » ?
11Un débat récurrent, celui de la définition du « chômage involontaire », qui a mobilisé beaucoup d’énergie au cours des quelques décennies qui suivirent la parution de la Théorie générale..., semble s’être modifié dans les années récentes. Il me semble, pour faire vite et sans doute fort, que ce problème est jugé trop difficile pour les uns (les keynésiens de stricte obédience...), inintéressant pour les autres... On pourrait, à ce propos, s’interroger sur le point de savoir s’il s’agit d’une « deuxième mort de Keynes », pour signaler que cette mort avait déjà été annoncée par R. Lucas en 1980. Les grands économistes sont parfois comme les hommes politiques, il leur arrive de renaître, ou de connaître plusieurs réincarnations… Par ailleurs, il est clair que la théorie du « chômage-vacances » n’est plus sérieusement soutenue par personne et que R. Lucas a, dès 1987, lui-même largement abandonné cette hypothèse fondée sur des problèmes d’imperfection de l’information [1].
12L’intégration du chômage dans les modèles d’équilibre général a été profondément renouvelée. Selon J.O. Hairault (art. cité), les travaux récents de Pissaridès, Blanchard et Diamond donnent des fondements microéconomiques au concept de chômage d’équilibre; il existe sur le marché du travail des frictions modélisées par un processus d’appariement et une négociation des salaires. Ces hypothèses sont intimement liées : d’une part, un travailleur recruté par une firme jouit d’un pouvoir de négociation et, d’autre part, il est coûteux pour l’entreprise de rechercher un autre travailleur. Les fluctuations du chômage résultent des interactions entre flux d’embauche et de sortie de l’emploi, les variations des salaires et la dynamique du capital…
13On peut, dans ces conditions, revenir sur les propos, considérés parfois comme scandaleux de N.G. Mankiw qui, en 1992, écrivait :
« Sur cette question (l’arbitrage de long terme entre l’inflation et le chômage), Milton Friedman (1968) a gagné le cœur et l’esprit de ma génération : dans la plupart des modèles de la nouvelle économie, la courbe de Phillips de long terme est verticale. De façon surprenante peut-être, la victoire intellectuelle de l’hypothèse de taux naturel n’a pas débouché sur un consensus parmi les macroéconomistes sur la relation entre l’inflation et le chômage [2]. »
15S’agit-il véritablement d’une victoire intellectuelle de l’hypothèse de taux de
chômage naturel ? Il me semble que l’on a eu tendance à confondre deux
concepts, proches, mais non identiques, celui du « taux de chômage naturel » à
la Friedman-Phelps et le taux de chômage d’équilibre, défini par la condition
d’équilibre des flux et de sortie du chômage, soit avec des notations classiques :

où q est le taux de destruction d’emplois, la variable de tension sur le marché du travail ? = Vt /Ut étant le rapport entre le nombre d’emplois vacants et le nombre de chômeurs, m ( ? ) étant la fonction d’appariement supposée à rendements d’échelle constants.
16L’explicitation des fondements du taux de chômage naturel par le taux de chômage d’équilibre est clairement faite dans l’ouvrage de R. Barro [1]. Ce concept renvoie à la courbe de Beveridge, relation décroissante entre postes vacants ( v ) et taux de chômage ( u ) dont la place dans le plan ( v, u ) témoigne de la plus ou moins grande efficacité du processus d’appariement. On rappellera, à ce sujet, que Beveridge, inventeur de la courbe qui porte son nom, avait défini le plein emploi comme la situation où il y avait égalité entre le nombre de chômeurs et le nombre de postes vacants [2]; ce qui constitue, évidemment, une définition du taux de chômage d’équilibre fort différente de la définition du « taux de chômage naturel » de type Friedman-Phelps ; le niveau de ce taux de chômage d’équilibre varie suivant l’efficacité du processus d’appariement.
17En fait, il y a bien deux définitions, permettant l’une et l’autre l’intégration de l’analyse du chômage dans la modélisation macroéconomique. Ces deux définitions renvoient à deux types de courbe : courbe de Phillips, d’une part, courbe de Beveridge, d’autre part. Et le débat sur la stabilité de la courbe de Beveridge est peut-être en train de remplacer celui sur la stabilité ou l’instabilité de la courbe de Phillips qui avait mobilisé beaucoup d’énergie depuis quatre décennies.
18Je n’en veux pour illustration qu’une récente communication de R. Solow [3] qui s’appuie sur la stabilité de la courbe de Beveridge dans les pays européens pour mettre à mal les explications du niveau de chômage en Europe à partir des rigidités du marché de l’emploi. Le thème des destructions et des créations d’emplois est alors prioritaire; c’est lui qui explique les mouvements de la courbe de Beveridge. D’une certaine manière, en ce qui concerne le traitement du chômage, ceci n’est-il pas une revanche (posthume bien évidemment) de Schumpeter sur Keynes ?
L’hétérogénéité du système productif
19L’approche à la Leontief-Sraffa-von Neumann, le débat sur la théorie du capital, la querelle des deux Cambridge, les protestations de J. Robinson sur l’inanité du recours à la fonction de production agrégée n’avaient guère atteint les développements de la modélisation d’agent représentatif à durée de vie infinie ou de générations imbriquées. Certes, Benhabib et Nishimura [1] avaient déjà signalé que la prise en compte de la pluralité de secteurs donnait la possibilité de dynamique « complexe », « chaotique » dans des modèles de croissance optimale à durée de vie infinie. Mais ces développements restaient un peu secondaires. C’est à propos et à partir des modélisations de la croissance « endogène » qu’apparaît un double renouvellement de l’approche.
20La première prise en compte de la pluralité des biens se fait à partir de l’approche développée par Dixit-Stiglitz; les innovations sont « horizontales » chez P. Romer [2] qui introduit dans le domaine de la croissance certains concepts empruntés au domaine de l’économie publique : le degré de rivalité, d’une part, celui d’exclusion d’usage, d’autre part. Pour P. Romer, « le cas intéressant pour la théorie de la croissance est l’ensemble des biens qui sont non rivaux et aussi à usage exclusif ». La technologie, la conception d’un produit nouveau, est un input non rival; une fois le logiciel inventé, il peut être copié pour un coût marginal très faible. « Si un input non rival a une valeur productive, alors la production ne peut pas être une fonction à rendements d’échelle constants de l’ensemble des inputs ; il n’est pas nécessaire de dupliquer les inputs non rivaux pour doubler la production. » On voit apparaître une prise en compte de la diversité du système productif, le bien de consommation étant produit dans des conditions concurrentielles, alors que les inputs intermédiaires sont produits en situation de monopole, le taux de marge étant fonction des paramètres de la fonction de production.
21Dans cette optique, la croissance se manifeste par la diversification croissante des biens de production, ceux-ci restant éternellement en usage. Les innovations deviennent « verticales » dans l’optique d’Aghion et Howitt, d’une part, de Grossman et Helpman, d’autre part, avec apparition d’« échelles de qualité », les biens nouvellement produits rendant obsolescents les biens plus anciens. On semble ainsi renouer avec les thèmes schumpeteriens [3], la « destruction créatrice » jouant un rôle central dans la dynamique. Des développements intéressants ont été apportés dans l’article de G. Evans, S. Honkapohja et P. Romer [4] qui, dans un modèle avec complémentarités des biens capitaux, font apparaître des possibilités de cycles où l’économie oscille entre des périodes de croissance lente et rapide.
22La prise en compte d’« échelles de qualité », pour intéressante qu’elle soit, ne me paraît qu’une amélioration du vieux modèle de Solow-Tobin-Von Weizsäcker-Yaari sur les vintage models avec endogénéisation des moments d’apparition de l’innovation. L’innovation dans le modèle est importante, elle ne paraît pas décisive; il y a bien prise en compte de la diversité des biens, non de la complexité des relations inter-sectorielles ; le problème, central à mes yeux, des détours de production, n’est pas posé de façon suffisante. Le bien de consommation est certes produit à l’aide d’inputs de qualités différentes, de camions et d’ordinateurs, mais la manière dont les ordinateurs contribuent à la production des camions n’est pas posée.
23Ce thème est abordé, de façon accessoire, par Lucas (1988) et par les formalisations de Rebelo (1991) et Barro et Sala-y-Martin. Rappelons que ces
derniers envisagent une économie à deux secteurs, le premier produit un bien
composite (noté Y) utilisé à la fois pour la consommation et le capital physique,
le second du capital humain (noté H). v et u représentant respectivement les
proportions selon lesquelles le capital physique et le capital humain sont alloués
au premier secteur, le système est représenté habituellement comme suit :

Cette deuxième équation ne constitue, on le sait, qu’une généralisation du modèle de Lucas-Uzawa où v = 1 et H? + ?H = B ( 1 ? u ) H.
24La modélisation plus générale utilisée par Rebelo et Barro/Sala-y-Martin nous semble particulièrement intéressante puisqu’elle introduit la possibilité de détours de production : le bien composite (capital physique) est produit à l’aide de lui-même et de capital humain; en outre, dans cette version, le capital humain est produit à l’aide de lui-même et de capital physique. Il y a bien ici apparition de plusieurs secteurs (de deux), de détours de production complexes puisque le système productif est ici indécomposable. Il convient maintenant d’en dérouler les conséquences en ce qui concerne d’abord les caractéristiques du régime permanent, ensuite les problèmes proprement dits d’instabilité qui en découlent. On signalera d’abord la disparition du rôle traditionnel du travail; plus exactement, le travail (non qualifié) n’est plus que le support de qualification, de capital humain. On voit ainsi apparaître une différence tout à fait importante entre l’approche traditionnelle du type Y = F ( K, L ) où L est le travail non qualifié, input primaire, et l’approche avec prise en compte du capital humain avec apparition de deux secteurs et de deux types de biens capitaux. La rémunération spécifique du facteur travail disparaît; le capital humain est rémunéré comme l’est le capital physique (sous les hypothèses standard d’égalité des taux de rémunération des différents types de capitaux). Par ailleurs, les limites à la croissance, fondées dans les modèles traditionnels sur le taux de croissance de la population active et (éventuellement) les progrès de productivité, disparaissent ici. On retrouve, à certains égards, la problématique de von Neumann, production de robots à l’aide de robots.
25Le rapprochement demande à être précisé puisque le cadre des modèles « linéaires » de production renvoie évidemment à des fonctions de production à facteurs complémentaires, alors que les modèles à capital physique/capital humain utilisent des fonctions de production à facteurs substituables ; sauf que, dans le cas Lucas-Uzawa, on a bien linéarité dans la production de capital humain et que, en outre, et c’est là le plus important, les caractéristiques du régime permanent de croissance avec capital physique et capital humain renvoient à un... jacobien, matrice qui, suivant les cas, peut être décomposable ou indécomposable.
26Ces caractéristiques du jacobien déterminent la productivité marginale du
capital (fixées dans le modèle de Lucas par les conditions de production du
capital humain, seul bien « fondamental » du système de production); il s’agit
de la valeur propre dominante de la matrice du système. On rappellera que, dans
les systèmes « linéaires », le taux de profit maximal R et le taux de croissance
maximal G étaient simultanément déterminés par les équations :

Ce sont ces mêmes caractéristiques du régime permanent de croissance qui déterminent les conditions de croissance du régime de croissance endogène. Cependant, il est clair que, dans le cas de croissance endogène, le taux de croissance est déterminé par différence entre la productivité marginale du capital et le taux d’actualisation, alors que ce dernier est nul dans les régimes de croissance envisagés ci-dessus, puisqu’il s’agit uniquement de comparaison de régimes permanents.
27La comparaison avec des modèles un peu différents peut être intéressante. Certes, un modèle bien composite-capital humain n’est pas moins général qu’un modèle blé-fer, mais il ne l’est pas plus. Le modèle d’Uzawa-Lucas gagne à être rapproché du modèle « traditionnel » ( ?) blé-fer où la production de blé nécessite du fer, mais où celle de fer ne nécessite pas de blé. Dans le cas plus général envisagé par Rebelo-Barro et Sala-y-Martin, le système est indécomposable. En outre, il pourrait être opportun, mais évidemment au prix d’une complexité accrue, d’envisager le cas où l’on a plus de deux secteurs de production.
28On sait que, dans ce genre de modèles, le régime permanent s’obtient à la suite de l’égalisation des taux de rendement des deux sortes de biens capitaux. Dans le modèle fondateur de Lucas, l’ajustement se fait par convergence vers le taux de rendement fixe introduit par la linéarité caractérisant la fonction de production du capital humain.
29De façon très générale, le problème de la stabilité du régime permanent de croissance endogène est apprécié à partir de l’évolution du rapport des prix du capital humain au capital physique. On démontre qu’il y a stabilité à condition que la production du capital humain soit relativement moins intensive en capital physique (bien composite) que la production de bien composite. Comme ce fait semble avéré, l’autre cas, qui apparaît moins pertinent, n’est en général pas traité. Barro et Sala-y-Martin se contentent de signaler que, dans ce cas, il y a instabilité [1]. En conséquence, il est permis de s’interroger sur les caractéristiques (stabilité/instabilité) de modèles plus généraux où l’on ne contenterait pas des deux sortes de biens capitaux envisagés précédemment.
30On peut montrer alors que des dynamiques complexes peuvent apparaître, alors qu’elles sont exclues dans le cas standard de modèles à agent représentatif à durée de vie infinie avec un seul bien [1].
Renouveau du « sophisme de composition » ?
31Sophisme de composition, agent représentatif, fondements microéconomiques de la macroéconomie : tel est le troisième axe autour duquel je voudrais centrer ma réflexion puisqu’il me semble qu’un certain consensus soit en train de naître sur ce thème, même si les difficultés qu’il soulève sont loin d’être résolues.
32Le terme même de « sophisme de composition » semble avoir été forgé par P.A. Samuelson qui, en 1955, le définit ainsi : « Fallacy of composition : a fallacy in which what is true of a part is, on that account alone, alleged to be also true on the whole. [2] » Le problème du passage de l’individu au groupe est déjà posé par J.R. Hicks : « But economics is not, in the end, much interested in the behavior of single individuals. Its concern is with the behavior of groupes. As study of individual demand is only a means to the study of market demand [3]. » Hicks étudie alors les propriétés de la demande de marché et écrit :
« (1) Since all the individual substitution effects go in favour of increased consumption of the commodity whose price has fallen, the group substitution effect must do also; (2) Individual income effects are not quite reliable in direction; therefore group income effects cannot be quite reliable either. »
34Ces propositions ont eu plusieurs prolongements. Je me bornerai ici à signaler deux d’entre eux. En 1983, W. Hildenbrand [4] reprend le problème posé par Hicks en disant que si la première partie de la proposition est correcte, la seconde est moins assurée qu’il n’y paraît. L’effet de revenu moyen est toujours négatif si, par exemple, il y a une répartition uniforme de la dépense des individus.
35Il en conclut que l’agrégation de fonctions de demande individuelle sur un grand groupe d’individus peut conduire à des propriétés de la fonction de demande de marché F que ne possèdent généralement pas les fonctions de demande individuelle f. Il y a donc, pour reprendre les termes de l’auteur, une qualitative différence entre les fonctions de demande individuelles et la fonction de demande de marché. Ceci montre que le concept d’agent représentatif, souvent utilisé dans la littérature loin de simplifier l’analyse, apparaît comme trompeur.
36Le problème a été repris par J.M. Grandmont [1]. De façon très générale, une dispersion suffisante dans les caractéristiques des agents permet d’engendrer des régularités macroéconomiques. D’une certaine manière, les conclusions de cet article sont, aux dires mêmes de l’auteur, réconfortantes. Il est en effet possible de retrouver les régularités escomptées sans autre hypothèse que l’homogénéité (l’absence d’illusion monétaire) et la loi de Walras (l’accord avec les contraintes de budget individuelles). C’est, bien entendu, réconfortant puisque les caractéristiques de l’équilibre général sont plus robustes que prévu... Mais il y a en même temps, en quelque sorte, « embarras de richesse » : quelle nécessité du postulat de rationalité individuelle ? Ce postulat n’est pas aussi nécessaire que l’on pourrait croire à la construction d’une solide macroéconomie quantitative... L’embarras grandit si on rappelle qu’il est connu (à partir des travaux de Mantel, Sonnennschein, Debreu...) que la fonction de demande nette peut avoir n’importe quelle forme même si l’on fait les hypothèses habituelles. Bref, il y a peu de chances pour que l’on retrouve les caractéristiques du système permettant d’assurer l’unicité et la stabilité de l’équilibre concurrentiel.
37À titre de compléments, et pour enrichir et éclairer le propos, je voudrais me référer à deux exemples qui permettent de préciser les difficultés qu’il peut y avoir à passer de l’individuel au global.
38Un premier exemple concerne les asymétries dans les coûts d’ajustement de facteurs [2]. L’observation selon laquelle le niveau général des prix est plus rigide à la baisse qu’à la hausse avait conduit beaucoup d’auteurs à imputer la responsabilité de cet état de fait à des asymétries au niveau de la firme. R. Caballero développe l’idée selon laquelle des asymétries au niveau de la firme n’impliquent pas des asymétries entre les mouvements à la hausse et à la baisse du niveau général des prix. La clé de l’explication réside dans la relation négative entre taille et fréquence des ajustements. Quelques précisions sont sans doute utiles.
39L’asymétrie au niveau micro prend la forme très simple suivante : pendant la période d’expansion, la firme embauche deux fois moins de salariés qu’elle n’en licencie en période de dépression. On suppose, en outre, que la probabilité choc favorable/choc défavorable est de 50/50. On converge en probabilités vers un état où les créations d’emplois sont deux fois plus fréquentes que les destructions même si, lorsqu’elles se produisent, elles sont deux fois moins importantes. Il existe ainsi une très forte asymétrie au niveau microéconomique. La transposition au niveau macroéconomique est-elle immédiate ? La réponse est négative. En effet, pour que l’asymétrie constatée au niveau micro se retrouve au niveau macro, il faut : a) que toutes les firmes aient le même comportement (les mêmes règles de décision et d’embauche), b) qu’elles aient la même situation initiale, et enfin c) qu’elles soient affectées par des chocs identiques.
40Si on envisage que les chocs soient distribués de façon indépendante entre les firmes, on peut montrer alors que l’on converge vers un régime permanent où créations et destructions d’emplois sont identiques. Ainsi, en l’absence de fluctuations globales, le nombre de créations et de destructions d’emplois qui apparaît au niveau macro n’a rien à voir avec les asymétries du niveau micro. Le cas le plus intéressant pour le macroéconomiste est celui de chocs « globaux », de corrélation positive mais imparfaite des chocs sur les firmes. Dans ce cas, la relation entre la distribution de probabilités au niveau de la firme et le comportement constaté en coupe instantanée est plus subtil; d’une part, il n’est pas certain qu’un régime permanent apparaisse; d’autre part, il apparaît dans bien des cas – et en particulier quand l’hétérogénéité est suffisamment forte – que les distributions qui apparaissent en coupe instantanée tendent à défaire les asymétries microéconomiques.
41Un deuxième exemple concerne la pertinence empirique de l’hypothèse de revenu permanent de M. Friedman. Un paradoxe important a été mis en évidence, à savoir l’« excès de lissage » : le revenu d’activité apparaissait comme une marche aléatoire, alors que la consommation était beaucoup plus « lisse ». R. Clarida a résolu la difficulté en introduisant un modèle de type cycle de vie et en prenant en compte une répartition des agents à différentes étapes dans le cycle de vie. L’intuition est la suivante :
« Shocks to per capital labor income that are permanent from the perspective of the econometrician are not permanent to individual workers… The economy’s aggregate propensity to consume out of permanent changes in labor income is an average of the mpc’s of all working age cohorts. I show that for plausible demographic assumptions, the variance of changes in per capita consumption predicted by a properly aggregate life cycle model is substantially less than is implied by the representative agent permanent income hypothesis when shocks to per capita labor income are permanent [1]. »
43La prise de conscience de ces difficultés que je n’ai pu évoquer que trop rapidement ne signifie pas que la résolution soit facile. Pour la clarté de l’exposé, je distinguerai trois voies.
- La première signifierait l’abandon du recours à toute hypothèse de rationalité; le macroéconomiste se contenterait de dégager des régularités macro-économiques, statistiques. Le problème étant justement, dans bien des cas, d’expliquer des irrégularités, des discontinuités, cette voie me semble être une... impasse.
- L’autre voie, proposée en particulier par les premiers travaux de Hildenbrand et Grandmont, serait de rechercher des voies de passage entre le niveau microéconomique et le niveau macro pour mieux définir le cadre d’hypothèses et de restrictions dans lesquels le recours à l’agent représentatif ne pose pas trop de problème : hétérogénéité sur les distributions dans les niveaux de dépense pour Hildenbrandt, suivant les préférences pour J.M. Grandmont, suivant les distributions par âge pour R. Clarida.
- Une troisième piste serait l’exploration des phénomènes d’interaction [1] entre agents. Dans un intéressant article, James B. Ramsey [2] propose de distinguer trois niveaux d’analyse : le niveau microéconomique, le niveau macro et enfin le niveau mésoscopique où apparaîtraient des fluctuations autour du niveau macroéconomique, fluctuations découlant au niveau macro des interactions entre comportements microéconomiques.
45Une illustration intéressante concerne la modélisation du comportement d’un gaz contenu dans un récipient, un cylindre par exemple : pour modéliser les propriétés, la température et la pression du « gaz » sont des variables « macro », mais les positions, les moments, les énergies des molécules élémentaires sont des variables d’un type différent. Pression et température sont bien des mesures de l’état global du système; ce ne sont pas simplement des agrégats, des sommes de composantes individuelles. Le passage d’un à l’autre de ces niveaux nécessite sans doute le recours à des fonctions de distribution, à des équations différentielles stochastiques, les fluctuations du niveau global, des variables « macro » – ce que Ramsey appelle le niveau « mésoscopique » – révélant les interactions au niveau micro.
46Il n’est d’ailleurs pas évident que la variable pertinente à prendre en compte au niveau macro soit la moyenne [3]; des moments d’ordre supérieurs peuvent être plus importants et Ramsey souligne, pour les mouvements des taux de change de l’intérêt de la prise en compte de moments d’ordre 3, la skewness.
47Bref, si le problème du « sophisme de composition », du danger de recours sans précaution à l’hypothèse d’agent représentatif, est bien perçu et présent, les solutions ne sont pas évidentes actuellement. Une tentative intéressante est représentée par la prise en compte des phénomènes de diffusion dans l’article de P. Aghion et P. Howitt [4]. Cet article étudie le processus de diffusion d’une innovation à caractère général (General Purpose Technology). Le modèle développé permet de rendre compte de faits empiriquement établis, en particulier le retard dans la mise en œuvre des innovations fondamentales, l’existence de phases d’accélération dans l’expérimentation de ces innovations et qui se traduisent souvent par un ralentissement de la croissance de la productivité, par un accroissement du chômage et des inégalités pendant les phases de diffusion intensives.
48Même après l’arrivée d’une nouvelle innovation à caractère général, les améliorations sont lentes à se mettre en œuvre, car la mise en œuvre réussie dans un secteur nécessite que les entreprises aient fait des découverts réussies avec peu d’aide à partir de l’expérience réussie des autres. Mais, si cette activité se poursuit pendant suffisamment longtemps, il arrivera un moment où, pratiquement, toute entreprise pourra voir suffisamment d’autres entreprises utilisant la technologie pour que cela justifie leur propre expérimentation.. Ainsi, même si la diffusion d’une nouvelle innovation « à caractère général » se fait sur un laps de temps assez long, la plus grande partie de l’expérimentation coûteuse se fait sur une période relativement brève, durant laquelle il peut y avoir des phénomènes de cascade, de « boule de neige » pouvant éventuellement aboutir à une récession, une crise...
49Si les phénomènes d’interaction entre agents sont à prendre en considération, cela ne peut être fait qu’à partir de comportements microéconomiques. Bref, une macroéconomie sans fondements micro est aberrante, une transposition directe de la microéconomie à la macroéconomie ne l’est pas moins.
50P.S. Cet article est dédié à la mémoire de Louis-André Gérard-Varet, disparu prématurément au moment de la mise sous presse de ce numéro; j’ai eu le plaisir de travailler avec lui d’abord au sein de l’université de Paris X-Nanterre, puis plus récemment dans le cadre de l’AFSEE où il a joué un rôle éminent. J’ai tenu à lui rendre ici un amical et trop bref hommage.
Notes
-
[*]
MODEM, Université Paris X-Nanterre, 200, avenue de la République, 92001 Nanterre Cedex. Une version préliminaire de cet article a bénéficié des remarques et des suggestions de mes collègues et amis A. Goergen, F. Larbre et P. Llau que je tiens à remercier ici. Bien entendu, et selon la formule consacrée, je garde l’entière responsabilité de ces développements.
-
[1]
La Revue socialiste du 15 février 1897.
-
[2]
Banque, 55, janvier 1951.
-
[3]
Cahiers d’économie politique, 14-15,1988.
-
[4]
« Lord Keynes and The General Theory », Econometrica, juillet, 1946.
-
[1]
R. Lucas, The Death of Keynesian Economics. Issues and Ideas, Chicago, University of Chicago, 1980, p. 18-19.
-
[2]
Cf. la conclusion intitulée : « Vers une nouvelle école de la synthèse », p. 175-190, dans G. Abraham-Frois, Keynes et la macroéconomie contemporaine, Paris, Economica, 1993; cf. également l’introduction à G. Abraham-Frois et F. Larbre, La macroéconomie après Lucas, Paris, Economica, 1998. À titre de références, cf. notamment : N.G. Mankiw, « A Quick Refresher Course in Macroeconomics », Journal of Economic Literature 28, décembre 1990, trad. française dans G. Abraham-Frois et F. Larbre, op.cit.; R.G. King, « Will the New Keynesian Macroeconomics Resurrect the IS-LM Model », Journal of Economic Perspectives hiver 1993, trad. française dans G. Abraham-Frois et F. Larbre, op. cit.; J.P. Danthine, « In Search of a Successor to IS-LM », Oxford Review of Economic Policy, 13,1997, et, du même auteur, « À la poursuite du Graal : le successeur d’IS-LM est-il identifié », L’Actualité économique, décembre 1998. Cf. aussi : E. Malinvaud, « Leçons à tirer de l’expérience de modélisation dynamique dite des cycles réels », Séminaire du MODEM, 1er avril 1999; J.O. Hairault, « Vers une nouvelle synthèse néo-classique », Revue d’économie politique, septembre-octobre 1999; R. Solow, « Towards a Macroeconomics of the Medium Run », Journal of Economic Perpectives, hiver 2000; R.E. Lucas, « Some Macroeconomics for the 21st Century », Journal of Economic Perspectives, hiver 2000.
-
[1]
Cf. G. Abraham-Frois et A. Goergen, « La réalité “fantomatique” du reswitching », Revue d’économie politique, 6,1998; des mêmes auteurs, « Reswitching : a ‘‘Null Measure’’ Phenomenon ? » dans S.B. DAHIYA (ed.), The Current State of Economic Science, Rohtak (Inde), Spellbound Publi., 1999.
-
[2]
« Economic Growth and Business Cycles », dans Th. COOLEY (ed.), Frontiers of Business Cycle Research, Princeton, Princeton University Press 1994, p. 4.
-
[3]
« Les fluctuations conjoncturelles », Economica, 1995, p. 47.
-
[4]
N. Kaldor, « Capital Acccumulation and Economic Growth », dans F. LUTZ (ed.), The Theory of Capital, Londres, Macmillan, 1963.
-
[1]
Cf. R. Lucas, Models of Business Cycles, New York, Basil Blackwell, 1987.
-
[2]
N.G. Mankiw, « The Reincarnation of Keynesian Economics », European Economic Review, 31,1987, trad. française dans G. Abraham-Frois et F. Larbre, op. cit.
-
[1]
La macroéconomie, Paris, Armand Colin, 1987. Le rapprochement est également fait dans G. Abraham-Frois, Économie politique, 6e éd., Paris, Economica, p. 624-625.
-
[2]
Graphiquement, ce taux apparaît à l’intersection de la bissectrice et de la courbe de Beveridge.
-
[3]
« Unemployment in the United States and in Europe. A Contrast and its Reason » CESifo Forum, Munich, printemps 2000.
-
[1]
« The Hopf Bifurcation and the Existence of Closed Orbits in Multisectors of Optimal Economic Growth », Journal of Economic Theory, 21,1979.
-
[2]
P.M. Romer, « Endogenous Technical Change », Journal of Political Economy, octobre 1990, trad. française dans Annales d’économie et statistiques, 22,1991.
-
[3]
Sur ce thème, cf. G. Abraham-Frois, J. Matheron, F. Tripier : « A Neo-Schumpeterian Revival in Macroeconomics ? », dans V. ORATI et S. DAHIYA (eds), The Economic Theory in the Light of Schumpeter’s Scientific Heritage, Rohtak (Inde), Spellbound Publi., 2001.
-
[4]
« Growth Cycles », American Economic Review, juin 1998.
-
[1]
Il est remarquable que, dans ce genre de débat, on retrouve une parenté avec débat très ancien concernant les rapports entre « intensités capitalistiques » des deux secteurs, rapports qui permettent de définir la forme exacte (concave, convexe, ou linéaire) de la courbe salaire-profit aussi bien que la nature des « effets-Wicksell ».
-
[1]
À ce sujet, cf. la synthèse de A. Venditti, « Croissance optimale et fluctuations endogènes », Revue d’économie politique, 5,1996; cf. également J.P. Barinci, « Externalités, équilibres multiples et indétermination dans les modèles d’accumulation de capital », Revue d’économie politique, 1,2000. Une approche différente, explorée notamment par R. Farmer, a consisté à s’interroger sur l’apparion d’« indéterminations » dans les modèles à plusieurs secteurs. Cf. R. Farmer, Macroeconomics of Self-fulfilling Prophecies, Cambridge (Mass.), MIT Press, 2e éd., 1999, chap. 8.
-
[2]
P.A. Samuelson, Economics : an Introductory Analysis, New York, McGraw Hill, 1955.
-
[3]
J.R. Hicks, Value and capital, 2e éd., Oxford, Oxford University Press, 1946.
-
[4]
« On the Law of Demand », Econometrica, 51 (4), juillet, 1983.
-
[1]
Cf. notamment, « Transformations of the Commodity Space, Behavioral Heterogeneity and the Aggregation problem », Journal of Economic Theory, 57,1992.
-
[2]
R.J. Caballero, « A Fallacy of Composition », American Economic Review, décembre 1992.
-
[1]
« Aggregate Stochastic Implications of the Life Cycle Hypothesis », Quartely Journal of Economics, août 1991, p. 854.
-
[1]
Cf. également les travaux d’A. Kirman à ce sujet.
-
[2]
« On the Existence of Macro Variables and of Macro Relationships », Journal of Economic Behavior & Organization, 30,1996.
-
[3]
Cf. la conclusion de W. Hildenbrand et A. Kneip : « Thus, we see that mean current income is a satisfactory explanatory variable if the expectational variable ?t is approximately time-invariant. Obviously, there might be periods with a substantial change in ?t; households migth change their expectation on future income due to events which are not considered up to now. In particular, the evolution of ?t will not be independent of economic policy. thus we are back to the Lucas critique. » (« On Aggregation of Micro-Relations », Revue économique, 3 mai 2000).
-
[4]
« On the Macroeconomic Effects of Major Technological Change », Annales d’économie et de statistique, 49-50,1998.