CAIRN.INFO : Matières à réflexion

1Deux approches sont actuellement très mobilisées pour l’évaluation quantitative des effets des politiques publiques. La première est l’approche expérimentale qui consiste à tester ces effets sur des échantillons d’individus sélectionnés aléatoirement, comme on le fait dans le domaine des essais cliniques. La seconde est l’approche pseudo-expérimentale : elle s’appuie sur la variabilité des politiques passées ou présentes pour approcher les conditions de l’expérimentation aléatoire contrôlée. Elles ont fait l’objet d’une très vaste littérature dont on trouvera des synthèses récentes dans un numéro spécial de la revue Économie & prévision (Givord [2014] ; Bouguen et Seban [2014]). Ces deux approches accordent une attention particulière aux problèmes d’hétérogénéité des populations concernées : il faut la contrôler au mieux pour parvenir à identifier les effets causaux des politiques. Elles partagent également deux autres caractéristiques : le strict appui sur l’observation et le caractère athéorique. Il s’agit en effet d’approches en forme réduite, sans a priori sur les canaux à travers lesquels jouent les politiques. Ces deux caractéristiques sont en rupture avec une autre approche plus traditionnelle de l’évaluation, l’approche structurelle, fondée sur des modèles à fort contenu théorique spécifiant les règles de comportement individuel et, si possible, les interactions entre ces comportements (Roux [2015]).

2La prise de distance vis-à-vis de l’approche structurelle s’explique par les interrogations croissantes sur la valeur prédictive des modèles de comportement qui la sous-tendent. Le développement des approches en forme réduite a d’ailleurs coïncidé avec une certaine remise en cause du paradigme de l’individu maximisateur supposé répondre rationnellement et sans biais informationnel aux politiques qu’il subit ou dont il bénéficie. Les approches expérimentale et quasi expérimentale dispensent de ce type d’hypothèse. Mais, ce faisant, elles restreignent l’objectif par rapport à l’ambition initiale de l’approche structurelle, celle d’offrir aux décideurs des vues globales de l’ensemble des effets des politiques économiques et de pouvoir le faire aussi bien ex post pour des politiques en place qu’ex ante pour apprécier l’opportunité de politiques nouvelles.

3Par nature, les approches pseudo-expérimentales ne peuvent en effet proposer que des évaluations ex post, elles ne délivrent que des messages locaux sur l’impact des dispositifs qu’elles examinent et elles ignorent les effets de bouclage. Ces messages peuvent alimenter l’évaluation ex ante si on néglige ces bouclages et si on accepte de raisonner par analogie ou extrapolation, mais on ne peut jamais être sûr du degré auquel ces hypothèses sont acceptables. Le fait qu’une subvention X s’avère avoir modifié telle ou telle variable d’intérêt Y du montant ΔY sur une sous-population donnée n’implique pas qu’une subvention de montant 2X modifiera Y du montant 2ΔY, et rien ne garantit non plus que l’on retrouvera le même effet ΔY si la même subvention X est appliquée à une autre sous-population ou à l’ensemble de la population. On est encore plus démuni pour anticiper les effets de politiques totalement inédites. On retrouve la hiérarchie de problèmes d’évaluation qualifiés de P1, P2 et P3 par Heckman [2010]. Les méthodes pseudo-expérimentales peuvent traiter une partie des problèmes qu’il dénomme « P1 » et qui consistent à évaluer ex post l’impact de politiques existantes sur les résultats (outcomes) des individus bénéficiaires. Mais elles ne permettent pas de prévoir l’impact de la transposition d’une politique connue à un nouvel environnement (problème « P2 ») et encore moins l’impact de politiques entièrement nouvelles pour lesquelles on ne dispose d’aucune référence préexistante (problème « P3 »).

4Les approches expérimentales n’ont pas cette limite d’être cantonnées à l’évaluation ex post. L’évaluation ex ante est même l’une de leurs raisons d’être : expérimenter les effets des politiques sur de petits échantillons d’individus aussi soigneusement contrôlés que possible, avant d’envisager leur mise en œuvre en vraie grandeur. Mais l’expérimentation ne répond pas plus que la pseudo-expérimentation à la question des effets de bouclage, elle ne peut pas être envisagée pour tous les types de politiques et il y a toujours la question de savoir à quel degré les réactions testées dans un cadre expérimental sont bien représentatives de celles qui prévaudront dans le monde réel.

5Les besoins d’évaluation restent ainsi bien plus larges que ceux que peuvent couvrir l’approche expérimentale et son pendant pseudo-expérimental. Comment y répondre de manière plus complète ? Une première réponse est de revenir aux modèles structurels traditionnels, avec le recul et la prudence qu’imposent les enseignements des approches en forme réduite. Une autre voie intermédiaire, suivant à nouveau Heckman [2010], est de s’appuyer sur des modèles de forme « semi-structurelle » ou « semi-réduite » en tirant parti du fait que l’évaluation ex ante n’a pas forcément besoin de remonter aux paramètres fondamentaux des comportements structurels. On peut se contenter de paramètres de formes intermédiaires évalués en combinant les informations locales fournies par des expériences naturelles suffisamment diversifiées.

6Mais il existe un autre outil qui reste peu, voire pas du tout, mentionné dans ce débat académique, alors même qu’il joue un rôle important dans bon nombre de travaux d’évaluation appliqués. C’est à cet outil qu’est consacré le présent numéro, complémentaire d’un numéro paru fin 2015 dans la revue Économie et Statistique, les deux numéros ayant été articulés autour d’un noyau de contributions à un colloque organisé en mai 2013, en partenariat entre l’ERUDITE, l’Acoss, la Cnaf et l’Insee (Blanchet et al. [2015]). Il s’agit de l’approche par microsimulation. On va rappeler quels sont ses atouts et indiquer comment pourrait évoluer sa position dans ce paysage de l’évaluation des politiques publiques. On verra ensuite comment les différents articles du numéro illustrent ce potentiel.

Microsimulation et autres approches de l’évaluation : quelles complémentarités ?

7La microsimulation partage avec les approches expérimentales et pseudo-expérimentales le fait d’accorder une attention particulière aux questions d’hétérogénéité individuelle. On peut même la créditer d’une certaine antériorité dans ce domaine puisque c’est dès les années 1950 que l’article fondateur de cette littérature (Orcutt [1957]) avait proposé de rompre avec la fiction de l’individu représentatif en reposant le problème de l’agrégation à sa base, à travers la simulation informatique des comportements au niveau le plus fin possible, celui des individus, des ménages ou des entreprises. Les modèles de ce type se sont multipliés depuis plusieurs décennies mais surtout dans la sphère administrative et décisionnelle, et souvent centrés sur les effets comptables « de premier tour » des politiques fiscales et sociales. Il arrive certes que cette littérature s’appuie également sur les enseignements de modèles plus élaborés, par exemple pour le choix des hypothèses d’incidence fiscale, c’est-à-dire l’identification des agents – ménages ou entreprises – sur qui les simulations font reposer les prélèvements (Bozio, Guillot et Lafféter [2015]). Ces modèles restent néanmoins très éloignés de la démarche structurelle et ne soulèvent pas de problèmes conceptuels ou économétriques majeurs. Cela peut expliquer la faible place qui leur est accordée dans la littérature académique.

8Mais il serait réducteur d’en rester là et de cantonner ces modèles à ce type d’usage. Ils peuvent contribuer à une gamme de travaux bien plus large, en se rapprochant de la démarche structurelle et en complémentarité avec les approches expérimentales et pseudo-expérimentales. On peut donner deux exemples polaires.

9Le premier exemple est celui où c’est l’étude des effets redistributifs qui est la motivation première, comme c’est en général le cas dans les domaines fiscal et social. Au-delà des effets comptables, la question est alors d’évaluer comment ces effets redistributifs peuvent être modifiés par les réactions comportementales et leurs interactions. Cela peut être fait en injectant dans un modèle de microsimulation des hypothèses du type de celles que font les modèles structurels. Un enrichissement typique est notamment l’ajout de comportements d’offre de travail. Plusieurs exemples de ce type figuraient dans un autre numéro spécial qu’avait consacré à ce thème la revue Économie & prévision, en 2003 (Legendre, Lorgnet et Thibault [2003]). On gagne encore en crédibilité des messages quand ces hypothèses de comportement peuvent être étayées par les enseignements d’approches expérimentales ou quasi expérimentales : on trouvera des exemples de ce genre de confrontation chez Pronzato [2012] ou Bargain et Doorley [2013]. L’étape suivante est de passer à des modèles microsimulant les bouclages entre ces différents comportements. Cette forme d’enrichissement est plus rare mais pas du tout insurmontable et elle est tout à fait dans la lignée de ce qu’envisageait Orcutt dans son article de 1957. Un atout supplémentaire des modèles de microsimulation pour ce genre d’exercice est la très grande latitude qu’ils offrent pour formaliser les comportements et la façon dont ils interagissent : il n’y a pas besoin de représentation analytique de ces comportements. Le fait que tout soit simulé permet tous les types d’hypothèses, et notamment de faire une large place aux phénomènes de rationalité limitée et d’apprentissage, ce qui rapproche d’un autre courant de modélisation, celui des modèles d’agents (Gaffard et Napoletano [2012]).

10Le cas polaire est celui où c’est plutôt l’étude des réponses comportementales qui est la question d’intérêt, lorsqu’on s’intéresse à des politiques dont le but principal est d’encourager ou de freiner un comportement donné. C’est ce genre de question que se posent en général les approches expérimentales ou quasi expérimentales. Or, comme on l’a indiqué, ces approches font désormais jouer un grand rôle à la question de l’hétérogénéité individuelle. Les politiques affectent les individus de manière sélective, et leurs réponses à ces politiques ne sont pas homogènes : cette hétérogénéité des réactions individuelles aux politiques est au cœur de la difficulté du passage de l’ex post à l’ex ante puisque c’est à cause d’elle que les réponses des individus affectés par une politique donnée ne peuvent pas être extrapolées telles quelles aux individus qui n’ont pas encore été touchés par ces politiques. L’approche par microsimulation apparaît tout à fait appropriée pour des évaluations ex ante qui prennent en compte cette hétérogénéité. Et de cette hétérogénéité découlent ensuite des effets redistributifs qu’il faut mesurer si on veut évaluer l’acceptabilité sociale de ces politiques d’incitation. Par exemple, la mise en place d’une écotaxe va influencer les mobilités et conduire les individus qui peuvent difficilement utiliser des modes de transport alternatifs à subir une baisse éventuellement importante de leur bien-être, qu’ils renoncent ou non à certains de leurs déplacements avec leur mode de transport habituel. C’est typiquement un genre de question à laquelle les modèles de microsimulation peuvent aider à répondre. Face à ce genre de question, ces modèles peuvent même être utilisés deux fois : une première pour évaluer les conséquences à la fois incitatives et redistributives des mesures nouvelles, une seconde pour évaluer des mesures d’accompagnement destinées à limiter leurs conséquences les plus antiredistributives.

11À ces motivations du recours à la microsimulation s’ajoutent deux éléments de contexte qui rendent l’usage de ces modèles plus facile qu’autrefois. Le premier est institutionnel : il s’agit de l’accès croissant aux données individuelles, qu’il s’agisse de données d’enquêtes ou de données administratives. Ces données individuelles sont l’ingrédient de base d’une microsimulation, qu’elle soit statique ou dynamique, puisque la microsimulation consiste en général à faire évoluer ces données microéconomiques observées en fonction des politiques qui sont simulées. Le second est technologique. Le développement des modèles de microsimulation a longtemps été bridé par les coûts de développement et les capacités de calcul. La réduction des coûts de développement peut maintenant passer par le recours à des outils logiciels dédiés, tels que par exemple LIAM-2, logiciel libre qui permet d’abaisser sensiblement les coûts de construction d’un modèle de microsimulation dynamique (De Menten et al. [2014]). Et la capacité de calcul est de moins en moins un problème, a fortiori lorsqu’on peut envisager la parallélisation d’une part importante de ces calculs, en séparant les aspects de la simulation qui peuvent faire l’objet d’une exécution en parallèle et les étapes d’interactions entre agents qui requièrent de synchroniser l’enchaînement des simulations.

12Au total, données et moyens de calcul aidant, on peut espérer le développement de modèles combinant l’ambition des modèles structurels et la description réaliste et détaillée des unités microéconomiques élémentaires qui est la marque de fabrique de la microsimulation, et qui puissent ensuite être confrontés aux enseignements des travaux d’évaluation expérimentale ou pseudo-expérimentale. Les gains à attendre de la confrontation sont à double sens. Les évaluations expérimentales ou quasi expérimentales peuvent contribuer au calibrage des hypothèses de comportement que l’on introduit dans les modèles de simulation et consolider ainsi les évaluations ex ante qu’ils produisent. À l’inverse, les modèles peuvent aider à mieux lire et rationaliser les enseignements de ces évaluations empiriques athéoriques. Le fait que ces différentes approches ne concordent pas spontanément doit être un stimulant plutôt qu’un frein. Le fait qu’une microsimulation « structurelle » n’arrive pas à reconstituer contrefactuellement le résultat d’une évaluation pseudo-expérimentale peut conduire soit à revoir les hypothèses de cette simulation, soit à se réinterroger sur ce qu’a effectivement mesuré l’évaluation empirique, qui ne va pas toujours complètement de soi.

Microsimuler le marché du travail et les politiques d’emploi : trois approches

13Les articles présentés dans ce numéro ne relèvent pas tous de ce programme de recherche. Plusieurs d’entre eux ne font que l’effleurer en restant plutôt du côté de l’évaluation comptable, leur apport consistant à la faire porter sur des domaines inédits tels que la politique du logement, les réformes systémiques des retraites, la taxation de l’héritage. D’autres en revanche s’attaquent directement à des problématiques qui pourraient tout aussi bien être abordées dans le cadre d’estimations structurelles au sens classique du terme, ou faire le moment venu l’objet d’évaluations ex post de type quasi expérimental.

14Tel est le cas des trois premiers articles dont l’autre point commun est de s’intéresser au fonctionnement du marché du travail. Beaucoup de modèles de microsimulation s’intéressent uniquement aux ménages et, dans ce cas, les politiques d’emploi qui sont analysées sont surtout celles visant à stimuler l’offre de travail. Les trois premiers articles de ce numéro se distinguent de cette littérature par la place qui est faite à la demande de travail. C’est d’abord le cas du modèle Ambre récemment développé à l’Acoss et présenté par Cyrille Hagneré et François Legendre. Ce modèle se place totalement du côté de l’entreprise et il est utilisé dans l’article pour la microsimulation ex ante du Crédit d’impôt pour la compétitivité et l’emploi (CICE).

15Pourquoi microsimuler une politique déjà en place dont on peut commencer à envisager des évaluations économétriques ex post ? La raison est que l’on sait par avance que cette évaluation économétrique sera difficile, puisqu’il s’agit d’une mesure générale, ce qui exclut la comparaison pseudo-expérimentale binaire entre demande de travail des entreprises bénéficiaires et non bénéficiaires de la mesure. On peut au mieux approcher cette comparaison binaire en comparant les évolutions d’emploi entre des branches ayant été plus ou moins bénéficiaires de la mesure (Ducoudré, Hayer et Plane [2015]), mais sans pouvoir être sûr que l’on neutralise les écarts de dynamique de l’emploi que l’on aurait observés sans la mise en place de ce CICE et sans pouvoir déduire les effets macroéconomiques de la mesure. La simulation garde donc tout son intérêt. Sa limite sera de reposer sur davantage d’hypothèses que l’évaluation empirique ex post, mais elle donne des points de référence auxquels ces évaluations empiriques pourront être ensuite confrontées. Le CICE a ainsi déjà bénéficié de simulations ex ante à l’aide d’un modèle macroéconométrique (Plane [2013]). Ce qu’apporte la microsimulation est le fait de se placer directement au niveau de chaque entreprise. Les auteurs travaillent même sur un fichier exhaustif de ces entreprises, plus exactement le million et demi d’établissements disponibles dans les déclarations annuelles de données sociales (DADS), qui sont recoupées avec les parts dans les chiffres d’affaires des salaires, des achats et des exportations, calculées à partir des statistiques structurelles d’entreprises. Le modèle basé sur ces données permet d’évaluer les effets du CICE en séparant ses effets sur la compétitivité des entreprises et les effets de substitution entre facteurs de production, principalement entre le travail non qualifié et les autres facteurs de production. Un apport important du modèle est également de prendre en compte une forme d’interaction entre unités microsimulées, puisqu’il intègre un canal indirect d’effets du CICE, celui qu’il a sur le coût des consommations intermédiaires de chaque établissement : cela est fait en complétant le modèle de microsimulation proprement dit par un « prémodèle » basé sur le tableau des entrées intermédiaires fourni par la comptabilité nationale.

16Dans ce premier article, l’entreprise ou l’établissement restent cependant traités en bloc, comme des unités agrégées dont le comportement est conforme à la théorie microéconomique standard de la firme. Le modèle Worksim présenté à la suite par Gérard Ballot, Olivier Goudet et Jean-Daniel Kant adopte une vision différente. Il pousse plus avant la désagrégation puisque l’objectif est de rendre compte de l’ensemble des flux de main-d’œuvre individuels sur le marché du travail : il y a toujours une modélisation du comportement des firmes, mais les unités de base sont cette fois les individus et les postes qu’ils peuvent occuper. Et la modélisation des comportements fait une large place aux hypothèses de rationalité limitée et aux effets d’apprentissage que nous avons mentionnés plus haut : les agents n’optimisent pas, ils suivent plutôt des règles dites de satisficing consistant à ne changer de comportement qu’à l’occasion de franchissements de seuils pour différentes variables d’intérêt. Une contrepartie de la finesse de cette modélisation est le très grand nombre de paramètres qu’il est nécessaire d’estimer : on se place délibérément très loin du principe de parcimonie qui prévaut dans les approches structurelles habituelles ou en forme réduite.

17À titre d’illustration, le modèle est ensuite appliqué à la simulation d’un autre dispositif récent de soutien à l’emploi, le contrat de génération institué en 2013. On sait maintenant que ce contrat de génération n’a pas rencontré le succès espéré (Cour des comptes [2016]). Les évaluations proposées dans l’article n’en restent pas moins très instructives à la fois sur le dispositif lui-même et sur l’apport que pourrait avoir la même méthode appliquée à d’autres politiques.

18Sur le dispositif d’une part. L’écart entre évaluation ex ante et nombre de contrats effectivement conclus est un révélateur du problème de recours ou de take up auquel ce contrat de génération a été confronté, sans doute explicable par sa complexité. Cette problématique du take up est potentiellement présente pour tous les exercices de simulation de prestations. On la retrouve par exemple dans les travaux de simulation du coût budgétaire et de l’efficacité redistributive du RSA (Domingo et Pucci [2014]). Il s’agit d’un facteur qu’aucun modèle ne peut prétendre prévoir a priori et que l’on ne peut donc évaluer qu’ex post. Les simulations du contrat de génération montrent cependant que, quand bien même la mesure aurait bénéficié d’un take up maximal, son impact sur l’emploi serait resté limité, en raison d’effets d’aubaine importants, et avec peu de possibilités d’en renforcer l’efficacité.

19Sur la méthodologie d’autre part. La dernière partie de l’article montre comment la microsimulation permet de générer des comparaisons de trajectoires entre groupes traités et de contrôle de même type que celles auxquelles des évaluateurs ex post procèdent sur données de panel. Cet exemple illustre particulièrement bien les possibilités de confrontation entre résultats des microsimulations et microéconométrie de l’évaluation : en générant des données aussi détaillées que les données micro réelles, on multiplie les possibilités de rapprochement entre modélisation et observation. C’est à la fois le calibrage des modèles et l’interprétation des données observées qui peuvent tous deux gagner à de tels rapprochements.

20La troisième application aux politiques d’emploi et de salaires est celle de Sébastien Mathouraparsad. Il mobilise la microsimulation en association avec un modèle d’équilibre général calculable, ce qui est une autre façon d’y introduire des effets de bouclage. Le champ est celui des départements d’outre-mer et les politiques analysées sont deux des principales politiques visant au soutien de leurs économies, d’une part une taxation de leurs importations mise en place pour protéger leurs emplois locaux (l’octroi de mer) et d’autre part les surrémunérations dont y bénéficie l’emploi public. Ce qui est simulé est la suppression de ces deux dispositifs : on peut voir cela aussi bien comme évaluation ex post des effets qu’ils ont produits que comme simulation ex ante de la politique « nouvelle » que représenterait le fait d’y renoncer. Selon une technique ayant souvent été utilisée dans ce genre de cadre (Cockburn, Savard et Tiberti [2014]), c’est au modèle d’équilibre général calculable qu’il revient d’évaluer l’incidence globale de ces mesures après prise en compte des effets de bouclage, et le modèle de microsimulation a surtout pour rôle de ventiler les effets ainsi obtenus au niveau des ménages, pour évaluer les effets redistributifs de ces mesures. Mais l’imbrication entre le modèle d’équilibre général et le modèle de microsimulation ne se limite pas à une ventilation top down des effets macro vers le niveau micro, car la démarche est itérative. Les effets répercutés au niveau micro sont retraduits en termes macro et réinjectés dans le modèle macro, et ainsi de suite jusqu’à obtention d’un point fixe.

Du financement des études à la taxation de l’héritage : cinq applications aux ménages et aux individus

21Après ces trois exemples centrés sur les politiques d’emploi et faisant une assez large place au comportement des firmes et aux phénomènes de bouclage, le reste du numéro revient à une pratique plus usuelle de la microsimulation, sa mise en œuvre pour l’évaluation de politiques affectant en premier lieu les ménages ou les individus, mais avec l’originalité de couvrir un ensemble de domaines plus large que les questions classiques de fiscalité ou de transferts sociaux. Les modèles sont tantôt statiques, tantôt dynamiques, et les domaines abordés correspondent à différents moments du cycle de vie des individus, de la formation initiale au décès : l’accès à l’enseignement supérieur et son financement, l’accès au logement, la couverture du risque maladie, la retraite et, enfin, l’héritage.

22L’éducation tout d’abord avec le texte de Guillaume Allègre et Xavier Timbeau. L’effet potentiellement antiredistributif de la gratuité de l’enseignement supérieur est bien connu puisque celui-ci profite plutôt aux catégories sociales les plus aisées. Les prêts à remboursement contingent (PARC) sont une alternative possible à cette gratuité : ils feraient reposer le coût du financement sur les bénéficiaires plutôt que sur la collectivité, mais en exonérant les individus qui n’arrivent pas à tirer suffisamment de bénéfice salarial de ces études supérieures. Le dispositif est donc progressif. Mais on peut dire que le mode de financement actuel comporte lui aussi un élément de progressivité puisqu’il est assuré par l’impôt sur le revenu. Analyser ces effets redistributifs nécessite la microsimulation de bilans sur cycle de vie, déjà mise en œuvre sur le même thème dans un numéro précédent de la revue par Courtioux, Gregoir et Houeto [2012], à l’aide du modèle Gaméo de l’Edhec. Les deux auteurs proposent un modèle du même type et simulent quatre dispositifs : le financement par un impôt sur le revenu proportionnel de type CSG, un impôt sur le revenu progressif et familialisé (IR), le système des PARC et un système de prêt étudiant ordinaire. Sur cycle de vie, l’IR ne s’avère pas moins progressif que le PARC. Ce qui limite la progressivité des PARC est que la contribution rétrospective de l’individu au financement de l’enseignement supérieur est plafonnée par le coût de ses propres études, limite qui n’existe pas dans le financement par l’IR. Malgré tout, le PARC a une progressivité relativement élevée, plus élevée que celle d’un mix IR-CSG.

23Le logement ensuite. Marie-Cécile Cazenave, Patrick Domingues et Augustin Vicard utilisent le modèle de microsimulation statique Ines cogéré par l’Insee et la Drees pour évaluer l’effet redistributif de l’avantage HLM, c’est-à-dire le supplément de ressources dont bénéficient les occupants de logements sociaux. Cela suppose de compléter le modèle par une imputation de cet avantage, en reconstituant ce que seraient les loyers acquittés par les ménages concernés s’ils devaient se loger dans le secteur privé. L’avantage HLM a bien les effets redistributifs qui sont attendus de lui : il réduit de 1,3 % l’inégalité de la distribution des revenus, au sens du coefficient de Gini, et il abaisse de 0,5 point le taux de pauvreté monétaire, à savoir la proportion d’individus vivant avec moins de 60 % du revenu médian. Mais cet effet redistributif est limité par le fait que le dispositif bénéficie aussi à des ménages relativement aisés : de nombreux ménages parmi les 50 % les plus aisés profitent d’un logement social et le mode de fixation des loyers tient très peu compte des ressources des locataires. L’article examine alors deux pistes pour remédier à cette limite. La première, techniquement difficile et politiquement délicate, serait la fiscalisation de cet avantage. La seconde serait la modulation des loyers aidés en fonction des revenus des bénéficiaires, en fixant un taux d’effort uniforme appliqué à l’ensemble des occupants de logements sociaux, taux d’effort calibré à 16 % du revenu pour travailler à enveloppe constante : une telle politique doublerait l’impact actuel de l’avantage HLM sur le taux de pauvreté monétaire. Les effets pourraient être encore accrus par la prise en compte d’effets de comportement, par exemple si la modulation des loyers selon le revenu encourage la sortie du parc aidé pour les ménages les plus favorisés.

24Les deux articles suivants traitent de réformes structurelles appliquées aux deux principaux postes de l’assurance sociale, l’assurance maladie et les retraites.

25L’article de Grégoire de Lagasnerie examine une réforme de la prise en charge des dépenses de soins de ville, combinant plafond de reste à charge, franchise et ticket modérateur : totalement à la charge des patients jusqu’à un premier seuil, les dépenses seraient ensuite partagées entre l’assurance maladie et le patient, puis, au-delà d’un deuxième seuil, elles seraient intégralement prises en charge par l’assurance maladie. Un article antérieur (Geoffard et de Lagasnerie [2013]) avait étudié les effets redistributifs d’une telle réforme de manière comptable, à comportements de dépense supposés inchangés. Ce nouvel article réévalue le dispositif en tenant compte de ses impacts sur la demande de soins. La franchise réduit la consommation, le plafond de reste à charge peut l’accroître et le ticket modérateur a un effet ambigu selon qu’il est plus élevé ou plus faible que ceux qui prévalent dans le système actuel. Le problème est de spécifier ces réactions comportementales. La façon dont il est résolu dans l’article illustre une autre manière de combiner la microsimulation et l’une des approches de l’évaluation que nous avons citées, l’approche expérimentale. Les élasticités de la dépense par rapport aux taux de prises en charge qui sont introduites dans le modèle sont en effet issues d’une opération de référence en matière d’évaluation expérimentale randomisée, la RAND Health Insurance Experiment (Newhouse et al. [1993]), qui avait testé dans les années 1970 les réactions d’un échantillon de ménages américains à différents barèmes de prise en charge de leurs dépenses de soins.

26L’article de Didier Blanchet, Antoine Bozio et Simon Rabaté simule pour sa part trois grandes options de remise à plat du système de retraite français. Ce dernier a été beaucoup réformé depuis le début des années 1990 mais jamais dans le sens d’une réforme structurelle visant à en simplifier les règles et à en faciliter le pilotage. Deux grandes options de réforme structurelle ont été débattues à la fin des années 2000 sans pour autant donner lieu à des simulations approfondies : le basculement vers un régime de comptes notionnels ou la généralisation du système par points. L’article simule diverses modalités de telles réformes structurelles à l’aide du modèle Pensipp, dérivé du modèle Destinie de l’Insee. À ce stade, l’accent est surtout mis sur la façon dont ces deux réformes remédieraient à l’un des défauts actuels du système français, le fait que sa santé financière est fortement dépendante de la croissance économique. La raison de cette dépendance est bien connue : plutôt que de répondre à la nouvelle donne démographique par des ajustements explicites du niveau des pensions, on a opté pour des mécanismes de décrochement indirect, jouant principalement sur l’écart entre les dynamiques des prix et celles des salaires nominaux. Cela n’est efficace que dans une situation de croissance soutenue qui n’a aujourd’hui plus rien de garanti, il faut donc des mécanismes d’ajustement plus directs. Ceux du système en comptes notionnels reposent sur deux paramètres : le rendement servi sur les contributions en phase d’accumulation et le coefficient de conversion en rente du pseudo-capital qui résulte de cette accumulation. Le système par points peut offrir des régulations équivalentes, moyennant l’adoption des règles raisonnées d’évolution des valeurs d’achat et de service des points, au lieu des politiques d’ajustement au coup par coup en général mises en œuvre dans les régimes par points français. On imagine cependant que l’une comme l’autre de ces deux réformes structurelles seraient difficiles à mettre rapidement en place. Il s’agit au mieux d’orientations à long terme. L’article mobilise donc le même modèle pour explorer une troisième voie plus réaliste consistant en des ajustements à la marge des règles d’indexation. Elle ne remettrait pas en cause l’organisation du système actuel, mais elle permettrait de faire évoluer ses différentes composantes de façon plus harmonisée, en gérant de manières totalement parallèles les évolutions du taux de remplacement dans les secteurs public et privé.

27Après ces quatre articles consacrés à l’évaluation ex ante de politiques entièrement nouvelles, le dernier article revient à une question d’évaluation d’une politique existante, celle de l’impact budgétaire des réformes des droits de succession intervenues depuis le début des années 2000, et notamment dans le cadre de la loi en faveur du travail, de l’emploi et du pouvoir d’achat (loi dite TEPA). Ce domaine d’application des modèles de microsimulation est usuel puisqu’il s’agit de fiscalité, mais la démarche est inédite car, parmi l’ensemble des sujets fiscaux, la question de la taxation de l’héritage a été peu ou pas abordée par ce type de modèle, sans doute faute d’accès facile aux données microéconomiques requises. L’article de Jonathan Goupille vient combler cette lacune. Les données micro dont il a pu disposer ne couvrent qu’une année, puisqu’il s’agit des droits de mutation à titre gratuit de la seule année 2000. Elles sont complétées par un module macro permettant de les actualiser pour l’ensemble de la période sous revue. L’approche est dans un premier temps à comportements exogènes et cette hypothèse est pleinement justifiée à court et même moyen terme. La principale réponse comportementale que l’on puisse envisager dans ce domaine des droits de succession concerne en effet les donations entre vifs. Or celles-ci ne permettent d’alléger les droits de succession que si elles ont eu lieu suffisamment longtemps avant le décès. À court terme, l’historique de ces donations passées est un acquis exogène et le raisonnement comptable est donc tout à fait valable.

28Intégrer une réaction comportementale implique de se projeter à plus long terme. Jonathan Goupille simule ainsi ce qu’aurait donné le maintien à l’identique des dispositions de la loi TEPA à l’horizon très lointain de 2040, sous deux hypothèses polaires d’absence totale de réaction des comportements de donation ou, au contraire, de mobilisation maximale des possibilités d’exonération offertes par la loi. Sous l’hypothèse d’optimisation maximale, la proportion d’héritiers imposables en ligne directe serait tombée à moins de 1 % en 2040, contre 20 % en 2000-2006, si d’autres mesures n’étaient pas déjà intervenues entre-temps pour limiter ces possibilités d’optimisation fiscale.

29Idéalement, on aimerait évidemment mieux savoir où pourraient se situer les vrais comportements d’optimisation fiscale entre ces deux extrêmes. Il s’agit à l’évidence d’un domaine sur lequel il y a peu de chances d’avoir un jour des éclairages expérimentaux. Tout au plus pourra-t-on éventuellement disposer d’observations pseudo-expérimentales qui permettront de mieux quantifier l’incidence finale de ce type de réforme. Dans l’attente, l’approche par scénarios est la seule envisageable.

30*

31Récapitulons en nous référant de nouveau à la typologie d’Heckman [2010]. Les huit articles de ce numéro couvrent des problématiques de type « P1 » consistant à évaluer des politiques en place (le CICE, le contrat de génération, les politiques de soutien à l’activité et au revenu dans les DOM, la loi TEPA) ou du type « P3 » consistant à évaluer des politiques entièrement nouvelles (réformes structurelles du financement de l’enseignement supérieur, du logement social, de l’assurance maladie et de l’assurance vieillesse). Pour des sujets tels que le CICE ou le contrat de génération, on voit facilement la complémentarité avec les autres démarches d’évaluation de type P1 présentées au début de cette préface : exercices de simulation ex ante mais de type plutôt macro, ou essais d’évaluation économétrique ex post exploitant la variabilité de l’exposition des entreprises à ces politiques, lorsque cette variabilité est suffisante et suffisamment décorrélable des dynamiques spontanées de ces entreprises. Dans le cas des politiques économiques actuellement en place dans les DOM, la complémentarité avec la modélisation macrostructurelle est directement mise en œuvre dans l’article, puisque ce qui y est décrit est un exemple d’adossement d’un modèle de microsimulation à un modèle structurel d’équilibre général calculable.

32Dans le cas de la loi TEPA, l’évaluation économétrique ex post pourrait servir à nourrir l’endogénéisation des comportements de donation, exactement de la même manière que des élasticités de la demande de soins issues de l’expérience de la RAND viennent nourrir les simulations de réformes de l’assurance maladie. Et ce sont des enrichissements de même nature qui seraient envisageables pour les autres contributions à ce numéro. Propension à la poursuite d’études supérieures, mobilités sur le marché du logement, comportements de départ en retraite : autant d’éléments de comportements ayant vocation à être quantifiés et introduits dans les modèles comptables qui ont été présentés ici, pour une vue plus complète des effets des réformes proposées. À cette liste de comportements économiques traditionnels s’ajoute la problématique des comportements de take up qui était ici illustrée par le cas de contrat de génération mais dont on a rappelé l’importance pour la simulation de tous types de transferts sociaux. Face à l’ensemble de ces problèmes d’évaluation, on voit qu’il n’y a pas de méthode universelle : c’est la complémentarité des instruments qui permet d’accumuler le maximum de connaissance.

Les auteurs remercient Pauline Givord, Sébastien Roux et Pierre Morin pour leurs commentaires sur une première version de ce texte, sans les engager.

Références bibliographiques

  • Bargain O. et Doorley K. [2013], « Putting Structure on the RD Design: Social Transfers and Youth Inactivity in France », IZA Discussion Paper, 7508.
  • En ligneBlanchet D., Hagneré C., Legendre F. et Thibault F. [2015], « Microsimulation statique et dynamique appliquées aux politiques fiscales et sociales : modèles et méthodes », Économie et Statistique, 481-482, p. 5-30.
  • En ligneBouguen A. et Seban J. [2014], « L’assignation aléatoire comme méthode d’évaluation des politiques publiques », Économie & prévision, 204-205, p. 199-143.
  • En ligneBozio A., Guillot M. et Lafféter Q. [2015], « Portée et limites du modèle Taxipp pour l’analyse redistributive des prélèvements obligatoires », Économie et Statistique, 481-482, p. 31-50.
  • En ligneCockburn J., Savard L. et Tiberti L. [2014], « Macro-Micro Models », dans C. O’Donoghue (dir.), Handbook of Microsimulation Modelling, Bingley, Emerald Group Publishing Limited, p. 275-304.
  • Cour des comptes [2016], Rapport public annuel, Paris, La Documentation française.
  • En ligneCourtioux P., Gregoir S. et Houeto D. [2011], « Enseignement supérieur et durées de subvention individuelle implicite. Une analyse par microsimulation dynamique », Revue économique, 62 (5), p. 835-865.
  • En ligneDe Menten G., Dekkers G., Bryon G., Liégeois P. et O’Donoghue C. [2014], « LIAM2: A New Open Source Development Tool for Discrete-Time Dynamic Microsimulation Models », Journal of Artificial Societies and Social Simulation, 17 (3), p. 9.
  • En ligneDomingo P. et Pucci M. [2014], « Impact du non-recours sur l’efficacité du RSA “activité” seul », Économie et Statistique, 467-468, p. 117-139.
  • Ducoudré B., Heyer E. et Plane M. [2015], « Que nous apprennent les données macro-sectorielles sur les premiers effets du CICE ? Évaluation pour la période 2014-2015t2 », Document de travail OFCE, 2015-29.
  • Gaffard J.-L. et Napoletano M. (dir.) [2012], « Agent-Based Models and Economic Policy », Revue de l’OFCE, 124.
  • En ligneGeoffard P.-Y. et Lagasnerie G. de [2012], « Réformer le système de remboursement pour les soins de ville, une analyse par microsimulation », Économie et Statistique, 455-456, p. 89-113.
  • En ligneGivord P. [2014], « Méthodes économétriques pour l’évaluation des politiques publiques », Économie & prévision, 204-205, p. 1-28.
  • En ligneHeckman J. J. [2010], « Building Bridges between Structural and Program Evaluation Approaches to Evaluating Policy », Journal of Economic Literature, 48 (2), p. 356-398.
  • En ligneLegendre F., Lorgnet J.-P. et Thibault F. [2003], « Que peut-on retenir de l’expérience française en matière de micro-simulation ? », Économie & prévision, 160-161, p. 1-14.
  • Newhouse J. P. et l’Insurance Experiment Group [1993], Free for All? Lessons from the RAND Health Insurance Experiment, Cambridge (Mass.), Harvard University Press.
  • En ligneOrcutt G. H. [1957], « A New Type of Socio-Economic System », The Review of Economics and Statistics, 39 (2), p. 116-123.
  • En lignePlane M. [2013], « Évaluation de l’impact économique du Crédit d’Impôt pour la Compétitivité et l’Emploi (CICE) », Revue de l’OFCE, 126, p. 141-153.
  • Pronzato C. D. [2012], « Comparing Quasi-Experimental Designs and Structural Models for Policy Evaluation: The Case of a Reform of Lone Parental Welfare », IZA Discussion Paper, 6803.
  • En ligneRoux S. [2015], « Approches structurelles et non structurelles en microéconométrie de l’évaluation des politiques publiques », Revue française d’économie, 30 (1), p. 13-65.
Didier Blanchet [*]
  • [*]
    Insee. Correspondance : Insee, 15 boulevard Gabriel Péri, 92245 Malakoff Cedex. Courriel : didier.blanchet@insee.fr
Cyrille Hagneré [**]
  • [**]
    Agence centrale des organismes de sécurité sociale (Acoss). Correspondance : 36 rue de Valmy, 93108 Montreuil Cedex. Courriel : Cyrille.Hagnere@acoss.fr
François Legendre [***]
  • [***]
    ERUDITE, Université Paris-Est et Acoss. Correspondance : Université Paris-Est Créteil Val de Marne, Faculté de sciences économiques et gestion, 61 avenue du Général de Gaulle, 94010 Créteil Cedex. Courriel : F.Legendre@u-pec.fr
Florence Thibault [****]
  • [****]
    Cnaf, Direction des statistiques, des études et de la recherche. Correspondance : 32 avenue de la Sibelle, 75685 Paris Cedex 14. Courriel : florence.thibault@cnaf.fr
Cette publication est la plus récente de l'auteur sur Cairn.info.
Mis en ligne sur Cairn.info le 29/06/2016
https://doi.org/10.3917/reco.674.0685
Pour citer cet article
Distribution électronique Cairn.info pour Presses de Sciences Po © Presses de Sciences Po. Tous droits réservés pour tous pays. Il est interdit, sauf accord préalable et écrit de l’éditeur, de reproduire (notamment par photocopie) partiellement ou totalement le présent article, de le stocker dans une banque de données ou de le communiquer au public sous quelque forme et de quelque manière que ce soit.
keyboard_arrow_up
Chargement
Chargement en cours.
Veuillez patienter...