Introduction
1L’objectif de la statistique publique est d’éclairer la décision publique par une description aussi exacte que possible de la réalité économique, politique et sociale. La statistique, comme son étymologie le souligne, a un lien congénital avec l’État. Alain Desrosières (2000b) a rappelé comment la statistique, née en Allemagne, fut d’abord l’art de décrire les Länder, États-régions allemands. Ces descriptions prenaient des formes diverses, non homogènes, en partie littéraires, comme le fut en France la « Statistique des préfets », commandée en 1802 par Napoléon pour décrire les cent départements français nouvellement créés. Ce furent autant de monographies différentes, avant qu’une homogénéisation progressive ne conduise à des nomenclatures de description. Le premier pas de la statistique publique est donc d’organiser une description de la réalité d’une société, avant même de pouvoir la chiffrer. Elle le fait en construisant des nomenclatures qui réduisent la complexité du réel à de grandes catégories. « Compter, c’est coder » (Desrosières, 2000b ; Fouquet, 1992). Une des missions inscrite dans le décret fondateur de l’INSEE – Institut national de la statistique et des études économiques – en 1946 est bien celle de coordonner les nomenclatures.
2Décrire la société en construisant des nomenclatures est une activité qui se nourrit de la recherche en sciences sociales (Bèzes et al., 2005), et ce dans le but d’éclairer la décision publique. « Bien établir le système de statistiques publiques suppose un partenariat avec deux autres activités : d’une part la recherche sur les phénomènes économiques, sociaux et environnementaux, d’autre part la préparation des politiques sur ces phénomènes », disait Edmond Malinvaud (2004) revenant sur ses quarante années passées dans la statistique publique.
3Pour bien éclairer la décision, l’expert économiste-statisticien doit apporter au Prince des éléments d’information que ce dernier n’a pas, et que le statisticien lui construit : par ailleurs la statistique oriente la vision des faits sociaux par la façon même dont elle les décrit. Mais son expertise suffit-elle à rendre compte de tous les points de vue des acteurs ? Les critiques des années 1970 sur les limites des données chiffrées a conduit à dépasser la seule expertise au profit d’une démarche plus globale : celle de l’évaluation des politiques (jugement de valeur associant divers points de vue). Aujourd’hui la décentralisation et la diffusion des techniques numériques enlèvent au système statistique publique son monopole de recueil de données et rendent plus nécessaire que jamais la construction d’un accord sur la description du monde.
Encadré : Le système statistique public
Pour mieux « éclairer » la décision publique, il faut en être proche et en comprendre les enjeux : c’est pourquoi des services statistiques ont été installés au cœur des ministères pour rapprocher l’élaboration des statistiques des décideurs. Les services statistiques ministériels (SSM), forment avec l’Institut national de la statistique et des études économiques, le Système statistique public (SSP). Les plus gros services statistiques sont dans des directions de plein exercice : la direction de l’Évaluation, de la programmation et de la prospective (DEPP) au ministère de l’Éducation (créée en 1987), la direction de l’Animation de la recherche, des Études et des Statistiques (DARES) au ministère chargé du Travail et de l’Emploi (créée en 1993), la direction de la Recherche, de l’Évaluation, des Études et des Statistiques (DREES) au ministère chargé des Affaires sociales (créée en 1998).
Une gestion coordonnée des nomenclatures sociales à organiser
Si l’INSEE gère les nomenclatures d’activités économiques, la seule nomenclature sociale qu’elle gère est celle des PCS : professions catégories sociales. Pour toutes les autres nomenclatures qui relèvent d’un domaine « social » (formation, éducation, santé, emploi…), c’est aux ministères et à leurs services statistiques de s’en occuper.
Dans le domaine de l’éducation, la DEPP l’a fait en créant dès la fin des années 1980 le comité des nomenclatures dont elle assure le secrétariat ; ce dernier a réalisé une base des nomenclatures accessible par extranet à tous les acteurs des ministères (rectorats, établissements, universités). En matière de santé (nomenclature des actes médicaux, paramédicaux, hospitaliers, PMSI), la direction de la Santé a repris la main car ces nomenclatures sont étroitement liées à la tarification et à la politique de santé (Service des systèmes d’information).
Dans les domaines décentralisés en tout ou partie, des lieux partagés entre acteurs des politiques sont nécessaires. Pour le champ du handicap et bientôt de la dépendance, la Caisse nationale de solidarité pour l’autonomie (CNSA) créée en 2005 est ce lieu partagé. Dans le domaine de l’emploi et du travail, la commission des nomenclatures, dite « Comino » créée en 2005 [1] comporte en son sein des représentants des régions, de la direction générale des Collectivités locales (DGCL), des syndicats, etc. Mais beaucoup reste à faire…
Statistique et expertise
La statistique publique pour répondre aux besoins de connaissance des acteurs économiques et sociaux
4« L’information économique et sociale est un facteur de base de la démocratie ». Cette idée, chère à Claude Gruson, directeur général de l’INSEE dans les années 1960, a déterminé mon entrée à l’Insee quelques années plus tard [2]. À l’époque les travaux du Plan combinaient toutes les informations disponibles dans des commissions qui rassemblaient l’ensemble des acteurs d’un domaine pour débattre des orientations à prendre ; ayant fait des prévisions de consommation détaillées par produits, j’ai participé à diverses commissions sectorielles (comme celle du Textile-Habillement, ou celle de l’Automobile) où les acteurs en présence aux intérêts divers sinon divergents se saisissaient volontiers des chiffres pour asseoir leurs arguments. Le chiffre devenait l’arbitre de leurs différends, et la jeune statisticienne était prise à témoin pour trancher, passant de la posture de témoin à celle de juge-arbitre, avec le poids de l’argument chiffré.
5Ces commissions orientaient également les travaux statistiques, en signalant les besoins d’information nécessaire pour mieux comprendre le fonctionnement social et éclairer les décisions publiques. Ainsi le programme d’enquêtes auprès des ménages a-t-il été inclus et financé dans les priorités stratégiques du VIe Plan : structuré autour de deux enquêtes annuelles à portée générale (emploi, d’une part, budget – conditions de vie, d’autre part), complété d’enquêtes thématiques périodiques, il avait l’objectif de couvrir tous les aspects des conditions de vie dans un cycle de dix ans (logement tous les trois ans puis cinq ans ; santé tous les dix ans, etc.).
6Cette fonction d’intermédiation entre la demande d’information des acteurs sociaux et les programmes statistiques est désormais jouée par le Conseil national de l’information statistique (CNIS), dans une version plus passive, en l’absence de l’interaction dynamique des parties prenantes autour d’une même question sociale à traiter ensemble. Depuis deux ans, quelques controverses (sur la mesure du chômage ou sur la mesure de la discrimination et les statistiques ethniques) ont réanimé des débats au sein du CNIS, mais ce débat reste, par nature, focalisé sur l’aspect de la mesure et ne s’inscrit pas dans la dynamique d’un débat stratégique sur les grandes options économiques et politiques.
De l’aide à la décision au jugement public : la magistrature du chiffre
7Quand les chiffres de la statistique publique se manifestent dans l’espace public, ils deviennent des arguments du débat : la hausse des prix, le chiffre du chômage, le taux de croissance du PIB ; leur annonce est un moment où l’action publique est « jugée » par un indicateur conjoncturel. Le chiffre devient juge de la qualité de la politique menée. Combien d’hommes politiques (ou de femmes plus récemment) n’ont-ils pas craint tous les mois la publication du taux de croissance du chômage, de l’indice des prix, de l’indicateur trimestriel de croissance du PIB ? La presse et l’opinion publique utilisant ces indices comme une évaluation de leur politique.
8Car évaluer c’est porter une appréciation (un jugement de valeur) sur l’action publique. Or le chiffre en soi n’est pas seul juge de la qualité d’une politique, contrairement à une idée très répandue qui veut donner à la statistique « officielle » et réputée neutre et impartiale la qualité d’une « magistrature du chiffre ».
9Cette omnipotence du chiffre a été dénoncée sur deux registres :
10•?L’énoncé d’un taux de croissance ne préjuge pas ce que l’on en pense ; encore faudrait-il être d’accord sur les objectifs de la politique : la croissance économique est-elle une fin en soi ? Mesure-t-elle le bien être de la population ? Et qui en décide ?
11•?Le chiffre ne mesure que ce qui est mesurable. Dans la période de croissance de l’après-guerre, le taux de croissance du PIB était devenu le juge suprême, l’arbitre ultime, en dépit de ses limites. L’opinion publique après 1968 l’a remis en cause, en demandant à la statistique de porter plus d’attention aux phénomènes non mesurés par l’échange marchand, qu’ils soient de natures économiques, sociaux ou environnementaux.
Comment améliorer l’expertise ?
12La complexité des phénomènes sociaux s’accorde mal des seules mesures monétaires mobilisées dans les comptes économiques. L’analyse des faits économiques s’est restreinte à ceux des seuls faits mesurables (Malthus, 1820 ; Pigou, 1934). Devant la critique faite au PIB de ne pas être un indicateur de bien-être, au cours des années 1970, les experts ont tenté de la dépasser dans quatre directions (Blum-Girardeau, 1971) :
- construire et suivre d’autres indicateurs : des indicateurs sociaux qui s’ajoutent à ceux de la Rationalisation des choix budgétaires (RCB) alors en vogue – aujourd’hui les indicateurs de développement humains du PNUD tentent d’y répondre (Meda, 1999 ; Viveret, 2003 ; Gadrey, Jany-Catrice, 2005) ; c’est la commande passée au rapport Stiglitz (2009) ;
- publier un « état de la société française » : un document de synthèse qui serait le pendant social et complet des comptes nationaux : ce fut « Données sociales », complété ensuite par « Portrait social » ;
- enrichir ces comptes nationaux de comptes sectoriels (logement, santé, culture, tourisme…) qui contiendraient des indicateurs non monétaires : nombre de lits d’hôpitaux, de logements, mobilité sociale, etc. : ce furent les comptes dits « satellites » de la protection sociale, du logement, de la santé… ; et les compléter par des comptes de patrimoine (Benedetti et al., 1981).
- expérimenter diverses façons de valoriser les phénomènes non marchands (ressources naturelles, travail domestique) (Chadeau, Fouquet, 1981). La quantification du travail domestique a contribué à changer le regard que la société portait alors sur les activités domestiques jusque-là cantonnées dans un univers féminin invisible, et ce, en dépit de revendications fortes (Fouquet, 2001 ; Fouquet, Measson, 2009).
13Comme dans la quantification du travail domestique, il s’agit de rendre visibles et calculables des objets et des faits sociaux invisibles, et absents des grands arbitrages. Le travail des experts est de les objectiver pour leur donner une place visible et reconnue dans l’espace de décision pour sortir de l’indécidable. Comme dans la démarche parallèle de la RCB, les experts qui détiennent le savoir, améliorent leurs outils pour orienter la décision publique.
14Ces quatre orientations procèdent toutes d’une même posture : elles visent à conforter la vision surplombante de la technostructure par le discours « supposé sachant » de l’expert (top down). Or les réflexions sur la gouvernance de mondes complexes, avec de multiples acteurs, aux intérêts multiples et imbriqués, amène à reconsidérer la notion d’intérêt général (Rosanvallon, 2006) pour lui préférer celle de bien commun, qui ne se décrète pas du haut, mais se construit avec les acteurs (bottom up). C’est la posture de l’évaluation des politiques publiques.
De l’expertise à l’évaluation des politiques
15Prendre acte de la complexité du réel, notamment dès que la matière humaine est en jeu, reconnaître l’existence de rapports sociaux, considérer que la diversité des points de vue ne se résume pas à des hypothèses de calcul et que le débat public est un meilleur garant de la prise en compte des intérêts [3], c’est, après l’abandon de la RCB, la position défendue par le rapport Viveret (1989), qui promeut l’idée d’une évaluation démocratique des politiques publiques.
16Évaluer une politique publique, c’est porter une appréciation (un jugement) sur sa valeur, notamment quant à son efficacité (les résultats attendus ont-ils été atteints ?), son efficience (ont-ils été atteints au moindre coût), sa pertinence (l’impact de cette politique a-t-il répondu aux besoins qui l’avaient fait naître ?), sa cohérence, etc. Cette appréciation de la valeur d’un dispositif, d’un programme ou d’une politique dépend du point de vue : le jugement du bénéficiaire, celui du citoyen contribuable, ou encore celui de l’agent de guichet peuvent être très différents.
17Pour constater les écarts entre résultats attendus et résultats atteints, l’usage est de chiffrer les uns et les autres, par des indicateurs (d’objectifs, de moyens, de réalisations, de résultats, d’impact). La statistique est requise, soit pour pallier l’absence d’indicateurs de gestion pour suivre le déroulement de l’activité, soit plus normalement pour observer les impacts sur l’environnement, la société.
18La récente « culture du résultat », la Loi organique relative aux lois de finances (LOLF), donne de la vigueur aux indicateurs de suivi, avec des risques majeurs : confondre constat statistique et jugement de valeur ; piloter par les indicateurs et non par les résultats, s’en tenir au court terme et oublier l’étude des impacts (effets attendus ou inattendus sur la société à moyen-long terme).
Un risque majeur et répandu : la confusion entre constat et jugement
19L’usage d’indicateurs ne suffit pas à apprécier la valeur de la politique menée. Constater n’est pas évaluer : un même constat peut donner lieu à des jugements de valeur bien différents selon le point de vue de l’observateur. Imaginons qu’on observe par exemple 5 % de lits vacants dans un établissement d’hébergement de personnes âgées : est-ce beaucoup ? Trop ? Ou trop peu ? Pour le directeur financier de l’établissement, soucieux de maximiser les recettes, cela sera toujours trop ; pour les responsables politiques du développement de l’hébergement temporaire, cela ne sera pas suffisant pour gérer les aléas de la demande ; pour le personnel surchargé, cela sera encore trop peu, etc. Chacun porte sur le même constat une appréciation différente qui dépend du point de vue professionnel de chacun.
20Or il est fréquent d’omettre l’étape qui permet de passer du constat au jugement.
21Le rôle de l’expert est de fournir les éléments du constat : le coût du chômeur évité, l’impact des 35 heures sur la croissance et l’emploi, pour citer des exemples qui font débat. Les hypothèses de calcul de différents experts peuvent varier, les méthodes d’estimation aussi. Une confusion s’installe dans le débat d’experts quand certains affirment avoir évalué le dispositif alors qu’ils ont seulement estimé la valeur d’un paramètre d’un modèle. « Estimer la valeur », c’est bien « évaluer », mais quelle valeur a-t-on estimé : le paramètre d’un modèle ? ou la pertinence de la politique ? Or le raccourci est fréquent : quand ce modèle économétrique cherche à « estimer la valeur du coût du chômeur évité par un dispositif public », l’économètre va parfois (souvent) dire, par abus de langage, qu’il a « évalué le dispositif ». Or il n’en a estimé qu’une seule dimension, le coût. Il n’a pas considéré d’autres aspects qui pourraient être aussi importants selon d’autres points de vue : le maintien du revenu ou de la dignité pour le bénéficiaire par exemple, ou le point de vue de l’entreprise qui l’a embauché, ou le point de vue du politique qui a l’œil rivé sur le nombre de chômeurs, etc. Parler alors d’évaluation du dispositif est un abus de langage ; l’évaluation du dispositif devrait prendre en compte tous ces aspects et les porter au débat, de même que les hypothèses du modèle.
22Avant d’être reconnue comme un constat, l’estimation tirée d’un calcul économétrique à partir d’hypothèses, mérite d’être discutée : le choix des hypothèses, la méthode retenue, influent sur le résultat. Ce débat mérite d’être organisé, voire public, pour permettre une avancée collective : aucun résultat de calcul n’est faux a priori, par contre son domaine de validité dépend du choix des hypothèses ; le jugement que chacun en tire ne peut les ignorer, car les hypothèses implicites des uns ne sont pas forcément celles des autres, et relèvent des préférences (valeurs morales, éthiques, politiques…).
23Le débat permet de faire progresser collectivement la connaissance et la justesse du constat. C’est ensuite à partir de ce constat partagé ou nuancé de la connaissance des hypothèses que chacune des parties prenantes peut porter un jugement ou apprécier la pertinence du dispositif, selon son propre point de vue et ses « valeurs ». L’évaluation finale tiendra compte de ces différents points de vue, laissant au politique le soin de décider en toute connaissance de cause (Jacot et al., 2007).
Performance et évaluation
24La « culture du résultat », portée par la LOLF, ou par le discours gouvernemental récent, amorce un changement culturel profond. Si l’on en suivait la portée jusqu’au but ultime, il s’agirait de passer des indicateurs de suivi des réalisations (l’activité des services) à un pilotage de l’action publique par les résultats (les conséquences de ces réalisations sur la société, à court terme, ou ses impacts, attendus ou inattendus, à moyen terme). Pour l’instant, dans le meilleur des cas, la LOLF se limite à la performance (suivi de l’activité et de ses réalisations, rapportée au coût).
25Passer du suivi de l’activité du service à l’étude de ses résultats et impacts, ce serait passer du contrôle de gestion (pilotage opérationnel) à l’évaluation. L’évaluation analyse ce que ne peut pas produire à lui seul le système de suivi, notamment les conditions de la mise en œuvre, en particulier celles qui sont nécessaires à l’atteinte des résultats, et en fournissant à ce propos des indicateurs d’alerte. Elle complète le travail d’analyse des données de suivi en fournissant une vision de moyen terme qui intègre le contexte socioéconomique et politico-institutionnels (Zucker, 2002).
26Un autre écueil, c’est la confusion entre certification et évaluation. La loi 2002-2 du 2 janvier 2002 rénovant l’action sociale et médicosociale a institué l’obligation pour les établissements sociaux et médicosociaux de procéder à une évaluation interne et externe périodique. L’Agence nationale de l’évaluation et de la qualité des établissements et services sociaux et médicosociaux (ANESM), créée dans le but d’accompagner la mise en œuvre de ces évaluations par des recommandations et des échanges de pratique, a bien du mal à dissocier démarche qualité, certification de procédures et évaluation proprement dite (qui suppose de partir du projet d’établissement et d’analyser avec les agents tant sa mise en œuvre que sa pertinence et sa cohérence avec les objectifs de la loi, dans une démarche collective d’amélioration de l’action).
27Dépassant la simple mesure de l’efficacité (écart entre objectifs et résultats) et de l’efficience (au meilleur rapport coût/ résultats) à laquelle se limite souvent l’analyse de la performance d’une organisation, l’évaluation de l’action publique (organisations, dispositifs, programmes ou politiques publiques) vise à en apprécier la pertinence (comparaison entre impacts et besoins sociétaux auxquels l’action voulait répondre) (SFE, 2009). Elle apporte des éléments de connaissance que ne donnent pas les seuls indicateurs de suivi, en analysant l’enchaînement des causes qui ont amené aux résultats observés et en appréciant l’imputabilité des résultats.
Le pilotage par les indicateurs : la dictature du chiffre
28Bien souvent, des indicateurs mis en place pour suivre l’activité d’un service deviennent des objectifs en soi ; confondant réalisation du service (son activité quotidienne) et résultats de l’action. Les effets pervers en sont que seul sera suivi ce qui est dans l’indicateur, au mépris de l’aspect systémique d’un programme ou d’une politique. On passerait de la magistrature du chiffre, à la dictature du quantitatif ; le pilotage par les indicateurs a été maintes fois critiqué (Brunetière, 2006 ; Hood, 2007 ; Perret, 2006 [4]).
29L’indicateur éclaire une portion de la réalité comme le réverbère son cône de lumière : le risque est de ne chercher ses clés que sous le réverbère, de ne suivre que les effets visibles d’un dispositif au mépris des grands effets cachés dans l’ombre [5]. Mesurer la performance d’un hôpital par l’indicateur du taux de mortalité des patients, illustre l’effet pervers d’une vision simpliste de la réalité qui pourrait se limiter à un chiffre : pour être bien « noté » sur cet indicateur, il suffit de refuser d’admettre à l’hôpital les patients les plus malades. Une batterie d’indicateurs est déjà plus raisonnable mais plus complexe à décrypter.
30Évaluer suppose d’analyser l’enchaînement des causes qui font varier les indicateurs. Il peut y avoir désaccord sur l’interprétation de la variation de l’indicateur. En matière de sécurité routière, par exemple, une hausse du nombre de contraventions données pour excès de vitesse, peut être considérée comme positive (la police a bien travaillé), ou comme négative (il y a encore trop de gens qui font des excès de vitesse). Dans le premier cas, l’indicateur est considéré du point de vue de l’activité des services ; dans le second l’indicateur s’intéresse à l’impact sur les comportements.
31La construction des indicateurs de la LOLF a été l’occasion de commencer à quantifier objectifs et résultats par des indicateurs, diffusant un zeste de culture du chiffre (et du contrôle de gestion, avant celle de l’évaluation) dans les administrations jusque-là peu concernées par la statistique. Mais on est encore loin de l’évaluation (Brunetière, 2006 ; Perret, 2006). Comprendre l’enchaînement des causes dans un apprentissage collectif pour améliorer l’action publique, ne se résume pas à suivre des indicateurs.
Évaluation des politiques décentralisées et statistique
32Depuis une dizaine d’années, deux facteurs concomitants remettent en cause l’organisation actuelle du système statistique public : d’une part, les opérateurs de l’action publique se sont multipliés que ce soit par la décentralisation qui confie aux collectivités territoriales des compétences sur certaines politiques publiques ou par la délégation de la gestion des politiques à des agences ou des opérateurs ; d’autre part, les innovations techniques avec la diffusion des outils bureautiques, les logiciels de traitement de l’information et les capacités d’échanges de données numériques permettent de traiter et d’échanger des informations à tous les niveaux de l’action. L’État a perdu à la fois le monopole du traitement de l’information et le monopole de la décision publique, notamment en matière sociale (Igas, 2008).
33La diffusion des outils bureautiques généralise la gestion numérisée de l’activité des services ; il en sort facilement des comptages de toute sorte. Les indicateurs de suivi d’activité fleurissent, stimulés par la « culture du résultat ». La statistique de base devient accessible à tous ; il ne s’agit pas de la statistique mathématique probabiliste ou du calcul économique qui restent l’apanage des experts ou des ingénieurs, mais de la construction d’indicateurs simples tels que des moyennes ou des évolutions. Chacun peut fabriquer sa batterie d’indicateurs de suivi, de façon solitaire et décentralisée.
34Avec la décentralisation, les collectivités locales ont investi le champ de l’évaluation de leurs politiques. Les collectivités territoriales sont les fers de lance de l’innovation en matière d’évaluation : comme la preuve n’est plus seulement technique dans un univers complexe, elles inventent et expérimentent divers moyens de construire des jugements tenant compte des parties prenantes.
35Décentralisation et évolution technique sont des atouts pour la diffusion de la culture de l’évaluation, à condition d’en maîtriser les risques.
Les atouts
36La collecte d’information est devenue plus facile et plus accessible. Les outils bureautiques permettent aux opérateurs gestionnaires de construire et suivre des indicateurs d’activité, et de mesurer les réalisations annuelles de leur action. Ils n’ont plus besoin de faire appel au service statistique pour savoir plusieurs mois plus tard, quels ont été leurs réalisations (comme le nombre de conventions de contrats aidés signées), et leurs résultats (le nombre de chômeurs embauchés).
37Cette reprise en main des données de suivi par les organismes gestionnaires de dispositifs se généralise avec la LOLF qui oblige à mettre en place un contrôle de gestion. C’est un atout pour l’évaluation dans la mesure où un système d’information est déjà en place. C’est une difficulté pour les services statistiques ministériels (SSM) qui doivent se repositionner pour ne pas apparaître concurrents sur les données de suivi en publiant avec quelques mois de retard des chiffres différents (car redressés) de ceux plus rapides donnés par le contrôle de gestion.
38La valeur ajoutée du service statistique ministériel (SSM) est d’apporter sa compétence pour la mesure des résultats, au-delà des réalisations. Par exemple, au-delà du comptage du nombre de contrats aidés placés par les opérateurs (mesure de réalisations), il s’agira de repérer qui sont les personnes aidées réparties selon certains critères (sexe, âge, parcours antérieur), soit par comptage prévu à l’origine (ce qui suppose une bonne collaboration au moment de la mise en place du dispositif), soit par enquêtes spécifiques sur un échantillon de bénéficiaires. Il est très difficile de faire comprendre aux responsables de dispositifs qu’une statistique redressée est meilleure qu’une donnée administrative prétendument exhaustive mais aléatoirement incomplète…
39Dans ce nouveau contexte, où les données de suivi sont produites par les opérateurs gestionnaires, les enquêtes dites « en population générale » nécessaires à l’évaluation des impacts restent du ressort du système statistique (enquêtes panel auprès des bénéficiaires d’emplois aidés, sortants du RMI, santé-invalidité-handicap, etc.). Les échantillons de ces enquêtes peuvent être renforcés sur certaines aires géographiques à la demande de collectivités locales. Encore faut-il que les échéances des uns et des autres coïncident.
40Pour évaluer leurs politiques, certains départements font déjà réaliser des enquêtes auprès de leurs bénéficiaires pour en apprécier les résultats, voire même les impacts des dispositifs dont ils sont chargés. Ainsi le conseil général du Val-d’Oise a-t-il fait réaliser une enquête quantitative et qualitative auprès des bénéficiaires du RMI pour suivre leur parcours et connaître leur avis sur les offres d’insertion apportées par le conseil général. Dans le Val-de-Marne, le conseil général a mis en place une mission d’information et d’évaluation sur les « actions d’insertion », et une autre sur le logement d’urgence (Nouailles, 2009) ; la direction de la prévention sociale a également mis en place une recherche – action avec un laboratoire universitaire pour « objectiver » le travail social de prévention dans les quartiers et pouvoir ensuite en évaluer les résultats, etc. Autre exemple : le conseil général des Bouches-du-Rhône a initié une évaluation du RMI, etc. On pourrait multiplier les exemples d’initiatives locales qui relèvent, certes, le plus souvent des plus gros départements. Mais ces initiatives restent peu diffusées, peu connues et peu comparables.
Sortir de la confusion des langues : la coordination par les nomenclatures et les systèmes d’information
41La diffusion des outils bureautiques et le besoin de chaque service de suivre son activité et de se doter d’indicateurs, génèrent quantité de façons de coder les faits sociaux. On se retrouve avec la décentralisation dans la situation de la statistique des préfets de 1802. Hormis les nomenclatures d’activité économique gérées par l’INSEE, les « remontées d’information » qui permettaient de produire de la statistique nationale deviennent souvent impossibles faute de s’entendre sur les façons de compter.
42Mais ne faut-il pas changer de posture ? La décision publique étant décentralisée, les besoins d’information au niveau central ne sont plus les mêmes.
43Le rôle imparti à l’Insee – et plus généralement au système statistique public – dans son décret fondateur, de coordonnateur des nomenclatures, pourrait devenir un rôle de coordonnateur des systèmes d’information dans une construction collégiale. C’est le pari réussi de la CNSA pour les maisons départementales du handicap (MDPH) dans une concertation longue et récurrente assortie d’expérimentations. La statistique publique ne peut plus méconnaître les systèmes d’information d’où sortent désormais bien des statistiques.
44Le caractère « décentralisé » du Système statistique public avec les services statistiques ministériels est un atout. Les statisticiens publics ne devraient-ils pas devenir aussi des spécialistes des systèmes d’information [6], dans le respect de la nouvelle Constitution qui fait de la France non plus une république jacobine, héritière en droite ligne de la souveraineté monarchique, mais une « république décentralisée », où l’autorité publique est partagée entre les divers niveaux de collectivités ?
Perspectives
45L’information statistique est un outil puissant d’analyse des situations ; elle s’ancre désormais de plus en plus aux outils de gestion, mais ceux-ci ne peuvent tout suivre ; des enquêtes ad hoc demeurent nécessaires.
46L’enjeu actuel est :
- de dépasser l’engouement pour les indicateurs de gestion qui devraient rendre compte de tout, et mieux sérier ce qui revient au suivi (pilotage) et ce qui revient à l’évaluation périodique, avec définition des questions évaluatives et la façon d’y répondre par des enquêtes statistiques ou qualitatives (mise en œuvre, rôle des divers acteurs) ;
- nouer un dialogue constructif avec les acteurs des politiques sociales, dans des lieux ad hoc : le CNIS ou des lieux partenariaux à créer (Buguet et al., 2009), qui puissent être des lieux de partage et de construction collective des nomenclatures communes à utiliser pour suivre, puis permettre d’analyser la mise en œuvre et les résultats des politiques sociales.
Notes
-
[*]
Inspectrice générale des affaires sociales et présidente de la Société française de l’évaluation.
-
[1]
Arrêté du 12 avril 2005 paru au JO du 27 mai 2005, modifié par arrêté du 10 juillet 2006 (pour inclure le MEN et le CNSA).
-
[2]
Cet article s’appuie sur le cheminement personnel de l’auteur, depuis l’aide à la décision à l’évaluation des politiques publiques : administrateure de l’Insee, Annie Fouquet y a commencé sa carrière par des travaux de prospective sur les conditions de vie des ménages pour le Commissariat général du Plan ; elle a travaillé sur les indicateurs sociaux, sur les comptes de patrimoine et la valorisation du non-marchand (travail domestique) ; elle a ensuite été responsable de la revue Données sociales (éditions 1984, 1987, 1990) et de la division Études sociales. Après avoir participé à la création de la DARES au ministère du Travail, elle a dirigé le Centre d’études de l’emploi de 1993 à 2000. Elle fut directrice de la DARES au ministère de l’Emploi et de la Solidarité de 2000 à 2005. Elle est actuellement inspectrice générale des affaires sociales.
-
[3]
Dans un univers complexe, la place de la statistique publique change : elle est moins liée à l’État central et doit se rapprocher des acteurs. À côté de l’expérience innovante et en avance sur son temps des « réseaux de correspondants locaux » inventés et animés par Pierre Nardin, l’INSEE créa des « observatoires régionaux » chargés de se rapprocher des acteurs pour leur fournir les chiffres relevant de leur domaine (géographique notamment). (Cf. Desrosières, Nardin, 1973.)
-
[4]
Cf. également l’article de R. Salais, « Usages et mésusages de l’argument statistique : le pilotage des politiques publiques par la performance », dans le présent numéro.
-
[5]
Voir les lettres de l’association Pénombre, la vie publique du chiffre (www.penombre.org).
-
[6]
Précision : un système d’information n’est pas un système informatique, mais décrit les unités de base de collecte de l’information, leur architecture, les nomenclatures et les mécanismes de validation des données.