CAIRN.INFO : Matières à réflexion

1 – Introduction [1]

1Depuis une vingtaine d’années, de nouvelles pratiques d’évaluation sont déployées au nom de la performance. Cette dynamique participe d’un mouvement transversal qui a été analysé comme l’explosion de la « société de l’audit » [Power, 2005], ou la diffusion des doctrines du New Public Management [Bezes et al., 2011]. Ce mouvement s’incarne dans des dispositifs de gestion ou de quantification souvent accusés d’impliquer « l’assujettissement de la décision » à un « système du chiffre gestionnaire » [Ogien, 2010, p. 19], de participer à « l’envahissement des métiers par les normes managériales » [Hibou, 2012, p. 53] ou de mettre « l’État sous pression statistique » [Bruno, Didier, 2013]. Le secteur hospitalier français est un véritable laboratoire de cette vaste dynamique, qui y a surtout été étudiée sous l’angle des instruments de tarification. En soulignant la dimension conflictuelle et hétéronome des réformes hospitalières, de nombreux auteurs ont ainsi décrit la mise « sous pression », voire « en réanimation » de l’hôpital par une logique « néolibérale » découplée des pratiques professionnelles et de l’intérêt des patients [Belorgey, 2010 ; Mas et al., 2011 ; Pierru, 2013]. Cet article déplace le regard porté sur la quantification à l’hôpital, en s’intéressant à un angle mort de ces travaux : les dispositifs d’évaluation de la qualité des soins progressivement déployés depuis la fin des années 1990 [Setbon, 2000 ; Castel, Robelet, 2009]. À travers ce déplacement, nous voudrions souligner l’intérêt qu’il y a à saisir la quantification dans toute son épaisseur technique, sociale et cognitive, sans la réduire d’emblée au « chiffre néolibéral » qui, à force d’être dans l’air du temps, finit par apparaître désincarné, et dont les propriétés et modes d’action sont plus souvent dénoncés en général qu’élucidés analytiquement, dans leur pluralité, à la lumière de cas empiriques spécifiques.

2Pour ce faire, nous proposons d’analyser les « indicateurs de qualité » déployés par l’État pour évaluer la qualité des prises en charge dans les établissements de santé français, qui constituent une forme hybride et peu univoque de quantification. Leur histoire remonte à la fin des années 1990, lorsque l’évaluation de la qualité des soins est devenue un véritable problème public, sous l’influence croisée de « malades en mouvement » [Barbot, 2002], des premiers palmarès hospitaliers en France [Pierru, 2004] et de plusieurs affaires médico-légales qui ont mis en cause tant la sécurité sanitaire dans les établissements que les institutions chargées de la réguler [Carricaburu, 2009]. Pour reprendre la main dans un contexte de défiance, tout en évitant les fortes oppositions suscitées par les « listes noires » parues dans la presse, les responsables administratifs et politiques se sont mis au début des années 2000 en quête d’un système d’évaluation se fondant sur des critères jugés plus robustes au regard des normes métrologiques. L’élaboration d’indicateurs officiels a été confiée à des experts-chercheurs en santé publique ou en gestion de la santé, qui ont façonné une méthodologie consensuelle visant à établir des mesures légitimes aux yeux des acteurs hospitaliers. En 2005, le ministère de la Santé a déployé un tableau de bord des infections nosocomiales comprenant cinq indicateurs. En 2008, la Haute Autorité de Santé (HAS) a déployé sept indicateurs évaluant la qualité à partir de la traçabilité des informations dans le dossier patient. Ces dispositifs sont censés informer les patients, doter les gestionnaires et les professionnels d’outils pour améliorer la qualité, et équiper les régulateurs de l’hôpital.

3En faisant un pas de côté par rapport à « l’unité postulée du phénomène que constitue le benchmarking » [Amossé, 2013, p. 84], nous proposons ici de comprendre comment ces indicateurs sont outillés pour porter des transformations dans un secteur peuplé de professionnels pourtant peu enclins à l’évaluation externe de leurs activités. Précisons d’emblée qu’il ne s’agit pas dans cet article de retracer étape par étape la genèse de ces indicateurs ni d’analyser, en contexte, la manière dont ils sont utilisés à l’intérieur des organisations professionnelles – le lecteur intéressé par ces aspects pourra se reporter à deux articles récemment publiés sur ces sujets [Bertillot, 2016a, 2016b]. L’ambition de cet article est plutôt de montrer, spécifiquement, comment est « bâtie » cette technologie de gouvernement au début des années 2010. À la suite d’autres auteurs [Benamouzig, 2005 ; Bezes, 2004 ; Desrosières, 1993], nous nous proposons ici d’opérer la déconstruction sociotechnique précise d’objets tangibles, pour mettre au jour les logiques encapsulées dans l’instrumentation et les usages sociaux qu’elle équipe. Faire cette sociologie de la quantification suppose de saisir comment la technique incorpore et « durcit » des idées, du travail, des relations, c’est-à-dire de « l’humain cristallisé » [Simondon, 1989]. Il s’agit de prendre au sérieux ces dispositifs dotés d’une « vie propre », « d’un certain nombre de caractéristiques […] plus ou moins indépendantes des volontés initiales » [Moisdon, 1997, p. 92], mais aussi de comprendre comment cette technologie de gouvernement « constitue une forme condensée et finalisée de savoir sur le pouvoir social et les façons de l’exercer » [Lascoumes, Le Galès, 2004, p. 27]. Les indicateurs de qualité peuvent ainsi être appréhendés comme le substrat instrumental d’un « motif cognitif », « composition de parties, intégrant des éléments cognitifs, sociaux et matériels, dont l’organisation plus ou moins réussie produit des effets de conviction » [Benamouzig, 2005, p. 11-12]. La recherche qualitative dont est issu cet article est détaillée dans l’encadré 1.

Encadré 1. Méthodologie d’enquête

Cet article présente une sélection de résultats d’une thèse de sociologie [Bertillot, 2014]. Ancrée dans la sociologie de l’action organisée [Musselin, 2005], la thèse saisit l’entreprise de rationalisation par les indicateurs de qualité depuis ses origines jusqu’à son déploiement effectif dans les établissements. Informée par l’ensemble de cette recherche doctorale, l’analyse sociotechnique proposée dans cet article repose pour l’essentiel sur le croisement de deux ensembles de données empiriques.
– D’une part, nous avons procédé à l’analyse bibliographique d’un corpus de 170 sources écrites retraçant le déploiement des indicateurs de qualité en France entre 1997 et 2012 (rapports institutionnels, articles scientifiques, publications professionnelles). Ces documents sont précieux pour cerner empiriquement les modes de calculs, les critères de sélection, les graphiques de présentation des résultats. Ils permettent d’objectiver le contenu technique et cognitif de ces indicateurs.
– D’autre part, nous avons réalisé une cinquantaine d’entretiens entre 2009 et 2012 auprès des différents acteurs qui ont participé à la conception des indicateurs (responsables institutionnels, experts-chercheurs, représentants des fédérations hospitalières ou des sociétés savantes). Ces entretiens offrent un accès privilégié aux raisonnements, croyances et logiques d’usage inscrits dans ces indicateurs.
En complément, nous mobilisons dans cet article quelques citations issues d’un troisième corpus, composé de 92 entretiens réalisés entre 2009 et 2011 avec des acteurs hospitaliers (gestionnaires, médecins, infirmiers, cadres de santé). Ces éléments sont utilisés pour illustrer l’outillage des indicateurs, sans prétendre traiter ici la complexité des dynamiques locales, restituées ailleurs [Bertillot, 2016b].

4L’argument que nous défendons est le suivant. Dans un secteur où la notion même de qualité est fortement disputée, ces indicateurs officiels se font les vecteurs d’une discrète entreprise de quantification, équipée pour transformer l’hôpital « en douceur ». En effet, la quantification prend une forme adoucie : la qualité mesurée a été réduite à ses dimensions les moins conflictuelles ; elle hybride logiques gestionnaires et professionnelles dans des mesures complexes, aux usages équivoques. Cette technologie de quantification n’en est pas moins normative : ces indicateurs sont des vecteurs d’auditabilité et de discipline dans les établissements de santé. Le recours à la quantification de la qualité peut ainsi être analysé comme un mode de rationalisation original, qui articule douceur et robustesse pour peser sur les acteurs sociaux. Après avoir mis au jour la douceur de cette quantification (2), nous montrerons en quoi elle est une technologie normative outillée pour transformer l’hôpital (3).

2 – La douceur constitutive des indicateurs de qualité

5Quantifier la qualité hospitalière implique d’évaluer un vaste domaine d’activités professionnelles et organisationnelles, à partir d’un petit ensemble de mesures. Analyser les caractéristiques des indicateurs permet de montrer qu’ils ont été bâtis pour se faire les vecteurs d’une forme douce de quantification, qui donne prise à une pluralité d’usages sans brusquer les professionnels.

2.1 – La qualité réduite à ses dimensions consensuelles

6Les outils de quantification sont inévitablement caractérisés par une certaine « pauvreté lexicale » en comparaison de la « richesse foisonnante » du monde empirique [Moisdon, 1997]. Par les opérations techniques et cognitives qu’ils formalisent, les indicateurs de qualité évaluent une réalité empirique incommensurable, la qualité hospitalière, en la décomposant en une série d’aspects objectivables. Il s’agit de décrire un ensemble défini (telle dimension de la qualité hospitalière) par la mesure d’une partie de cet ensemble défini (quelques critères clés susceptibles d’être tracés, donc évalués). Sans examiner tous ces indicateurs en détail [2], il est possible de présenter les dimensions mesurées par cinq d’entre eux (voir tableau 1).

Tableau 1

Caractéristiques de cinq indicateurs de qualité typiques

Tableau 1
Nom Dimension Type Calcul Cible ICSHA Indicateur de Consommation de Solutions Hydroalcooliques Hygiène, organisation de la lutte contre les infections nosocomiales Ressources Volume de solutions hydroalcooliques achetées par l’hôpital en comparaison de la cible définir par les sociétés savantes d’hygiène hospitalière. 100% = 20 litres pour chaque 1000 jours d’hospitalisation. (Score sur 100 et classe de A à F) L’établissement doit obtenir un score permettant un classement A. SURVISO Surveillance des Infections du Site Opératoire Hygiène, prévention des infections de site opératoire Processus Organisation d’une surveillance épidémiologique des patients après une opération, dans les différents services de chirurgie de l’hôpital, en comparaison de la cible. 100% = surveillance dans tous les services pratiquant des activités de chirurgie (Score/100) L’établissement doit obtenir un score permettant un classement A. TDP Indicateur de tenue du dossier patient Qualité de la prise en charge. Processus Qualité de la prise en charge telle qu’elle est tracée dans le dossier patient. Trouve-t-on la traçabilité des informations jugées nécessaires ? (Score de conformité / 100) 80% de conformité dans les dossiers tirés au sort DAN Indicateur de tenue du dossier anesthésique Qualité de la prise en charge anesthésique Processus Qualité de la prise en charge durant l’anesthésie, telle que tracée dans le dossier anesthésique. Trouve-t-on la traçabilité des informations jugées nécessaires ? (Score de conformité / 100) 80% de conformité dans les dossiers tirés au sort TRD Indicateur de traçabilité de la douleur Qualité de la prise en charge de la douleur Processus Qualité de la prise en charge de la douleur du patient, telle que tracée dans le dossier infirmier. Trouve-t-on la traçabilité des informations jugées nécessaires ? (Score de conformité / 100) 80% de conformité dans les dossiers tirés au sort

Caractéristiques de cinq indicateurs de qualité typiques

7Ces caractéristiques des indicateurs généralisés sont le fruit du travail de conception accompli dans le cadre d’un projet de recherche financé par le ministère de la Santé et la HAS. Experts-chercheurs en gestion ou en santé publique, représentants institutionnels, des fédérations, des sociétés savantes et des usagers ont été chargés collectivement d’expérimenter et de valider un petit nombre d’indicateurs jugés suffisamment robustes et acceptables. Dans la mesure où « le codage signifie toujours une réduction, un sacrifice » [Desrosières, 1993, p. 198], mettre en lumière ces différents aspects signifie forcément laisser dans l’ombre d’autres dimensions de la qualité des activités hospitalières. Trois orientations techniques ont été données à cette quantification, avec pour conséquence l’éviction de mesures alternatives débattues au cours de la construction des mesures.

8Premièrement, ces indicateurs placent au cœur de leurs évaluations des processus d’organisation plus que des résultats cliniques. À travers le choix de quantifier le volume d’achats de solutions désinfectantes, la traçabilité des informations écrites ou l’existence d’une surveillance épidémiologique, les indicateurs de résultat, et notamment de mortalité, sont évincés. Par exemple, un indicateur intitulé « taux de mortalité dans les groupes homogènes de malades à faible risque de survenue de décès » a été écarté en 2004. Les journalistes à l’origine des palmarès hospitaliers analysent cette décision comme une renonciation des experts institutionnels.

9

« Ce qui marchait très bien, c’était de prendre la mortalité rare. […] Opération des amygdales, t’as un mort tous les ans, au bout de trois ans, tu regardes, trois morts “qu’est-ce qui s’est passé ? !” […] Ça a été viré ! “Gênant. On va garder des trucs rassurants” ! »
(Journaliste, pionnier des palmarès hospitaliers en France)

10De leur côté, les experts de la HAS et du projet chargé de concevoir les indicateurs expliquent ce choix par les difficultés d’établir des indicateurs de résultat susceptibles d’être considérés comme validés en termes de métrologie, essentiellement en raison de difficultés d’« ajustement », c’est-à-dire de difficultés pour pondérer les taux de mortalité bruts en fonction des risques spécifiques que peuvent présenter certains patients. Ils reconnaissent toutefois que l’enjeu réside également – et ces deux points sont intimement liés – dans l’acceptabilité sociale des indicateurs par les professionnels : il s’agissait justement d’éviter les controverses qui ont fait suite aux publications de tels indicateurs dans les palmarès hospitaliers de la fin des années 1990.

11Deuxièmement, le choix a été fait de privilégier une réflexion concernant les thématiques prioritaires à évaluer avant de s’interroger sur les techniques de mesure, plutôt que d’utiliser les données facilement accessibles en l’état pour bâtir des indicateurs. Les indicateurs ont été délibérément orientés vers deux territoires réduits sur la carte de la qualité hospitalière, à savoir la lutte contre les infections nosocomiales et la qualité de la tenue du dossier des patients – thématiques jugées prioritaires respectivement par le ministère de la Santé et la HAS. Ce choix implique pour la plupart des indicateurs un travail de recueil ad hoc des indicateurs, plutôt qu’une utilisation en routine de données produites par ailleurs [3]. Ce choix n’est pas anodin : il implique le développement d’indicateurs façonnés à partir des informations tracées dans le dossier patient, c’est-à-dire les informations de première main mobilisées par les équipes soignantes dans leurs activités. Mesurer la qualité à partir du dossier devait donc permettre de renforcer la traçabilité des pratiques et de mesurer une qualité jugée plus fidèle aux pratiques que celle déductible des données médico-économiques. Dans un premier temps, les indicateurs ad hoc ont été privilégiés parce qu’ils ont été jugés potentiellement plus fondés aux yeux des professionnels, en dépit de la charge de travail.

12Troisièmement, ces indicateurs mesurent tous la qualité à l’échelle de l’établissement de santé plutôt qu’à l’échelle du service de soins, de professionnels individuels, ou encore de filières de soins par pathologie. Plusieurs raisons sont invoquées pour expliquer ce choix. Cette échelle de mesure renvoie d’abord à l’histoire institutionnelle de la régulation publique hospitalière : l’établissement constitue l’entité organisationnelle et juridique qui négocie avec les régulateurs, qui est certifiée par la HAS et reçoit l’enveloppe budgétaire liée à la tarification. Ensuite, une échelle de mesure plus micro impliquerait un recueil de données considérablement plus coûteux, et il a été décidé que l’acceptabilité de la démarche par les professionnels devait être privilégiée. Ce choix d’échelle renvoie, enfin, au fait que les experts se sont mis en quête d’indicateurs permettant d’opérer des comparaisons. Dans un contexte où l’idée même d’un classement d’État était loin de faire consensus, il a semblé moins risqué d’organiser la comparaison à l’échelle des établissements de santé. Le fait que les résultats de l’évaluation puissent être imputés à l’ensemble des acteurs de l’établissement permet d’éviter de stigmatiser tel service, telle spécialité ou tel praticien.

13

« La position, ça a été : “l’information des usagers, ok, mais ce n’est pas du palmarès […]”. Méthodologiquement, ce n’était pas robuste du tout… ça risquait de jeter l’anathème sur les hôpitaux qui ne le méritaient pas. Avec un risque de bronca. »
(Chargé de mission à la DREES, ministère de la Santé, au début des années 2000)

14Comme l’explique cet expert en charge de l’élaboration des indicateurs à la HAS, ces différentes orientations ont été privilégiées, en dépit des problèmes qu’elles soulevaient, parce qu’elles ont été jugées susceptibles de provoquer moins de tensions avec les professionnels.

15

« Les premiers indicateurs sur “qualité du dossier patient”, bon, c’est pas très fun, pour mobiliser la communauté médicale. […] N’empêche, c’est la première marche. Si on ne leur montre pas que la traçabilité des infos dans le dossier c’est l’élément indispensable pour pouvoir aller au-delà, ce n’est pas la peine. […] Et puis ça ne fait pas trop bouger la communauté médicale, pas trop de baroufle, il ne fallait pas tout de suite se les mettre à dos […] parce que sinon on n’avançait pas. »
(Acteur du service en charge des indicateurs au milieu des années 2000, HAS)

16Cette quête d’une quantification adoucie par rapport au contre-modèle des listes noires publiées par la presse a ainsi eu un prix pour les institutions de régulation. Les indicateurs de qualité généralisés à la fin des années 2000 excluent de nombreuses dimensions potentiellement plus conflictuelles de la qualité hospitalière : les résultats des soins sur l’ensemble des différentes pathologies, la mortalité hospitalière, la satisfaction des patients, la satisfaction des acteurs hospitaliers au travail, la pertinence des actes, ou encore les éventuels effets pervers de la tarification à l’activité en termes de réadmissions précoces.

2.2 – Des logiques d’usage équivoques

17Cet évitement du conflit se traduit également par les objectifs multiples qui sont associés aux indicateurs de qualité, dont les formes techniques incarnent un « consensus ambigu » [Palier, 2004] : si les acteurs du secteur hospitalier sont tombés d’accord sur la nécessité du recours à la quantification, ils ne sont pas en phase sur ce que doivent être les objectifs prioritaires de la politique de généralisation d’indicateurs. Différentes logiques cohabitent dans des indicateurs construits pour équiper trois modes d’usage non exclusifs.

18Les indicateurs de qualité s’attachent d’abord à donner une information valide à propos de la qualité à tout patient devant choisir un hôpital, selon un principe de transparence. Cette logique a été portée essentiellement par le ministère de la Santé, en réponse aux mobilisations sociales des patients sur le thème de la sécurité sanitaire à la fin des années 1990. Un site Internet a ainsi été créé en 2006 pour afficher publiquement ces informations [4], qui sont par ailleurs mises à disposition par tous les établissements [5] et reprises dans la plupart des palmarès hospitaliers de nouvelle génération. Au-delà de la réponse à une attente de transparence des usagers-citoyens, il s’agit aussi pour les promoteurs des indicateurs d’introduire un mécanisme de concurrence sur la qualité afin de mettre les établissements « sous pression » pour les inciter à améliorer la qualité, comme le souligne ce promoteur du paiement à la performance dans le domaine de la santé.

19

« Pour faire bouger un système sous la pression des assurés… […] Il faut rendre l’usager intelligent ! Pas un homo œconomicus… Mais, déjà, qu’il ait des données. »
(Ancien responsable à la Caisse nationale d’assurance maladie, militant du paiement à la performance)

20Les indicateurs de qualité sont présentés dans le même temps comme un instrument de régulation du système hospitalier. À ce titre, ils ont été inscrits dans des dispositifs institutionnels qui les renforcent. Ils ont notamment été intégrés en 2009 au processus de certification des établissements, dans l’objectif de renforcer son objectivité [6]. La HAS les porte fortement dans ce cadre. Les indicateurs peuvent également être mobilisés par les Agences régionales de santé (ARS) dans leurs contrats de gestion avec les hôpitaux. Certaines ARS les utilisent notamment, parmi d’autres données, pour équiper leurs décisions de restructuration. Toutefois, les sanctions institutionnelles restent peu claires et n’ont rien d’automatique : si le décret d’application de la loi prévoit que les établissements qui ne publieront pas leurs résultats pourront être amputés de 0,1 % de leur budget, les conséquences en cas de publication de mauvais résultats restent floues et soumises à l’appréciation de chaque ARS.

21Si ces deux types d’usage sont fortement mis en avant, c’est avec beaucoup de prudence et sans jamais réduire les indicateurs de qualité à ces seuls usages de régulation. Ils sont aussi systématiquement présentés comme un levier interne pour l’amélioration de la qualité à l’échelle des établissements, pouvant équiper tous les acteurs mobilisés sur cette thématique : directeurs promoteurs du management par la qualité, qualiticiens et gestionnaires des risques chargés de porter l’évaluation auprès des autres professionnels, médecins et infirmiers hygiénistes en première ligne de la lutte contre les infections associées aux soins, cadres ou infirmiers participant aux différents comités de la qualité. Plusieurs sociétés savantes médicales ont été amenées à collaborer avec les pouvoirs publics dans l’élaboration d’indicateurs qui servent également d’outils d’évaluation mobilisés par les professionnels de leur spécialité. Les indicateurs de qualité sont ainsi déployés à la fois au nom des usagers, des professionnels, et des régulateurs, tous associés à l’élaboration de la quantification, sans que l’ordre des priorités entre ces usages ne soit explicité. Comme le souligne cet inspecteur général des affaires sociales qui a suivi toute la démarche, il s’agissait aussi de gagner le soutien officiel des sociétés savantes et des fédérations hospitalières.

22

« [La politique en France] c’est “je vais faire des indicateurs pour que vous puissiez vous les approprier, et progresser. C’est pas pour vous agresser”. […] C’était peut-être plus légitime d’engager la démarche en disant “ce n’est pas pour qu’il y ait un élément externe sur vous, c’est pour que la communauté se l’approprie”. »
(Inspecteur général des affaires sociales)

2.3 – La plasticité cognitive des indicateurs

23Les indicateurs sont aussi dotés d’une véritable épaisseur cognitive. Un espace d’expertise hybride et intégré relatif à leur construction s’est développé sous l’égide des institutions publiques. Cette expertise a produit un corpus de sources écrites qui fait dialoguer un ensemble assez vaste de savoirs : les sciences de gestion, l’épidémiologie ou la santé publique, des réflexions plus institutionnelles, les sciences sociales, l’économie de la santé ainsi que des savoirs plus directement médicaux [7]. La plasticité de ce « motif cognitif » [Benamouzig, 2005] est une caractéristique essentielle pour construire la douceur de la quantification : les indicateurs sont composites plutôt qu’univoques, ouverts plutôt que fermés en termes de savoirs, et constituent le support de raisonnements plurivoques. Il est possible de styliser trois ensembles-types de savoirs qui contribuent à faire tenir les indicateurs et à légitimer leurs usages.

24Ils s’appuient d’abord sur des savoirs professionnels s’attachant à définir de bonnes pratiques cliniques, autour de recommandations, de référentiels ou de guides élaborés par des élites professionnelles. Ces savoirs nourrissent les indicateurs de qualité à travers un travail de définition des dimensions et critères de la qualité, tourné vers l’amélioration des pratiques, dans une logique de rationalisation professionnelle adoptée de longue date par certains segments professionnels [Acker, 1995 ; Castel, Robelet, 2009]. Par exemple, les critères utilisés pour construire l’indicateur de tenue du dossier anesthésique (DAN) renvoient à un travail de définition des informations utiles à une bonne prise en charge lors de l’anesthésie des patients. L’indicateur est soutenu par le référentiel d’évaluation des pratiques professionnelles publié en 2005 par le Collège français d’anesthésie réanimation, dans lequel sont définies les bonnes pratiques de la spécialité. L’un des critères les plus importants de l’indicateur est la traçabilité de l’évaluation des voies aériennes, qui permet de vérifier que l’anesthésiste a anticipé de possibles complications suite à l’intubation.

25

« C’est un truc normalement qui devrait être 100 %, et ça ne l’est pas… […] C’est un des risques les plus graves de l’anesthésie, quand vous endormez quelqu’un, si vous ne pouvez pas l’intuber, c’est-à-dire l’aider à respirer, il meurt en deux minutes ! Donc c’est une des plus grandes angoisses qu’on a tous les jours au bloc. »
(Médecin anesthésiste, vice-président de la Société française d’anesthésie-réanimation)

26Les indicateurs s’appuient ainsi sur les savoirs établis par les professionnels. La définition médicale des pratiques évaluées constitue l’un des moteurs d’engagement des sociétés savantes, et une condition pour que la mesure fasse sens pour les professionnels hospitaliers.

27Les indicateurs de qualité reposent ensuite sur des savoirs proches de l’épidémiologie, caractérisés par une approche systémique de la santé et une attention particulière aux techniques statistiques et aux enjeux métrologiques. Ils constituent une technologie de mesure qui implique de formaliser des modes de calcul, de concevoir des échantillonnages représentatifs, ou encore d’intégrer des marges d’erreur statistiques dans l’affichage des résultats. Sur certains thèmes, comme la sécurité des patients ou la surveillance des infections nosocomiales, ces approches épidémiologiques constituent le principal socle cognitif des indicateurs. La mesure et ses contraintes de robustesse n’ont de sens que parce qu’elles doivent permettre d’établir des résultats fiables. De nombreuses sources du corpus décrivent en détail les enjeux de fiabilité statistique, de précision, de reproductibilité, de sensibilité et de spécificité de la mesure [Michel et al., 2000], en traitant par exemple des enjeux d’ajustement des résultats bruts de prise en charge en fonction des caractéristiques des patients (gravité, situation sociale, pathologies associées). Ces savoirs sont cruciaux pour fabriquer des mesures qui prétendent à une certaine « validité » métrologique.

28Les indicateurs s’appuient enfin sur toute une littérature grise, qui occupe une place centrale dans le corpus et se caractérise par sa dimension explicitement normative. Ces documents sont produits par les équipes réunies autour d’une poignée de chercheurs en santé publique ou en gestion de la santé, qui ont développé une expertise médico-économique au cours des années 1990. Ces experts publient des articles dans des revues de management ou de santé publique. Ils contribuent aux rapports institutionnels qui s’attachent à équiper les indicateurs d’une capacité à changer les comportements des acteurs hospitaliers. Ils jouent notamment un rôle dans l’importance accordée aux modalités d’affichage public de résultats comparatifs. Dans cette approche, les indicateurs doivent permettre d’ouvrir la « boîte noire » hospitalière, de « réduire l’asymétrie d’information entre prestataires de services et bénéficiaires » [Pouvourville, Minvielle 2001, p. 290], en produisant des informations sur la qualité des soins. Des travaux s’intéressent ainsi aux différents mécanismes de régulation de la qualité (autocontrôle professionnel, réglementation publique, incitation économique, diffusion publique d’informations), en faisant référence à des savoirs économiques, sociologiques, gestionnaires, de psychologie sociale ou cognitive. Les travaux de ce type permettent d’équiper les indicateurs d’une charge normative : ils sont bien conçus pour faire levier sur les acteurs et les organisations hospitalières.

29Les indicateurs de qualité reposent ainsi sur une pluralité de savoirs interdépendants, dont personne ne peut prétendre maîtriser tous les aspects. L’hybridation cognitive qu’ils opèrent implique des échanges et des négociations qui mettent en tension des logiques d’usages différentes. D’un côté, les savoirs biomédicaux mettent essentiellement en avant le rôle des professionnels de santé, considérés comme les principaux acteurs et les principaux destinataires des démarches de définition de bonnes pratiques médicales ou infirmières. Les indicateurs sont vus comme un outil de connaissances pour les professionnels, dans le cadre de leurs pratiques. D’un autre côté, les savoirs les plus normatifs insistent davantage sur l’utilité des indicateurs comme outil de régulation de la qualité hospitalière, dans une perspective de contrôle externe. Les savoirs statistiques permettent de travailler les différents usages de la mesure. Sans être véritablement résolues, les tensions sont agencées dans ces indicateurs aux usages équivoques. Leurs promoteurs se sont appuyés sur ces différents registres pour revendiquer le développement d’une manière plus prudente et légitime d’évaluer la qualité. Adoucie, cette entreprise de quantification est dotée d’une forme d’ouverture qui donne prise à une pluralité d’acteurs sociaux, tout en étant équipée d’un véritable outillage normatif.

3 – La normativité discrète des indicateurs de qualité

30Loin de se réduire à l’évitement du conflit qui a présidé à leur construction, les indicateurs de qualité sont dotés d’une certaine robustesse technique. Ils « tiennent » dans une « forme » matérielle objectivée, c’est-à-dire « réalisée dans un outillage anonyme lui assurant un caractère contraignant » [Thévenot, 1986, p. 28].

3.1 – Objectiver la qualité… pour transformer l’hôpital

31Analysés sous l’angle de leurs caractéristiques génériques, les indicateurs sont non seulement des dispositifs conçus pour objectiver une réalité, mais également des dispositifs dont la fonction est explicitement de transformer cette réalité. Ils cherchent tout autant à évaluer la qualité hospitalière qu’à l’améliorer. Si cette tension a été soulignée de longue date au sujet des outils de gestion ou de quantification [Desrosières, 1993 ; Espeland, Sauder, 2007 ; Moisdon, 1997], cette orientation vers la « rétroaction » [Desrosières, 2014] est une caractéristique centrale des indicateurs de qualité, qui imbriquent ces deux registres.

32D’une part, ils constituent un instrument d’objectivation dans la mesure où ils concrétisent sous la forme d’un objet tangible un ensemble de règles sociales et d’opérations techniques qui doivent permettre le calcul d’une mesure chiffrée, selon un processus formalisé. Le résultat de ce calcul doit être mis en valeur sous la forme d’un score, qui revêt le plus souvent l’aspect d’un rapport entre un numérateur et un dénominateur (note, pourcentage ou ratio) ou d’une position (classement, position par rapport à la moyenne du groupe de référence, classes de résultats). La transformation d’éléments qualitatifs singuliers en éléments quantitatifs standardisés implique tout un ensemble d’opérations cognitives et techniques, de la construction de l’indicateur à l’affichage de son résultat. D’autre part, cette quantification a pour objet d’évaluer. L’indicateur est à la fois un outil de simplification du réel et un outil permettant de porter un jugement. L’indicateur permet de construire un artefact de la qualité hospitalière, qui a l’avantage d’être quantifié, simple, et univoque.

33

« Il y a un côté “vision simplificatrice” […], l’image d’un tout qui parle à tout le monde. […] Ça rend un système extrêmement complexe lisible. »
(Responsable du service indicateurs de la HAS à la fin des années 2000)

34Son fonctionnement nécessite un processus de « commensuration » [Espeland, Stevens, 1998], qui consiste à mesurer dans une même métrique des choses qui, sans ce dispositif de quantification, ne peuvent être mises en équivalence. La légitimité des indicateurs de qualité repose ainsi sur les multiples savoirs qui convergent pour leur donner la capacité d’être perçus comme des mesures plausibles de la qualité, tout en étant utiles pour l’améliorer.

35Les éléments de nature graphique constituent un média essentiel de la cognition, dont l’usage peut transformer profondément les manières de raisonner [Goody, 1977]. Au moins autant que dans le cas des raisonnements économiques [Benamouzig, 2005, p. 11], le graphisme joue un rôle crucial dans la capacité des indicateurs de qualité à susciter l’action des acteurs sociaux. La projection d’informations simplifiées que permet l’instrument est ainsi susceptible de devenir un support matériel de cognition pour les acteurs qui en sont les destinataires. La figure 1 est issue de la publication par la HAS des résultats nationaux aux indicateurs de qualité en 2010 [HAS, 2011, p. 11].

Figure 1

La qualité comme image simplifiée

Figure 1

La qualité comme image simplifiée

36Ce graphique en radar donne à voir une mise en forme classique de la quantification par les indicateurs. Il illustre l’image simplifiée qu’un ensemble d’indicateurs permet de projeter. La qualité des prises en charge hospitalières y est saisie par l’un de ses aspects : la qualité de la tenue du dossier des patients dans les hôpitaux. Cet aspect est évalué par six indicateurs. Les résultats moyens des établissements français sont affichés par un pourcentage. La mise en équivalence des scores, sous la forme d’un pourcentage, permet de construire cette image visuelle de la qualité à travers laquelle on saisit immédiatement les points forts et faibles de l’ensemble des établissements français. Loin de ne faire que produire des supports descriptifs, les indicateurs sont équipés pour mettre en mouvement les acteurs de l’hôpital.

3.2 – Affichage public et auditabilité

37L’une des caractéristiques essentielles et spécifiques de cette technologie est son orientation vers un affichage public à grande échelle, qui a pour conséquence de rendre l’hôpital davantage « auditable » [Power, 2005]. Les mesures numériques de la qualité produites par l’appareil technique de quantification constituent des outils de communication susceptibles d’être mis en forme dans des supports matériels dont la diffusion peut être ponctuelle (rapports administratifs, dossiers de presse), ou davantage automatisée (site gouvernemental, bases de données médico-administratives). Ces différents supports font l’objet d’une diffusion élargie auprès des établissements, auprès des régulateurs régionaux et nationaux et, dans une certaine mesure, auprès du grand public. La figure 2 donne à voir un exemple de l’affichage public des résultats, extrait du site ministériel, qui présente les résultats d’un centre hospitalier aux indicateurs de la HAS en 2010.

Figure 2

L’affichage public des résultats

Figure 2

L’affichage public des résultats

38Les valeurs affichées dans la colonne « résultat de l’établissement » correspondent au score obtenu par l’établissement pour chaque indicateur, en tenant compte d’une marge d’erreur statistique liée à la taille de l’échantillon de dossiers de patients tirés au sort au cours d’une procédure formalisée [8]. Ce type d’affichage public est susceptible de transformer le monde hospitalier à travers deux mécanismes étroitement articulés.

39Le premier renvoie à la réactivité des acteurs sociaux aux mesures publiques [Espeland, Sauder, 2007]. À travers des formes matérielles qui permettent d’afficher publiquement des scores numériques simples et univoques, les indicateurs sont conçus pour faire réagir les acteurs des établissements et services de soin, et ainsi faire évoluer leurs comportements. La diffusion publique de résultats d’évaluation doit susciter une réflexivité sur les pratiques décrites par les indicateurs :

40

« [L’indicateur], c’est inciter, trouver des manières d’influer sur le comportement des acteurs, pour que d’eux-mêmes, ils décident de se comporter d’une façon qui intéresse la communauté. […] C’est une manière d’accroître la pression. […]. Le simple fait de dire à un établissement “vous n’êtes pas bons” est, en soi, un incitatif suffisant pour qu’il s’améliore. »
(Expert au sein du bureau en charge des indicateurs, ministère de la Santé)

41Dans cette logique, toutes les opérations techniques et cognitives qui entourent les indicateurs sont susceptibles de susciter des apprentissages à l’échelle locale. L’enquête menée dans les établissements, restituée ailleurs [Bertillot, 2016b] a d’ailleurs permis d’identifier de tels apprentissages : plusieurs médecins, en participant au recueil de l’indicateur de tenue du dossier patient (TDP), ont pris conscience de leur mauvais score sur le critère de traçabilité des prescriptions médicales, et corrigé leur manière de remplir les dossiers ou accepté de les modifier ; tel directeur, choqué par les résultats à l’indicateur de consommation des solutions hydroalcooliques (ICSHA), a décidé d’investir massivement dans des distributeurs, et de soutenir l’équipe en charge de l’hygiène dans son hôpital.

42

« Quand [l’ICSHA] est sorti, [l’équipe d’hygiène] on a été convoqués chez le directeur. “C’est quoi ça, on est D, on est mauvais, expliquez-moi ! Il faut mettre du gel partout, il n’y a pas à discuter !” »
(Infirmière hygiéniste, hôpital public)

43Cette réactivité est explicitement recherchée à travers les indicateurs et l’ensemble de formes graphiques simples et pédagogiques qui accompagnent la diffusion publique des résultats. Les indicateurs nourrissent cette réactivité, qui doit aussi beaucoup à la forte concurrence qui pèse aujourd’hui sur le secteur hospitalier.

44Le second mécanisme renvoie plus spécifiquement à la valorisation qui accompagne inexorablement les processus d’audit ou d’évaluation. La quantification désigne des éléments davantage dignes d’attention que les autres : lorsqu’on rend les organisations évaluables par des systèmes de mesure, « ce qui devient officiellement visible aux yeux du public est de facto validé comme étant important » [Power, 2005, p. 13]. Évaluer un aspect de la qualité hospitalière sous une forme quantifiée, c’est dans le même temps valoriser les éléments utilisés pour l’évaluation aux yeux des évalués. D’autant que le caractère public et dépersonnalisé des informations qui circulent contribue à forger une croyance dans leur « valeur » [Espeland, Stevens, 1998]. On comprend pourquoi le choix des aspects évalués et des critères permettant l’évaluation est capital, puisque ce sont ces éléments qui doivent être transformés par la mesure d’informations. Par exemple, juger la qualité à travers un indicateur mesurant la traçabilité de l’évaluation de la douleur (TRD) permet de donner de la valeur à la prise en compte de la douleur, comme le soulignent certains infirmiers lors de l’enquête dans les établissements.

45

« Avant, on demandait, mais c’était moins systématique. Maintenant qu’on trace, on mesure la douleur comme on prend la tension, en fait. À chaque tour qu’on fait, on demande au patient s’il a mal, et s’il a mal, on lui donne un médicament. Pour moi, en tant qu’infirmière, ça fait partie des trucs super importants ! »
(Infirmière, service de médecine interne, hôpital ESPIC)

46Ces deux mécanismes reposent très largement sur la portabilité des résultats de ce type d’indicateurs, dès lors qu’ils sont affichés publiquement [Sauder, Espeland, 2009, p. 74-78]. Ces résultats numériques, sous une forme simple, univoque et intelligible, sont susceptibles d’être mis en forme graphiquement, et peuvent aisément circuler en s’affranchissant de la complexité des jeux de définition qui ont présidé à l’élaboration de leur mode de calcul. La complexité du calcul devient une boîte noire réservée aux spécialistes, alors que les nombres sont susceptibles d’être repris par tout un ensemble d’acteurs sociaux : les médias, les tutelles, mais aussi les patients, les gestionnaires et les professionnels. Les mesures publiques ont toutes les chances d’être acceptées pour leurs résultats par les acteurs sociaux qui sont bien classés, alors que le soupçon de mauvaise foi pèse sur les critiques de ceux qui sont mal classés. Par ailleurs, les anticipations des acteurs sociaux concernant la capacité de ces scores publiquement diffusés à circuler librement dans le monde social, même lorsque rien ne prouve que cette circulation est effective, est un puissant moteur de la capacité de ces dispositifs à changer les comportements. À l’instar de ces médecins, de nombreux acteurs hospitaliers prennent très au sérieux la circulation des résultats des indicateurs.

47

« On se dit “si on n’est pas bon sur les indicateurs, on va se taper une réserve”. […] Le résultat de la certification est disponible sur le site de la HAS, pour tout le monde. Donc, dans le doute, on préfère être réglos. » (Chirurgien digestif, clinique privée)

48

« Quand ces palmarès sont sortis il y a 10 ans, on a tous rigolé… Mais le problème, c’est qu’il faut faire avec ! On est devenu un marronnier, ça sort tous les deux mois… Et mine de rien, les patients ils vous l’amènent à la consult’ ! […] On est partis de “C”, on est passés en “A”. Le résultat, c’est que maintenant, même si les critères sont ce qu’ils sont, on n’a pas de souci à se faire sur la lutte contre les infections nosocomiales ! »
(Urologue, hôpital ESPIC)

49L’accent mis sur la traçabilité n’est pas neutre vis-à-vis de l’auditabilité recherchée par l’intermédiaire de ces indicateurs. Si elle recouvre des enjeux d’amélioration de l’organisation des soins et de la coordination des équipes, elle renvoie également à d’autres buts moins directement affichés. Elle contribue à la formalisation du système de responsabilité à l’intérieur des hôpitaux, notamment en matière de traçabilité des prescriptions ou des actes individuels susceptibles de donner lieu à des poursuites ou des évaluations de primes d’assurance. Elle participe aussi à l’amélioration de la traçabilité des informations nécessaires au codage des actes qui sont à la source de la tarification. Au-delà d’un principe de transparence régulièrement réaffirmé, l’affichage public constitue un levier d’autant plus puissant qu’il est couplé à un recours à la comparaison.

3.3 – Comparaison et discipline

50Les mesures numériques issues des indicateurs sont susceptibles d’être agrégées, pour générer des moyennes, des quartiles, des déciles, et construire différents types de hiérarchies ou de classements. Chaque établissement peut être positionné par l’intermédiaire de formalisations simples, matérialisées dans des tableaux, des diagrammes, des listes ou des cartes, qui constituent un véritable outillage de comparaison. Cela permet de mettre en équivalence dans une même métrique des éléments qui l’étaient moins auparavant [Desrosières, 1993 ; Espeland, Stevens, 1998]. On rapproche différentes dimensions de la qualité. On regroupe des critères de nature très différente au sein des mêmes graphiques ou tableaux qui placent parfois côte à côte critères d’évaluation de pratiques médicales et critères d’organisation des processus de soin. On évalue l’ensemble des établissements, pourtant très diversifiés en termes de statut comme de missions, selon les mêmes méthodes, avec les mêmes indicateurs à l’échelle nationale. Le but général de la comparaison est de transformer les comportements de l’ensemble des acteurs hospitaliers.

« On a éduqué, informé, entraîné, remonté, enrôlé, fait que l’année prochaine et la fois suivante soit mieux… […] On ne cherche pas les 10 % de meilleurs, on cherche à ce que la moyenne se déplace. Pour entraîner, changer [les] comportements… »
(Membre du collège de la HAS, en charge de la certification des établissements à la fin des années 2000)
Plusieurs types de comparaisons sont opérés. D’abord, les établissements de santé peuvent être comparés entre eux, à l’échelle d’un même territoire, nominativement ou non. Il est ensuite possible d’opérer une comparaison des résultats dans le temps, soit à l’échelle d’un même établissement (il s’agira alors de quantifier sa progression), soit à l’échelle d’un territoire (la plupart du temps régional ou national). Enfin, il est possible de comparer le résultat individuel de chaque établissement à une norme, qui peut être relative (la moyenne des établissements de même statut et de même taille à l’échelle d’un territoire), ou absolue (seuil minimal, ou objectif cible de performance devant être atteint par l’ensemble des établissements). Ces types de comparaison sont agencés et combinés de diverses manières. La figure 3 donne à voir un exemple de ces comparaisons.

Figure 3

Comparaison évolutive des résultats des établissements français

Figure 3

Comparaison évolutive des résultats des établissements français

51Issu d’un rapport de la HAS [2011, p. 14], ce graphique présente les résultats de l’ensemble des établissements français pour l’indicateur de tenue du dossier patient (TDP). Il permet de comparer non seulement les taux de conformité des différents critères, mais également les scores 2010 aux scores 2009 et 2008, afin de comprendre quels critères ont le plus ou le moins progressé. La figure 4 donne à voir un second exemple, à travers deux graphiques projetés en 2007, dans le cadre d’une réunion du projet d’élaboration des indicateurs.

Figure 4

Benchmarking de deux établissements

Figure 4

Benchmarking de deux établissements

52Ils permettent de mettre côte à côte les « performances » de deux centres de lutte contre le cancer, concernant neuf critères de l’indicateur de tenue du dossier patient (TDP), comme la présence d’un compte-rendu opératoire (CRO), d’un document médical relatif à l’admission (ADM), le constat d’un dossier organisé et classé (ORG), ou la présence d’une trace écrite des prescriptions pendant l’hospitalisation (PRE). La comparaison montre que l’établissement de gauche a des scores largement supérieurs à l’établissement de droite. Elle permet aussi d’isoler les critères pour lesquels cette différence est la plus marquée. Pour ses promoteurs, ce type de benchmarking doit permettre une circulation des bonnes pratiques.

53

« C’est l’établissement qui s’en empare du benchmark. […] Rien que le fait que les gens se soient rendu compte de ces informations, ils ont déjà commencé à travailler. […] Le fait de regarder le voisin, on change son comportement, et puis on essaye de comprendre ce qu’on fait par rapport à ce que fait l’autre. »
(Expert au sein du bureau en charge des indicateurs, ministère de la Santé)

54La comparaison est susceptible de mettre en mouvement les acteurs sociaux en constituant un puissant dispositif de normalisation disciplinaire [Foucault, 1975 ; Sauder, Espeland, 2009]. L’hypothèse qui la sous-tend est qu’il ne suffit pas de projeter publiquement des résultats pour susciter la réactivité des acteurs hospitaliers. Il est nécessaire de mettre les résultats de l’évaluation en regard d’un ensemble de normes, qui donnent son sens à la mesure. Les cibles définies à l’échelle nationale constituent des normes officielles. La norme statistique joue également à plein, permettant d’attribuer des statuts hiérarchiques, de désigner les meilleurs et les moins bons. Le système de classement adopté sur le site Internet du ministère est clairement construit pour blâmer les établissements déviants, obtenant de mauvais résultats, ou, pire, refusant de jouer le jeu de la mesure. Le caractère normatif des indicateurs de qualité devient très palpable pour les acteurs hospitaliers lorsque certaines ARS se saisissent de ces comparaisons, parmi d’autres éléments, pour préparer les visites de contrôle, suivre les établissements en difficulté, et justifier des restructurations.

55

« [Sur tel établissement], on avait plusieurs plaintes, sur des actes opératoires, et la dernière avec un décès. […] Sur les infections de site opératoire, l’enquête n’était pas toujours faite. Pour [l’indice de lutte contre les infections nosocomiales], ils n’étaient pas très bons. […] On l’a en “alerte rouge”. Tous les trois mois, il doit nous envoyer un bulletin d’avancement […]. C’est une petite structure très fragile. Financièrement, ça ne va pas non plus. Il a des difficultés telles que peut-être qu’il fermera. »
(Directrice adjointe d’une ARS)

56La réactivité est attendue non seulement des établissements qui ont des mauvais scores, et qui doivent être incités à « rattraper » les autres, mais aussi de ceux qui sont les mieux classés, qui doivent maintenir leur statut. Ces craintes sont d’ailleurs palpables lorsqu’on enquête dans les établissements comme l’illustrent ces propos tenus par un médecin du département d’information médicale (DIM) :

57

« Les tutelles, elles ont toutes les données ! Ils voient l’hôpital sous toutes les coutures, les trucs de qualité, de PMSI, vous avez tout ! […] On n’est pas à la même échelle ! Derrière effectivement il y a tout le rouleau compresseur de l’État, des gens performants, au niveau, qui savent analyser les chiffres, et en face vous avez un petit établissement qui essaye de se dépatouiller… »
(Médecin DIM, hôpital ESPIC)

58À travers cette intériorisation des disciplines, ce sont les critères d’évaluation qui sont dotés d’un statut normatif. La traçabilité d’un certain nombre de pratiques professionnelles et, plus indirectement, ces pratiques en elles-mêmes s’imposent comme des règles normatives. Il en va de même pour la formalisation d’une politique locale de lutte contre les infections nosocomiales. Cette mise en comparaison contribue aussi à une perception accrue de la concurrence entre établissements concernant la qualité de leurs soins.

59

« Aujourd’hui, on est plus dans la comparaison par rapport aux autres établissements, en parts de marché par exemple. […] Et c’est vrai que [pour l’indicateur composite sur les infections nosocomiales], par exemple, on a regardé les cliniques qui sont au-dessus de nous. »
(Chirurgien, membre du directoire, clinique privée)

60Le recours à la comparaison publique charge ces indicateurs d’une ambition de transformation du monde hospitalier. S’ils sont pragmatiques et ouverts sur des usages sociaux variés, ils indiquent dans le même temps quelles sont les règles institutionnelles contraignantes.

4 – Conclusion : des indicateurs qui rationalisent l’hôpital… en douceur

61Étudier la quantification dans son épaisseur et sa subtilité permet de compléter – et nuancer – les analyses qui mettent en avant les mécanismes généraux, linéaires et parfois désincarnés du New Public Management et de sa « quantification néolibérale ». Certes, par leur dimension d’affichage public et de comparaison, les indicateurs de qualité se rapprochent des instruments de benchmarking analysés par d’autres auteurs [Bruno, Didier, 2013]. Toutefois, en insistant sur l’unité du phénomène, depuis son invention dans l’entreprise jusqu’à ses usages dans une variété d’outils déployés dans le secteur public, ces auteurs postulent une forme de continuité ; l’unité du benchmarking résiderait dans la contrainte exogène que font peser les instruments néolibéraux sur les individus et les organisations. Si cette hypothèse générale est stimulante, ces travaux en disent finalement peu sur la manière spécifique dont des indicateurs – eux-mêmes diversifiés – sont bâtis pour peser de la sorte sur les différents contextes sociaux dans lesquels ils sont déployés.

62Dans le cas des indicateurs de qualité, la contrainte passe par une quantification hybride, adoucie, élaborée avec prudence, négociée avec une partie du monde professionnel. La normativité des indicateurs n’est pas univoque : elle est produite par leur inscription dans des dispositifs institutionnels variés, de la certification et l’affichage ministériel à leur mobilisation dans les palmarès de nouvelle génération, en passant par le portage de ces indicateurs par les fédérations hospitalières et les sociétés savantes médicales. La plasticité de ces indicateurs se révèle d’ailleurs cruciale dans leur capacité à avoir des effets [Bertillot, 2016b], puisqu’elle leur permet de se coupler, dans une certaine mesure, aux pratiques des acteurs sociaux. Nous retrouvons là une intuition fondamentale de la philosophie des techniques : « La machine qui est douée d’une haute technicité est une machine ouverte » [Simondon, 1989, p. 11]. L’analyse sociotechnique des indicateurs de qualité montre ainsi qu’ils sont les vecteurs d’une vaste entreprise de transformation institutionnelle, déployée à l’échelle du secteur hospitalier. Comme d’autres, cette technologie de gouvernement puise une partie de sa force dans sa discrétion [Bezes, 2004]. Mais elle doit surtout beaucoup au caractère « adouci » de la quantification. Construite au nom de cette notion très polysémique, mais en même temps légitime, qu’est la qualité, cette quantification incarne ainsi un mode de rationalisation original, déployé en douceur et dans l’ombre d’autres outils de benchmarking [Belorgey, 2010] et d’autres réformes économiques plus contestées [Pierru, 2007]. Loin de conduire à nier la dimension proprement politique des indicateurs, penser ensemble la douceur et la robustesse de cette quantification permet de comprendre comment elle est équipée, concrètement, pour avoir prise sur les univers sociaux qu’elle cherche à transformer. La sociologie de la quantification gagnerait sans doute à accorder davantage d’attention aux technologies hybrides et aux ambivalences du gouvernement par les indicateurs.

Annexe

Liste des indicateurs de qualité généralisés par l’État (année 2010)

63Les indicateurs du tableau de bord du ministère de la Santé

64Ces cinq indicateurs évaluent la politique de prévention des infections nosocomiales.

  • ICALIN : indice composite des activités de lutte contre les infections nosocomiales (politique d’hygiène)
  • ICSHA : indicateur de consommation des solutions hydro-alcooliques (hygiène des mains)
  • SURVISO : enquête d’incidence des infections de site opératoire (surveillance des infections en chirurgie)
  • Score ICATB : l’indice composite de bon usage des antibiotiques (suivi de la consommation)
  • Score agrégé : indicateur agrégé (calculé à partir des quatre IQ précédents)

65Les indicateurs de prise en charge de la Haute Autorité de Santé

66Ces cinq indicateurs évaluent la traçabilité d’informations dans les dossiers de soin.

  • TDP : qualité de la tenue du dossier patient
  • DEC : délai d’envoi du courrier de fin d’hospitalisation
  • TRD : traçabilité de l’évaluation de la douleur
  • DTN : dépistage des troubles nutritionnels
  • DAN : qualité de tenue du dossier anesthésique

Notes

  • [1]
    Pour leur lecture attentive et leur aide précieuse, l’auteur souhaite remercier tous les participants au groupe d’écriture « GGG » qui s’est réuni à la Maison des Sciences de l’Homme en 2015-2016 : Émilie Adam Vézina, Stephanie Alexander, Fanny Chabrol, Pierre-Marie David, Catherine M. Jones, Lara Mahi et Caroline Meier zu Biesen. Il remercie également les évaluateurs anonymes pour leurs commentaires avisés sur les précédentes versions de cet article. Les conclusions présentées n’engagent cependant que l’auteur.
  • [2]
    La liste complète des indicateurs de qualité généralisés par l’État est proposée en annexe.
  • [3]
    Un temps, il a été envisagé de s’appuyer sur le Programme de médicalisation des systèmes d’information (PMSI) ou la statistique annuelle des établissements de santé (SAE). Cette orientation n’a finalement pas été retenue, en raison des difficultés liées à l’utilisation de données médico-économiques mal adaptées à la mesure de la qualité.
  • [4]
    Le site PLATINES a été remplacé en 2013 par une nouvelle plateforme intitulée Scope Santé.
  • [5]
    Un décret d’application de la loi Hôpital patients santé et territoires, paru en 2010, rend réglementairement obligatoire l’affichage public des résultats pour tous les établissements de médecine, chirurgie et obstétrique (MCO).
  • [6]
    Tous les quatre ans, les établissements doivent procéder à une auto-évaluation à partir d’un référentiel de la HAS listant les critères d’évaluation, suivie de la visite d’une équipe d’experts-visiteurs qui produit un rapport de certification.
  • [7]
    Ce corpus émerge à la fin des années 1990, et connaît une croissance régulière au cours des années 2000, pour rassembler en 2010 plus de 170 sources. Pour une analyse détaillée de ce corpus, voir Bertillot [2014, p. 175-181].
  • [8]
    Dans chaque dossier, les évaluateurs ont vérifié la conformité d’un certain nombre d’informations tracées, codées 0 (non conforme) ou 1 (conforme), permettant d’aboutir à un score sur 100. Pour chaque indicateur, la valeur « résultat » de l’établissement correspond à la moyenne des scores des dossiers composant l’échantillon.
Français

Depuis le début des années 2000, les pouvoirs publics français déploient des instruments d’évaluation de la qualité dans les établissements de santé. En procédant à la déconstruction sociotechnique des « indicateurs de qualité », cet article analyse une discrète entreprise de quantification. Mesurant des dimensions peu conflictuelles de la qualité, nourris de savoirs pluriels, équivoques dans leurs usages, les indicateurs de qualité sont suffisamment doux pour ne pas brusquer les professionnels, tout en étant suffisamment robustes pour instiller discipline et auditabilité. Au nom de la qualité, cette technologie de gouvernement est ainsi équipée pour rationaliser l’hôpital en douceur.

Mots-clés

  • action publique
  • santé
  • évaluation
  • indicateurs
  • rationalisation

Bibliographie

  • En ligneAcker F. (1995), « Informatisation des unités de soins et travail de formalisation de l’activité infirmière », Sciences sociales et santé, vol. 13, n° 3, p. 69-92.
  • Amossé T. (2013), « Isabelle Bruno, Emmanuel Didier, Benchmarking. L’État sous pression statistique, Notes de lectures », Travail et Emploi, vol. 135, p. 82-85.
  • Barbot J. (2002), Les malades en mouvements. La médecine et la science à l’épreuve du sida, Paris : Balland.
  • En ligneBelorgey N. (2010), L’hôpital sous pression : enquête sur le « nouveau management public », Paris : La Découverte.
  • En ligneBenamouzig D. (2005), La santé au miroir de l’économie, Paris : PUF.
  • Bertillot H. (2014), La rationalisation en douceur. Sociologie des indicateurs de qualité à l’hôpital, thèse de doctorat en sociologie, Institut d’études politiques de Paris.
  • En ligneBertillot H. (2016 a), « Des indicateurs pour gouverner la qualité hospitalière. Sociogenèse d’une rationalisation en douceur », Sociologie du travail, vol. 58, n° 3, p. 227-252.
  • Bertillot H. (2016 b), « Comment l’évaluation de la qualité transforme l’hôpital. Les deux visages de la rationalisation par les indicateurs », Cahiers internationaux de sociologie de la gestion, vol. 15, p. 11-48.
  • Bezès P. (2004), « Rationalisation salariale dans l’administration française : un instrument discret », in P. Lascoumes, P. Le Galès (dir.), Gouverner par les instruments, Paris : Presses de Sciences Po, p. 71-122.
  • En ligneBezès P. et al. (dir.) (2011), « New Public Management et professions dans l’État : au-delà des oppositions, quelles recompositions ? », Sociologie du travail, vol. 53, n° 3, p. 293-348.
  • Bruno I., Didier E., Benchmarking. L’État sous pression statistique, Paris : La Découverte.
  • Carricaburu D. (2009), « Confinement et déconfinement des luttes définitionnelles : le cas de la périnatalité et des infections nosocomiales », in C. Gilbert, E. Henri (dir.), Comment se construisent les problèmes de santé publique, Paris : La Découverte, p. 55-71.
  • En ligneCastel P., Robelet M. (2009), « Comment rationaliser sans standardiser la médecine ? Production et usages des recommandations de pratiques cliniques », Journal d’économie médicale, vol. 27, n° 3, p. 98-115.
  • Desrosières A. (1993), La politique des grands nombres. Histoire de la raison statistique, Paris : La Découverte.
  • En ligneDesrosières A. (2014), Prouver et gouverner, Paris : La Découverte.
  • En ligneEspeland W. N., Sauder M. (2007), « Rankings and Reactivity : How Public Measures Recreate Social Worlds », American Journal of Sociology, vol. 113, n° 1, p. 1-40.
  • En ligneEspeland W. N., Stevens M. L. (1998), « Commensuration as a Social Process », Annual Review of Sociology, vol. 24, n° 1, p. 313-343.
  • Foucault M. (1975), Surveiller et punir, Paris : Gallimard.
  • Goody J. (1977), La raison graphique. La domestication de la pensée sauvage, Paris : Minuit.
  • HAS (2011), Indicateurs de qualité du dossier du patient généralisé en MCO : campagne 2010, rapport d’analyse descriptive des résultats agrégés.
  • En ligneHibou B. (2012), La bureaucratisation du monde à l’ère néolibérale, Paris : La Découverte.
  • En ligneLascoumes P., Le Galès P. (2004), Gouverner par les instruments, Paris : Presses de Sciences Po.
  • Mas B., Pierru F., Smolski N., Torrielli R. (2011), L’hôpital en réanimation, Vulaines-sur-Seine : Éditions du Croquant.
  • Michel P. et al. (2000), « Évaluer les processus en santé : importance et limites actuelles », Revue d’épidémiologie et de santé publique, vol. 48, p. 571-582.
  • Moisdon J.-C. (dir.), (1997), Du mode d’existence des outils de gestion. Les instruments de gestion à l’épreuve de l’organisation, Paris : Seli Arslan.
  • En ligneMusselin C. (2005), « Sociologie de l’action organisée et analyse des politiques publiques : deux approches pour un même objet ? », Revue française de science politique, vol. 55, n° 1, p. 51-71.
  • En ligneOgien A. (2010), « La valeur sociale du chiffre. La quantification de l’action publique entre performance et démocratie », Revue française de socio-économie, vol. 5, n° 1, p. 19-40.
  • Palier B. (2004), « Les instruments, traceurs du changement. La politique des retraites en France », in O. Lascoumes, P. Le Galès (dir.), Gouverner par les instruments, Paris : Presses de Sciences Po, p. 273-300.
  • Pierru F. (2004), « La fabrique des palmarès. Genèse d’un secteur d’action publique et renouvellement d’un genre journalistique : les palmarès hospitaliers », in J.-B. Legrave (dir.), La presse écrite : objets délaissés, Paris : L’Harmattan, p. 247-270.
  • Pierru F. (2007), Hippocrate malade de ses réformes, Vulaines-sur-Seine : Éditions du Croquant.
  • En lignePierru F. (2013), « Les mandarins à l’assaut de l’usine à soins. Bureaucratisation néolibérale de l’hôpital français et mobilisation de l’élite hospitalo-universitaire », in B. Hibou (dir.), La bureaucratisation néolibérale, Paris : La Découverte.
  • Porter, T. M. (1996), Trust in Numbers : the Pursuit of Objectivity in Science and Public Life, Princeton NJ : Princeton University Press.
  • Pouvourville G., Minvielle E. (2001), « La mesure de la qualité des soins : un défi et un enjeu de santé publique », Revue d’épidémiologie et de santé publique, vol. 49, p. 113-115.
  • Power M. (2005), La société de l’audit : l’obsession du contrôle, Paris : La Découverte.
  • En ligneSauder M., Espeland W. N. (2009), « The Discipline of Rankings : Tight Coupling and Organizational Change », American Sociological Review, vol. 74, n° 1, p. 63-82.
  • En ligneSetbon M. (2000), « La qualité des soins, nouveau paradigme de l’action collective ? », Sociologie du travail, vol. 42, n° 1, p. 51-68.
  • Simondon G. (1989), Du mode d’existence des objets techniques, Paris : Aubier.
  • Thévenot L. (1986), « Les investissements de forme », in L. Thévenot (dir.), Conventions économiques, Paris : PUF, Cahiers de Centre d’étude de l’emploi, p. 21-71.
Hugo Bertillot
CSO (CNRS/Sciences Po) et EA-MOS (EHESP, SPC)
Dernière publication diffusée sur Cairn.info ou sur un portail partenaire
Mis en ligne sur Cairn.info le 04/12/2017
https://doi.org/10.3917/rfse.019.0131
Pour citer cet article
Distribution électronique Cairn.info pour La Découverte © La Découverte. Tous droits réservés pour tous pays. Il est interdit, sauf accord préalable et écrit de l’éditeur, de reproduire (notamment par photocopie) partiellement ou totalement le présent article, de le stocker dans une banque de données ou de le communiquer au public sous quelque forme et de quelque manière que ce soit.
keyboard_arrow_up
Chargement
Chargement en cours.
Veuillez patienter...