1L’expertise scientifique [1] est devenue à la fois l’une des ressources majeures pour la fabrique des politiques publiques et l’objet de contestations. Ces dernières ont été amplifiées par les crises environnementales et sanitaires qui ont sévi en Europe à partir de la fin des années 1980. Le manque d’indépendance de l’expertise à l’égard des intérêts et des enjeux économiques et politiques est souvent dénoncé. À l’opposé, le caractère étroit d’une expertise qui ne prendrait en compte que les risques avérés et qui rejetterait les incertitudes est régulièrement critiqué. L’expertise constitue ainsi un enjeu de conflits et fait l’objet d’attentes contradictoires. Pour simplifier, certains demandent une expertise scientifique purifiée, neutre, objective, alors que d’autres souhaitent que l’expertise soit démocratisée, pluraliste, inclusive. D’un côté, on attend d’elle une source de légitimité forte, permettant de trancher des problèmes dans l’urgence en s’appuyant sur des « faits scientifiques » ; de l’autre, on attend une capacité à explorer des questions complexes en mettant à l’épreuve les connaissances disponibles et les positions des acteurs en présence.
2En France et en Europe, ces vingt dernières années sont donc celles d’une transformation structurelle de l’expertise scientifique et du gouvernement des risques dans des domaines divers : santé, environnement, social, etc. On passe d’une période où l’expertise était enchâssée dans les structures du pouvoir administratif et politique à une nouvelle ère, celle des agences (partiellement) autonomisées des arcanes ministérielles et plus visibles dans l’espace public, affirmant transparence et indépendance comme les maîtres mots de l’expertise. Ces transformations amplifient aussi une tendance de fond à la professionnalisation de l’expertise, à sa mise en ordre par des normes de procédures (comme par exemple la norme Afnor) et des chartes de l’expertise. Comment interpréter ces changements et leurs effets sur le gouvernement des risques ? L’expertise scientifique a-t-elle gagné en « pureté » ? Est-elle plus ouverte ou est-elle au contraire enchâssée dans un nouvel univers bureaucratique ?
3Dans un tel contexte, les études en science, technologie et société (STS) adoptent une perspective originale dans la mesure où sont mises en évidence les dimensions politiques de l’expertise scientifique, alors que celle-ci est généralement considérée comme une activité technique. Remettant en cause les mythes de l’indépendance et de la pureté de l’expertise, ces travaux mettent en exergue le travail de démarcation entre science et politique, travail de purification qui met le politique (les valeurs, les intérêts, les émotions, etc.) à distance et vise à construire une forme d’autorité proche de celle de la science (Jasanoff, 1987).
4Le présent article présente une synthèse de ces travaux en mettant en évidence deux grandes contributions : l’analyse de l’expertise comme technologie de pouvoir et le débat sur la démocratisation de l’expertise.
L’expertise scientifique comme technologie de pouvoir
5L’ouvrage de Sheila Jasanoff, The Fifth Branch – Science Advisers as Policymakers, constitue probablement la première contribution systématique qui analyse l’expertise scientifique comme une technologie de pouvoir (Jasanoff, 1990). Au-delà du caractère contingent de toute situation d’expertise, au-delà de l’analyse des jeux rhétoriques et des formes de délibération propres aux comités d’experts, cet ouvrage met l’accent sur les processus de construction de la crédibilité de l’expertise.
6Le travail de démarcation qui conduit à qualifier l’évaluation des risques comme une activité scientifique en constitue un élément essentiel. En tant qu’activité scientifique, l’évaluation des risques relèverait de la compétence exclusive des communautés spécialisées et devrait être soigneusement protégée d’influences économiques ou politiques. Ce travail de démarcation procède d’investissements rhétoriques, particulièrement saillants aux États-Unis, comme en témoigne la récurrence d’expressions du type : science based evaluation, sound science, etc. Jasanoff souligne aussi l’importance des investissements institutionnels qui soutiennent ce travail de démarcation à partir des années 1970, avec notamment : la création de l’Environmental Protection Agency, le renforcement du dispositif des agences sanitaires, la généralisation de la pratique d’évaluation par les pairs ; la création d’un standard pour l’analyse des risques ; la distinction conceptuelle entre évaluation et gestion des risques et le principe de séparation entre les deux fonctions (« Livre rouge » du National Research Council [NRC, 1983]) (Jasanoff, 1987). On assiste, depuis les années 1970 aux États-Unis et depuis la fin des années 1990 en Europe à un renforcement des procédures qui codifient et encadrent l’expertise scientifique, avec la mise en œuvre assez systématique des principes de compétence, indépendance et transparence.
7L’analyse de l’expertise en pratique permet de saisir les jeux des acteurs autour de ces règles de procédure : l’influence de la composition disciplinaire des comités d’experts dans la définition des problèmes à traiter (Roy, 2001) ; le rôle des comités d’experts dans la rédaction des questions auxquelles ils doivent répondre et dans la définition de ce qui est rendu public (Estades et Remy, 2003) ; la très faible collégialité de la production d’expertise en comité, en dépit du discours sur les éléments qui permettent de produire une expertise robuste (l’interdisciplinarité, le principe du contradictoire, etc.) (Granjou et Barbier, 2010). Le pouvoir des experts réside dans la puissance des équipements qu’ils mobilisent (Trépos, 1996). Ces équipements (des modèles, des bases de données, des protocoles d’analyse, etc.) sont le produit de choix d’investissements, de compromis et de conventions sociales. Même hors des conflits d’intérêts caractérisés (système des revolving doors aux États-Unis, collusions dans l’affaire du Mediator, etc.), un expert n’est donc pas indépendant de la communauté à laquelle il appartient et qui implique des attachements cognitifs, matériels, sociaux et économiques. Le travail de démarcation, essentiel pour asseoir la crédibilité de l’expertise, est d’une extrême fragilité.
8La réputation des organisations qui produisent l’expertise est également une ressource importante de la production de sa crédibilité. À propos de la Federal Drug Administration (FDA), Daniel Carpenter (2010) montre que sa réputation s’est construite sur la base de son pouvoir conceptuel, c’est-à-dire de sa capacité à définir les standards d’analyse qui sont adoptés par l’ensemble des acteurs et définissent les risques ainsi que la façon de les évaluer. Stephen Hilgartner (2005) relativise cet effet de réputation en analysant un cas où la même organisation (le National Research Council) a produit trois rapports sur un même sujet (l’obésité et les conseils nutritionnels), qui ont connu des niveaux de crédibilité fort différents. Il souligne alors l’importance du travail de « mise en scène » de l’expertise : la mobilisation de ressources qui contribuent à sa crédibilité (le prestige des institutions, la renommée des experts, etc.), la mise en œuvre de procédures (revues de littérature, évaluation par les pairs, etc.) et la gestion des rapports aux différentes audiences (qui consiste en général à masquer les désaccords de façon à ne pas affaiblir l’expertise).
9Au final, la crédibilité est également liée à un processus d’autonomisation du champ de l’expertise et elle tient à la constitution de deux types de ressources.
10Les standards, normes ou protocoles qui opèrent comme autant de boîtes noires dans les modèles d’évaluation des risques. À partir de l’analyse du rapport du NRC (1983), on peut repérer l’importance des risk assessment policies, notamment pour l’analyse des risques des produits chimiques : les règles d’inférence utilisées pour pallier les carences de connaissances sont des conventions sociales, construites au sein de groupes spécialisés, mais sont présentées comme dérivant logiquement de connaissances scientifiques. Ici, l’évaluation des risques est un cas spécifique d’un mouvement plus général, l’importance croissante des mesures et des techniques quantitatives dans les pratiques de gouvernement (Porter, 1995 ; Desrosières, 2008). Jasanoff montre qu’à partir des années 1970, la montée de l’évaluation quantitative des risques est liée à la fragilité des agences réglementaires – qui résulte notamment d’une forte exigence de transparence – et à la mise en cause fréquente de leurs évaluations par différentes parties prenantes, renforcée par les attaques systématiques dont elles firent l’objet dans la période Reagan (Jasanoff, 1992). Comme l’indique Ted Porter, la crédibilité basée sur une « objectivité mécanique » peut circuler aisément dans différentes sphères ou dans différents secteurs ou aires géographiques, contrairement à une crédibilité qui tient aux réseaux d’interconnaissance (Shapin, 1994). Cette thématique de recherche connaît des développements dans différents domaines, avec par exemple les travaux de Cambrosio et alii (2009) sur la standardisation des protocoles et la construction d’une « objectivité réglementaire » dans le secteur médical, Boudia (2010) et Demortain (2011) sur la construction et la circulation des standards de l’analyse des risques et sur la genèse des protocoles de toxicologie réglementaire, etc. La définition de ces standards n’est pas dénuée de considérations stratégiques et économiques, comme le montrent différents travaux qui mettent en évidence l’influence des lobbies économiques (Millstone, 2009).
11Émerge ainsi un champ professionnel distinct, celui de la science réglementaire, qui se constitue dans les années 1970 sur la base des recherches sur les risques dans différents secteurs (aéronautique, technologies nucléaires, etc.) et se concrétise avec la création de la Society for Risk Analysis en 1981 (Rip, 1985). Il s’agit bien d’une profession au sens d’Abbott, c’est-à-dire un « groupe de métiers appliquant un savoir abstrait à des cas concrets » (Abbott, 1988). S’il y a un continuum entre science académique (où l’on travaille pour publier dans les revues les plus prestigieuses possibles) et science réglementaire (où l’on travaille d’abord pour évaluer les risques de produits ou procédés afin d’obtenir ou se prononcer sur une demande d’autorisation de mise sur le marché), les compétences, pratiques et cadres d’action des spécialistes de science réglementaire diffèrent de celles de scientifiques académiques (Irwin, Rothstein et alii, 1997).
Démocratiser l’expertise ?
12Le second ensemble de travaux peut donc être rangé sous la bannière de la démocratie technique. Agir dans un monde incertain, de Michel Callon, Pierre Lascoumes et Yannick Barthe en est emblématique (2001). Ces recherches pointent vers une mise en cause du confinement de l’expertise. On retiendra trois grandes thématiques.
13Alors que l’on considère souvent que les controverses publiques sur les questions techniques augmentent l’incertitude et conduisent à focaliser l’attention (et les moyens) sur des problèmes dont la gravité n’est pas avérée (Breyer, 1993), les recherches en STS conduites dans les années 1980 mettent l’accent sur la productivité des controverses (Callon, 1981 ; Rip, 1986). Si elles interviennent assez tôt dans l’élaboration d’une décision, les controverses permettent d’améliorer la qualité du processus décisionnel : elles sont le moteur de l’exploration d’une gamme variée d’options sociotechniques ; par la multiplication des épreuves, elles préviennent une réduction trop hâtive de l’incertitude dans des boîtes noires et aboutissent à la production d’une expertise plus robuste (Gibbons, Nowotny et alii, 1994).
14La mise en débat en amont de l’expertise est importante, car les avis des experts sont très dépendants de la façon dont ont été construits les problèmes et dont sont posées les questions. On parle ici d’effets de cadrage, en reprenant l’expression de Goffman. Un cadrage est un choix, pas toujours explicité, de ce qui est pris en considération et ce qui reste « hors-champ » dans le travail d’expertise. Par exemple, lorsque l’on évalue les risques et bénéfices d’une plante transgénique telle une variété tolérante à un herbicide, faut-il également prendre en compte les conduites techniques qui lui sont associées ? Le référentiel de comparaison doit-il être l’agriculture conventionnelle ou bien l’agro-écologie et l’agriculture biologique ? D’une façon générale, sont généralement exclus du cadre de l’expertise les choix de développement et les modes de consommation. Traiter la question des risques dans un cadre large peut conduire à explorer plus explicitement les origines des incertitudes, à interroger les choix de développement sous-jacents, la nature de l’ordre social ou politique lié à la technique, la détermination des priorités dans les agendas de recherche, etc. L’élargissement peut alors conduire à reformuler les problèmes en termes de gouvernance de l’innovation (Felt et alii, 2007).
15Les catégories d’experts et de non-experts sont elles-mêmes questionnées. Il s’agit moins ici de remettre en cause l’existence de savoirs spécialisés que de prendre au sérieux une diversité de façons de connaître, scientifiques ou non. L’accent est mis sur la distance entre les savoirs de laboratoire, réputés universels, et les savoirs pratiques, liés à l’expérience. Comme le montre l’exemple emblématique de la confrontation épistémique entre éleveurs et experts en radioprotection après le nuage de Tchernobyl étudiée par Brian Wynne, ces savoirs liés à l’expérience se distinguent des savoirs de laboratoire en ce qu’ils sont localisés et qu’ils correspondent à un rapport holiste et sensible à l’environnement (Wynne, 1996).
16Sur la base de ces observations, une partie des chercheurs du domaine STS s’est prononcée en faveur de l’ouverture de l’expertise aux publics concernés et s’est interrogée sur la démocratie de l’expertise, rejoignant en cela les travaux de certains chercheurs en droit (Hermitte, 1997 ; Noiville, 2003).
17Cette position a cependant fait l’objet de critiques internes et externes. L’ouverture de l’expertise et l’accent mis sur les incertitudes accroissent les possibilités de manipulations stratégiques et peuvent être utilisés par les lobbies pour retarder le temps de l’action. Les exemples sont nombreux de situations où des recherches sont financées pour affaiblir l’état des connaissances et remettre en cause les relations qui ont été établies entre le tabac et le cancer du poumon, entre les émissions de CO2 et le réchauffement global, etc. Pour Naomi Oreskes et Erik Conway (2010), on retrouve dans tous ces cas des « marchands de doute », quelques chercheurs financés par des entreprises pour déconstruire les connaissances et fabriquer de l’incertitude. Sans pour autant en revenir à un modèle positiviste, ces auteurs suggèrent qu’il convient de s’appuyer sur des consensus forts établis par des chercheurs dont on vérifie la compétence scientifique dans le domaine considéré. Contrairement au principe de symétrie du programme fort de Bloor qui régnait dans les STS, on ne peut pas traiter symétriquement les centaines de spécialistes mondiaux qui s’accordent au sein du Groupe intergouvernemental d’étude du climat (Giec) et les positions des quelques scientifiques qui nient le lien entre activités humaines et changement climatique. Un des pionniers des STS, Harry Collins, s’est rallié à une position assez proche. Avec Robert Evans, il souligne les limites d’une non-démarcation mise en avant par les STS (Collins et Evans, 2002). La figure extrême de la démocratisation de l’expertise (le développement de forums hybrides mêlant sans hiérarchie des scientifiques professionnels et des parties prenantes) peut conduire à une extension sans limite des participants à l’expertise et à une impossibilité de stabiliser une connaissance pour la prise de décision. Contre ce risque, Collins et Evans proposent d’introduire un nouveau principe de démarcation entre opinion et expertise légitime pour l’action publique : les frontières ne passeraient plus entre scientifiques et non-scientifiques, mais entre différents groupes, détenteurs de compétences et de savoirs différenciés (capacités de contribution à la production de connaissances spécialisées, capacités d’interaction avec des détenteurs de connaissances spécialisées, savoirs liés à une expérience professionnelle, savoirs « profanes », etc.). Les éleveurs de Wynne (1992) et les « groupes concernés » de Callon (1998) y ont donc leur place.
18Quelle est la bonne dose de procédures à introduire pour démocratiser l’expertise ? Quels sont les objectifs poursuivis avec cette démocratisation ? Pour l’heure, l’intensité des débats contraste avec la faiblesse des expérimentations d’ouverture de l’expertise à une diversité de parties prenantes. En Europe, la série de crises a conduit à des réformes de l’expertise scientifique marquées par la création des agences sanitaires. Or, l’expérience montre que, dans l’ensemble, les agences sont loin de constituer des modèles d’ouverture démocratique et adoptent un fonctionnement marqué par des pratiques bureaucratiques (Benamouzig et Besançon, 2005). En France, l’expérience la plus probante d’ouverture de l’expertise est probablement celle du Groupe de recherche du Nord-Cotentin (GRNC). Suite à la controverse et aux polémiques sur un possible excès de leucémies dans l’environnement proche de l’usine de retraitement de déchets radioactifs de La Hague, le processus d’expertise a été ouvert à l’ensemble des parties prenantes et groupes concernés. Les résultats de cette expertise pluraliste ont été à la fois pertinents (ils ont permis de pointer l’importance des risques professionnels, jusque-là négligés) et légitimes (en ayant accepté de traiter toutes les questions posées, de prendre en compte tous les points de vue) (Estadès et Rémy, 2003).
19Sur le fond, il n’est pas inutile de reformuler la position des STS car elle est souvent mal interprétée. Le modèle positiviste de production de connaissances scientifiques ayant été remis en cause, il serait absurde de s’en tenir à une conception positiviste de l’expertise scientifique. Reconnaître la part d’incertitude qui caractérise toute connaissance, accepter que l’expertise soit un processus dans lequel les connaissances gagnent en robustesse lorsqu’elles sont mises à l’épreuve, se doter des moyens pour mettre en évidence les intérêts et les rapports de force, etc. : voilà quelques recommandations issues des travaux des STS sur l’expertise. Il ne s’agit pas de s’en tenir à une position relativiste où tout se vaut, mais de proposer quelques pistes qui permettent de renforcer la crédibilité des connaissances et leur légitimité démocratique. L’enjeu est autant politique que cognitif, car cette nouvelle conception de l’autorité de la science (une science qui ne dit pas « la vérité » mais produit un ensemble de connaissances et de ressources indispensables, mais partielles et entachées d’incertitude) fait peser plus de poids sur le processus politique de prise de décision.
20L’expérience du principe de précaution en illustre les enjeux et les difficultés. Selon ce principe, dans des situations de menaces graves et irréversibles, on peut agir préventivement, sans attendre d’avoir la certitude (la preuve scientifique) des risques encourus. Il faut alors que les mesures préconisées soient proportionnées à la gravité des menaces et qu’elles puissent être révisées afin de prendre en compte les connaissances nouvelles. Les enjeux sont à la fois épistémologiques et politiques. Épistémologiques, dans la mesure où contrairement au principe de prévention qui s’inscrit dans une logique binaire (un produit est sain ou dangereux), on est ici dans une logique ternaire : le produit peut être présumé dangereux, même si l’on n’a pas pu le prouver, car l’absence de la preuve de risque n’est pas une preuve d’absence de risque. Enjeu épistémologique aussi car il convient de prendre au sérieux l’incertitude et l’ignorance, ce qui peut conduire à prendre en compte des hypothèses non encore démontrées, dans la mesure où elles ont un degré de plausibilité suffisant (Godard, 2005), ce qui conduit également à plaider en faveur du pluralisme de l’expertise de façon à explorer des questions et des scénarios extrêmement variés (Stirling, 2008). Enjeu politique, enfin, car cela conduit à décider sans trancher (Callon et alii, 2001) et donc accepter de laisser des problèmes durablement ouverts, comme c’est par exemple le cas de la loi sur la gestion des déchets radioactifs ou des lois bioéthique. C’est une source de difficulté pour le politique, qui ne peut plus se prévaloir de l’autorité de la science pour trancher des questions difficiles.
Note
-
[1]
Cet article reprend une partie d’une communication présentée au Colloque « Sciences sociales : Sortir du paradigme de l’action ? » organisé à Sciences Po par Daniel Benamouzig les 10, 11 et 12 mai 2010. La version complète de la communication paraîtra dans l’ouvrage préparé avec Christophe Bonneuil, Sciences et techniques en société, à paraître aux éditions La Découverte en 2012.