CAIRN.INFO : Matières à réflexion

1 – Introduction

1Dans une économie mondialisée, la recherche est devenue un facteur de production stratégique : l’accroissement de son efficacité est désormais considéré comme indispensable au maintien de la prospérité nationale [2]. Telle est la justification officielle de la loi sur la recherche de 2006 [Loi de programme, 2006] complétée par la loi sur l’Université [Loi de programme, 2007] qui a conduit au bouleversement du système de la recherche publique. Elle ne suffit pas cependant à expliquer le particularisme de cette réforme.

2La nouvelle politique de la recherche est le produit d’une histoire complexe qui mêle processus au long terme et événements à court terme : d’une part, les réformes de l’État qui, sous la référence au NPM (New Public Management), sont intervenues dans de nombreux pays étrangers, surtout anglo-saxons, depuis les années 1980, l’influence idéologique et méthodologique de l’OCDE, l’action de la Commission européenne, la construction en Europe, depuis le tournant du siècle, d’indicateurs de « l’excellence » scientifique et, en France, depuis le début des années 1990, l’élaboration, par des hauts fonctionnaires et des consultants du privé, de diverses modalités d’une réforme des politiques publiques [Bèzes, 2009 ; Bruno, 2008, 2010 ; Gingras, 2008 ; Pollit, Boukaert, 2000 ; Vilkas, 2010] ; d’autre part, la critique virulente de la recherche développée par certains responsables de la droite, à partir, principalement, des arguments du Grand Gâchis [Postel-Vinay, 2002], le dédain du gouvernement pour la proposition de réforme de la recherche proposée par le mouvement des chercheurs de 2004 [SLR, 2004] et la forte opposition manifestée par le mouvement universitaire de 2009 [Beaud et al., 2010 ; Brisset, 2009.]

3La réforme de la recherche de 2006 relève d’une conception globale de l’organisation de l’État marquée par la volonté de remplacer l’appareil bureaucratique public par des mécanismes de concurrence marchande et non marchande et, corrélativement, par une réduction de la dépense publique. Cette visée a conduit au remplacement d’une forme d’organisation fondée sur la règle, sur un pouvoir professionnel semi-collégial et sur une pratique généralisée du jugement des pairs par un système qui assigne une position centrale à l’évaluation des travaux et des chercheurs : « […] insuffler à la recherche française une véritable culture de l’évaluation et c’est pourquoi la création de l’AERES constitue le point nodal de la réforme. » [Dubernard, 2006, p. 31]

4Il n’est pas facile de déterminer la nature et la portée réelle de la nouvelle politique de recherche. Non seulement parce que l’évaluation des chercheurs n’est en rien un fait nouveau, mais aussi parce que la présentation des modalités de l’évaluation individuelle, dans les textes officiels, est particulièrement elliptique. Ainsi, « l’Exposé des motifs du projet de loi », après avoir rattaché la réforme à la concurrence économique mondiale et au développement d’une économie de la connaissance, consacre l’essentiel de ses développements à la présentation de l’architecture institutionnelle d’une « gouvernance rénovée ». On n’y trouve que deux brèves références à l’évaluation individuelle : d’une part, l’AERES (Agence d’évaluation de la recherche et de l’enseignement supérieur) dénommée ici l’Agence, est chargée du « suivi » des procédures d’évaluation des chercheurs ainsi que de la diffusion des « meilleures pratiques » et d’autre part, des primes doivent être distribuées à « l’ensemble des chercheurs et des enseignants méritants, sur la base de leur évaluation ». La loi, elle, est encore plus discrète puisqu’elle se contente d’indiquer que « les activités de recherche […] sont évaluées sur la base de critères objectifs adaptés à chacune d’elles et s’inspirant des meilleures pratiques internationales ».

5Les documents officiels ou semi-officiels, qui présentent la nouvelle politique, font ressortir deux caractéristiques paradoxales : l’absence d’objectif général spécifique alors même qu’est sans cesse invoquée la volonté d’augmenter « l’efficacité » des chercheurs, de renforcer leur « performance » et une présentation euphémisée des dispositifs d’évaluation alors que la réforme leur assigne une position centrale. L’information officielle exclut, en fait, que l’on puisse se représenter, par avance, le fonctionnement concret de la nouvelle organisation de la recherche.

6L’analyse de la réforme conduit à distinguer deux registres d’action – une politique générale et des politiques particulières aux diverses disciplines scientifiques – animés par deux logiques de fonctionnement différentes. Cette séparation ne doit pas être confondue avec la distinction, classique pour les politiques publiques, entre les visées et les réalisations. Elle exprime deux modalités complémentaires de mise en œuvre et de justification de la loi : l’une fondée sur la théorie économique et l’autre sur les dispositifs de management. Chacun des deux registres d’action doit être étudié pour lui-même avant d’examiner leurs rapports réciproques [3].

7Cet examen ne porte pas sur l’ensemble du monde de la recherche tel qu’il est, a été ou sera transformé. Un tel objectif supposerait que l’on compare la « rencontre » de deux logiques collectives d’orientation, d’organisation et d’action, de deux « mondes » – l’un classique et l’autre nouveau –, que l’on identifie les enjeux conflictuels, les adversaires en présence et leurs rapports de forces. L’objet d’étude est ici limité aux caractéristiques, conditions et conséquences de la nouvelle politique de la recherche afin d’apporter des réponses à trois questions : quels sont les objectifs poursuivis ? Quels sont les moyens mis en œuvre pour y parvenir ? Et quels en sont les effets attendus ou inattendus ?

2 – Le fondement général de la réforme

8Selon une formule répétitive, la nouvelle politique de la recherche vise à augmenter « l’efficacité » ou la « performance » des chercheurs [4]. Si, pour les activités productives qui autorisent une détermination numérique des résultats escomptés, une formulation si générale peut suffire à définir un objectif général, tel n’est pas le cas pour la recherche. La répétition des termes ne peut dissimuler l’incertitude sur leur signification. Le renforcement de l’efficacité ou de la performance peut aussi bien indiquer, parmi d’autres possibilités, une augmentation de l’inventivité individuelle, un accroissement de la visibilité internationale des travaux, la progression du nombre de publications par chercheur ou la réduction des coûts pour un état donné de la recherche. Sans critères de jugement spécifiques, « l’efficacité » ou la « performance » interdisent de qualifier la politique générale par des buts explicites précis.

9Sauf à raisonner en toute généralité, l’argumentation repose alors sur l’enchaînement de deux propositions : le système d’incitations financières renforce la concurrence individuelle et l’intensification de la concurrence accroît l’efficacité individuelle. La formule, qui intègre les deux propositions, représente la position fondatrice de la « politique générale ». Sa validité relève à un tel point de l’évidence qu’aucune justification explicite ne semble nécessaire. Ce n’est pas une raison suffisante cependant, pour renoncer à tout examen critique.

2.1 – Concurrence et compétition

10La proposition selon laquelle les incitations financières intensifient la concurrence et, par là, renforcent l’efficacité des chercheurs provient de la théorie économique néoclassique. Il ne serait pas trop difficile de présenter directement cette théorie, mais il est plus simple de s’appuyer sur un écrit. Économiste à « l’École d’économie de Toulouse », ancien président de l’université de Toulouse 1, conseiller auprès du président de la République pour l’Enseignement supérieur et la Recherche, un des principaux inspirateurs de la réforme, Bernard Belloc a publié avec un de ses collègues un article grand public sous le titre de « Libérons les chercheurs ». Il y présente de façon concise le fondement de la politique de recherche qui sera mise en œuvre à partir de 2006 : « Une solution simple et efficace consiste à introduire plus de compétition. Les chercheurs les plus féconds doivent bénéficier des meilleures conditions de travail, et les meilleurs enseignants doivent être récompensés. […] L’introduction de la concurrence devra, bien sûr, s’accompagner de la création d’une autorité de régulation, qui évaluera les individus et les universités afin que les chercheurs et les établissements les plus performants soient aussi les mieux dotés. » [Belloc, Friebel, 2004, p. 30]

11« Libérons les chercheurs ». De quoi ou de qui faut-il les libérer ? Le sens général est clair : il faut les délivrer de la règle et de la norme, de l’autorité et de la hiérarchie, de la bureaucratie, des appartenances collectives, de tout ce qui les freine et leur interdit de réaliser leur « nature », de trouver ou de retrouver l’authenticité jusqu’ici largement dissimulée de l’homo œconomicus, bref d’être comme tous ceux qui composeraient l’humanité : des acteurs calculateurs rationnellement orientés par la quête de la maximisation du profit ou de l’utilité. Dès lors que cette « libération » est accomplie, il suffit d’associer un système d’incitations financières à un dispositif de classement pour atteindre l’objectif général et cela en vertu de la relation positive entre recherche du gain, concurrence et performance. Mais le système de la recherche ne peut être assimilé à un échange et encore moins à un marché puisqu’il ne contient ni prix ni mécanismes d’autorégulation. Les luttes scientifiques doivent, en fait, être rapprochées non de la concurrence, mais de la compétition : pour maximiser son gain, il faut arriver le premier ou parmi les premiers. C’est l’objet d’étude de la théorie du tournoi.

12Élaborée, à l’origine, pour comparer des systèmes de rémunération dans l’entreprise industrielle [Lazear, Rosen, 1981], son développement s’est principalement appuyé sur des études empiriques consacrées aux compétitions sportives – golf, courses d’automobiles, athlétisme – et sur des analyses organisées autour de l’interrogation suivante : quelles conditions faut-il réunir pour qu’une compétition sportive soit « intéressante » ? Ce dernier terme désignant tout à la fois, parce que les termes sont interdépendants, une forte audience, une incertitude suffisante au départ, la présence des meilleurs compétiteurs et la croyance qu’ils vont se donner à fond pour l’emporter.

13Ces travaux ont mis en évidence que les variations des performances sont expliquées par les variations de l’effort déployé par les compétiteurs, lesquelles sont elles-mêmes commandées par les variations du système d’incitations financières. Cependant, l’influence du gain varie selon les modalités de la distribution des incitations (concentrées ou dispersées), le degré d’homogénéité des capacités des compétiteurs et l’influence de l’entraînement [Becker, Huselid, 1992 ; Bourg, 2008 ; Downward, Dawson, Dejonghe, 2009 ; Eber, 2008 ; Ehrenberg, Bognanno, 1989, 1990 ; Sobry, 2003, 2005 ; Szymanski, 2003]. Appliquée au nouveau système de la recherche, la relation entre incitation, compétition et efficacité, sous la condition de la quête du gain maximal, semble à la fois pertinente et valide. Il n’est d’ailleurs pas exclu que, dans leur article, Belloc et Friebel aient, en fait, visé la théorie du tournoi. Quoi qu’il en soit, c’est elle qui représente le fondement scientifique de la nouvelle politique de recherche.

2.2 – Peut-on accroître l’efficacité de la recherche ?

14Les variations de la « performance » et de « l’efficacité » des chercheurs s’appliquent, dans les sciences sociales comme dans les sciences dures, à cette unité d’analyse élémentaire qu’est l’article scientifique. Puisque la théorie du tournoi ne connaît que la distinction des biens retenus par la théorie néoclassique – « biens différenciés », « biens d’expérience », « biens de recherche » et « biens de confiance » [Chamberlin, 1933, 1953 ; Nelson, 1970 ; Darby, Karni, 1973] – puisque l’incertitude associée aux acteurs comme aux produits n’exclut en rien l’équivalence généralisée, puisque la réforme de la recherche ignore l’incertitude radicale, les articles scientifiques sont officiellement assimilés à des produits comme les autres et les activités de recherche à des activités comme les autres. Mais cette équivalence est fallacieuse. En effet, les activités de recherche comme les articles scientifiques relèvent de la création scientifique : ils font partie du même univers que celui de la création artistique – tableau, roman ou film – et, comme eux, ils relèvent de l’univers des biens et services singuliers.

15Les singularités sont des biens et services symboliques, mais tous les biens et services symboliques ne sont pas des singularités. Comme tel, l’article scientifique se caractérise par trois traits combinés : la multi-dimensionnalité, l’incommensurabilité et l’incertitude radicale sur la qualité. Tout d’abord, les concepts, théories, interprétations, observations, expériences composent des configurations de qualités interdépendantes, ensuite, les contenus relèvent, le plus souvent, d’une pluralité de démarches d’analyse, enfin, l’incertitude qui caractérise les nouveautés, modestes ou d’envergure, les découvertes, petites ou grandes, leurs succès ou leurs échecs, les surprises de la réversibilité des jugements scientifiques, parce qu’elle est radicale, ne peut être levée que par la confiance [Knight, 1921, 1956 ; Akerlof, 1970]. Prises ensemble, ces caractéristiques sont incompatibles avec l’équivalence généralisée [Karpik, 2007, p. 38-51]. L’analyse des articles scientifiques ne peut se faire qu’à partir d’un autre point de vue : celui de l’économie des singularités.

16La compétition entre les articles scientifiques porte simultanément sur leurs valeurs symboliques (les contenus scientifiques) et sur leurs valeurs matérielles (les rétributions matérielles). Or l’homo œconomicus, dont l’action est nécessairement rabattue sur la seule dimension de la maximisation du profit ou de l’utilité, ne dispose ni des facultés ni des outils d’analyse pour rendre compte de la concurrence symbolique. Tel n’est pas le cas de l’homo singularis qui se caractérise, à la suite de Max Weber, par la combinaison de la rationalité en valeur et de la rationalité en finalité ce que l’on traduit, dans l’économie des singularités, par la distinction et l’imbrication de deux principes d’orientation de l’action : l’un symbolique et l’autre matériel.

17L’orientation symbolique, pour les chercheurs, est jusqu’à la réforme largement organisée autour d’un ensemble de valeurs et de normes classiques : la découverte comme finalité, l’importance de l’originalité, de l’ambition et du plaisir intellectuel, un imaginaire enraciné dans l’histoire de la science, la position centrale du jugement des pairs, le pouvoir collégial ou semi-collégial, une conception du métier organisée autour de l’indépendance individuelle, une compétition animée par la volonté d’être le premier à découvrir et le premier à publier, le premier reconnu et le premier primé. L’orientation matérielle désignait et désigne toujours la tendance à maximiser le gain. Ces deux logiques d’action sont entremêlées et leur influence relative est variable.

18Le processus de production de singularités, sous la forme entre autres d’articles scientifiques, suppose que l’orientation symbolique prédomine sur l’orientation matérielle. Pour le dire autrement, la compétition entre singularités se caractérise par la primauté de la concurrence symbolique sur la concurrence matérielle. Il en résulte que plus l’écart entre l’orientation symbolique et l’orientation matérielle est grand, plus les conditions sont favorables à la création scientifique. À l’inverse, plus l’orientation matérielle est puissante, pour une orientation symbolique donnée, et plus la restriction de l’écart qui s’ensuit défavorise la création scientifique et renforce la tendance à la désingularisation.

19Alors que pour la théorie néoclassique, l’augmentation des gains renforce l’efficacité des chercheurs, pour l’économie des singularités, toutes choses égales d’ailleurs, la relation est inverse. Comment choisir entre ces deux propositions opposées ? La théorie standard, par son ancienneté, son prestige, sa domination intellectuelle et institutionnelle, et la quasi-évidence de ses propositions, semble indiscutable. Comment ne pas croire, en effet, que la recherche du gain favorise la concurrence et donc, en toute généralité, l’efficacité ? Avant que ne se conjuguent les deux puissances réunies de l’orthodoxie scientifique et de la doxa, un détour est nécessaire pour confronter les raisonnements fondés sur l’économie des singularités et, en psychologie sociale, sur la théorie de la créativité.

20Cette dernière se distingue par deux apports apparus dans les années 1970-1980. Le premier repose sur la distinction entre les « motivations intrinsèques » et les « motivations extrinsèques » : les premières regroupent la poursuite du but pour lui-même, la forte implication au travail, l’importance de la curiosité et du plaisir intellectuel tandis que les secondes rassemblent les mobiles étrangers à la tâche proprement dite et, plus particulièrement, les récompenses matérielles. Parce qu’ils divisent l’attention, désagrègent les motivations intrinsèques, les mobiles externes affaiblissent la créativité. [Deci, Koestner, Ryan, 1999 ; Amabile, 1996]. Une telle proposition, fondée sur nombre d’études empiriques, s’oppose frontalement aussi bien à la théorie behavioriste, qui considère que la récompense favorise la répétition d’une action, qu’à la théorie économique néoclassique qui pose qu’un système de stimulants financiers ne peut qu’augmenter la performance individuelle.

21Le second apport introduit la distinction entre tâches « algorithmiques » et tâches « heuristiques », entre les tâches pour lesquelles « le chemin de la solution est clair et simple », et les tâches qui supposent de découvrir un chemin sous la contrainte de l’incertitude. L’influence négative des récompenses matérielles et de l’intensification de la compétition ne s’applique qu’aux tâches heuristiques. [Amabile, 1996, p. 133-150, 160-161]. En ce point, les résultats de l’économie des singularités et de la théorie de la créativité se rejoignent et se renforcent mutuellement : toutes les deux montrent que l’influence négative des récompenses matérielles sur la création ne vaut que pour les activités marquées par l’incertitude.

22La relation inverse entre les incitations financières et les performances des chercheurs remet en cause la relation positive entre la recherche du profit et l’amélioration de la performance ainsi qu’à une interrogation sur le statut de l’acteur. Les incitations matérielles comme l’ethos scientifique ou le mode d’intervention de l’autorité sont des dispositifs de jugement, c’est-à-dire des arrangements symbolico-matériels qui proposent des principes d’orientation de l’action aux chercheurs [Karpik, 2007, p. 67-81]. Ces dispositifs sont des supports cognitifs et normatifs, et aussi des forces éventuellement antagonistes, qui s’affrontent dans des luttes concurrentielles pour exercer leur influence sur les acteurs. Et selon l’issue des rapports de forces, l’un des dispositifs de jugement peut être soumis à un principe de désorganisation et à l’affaiblissement de l’influence exercée. De plus, l’efficacité des stimulants matériels présuppose que les chercheurs puissent être assimilés à l’homo œconomicus. Dès lors que cette condition n’est pas satisfaite, on comprend que cette relation soit négative.

23L’opposition entre l’économie des singularités et la théorie du tournoi est donc frontale. Et, cependant, elle peut être levée. Comme le montrent clairement les études empiriques consacrées aux sports, la théorie du tournoi porte très majoritairement sur des singularités : les grands et petits champions et donc les stars et les célébrités. Dès lors, les propositions associées à la théorie du tournoi relèvent, en fait, de l’économie des singularités. La logique matérielle est donc subordonnée à la logique sportive. Loin de désorganiser, d’affaiblir la visée sportive telle qu’elle est vécue par les compétiteurs, les prix viennent au contraire l’entériner et la renforcer sans menacer pour autant la compétence ou l’autonomie des acteurs.

24***

25Si les notions d’efficacité et de performance, dans les discours et les textes officiels, conservent leur mystère, l’opération de justification doit intégrer l’ensemble des significations qui peuvent leur être rattachées. Seule la théorie néoclassique possède la puissance nécessaire pour y parvenir. Mais en méconnaissant la spécificité de l’activité de création scientifique, elle ne peut s’appliquer à l’univers de la recherche. Comme le démontrent aussi bien l’économie des singularités que la théorie de la créativité, le fondement scientifique de la réforme de la recherche n’est qu’un leurre.

3 – L’excellence scientifique

26La machine à évaluer la valeur scientifique des publications, et des chercheurs eux-mêmes, est fondée sur des indicateurs de l’excellence scientifique et sur deux entités communes à toutes les sciences sociales : une autorité de régulation et des incitations financières.

27L’Agence occupe une position centrale. Son autonomie est fondée sur son statut d’« autorité administrative indépendante ». Elle participe de la nouvelle figure de l’État par la position qu’elle occupe et la fonction qu’elle exerce : elle entérine la séparation entre, selon la terminologie officielle, le « stratégique » (les ministères et l’administration centrale) et l’opérationnel, ici le système de recherche. L’Agence a reçu pleine délégation pour assurer l’ensemble de l’évaluation collective et créer les conditions de l’évaluation individuelle en élaborant ou en entérinant les instruments de mesure et de classement de l’excellence scientifique. Quant aux stimulants matériels, ils prennent principalement la forme de primes dont les montants varient en fonction de la valeur scientifique des chercheurs.

28Les politiques particulières trouvent leurs principaux appuis dans les indicateurs et les classements particuliers à chacune des sciences sociales. Avec eux, l’évaluation passe de la « qualité » à « l’excellence ». La première est l’héritière de la tradition scientifique : elle est le produit de jugements qui s’appuient sur la connaissance directe des travaux, qui peuvent ou non converger et qui composent un univers dont l’ambiguïté résulte aussi bien de la difficulté à comparer des chercheurs qui ne se situent pas dans les mêmes espaces scientifiques, que de l’existence d’une pluralité de critères de qualité ou de la réversibilité des jugements scientifiques soumis à l’épreuve du temps. La réforme remplace cette réalité multidimensionnelle, complexe et problématique par un classement unidimensionnel, univoque et indiscutable.

29Ce sont les indicateurs de l’excellence scientifique qui définissent, concrètement, par leurs critères de jugement, les buts poursuivis par les chercheurs. L’analyse doit donc se concentrer sur les types d’indicateurs employés dans les sciences sociales, sur leurs modes de construction et leurs effets en fonction des interprétations que s’en font les chercheurs. Cette démarche porte sur la comparaison entre les indicateurs français et les indicateurs de langue anglaise, entre les indicateurs employés en économie et en sociologie.

3.1 – Modèle-citation et modèle-comité

30Dans les sciences sociales comme dans les « sciences dures », dans tous les pays et quelle que soit la langue de publication, l’évaluation porte quasi exclusivement sur l’article scientifique et la valeur de l’article varie avec la valeur de la revue dans laquelle il est publié. Au-delà de ces similitudes, les pays relèvent de deux modèles différents.

31Le modèle-citation vaut pour les pays de langue anglaise. Il est le plus ancien [Garfield, 1964] et se caractérise par trois traits principaux : 1) l’usage de grandes bases bibliographiques informatisées qui intègrent les articles scientifiques publiés aujourd’hui par environ 12 000 revues ; 2) le recensement automatisé des « citations » de l’ensemble des articles et le calcul, lui aussi automatisé, du « facteur d’impact » de chaque revue qui correspond à la fréquence avec laquelle les articles de cette revue sont cités par l’ensemble des autres revues sur une période donnée. Cette valeur numérique autorise un classement des chercheurs en fonction de la « visibilité » relative des revues (et donc des articles publiés) et ce rangement est assimilé, par convention, à un classement d’excellence scientifique. Par souci de simplification, les valeurs du facteur d’impact sont regroupées en catégories hiérarchisées dont le nombre varie généralement de deux à cinq ; 3) la comparaison historique est assurée par la répétition dans le temps du recensement des citations.

32Comme les autres pays de langue non anglo-saxonne, la France est définie par le modèle-comité. Elle ne peut en effet faire fond ni sur les citations ni, par conséquent, sur le facteur d’impact. Pour disposer de dispositifs équivalents à ceux du modèle-citation, elle est obligée de construire, artisanalement, des « listes (sélectives) de revues ». Dans le cadre de la réforme, la première « liste de revues » a été élaborée par l’AERES en s’appuyant aussi bien sur le travail de l’ERIH [European Science Foundation, 2009] que sur celui de la Commission 37 du CNRS pour l’économie. Les « listes des revues » pour les SHS (Sciences humaines et sociales) ont été présentées sur le site Internet de l’Agence, le 8 juillet 2008. À chaque discipline des SHS correspondait une « liste de revues » regroupées en trois catégories hiérarchisées : A, B et C. [AERES, 2008]. Cette présentation devait susciter un tollé et, à l’exception de l’économie, une déferlante de critiques provenant en particulier des responsables des revues de sciences sociales.

33Un an plus tard, en 2009, de nouvelles « listes de revues » sont présentées sur le site Internet. Elles résultent du travail de comités de chercheurs – un par discipline – discrètement formés et chapeautés par un « expert » de l’Agence. Les sciences sociales sont divisées en deux ensembles : l’un est rattaché à un indicateur « hiérarchique » – la valeur d’une catégorie de revues est un multiple de la catégorie de revues qui occupe le rang immédiatement inférieur –, et l’autre, à un indicateur « égalitaire » : la valeur est la même pour toutes les revues officiellement certifiées [AERES, 2009]. Ce sont ces outils de mesure plus ou moins actualisés [AERES, 2010, 2011)] qui sont employés pour le calcul des scores et pour le classement d’excellence scientifique des chercheurs et, par voie de conséquence, pour la distribution des ressources de la recherche.

34Les indicateurs quantitatifs du modèle-citation et du modèle-comité ont été soumis à une critique générale pour leurs biais, limitations et effets pervers et cela aussi bien pour les sciences dures que pour les sciences sociales : fétichisme du chiffre, arbitraire de la dimension de classement, faibles corrélations entre les classements des chercheurs, disparité de la qualité des articles publiés dans le même numéro de revue, conformisme, opportunisme, fraudes [Adler, Harzing, 2009 ; Adler, Ewing, Taylor, 2008, p. 166-188 ; Asari, Aziz, 2005, p. 102-103 ; Jennings, 1999, p. 1-4 ; Kermarrec et al., 2007].

35Le modèle-comité présente, en plus, quatre autres limitations : 1) les membres des comités (une dizaine de chercheurs en général), quelle que soit leur bonne volonté, ne disposent pas de l’information pertinente sur les relations entre les revues, les articles et les lecteurs, si bien que la seule mesure de validité réside dans le degré de consensus porté aux indicateurs par la communauté scientifique, un consensus rarement mis à l’épreuve ; 2) les critères de jugement employés par les membres des comités pour construire la « liste des revues » sont rarement connus et vérifiables ; 3) pour faire varier la composition des « listes de revues » dans le temps, les comités ne disposent d’aucun équivalent à la continuité historique des recensements des « citations » ; enfin 4) parce que les articles et les revues relèvent de multiples « prises », tout rabattement d’une réalité multidimensionnelle sur une seule dimension, que l’on nomme après coup « excellence scientifique », est un coup de force difficile à justifier. En somme, les « listes de revues » sont les produits d’un bricolage qui inscrit l’arbitraire au cœur même de la pratique d’évaluation.

3.2 – Économie et sociologie

36Les sciences sociales relèvent de deux types de mesure de la valeur scientifique : l’indicateur hiérarchique s’applique à l’économie ou à la psychologie, l’indicateur égalitaire, à la sociologie, à l’histoire ou à l’ethnologie. Dans le premier cas, les revues sont regroupées en quatre catégories hiérarchiques – la valeur des revues d’un rang est un multiple de celle du rang inférieur – tandis que, dans le second cas, un « périmètre de scientificité » sépare les revues qui produisent de la valeur – la même pour chaque revue – de toutes les autres revues. Dans les deux cas, le score d’un chercheur sur une période donnée, et donc son rang sur le classement, équivaut à la somme des notes reçues pour ses publications sur cette période.

37Les indicateurs ne sont pas des outils techniques neutres, ils exercent des influences sur ceux qui les utilisent : « …individuals alter their behavior in reaction to being evaluate, observed or measured ». [Espeland, Sauder, 2007, p. 6] Et la comparaison de l’économie et de la sociologie doit permettre d’identifier les différences de conséquences qui résultent de l’usage de types d’indicateurs différents.

3.2.1 – L’économie

38En économie, la construction de l’indicateur a largement anticipé la réforme de la politique de la recherche. Officiellement, c’est pour apporter une aide aux jeunes chercheurs pour leurs publications, et aussi pour prévenir l’intervention d’autorités extérieures à la profession, que la commission 37 du CNRS, composée d’économistes et de gestionnaires, a pris cette initiative dès 2001. Deux années plus tard, elle dote la discipline d’une liste de revues de langue française et anglaise, réparties en quatre catégories hiérarchisées : A+, A, B, C. Remaniée et reconduite en 2007, 2008, 2010 et 2011, cette « liste des revues » a acquis une remarquable stabilité et un large prestige international. Elle est reprise en 2009 par l’Agence qui n’y apporte comme changement important que la fusion des deux premières catégories : A+ et A [AERES, 2009 ; Pontille, Torny, 2010]. L’indicateur devient le principe d’orientation de l’ensemble de la discipline [5].

39Deux traits principaux caractérisent cet indicateur : les notes les plus élevées (A+ et A) qualifient les revues anglo-saxonnes, surtout américaines, qui n’accueillent que rarement des auteurs étrangers autres que ceux qui sont déjà intégrés au système de recherche américain tandis qu’à l’exception d’une revue classée dans la 3e catégorie (B) toutes les revues françaises sont concentrées dans la quatrième catégorie (C). Dans la mesure où ce classement a largement circulé dans le monde, il a propagé une représentation de la science économique française marquée par une véritable dénivellation d’excellence entre les revues anglo-saxonnes et les revues françaises.

40L’adoption d’un tel indicateur est paradoxale puisque, comme l’a montré Florence Audier, « les auteurs français accèdent très peu aux revues que la communauté scientifique française a classées pourtant en tête du point de vue de la qualité et de la notoriété » [Audier, 2009, p. 10]. Bien que le rapprochement entre les conséquences probables de cet indicateur et les observations d’une étude qui porte sur la décennie 1998-2008, par suite des différences de classification, soit difficile, il faut cependant noter que l’étude indique que la proportion de publications de chercheurs français dans les revues de grande qualité est restée stable pendant cette période, qu’elle a augmenté modérément dans les revues de qualité moindre et fortement pour l’ensemble des revues [Bosquet, Combes, Linnemer, 2010, p. 9, 36]. Autrement dit, les données traduisent deux mouvements distincts : un accroissement très modéré du nombre de publications dans les revues de grande qualité et une importante augmentation des publications dans des revues de moyenne ou de faible valeur relative : le nombre compensant, dans ce cas, la faible note reçue par chaque article.

41Au-delà des effets généraux dont la connaissance reste encore limitée, la dynamique qui porte l’indicateur hiérarchique semble sans aucun doute exprimer le renforcement du prestige et du pouvoir d’une élite de chercheurs orthodoxes et, en partie pour cette raison, les orientations de nombre de jeunes chercheurs. La marginalisation des théories hétérodoxes, faiblement représentées parmi les revues anglo-saxonnes prestigieuses, ne peut que favoriser ce mouvement.

42Cette visée est indissociable d’autres conséquences qui ne sont ni voulues ni anticipées. Ainsi, à partir de 2007 en Australie, la politique de recherche appliquée à l’ensemble des disciplines scientifiques s’est appuyée sur l’usage d’un indicateur hiérarchique similaire à celui employé par l’économie en France. Il a été tout particulièrement utilisé pour assurer la distribution des crédits de recherche entre les institutions universitaires et il a renforcé la pression exercée sur les chercheurs pour qu’ils publient dans les revues prestigieuses. La généralisation de cette pratique a produit, selon le ministre de la Recherche, des conséquences si néfastes que le 30 mai 2011, cette politique est brutalement arrêtée. Les conséquences considérées comme les plus négatives englobent la tendance à la disparition des revues spécialisées, la diminution du nombre de livres publiés, l’affaiblissement de la recherche interdisciplinaire et, surtout, lourd handicap pour les politiques publiques australiennes, l’abandon des travaux consacrés à l’économie nationale puisque les revues prestigieuses ne connaissent que l’international [Rowbotham, 2011].

43Outre le remaniement de la stratification professionnelle, l’indicateur hiérarchique, par l’intermédiaire de la mobilité des chercheurs, bouleverse la cartographie des systèmes de connaissance. En économie, il favorise l’économie orthodoxe aux dépens de l’économie hétérodoxe, l’économie théorique et l’économétrie aux dépens de l’économie appliquée, l’économie internationale aux dépens de l’économie nationale. Ces effets généraux ont été jusqu’ici ignorés en France. Et, cependant, il n’y a aucune raison que les mêmes causes ne produisent pas les mêmes effets.

3.2.2 – La sociologie

44En sociologie, la critique virulente de la « liste des revues » de 2008 a conduit à la nomination d’un comité restreint de chercheurs qui, sur l’initiative de l’Agence, a élaboré en 2009 une liste non hiérarchisée de revues, celles qui, selon la terminologie officielle, relèvent du « périmètre de scientificité » de la discipline. À ce titre, elles procurent une même note à tous les articles publiés dans ces revues « certifiées ». Cette liste est utilisée pour produire le classement général des chercheurs, elle est aussi employée par l’Agence pour distinguer les « publiants » des « non-publiants » et fixer ainsi les conditions minimales d’appartenance à la communauté professionnelle [Pontille, Torny, 2012]. La qualité minimale des articles publiés devrait varier avec la longueur, et donc la sélectivité, de la « liste des revues » : plus de 1200 pour l’histoire, près de 350 pour la science politique et plus de 200 pour la sociologie.

45La liste égalitaire fondée sur une notation binaire n’est en rien une nouveauté : elle a déjà été utilisée par l’Australie à partir de 1988. Le classement qui en découlait a servi au gouvernement à assurer la répartition des crédits de recherche aux universités et des universités aux unités qui les composent. Il faudra plus d’une décennie pour mettre en évidence les deux principales conséquences de cette politique : 1) une augmentation spectaculaire de la part des publications dans l’ensemble des publications des pays de l’OCDE (plus de 25 %) et 2) une diminution non moins spectaculaire du facteur d’impact des revues : l’Australie qui occupait le 6e rang des pays de l’OCDE pour la « visibilité » des articles, passe au 10e rang et l’écart avec le rang précédent ne cesse de grandir : « What is of concern for Australia is that while journal output has grown rapidly, it is increasingly appearing in lower impact journals. » [Butler, 2003, p. 154] Le développement du productivisme scientifique est accompagné d’une baisse de la qualité scientifique moyenne des publications. Là aussi, il n’y a aucune raison que les mêmes causes ne produisent pas les mêmes effets, en France et ailleurs.

46L’expérience historique confirme donc le raisonnement logique : l’indicateur égalitaire favorise le pluralisme théorique et instaure une dynamique compétitive fondée sur une quête de maximisation de la quantité d’articles publiés. Une telle orientation tend à écarter les recherches ambitieuses et risquées qui demandent un long engagement, les recherches originales qui prennent le risque de bousculer les orthodoxies au profit de problèmes ou de domaines de recherche qui autorisent un engagement limité – collectes faciles et rapides de données, successions d’exploitations partielles –, elle tend aussi à favoriser le conformisme, l’opportunisme, la multiplication d’articles qui se distinguent entre eux par la plus petite différence recevable pour pouvoir être publiés dans les revues « certifiées » et, plus généralement, elle conduit à la baisse de la qualité moyenne des publications. Cette dynamique productiviste est bien plus dangereuse en France qu’en Australie car le modèle-comité ne dispose d’aucun moyen pour suivre l’évolution dans le temps de l’excellence scientifique afin, éventuellement, d’éviter la catastrophe cognitive [Académie des Sciences, 2011 ; Butler, 2003 ; Kermarrec et al., 2007, p. 23-24.]

47Les indicateurs des sciences sociales ne prennent pas en considération le livre. Pour les économistes qui sont si portés à rapprocher leur discipline d’une « science dure », cette méconnaissance ne suscite guère de réactions puisque l’article serait le seul porteur de la connaissance scientifique. Il n’en va pas de même pour la sociologie, la science politique, l’histoire ou l’ethnologie. Or celles-ci semblent se contenter d’une reconnaissance de la valeur du livre limitée à la mise en œuvre de la distinction entre les « non-publiants » et les « publiants ». Une exclusion pourrait éventuellement se comprendre si le livre ne représentait qu’une source mineure de production de connaissances, mais, en fait, la moitié de l’information scientifique est produite par les ouvrages et ces derniers sont presque aussi souvent cités que les articles [Kosmopoulos, Pumain, 2008]. La méconnaissance du livre met donc directement en cause la validité des classements. Mais sa portée est plus générale.

48Elle comporte trois conséquences principales. Tout d’abord, dès lors que le livre compte pour rien et l’article pour tout, la rationalité minimale des acteurs favorise la disparition progressive de la production des livres : une évolution d’ores et déjà constatée chez les jeunes chercheurs. Ensuite, les livres forment le Trésor de connaissances des sciences sociales. Que nous laissent les pères fondateurs et, plus près de nous, la génération des années 1960-1970 (je me limite aux disparus), celle des Claude Lévi-Strauss, Fernand Braudel, Michel Foucault, ou Pierre Bourdieu, sinon des livres ? Comment comprendre que le fétichisme des techniques d’évaluation fasse admettre la disparition de l’objet d’évaluation ? Enfin, le livre dans les sciences sociales, en faisant connaître à un large public les transformations de la société, a instauré depuis longtemps ce que l’on ne cesse de demander aux autres sciences d’accomplir : un rapport à la société, la transformation d’un objet de science en objet de culture.

49L’enjeu général n’est rien moins que la disparition d’un type de connaissance élaboré, original, ouvert aux raisonnements complexes, à la combinaison de la théorie et de la réalité concrète, aux imbrications qui exigent de l’espace et du temps pour être démonstratives, qui conserve souvent sa pertinence au fil des ans, et qui s’adresse aussi bien aux profanes qu’aux professionnels [Gauchet, 2009]. Ainsi, la disparition progressive de la production de livres vient s’ajouter à la baisse tendancielle de la qualité moyenne des articles : c’est l’existence même de certaines sciences sociales qui est en cause. Comment expliquer que l’Agence, qui a la charge officielle de défendre la qualité scientifique, ait pu favoriser si activement cette course à l’abîme ?

50***

51Les différents types d’indicateurs conduisent à des conséquences non seulement différentes mais bien plus, opposées. Rien ne démontre mieux l’absence de signification des termes d’efficacité ou de performance. En économie, l’excellence est définie par l’accès à des revues prestigieuses, ce qui semblerait indiquer que les dispositifs de management seraient capables de renforcer l’inventivité des chercheurs. Mais rien ne vient confirmer une telle interprétation. Il est plus réaliste de poser que la lutte des rangs, au moyen de l’indicateur hiérarchique, renforce la volonté d’accéder aux revues anglo-saxonnes les plus prestigieuses. En sociologie, le même terme d’excellence est appliqué à la multiplication des publications dans des revues dont l’accès n’est pas toujours exigeant. Il n’est pas difficile d’en prévoir les conséquences.

52L’analyse de ces évolutions, et des conséquences qui leur sont associées, n’ont pas encore pris en compte l’influence d’un dispositif qui doit en principe exercer des effets puissants sur la mobilisation des chercheurs : le système d’incitations financières. Il est vrai que sa création est récente et que son statut est ambigu : c’est la raison pour laquelle son examen est inscrit dans la question du consentement.

4 – La question du consentement

53Quels sont les formes et les degrés d’adhésion au nouveau dispositif d’évaluation ? Quel degré de légitimité est accordé aussi bien à la nouvelle politique générale de recherche qu’aux divers outils et pratiques de management ? Jusqu’à maintenant, aucune enquête ne permet d’apporter de réponses à ces questions. Aussi l’examen est-il limité à la détermination et à l’explication de la formation de certains clivages significatifs, probablement les plus expressifs de la diversité de jugements au sein de la communauté des chercheurs. Trois thèmes sont successivement examinés : le degré d’acceptation de la PES (Prime d’excellence scientifique), les variations du consentement selon les disciplines et, enfin, les variations dans l’usage pratique des classements d’excellence.

4.1 – Un enjeu politique : la PES (Prime d’excellence scientifique)

54La PES est une composante essentielle de la réforme : elle représente la forme la plus publique et la plus officielle du système d’incitations matérielles qui doit susciter la quête d’avantages matériels par les chercheurs, intensifier la compétition et, par voie de conséquence, augmenter les performances des acteurs. Créée en 2009, malgré la vive opposition du mouvement universitaire, la PES se caractérise principalement par une forte variation des montants des primes – de 3 500 à 25 000 euros par an –, et une attribution pour une période renouvelable de quatre années. Elle est distribuée par des autorités comme les présidents d’université, les directions des organismes de la Recherche scientifique et technique – CNRS, INRA, INRIA, etc. –, le CNU (Conseil national des universités) ainsi que par une instance nationale et selon deux critères distincts : 1) avoir reçu une distinction scientifique ou faire partie de l’Institut universitaire de France ; 2) faire partie de l’excellence scientifique. La PES n’est pas limitée à la seule prime, son obtention favorise aussi l’avancement des carrières et la distribution des crédits de recherche. La PES représente donc un ensemble d’avantages qui ne sont en rien négligeables et dont le gouvernement attend qu’il suscite une intensification de la compétition individuelle.

55Dès l’origine, la PES est apparue à une partie des chercheurs comme la mesure la plus menaçante pour l’ethos scientifique classique. C’est ainsi qu’en 2009 deux types de critiques vont être, sous des formes diverses, sans cesse reproduits : 1) « La PES est le reflet d’une double campagne idéologique. La première, comme partout, affirme qu’il faut être très sélectif, encourager le mérite, le travail… La deuxième consiste à dévaloriser et considère que, comme tous les corps de fonctionnaires mal payés et qui ne foutent rien, les chercheurs et ingénieurs sont des corps médiocres qu’il faut mettre en extinction. » Et 2) « […] on veut transformer des chercheurs, motivés d’abord par la passion de leur métier (et dont une carrière correcte n’était que la conséquence légitime) en chasseurs de prix et primes. » [Audier, 2009] La critique est double : la PES représenterait un principe d’exclusion des chercheurs et un instrument de transformation de l’être des scientifiques.

56Depuis l’origine, l’argumentaire public de l’opposition à la PES ne s’est guère modifié. Cependant, les raisons invoquées par ceux qui sont favorables ou hostiles à cette forme d’incitations sont plus diversifiées, comme le montre le regroupement des nombreux commentaires des répondants à une enquête menée à l’Inria :

Regroupements des raisons données pour justifier les jugements favorables ou hostiles au PES

• Favorable, sous condition de plus de transparence, de critères non biaisés, de justification publique des choix, d’absence de contrainte d’enseignement.
• Favorable, sous conditions d’un plus grand nombre d’élus et de primes moins importantes, d’un système de primes plus progressif, de deux niveaux de primes (pour les premiers 10 % et pour les 40 % suivants des chercheurs).
• Hostile, en raison des effets pervers : clientélisme, uniformisation, démotivation de l’équipe, récompense de la quantité des publications plutôt que leur qualité.
• Hostile, car en faveur d’une prime pour l’équipe, pour les jeunes chercheurs, pour un partage équitable, pour une revalorisation générale des traitements.
• Hostile car ce n’est pas l’argent qui motive, contre la rentabilité, favorable à une médaille plutôt qu’à une prime.
* Résultats du sondage sur les Primes d’excellence scientifique à l’Inria, SNCS/FSU – INRIA, 2010, site internet SLR.

57On constate des gradations dans les acceptations comme dans les refus, mais, en cas de mobilisation politique, le clivage tend à se simplifier et à opposer deux camps. C’est ce qui se produit chaque année lors de l’appel à candidature qui est suivi, sur le web, de la circulation de pétitions qui appellent au boycott des PES, lesquelles sont suivies de longues listes de noms et de titres [CNU 05, 2010 ; SLR, 2010, 2011].

58Cette constatation conduit à prolonger la discussion sur l’influence exercée par les dispositifs de jugement. Les jugements et actions ne dépendent pas directement des types de dispositifs de jugement, ils résultent aussi des interprétations qu’en donnent les acteurs : « L’influence du dispositif de jugement s’exerce au travers d’une double interprétation : celle du dispositif lui-même dont le point de vue façonne une connaissance orientée et celle de son interprétation par l’utilisateur en fonction de ses critères d’évaluation », « l’acteur sélectionne le dispositif en fonction de l’interprétation qu’il s’en donne » [Karpik, 2007, p. 103]. De même, après avoir constaté que les motivations externes peuvent aussi bien provoquer une influence positive ou négative des motivations externes sur la créativité, T. Amabile adopte une interprétation analogue : lorsque les classements / incitations financières sont perçus comme allant dans le même sens que la logique de la découverte scientifique et qu’ils respectent la compétence et l’autonomie des chercheurs, alors ils favorisent la créativité ; en revanche, lorsqu’ils sont saillants, qu’ils s’autonomisent par rapport au but inscrit dans la tâche, qu’ils provoquent une diversion, qu’ils renforcent la mobilisation concurrentielle, qu’ils sont perçus comme des instruments de pilotage par des forces externes, ils sont interprétés, vécus comme des modalités de contrainte voire de manipulation et ils affaiblissent le processus de création.

59Les effets exercés par le système de primes dépendent donc de la distinction entre les orientations matérielles intrusives et les orientations matérielles non intrusives : les premières appauvrissent la création alors que les secondes la maintiennent ou la renforcent. Les relations entre les systèmes d’incitation et leurs effets sur l’efficacité des chercheurs ne relèvent donc pas de relations de causalité générale, mais par suite de l’influence des interprétations des acteurs, de relations de causalité conditionnelles. Ainsi, les jugements sur la PES exercent des effets opposés sur la performance des chercheurs tout en instaurant un clivage dont la visibilité est maintenue par la reproduction annuelle de l’opération de candidature.

4.2 – Les variations de consentement selon les disciplines

60L’examen comparé de l’économie et de la sociologie met en évidence, deux relations quasi opposées aux instruments du management des chercheurs. Si le Comité 37 du CNRS s’est engagé très tôt, bien avant la réforme, dans la construction des indicateurs, c’est sans aucun doute qu’à côté des raisons officiellement avancées cette construction semblait devoir effacer le mécontentement que nombre d’économistes éprouvaient à l’égard du système d’évaluation antérieur. Ce désir de réforme, associé à certaines transformations institutionnelles comme la création en 2006 de la Paris School of Economics, visait à rejoindre la communauté scientifique internationale organisée autour des États-Unis.

61La section 37, par son mode de composition, pouvait se concevoir comme l’expression de l’ensemble des économistes et cela d’autant plus que, dans la construction des indicateurs, il avait procédé à maintes consultations. Il était donc possible de croire, malgré des réactions critiques isolées, que l’indicateur hiérarchique et le classement d’excellence recueillaient un large consentement. Il aura fallu attendre l’année 2011 pour que cette illusion se dissipe avec la création de l’AFEP (Association française d’économie politique) qui rassemble les hétérodoxies économiques et la publication d’un rapport dans lequel l’association formule une critique radicale du dispositif d’évaluation et réclame son abandon pur et simple au profit du jugement par les pairs rénové, organisé autour d’une procédure contradictoire [Colletis, Lamarche, 2011], une rénovation qui n’est pas nécessairement irréaliste [Lamont, 2009].

62Après avoir manifesté en 2008 une opposition publique plus ou moins généralisée à la politique de l’AERES lorsque celle-ci se confondait avec l’élaboration et la mise en œuvre d’indicateurs hiérarchiques, la sociologie a maintenu le refus d’une partie de chercheurs comme le montrent les prises de position des sections 36 et 40 du CNRS, du CNU-19 et de l’AFS (l’Association française de sociologie). La solution du « périmètre scientifique » qui présente l’avantage de respecter le pluralisme théorique et qui nourrit le scepticisme sur la réalité de la réforme, aboutit à une forte restriction des expressions du conflit. Ce n’est qu’à la périphérie de la discipline que l’on trouve des examens (très) critiques de cette « logique de l’excellence » et de ses conséquences [Beaud et al., 2010 ; Revue du Mauss, 2009].

4.3 – De l’utilité pratique des classements d’excellence

63Plusieurs raisons permettent de comprendre l’adhésion et le soutien apporté à la réforme : les unes sont politiques et idéologiques, les autres résultent d’une sévère critique de l’organisation classique, les dernières tiennent à la possibilité de faire avancer des intérêts. Aucune n’est probablement plus importante, alors même que son expression publique reste fort discrète, que la commodité d’usage des classements d’excellence.

64L’emploi de cet outil autorise un jugement « objectif » sur l’excellence des chercheurs (rien de plus apparemment objectif qu’un nombre) sans avoir à lire leurs publications et à connaître leurs travaux. Pour les autorités politico-scientifiques comme pour les chercheurs qui exercent des responsabilités administratives (et pour ceux qui espèrent les exercer), pour tous ceux qui participent aux décisions de distribution des ressources de la recherche (récompenses, avancement, financement), l’emploi d’indicateurs quantitatifs fait non seulement gagner beaucoup de temps, il permet aussi de faire disparaître les différences de jugement insurmontables, il facilite les sélections difficiles quelquefois anxiogènes et il instaure un lieu qui favorise l’accord collectif et qui, du même coup, élimine l’arbitraire des rapports de forces. À la limite, il permet de routiniser des choix dont la validité, auparavant, étaient problématiques. On comprend l’attraction que suscite l’usage officiel et, pour le moment surtout officieux, d’un outil qui procure de tels avantages : « Dans la pratique, néanmoins, il ne faut pas se cacher que ces indices sont utilisés dans d’autres contextes, parfois de façon cachée, par exemple par les présidents d’université ou les directeurs d’organismes pour les recrutements ou les promotions. » [Académie des sciences, 2011, p. 24]

65Le succès d’une telle pratique est sans surprise. Il se retrouve, en effet, dans toutes les sphères de la vie sociale, Top, hit, box-office, prix littéraires et cinématographiques : les palmarès prolifèrent sur les marchés des singularités. L’aide qu’ils apportent à ceux qui sont confrontés à des choix compliqués permet de comprendre leur puissance d’attraction et l’extension de leur usage [Karpik, 2007, p. 217-225, 329-332]. Il n’en va pas autrement pour la recherche.

66***

67Les clivages qui divisent les chercheurs sur le jugement de la réforme, se recoupent partiellement, c’est dire que les soutiens comme les oppositions à la réforme forment des ensembles hétérogènes. Ils le sont d’autant plus que les préférences s’affirment loin de toute expression publique. En fait, les jugements et les usages pratiques des indicateurs et des classements neutralisent partiellement et silencieusement les arguments et les débats publics.

68L’apparent consentement qui est plus fait d’acquiescements implicites que d’approbations explicites prend cependant deux modalités bien différentes : en économie, la conception de la profession n’est pas séparable de la volonté d’écarter les dispositifs matériels intrusifs qui seraient hostiles à la mobilisation des chercheurs ; en sociologie, le silence semble plutôt exprimer une adaptation pragmatique d’autant plus insoucieuse des conséquences négatives associées à l’usage des outils d’évaluation et de classement que les moyens de les détecter sont inexistants, d’autant plus enclins à une vision pratique des choix que prévaut le scepticisme sur la portée réelle de la réforme.

5 – Conclusion

69L’analyse de la réforme de la recherche conduit à cinq constatations principales. Premièrement, l’indétermination des notions d’« efficacité » et de « performance » combinée à la méconnaissance des caractéristiques particulières de ces singularités que sont les acteurs et les produits de la création scientifique font disparaître le principe de réalité et l’autorité qui devraient accompagner une réforme générale de la recherche fondée sur la théorie économique néoclassique.

70Deuxièmement, dans les sciences sociales, deux politiques ont été élaborées et mises en œuvre en fonction de deux indicateurs et donc de deux classements différents. L’indicateur hiérarchique, avec le critère de jugement mis en œuvre en économie, oriente les chercheurs vers la recherche d’une plus grande visibilité internationale de leurs publications qui peut résulter d’une plus grande audace dans la visée des supports de publication et/ou d’une plus grande qualité moyenne des publications qui reste encore à prouver. L’indicateur égalitaire, utilisé en sociologie, tend à orienter les chercheurs vers l’augmentation du nombre d’articles publiés ainsi que vers la diminution du nombre de livres et, par voie de conséquence, vers une baisse de la qualité scientifique moyenne des publications. Ces différences de visées sont accompagnées de différences systématiques dans les remaniements de la stratification professionnelle, dans les changements des systèmes de sciences ainsi que dans les relations à l’hétérodoxie théorique.

71Troisièmement, quels que soient les buts poursuivis, les avantages souvent cumulatifs qui accompagnent la distribution des ressources de la recherche (primes, modulation de l’enseignement, carrières et financement de la recherche) en fonction des positions occupées dans les classements d’excellence scientifique tendent d’autant plus à renforcer l’intensité de la compétition scientifique que les orientations des chercheurs ont tendance à se confondre avec les pratiques de l’homo œconomicus. Il en résulte un renforcement de l’individualisation des chercheurs, qui transforme les formes typiques de relations au sein de la communauté scientifique.

72Quatrièmement, au-delà des raisons politico-idéologiques générales ou particulières à la science qui divisent et opposent, publiquement ou pas, les partisans et les opposants de la réforme, il faut mentionner ce qui ne l’est que rarement, la commodité de ces classements pour distribuer les ressources de la recherche. Cinquièmement enfin, ces politiques particulières sont d’autant plus risquées qu’il n’existe pas de dispositifs d’observation qui permettraient d’identifier, au cours du temps, le développement des conséquences bénéfiques ou néfastes.

73***

74Lorsque la réforme est réellement mise en œuvre, son paradoxe central tient à l’opposition des buts poursuivis par les diverses sciences sociales. L’unité proclamée dans le discours général se trouve radicalement niée dans les pratiques réelles. Ce qui conduit à s’interroger sur la fonction exercée par l’AERES. Officiellement, elle n’est pas responsable de l’évaluation individuelle, mais elle l’est des outils qui doivent être employés. Comment expliquer que la réforme puisse signifier deux politiques particulières aussi différentes voire opposées que celles qui résultent de l’emploi de l’indicateur hiérarchique et de l’usage de l’indicateur égalitaire ? Comment l’Agence, au nom de la même excellence scientifique, peut-elle se porter garante des deux ? Au-delà de l’entérinement de stratégies professionnelles qui manifestent la centralité, soi-disant combattue et cependant reconnue, des groupes professionnels, il faut bien admettre, dès lors que les visées les plus opposées sont également valides, que les buts scientifiques et leurs conséquences attendues ne sont pas l’essentiel de la réforme.

75La réforme de la recherche est inséparable en fait du processus de dépossession professionnelle des scientifiques : disparition de la collégialité, remplacement de l’autorité stratégique par la gestion opérationnelle et un mépris dont témoignent la multiplication des critiques de la recherche à partir du début des années 2000, le dédain du gouvernement pour le rapport des États généraux de la Recherche de 2004 ou la fameuse conférence de presse du Président de la République du 22 janvier 2009 [Sarkozy, 2009 ; Destemberg, 2009]. Autant de signes du déclassement social des chercheurs subi depuis deux ou trois décennies que vient sanctionner une régression généralisée du pouvoir professionnel et de l’autonomie individuelle par l’imposition d’un mode de gouvernement fondé sur des dispositifs impersonnels qui permettent d’agir à distance et, par voie de conséquence, par la reproduction indéfinie d’une compétition d’autant plus intense que la validité des incitations et la conformité au modèle de l’homo œconomicus deviennent des réalités agissantes dans le nouvel espace de la création scientifique.

Notes

  • [1]
    Je souhaite remercier les deux « lecteurs » de la revue dont les critiques et les suggestions m’ont conduit à apporter nombre de changements à une version précédente de cet article.
  • [2]
    « […] dans une économie mondialisée, où la concurrence ne cesse de s’intensifier, il apparaît de façon évidente que le potentiel de recherche est un atout déterminant pour un pays comme le nôtre… Il existe un lien étroit entre notre recherche et nos perspectives de croissance économique. », Loi de programme n° 2006-450 du 18 avril 2006 pour la recherche, Exposé des motifs, p. 1, Legifrance.gouv.fr.
  • [3]
    Cette étude repose quasi exclusivement sur les documents officiels, officieux, informels ainsi que sur les nombreux écrits de toute provenance qui accompagnent une histoire conflictuelle. Les références sont indiquées au fur et à mesure de leur utilisation.
  • [4]
    « […] que les chercheurs soient… plus efficaces », Sarkozy, 2009 ; « […] une logique de performance de l’action publique », « […] un vivier de chercheurs performants… », « elles (les procédures) grèvent… la performance de leurs (chercheurs) travaux », Dubernard, 2006, p. 7, 9 et 25 ; « […] améliorer l’efficacité des actions de recherche », « […] les équipes les plus performantes… » [Blin, Revol, Valade, 2005, p. 19, 53].
  • [5]
    Il s’y ajoute, en 2010, un nouvel indicateur qui se présente sous la forme d’une très longue liste de revues classées par ordre alphabétique. Elle est exclusivement utilisée par l’Agence pour distinguer les « publiants » des « non-publiants » et pour pouvoir ainsi classer les unités de recherche, sans les pénaliser par rapport aux autres sciences sociales, dans la distribution des dotations financières.
Français

Résumé

L’analyse de la réforme de la recherche de 2006 conduit à distinguer deux registres d’action : un discours général et des politiques particulières aux disciplines scientifiques. Dans le premier cas, la volonté d’augmenter les performances des chercheurs s’appuie sur une intensification de la compétition individuelle c’est-à-dire sur un raisonnement emprunté à la théorie économique néoclassique qui, par ce biais, sert de fondement à la nouvelle politique de recherche. Il est montré que cette théorie ne peut s’appliquer aux produits et acteurs de la recherche et que la justification n’est qu’une illusion. Dans le second cas, une comparaison des pratiques d’évaluation de l’économie et de la sociologie met en évidence deux univers non seulement différents mais opposés d’indicateurs et de classement, de modalités de distribution des ressources de la recherche (prime, carrière, financement), de conséquences, qui résultent de l’usage de critères de l’excellence scientifique non seulement différents mais aussi opposés. L’absence de moyens pour prévenir les effets néfastes inattendus est, par contre, commune aux deux disciplines. On peut s’interroger sur les buts réels de la réforme de la recherche.

Mots-clés

  • AERES
  • chercheurs
  • concurrence
  • compétition
  • création
  • économie des singularités
  • efficacité
  • incitations
  • livre
  • performance
  • recherche
  • résultats
  • singularités
  • théorie néoclassique
  • théorie du tournoi
  • théorie de la créativité

  • Académie des sciences (2011), Du bon usage de la bibliométrie pour l’évaluation des chercheurs, Rapport remis le 17 janvier 2011 à Madame la ministre de l’Enseignement supérieur et de la Recherche.
  • Adler R., Ewing J., Taylor P. (2008), « Joint Committee on Quantitative Assessment of Research: Citation Statistics. A Report from the International Mathematical Union (IMU) », The Australian Mathematical Society Gazette, 35 (3), p. 166-188.
  • En ligneAdler, N. J. & Harzing. A. W. (2009), « When Knowledge Wins: Transcending the Sense and Nonsense of Academic Rankings », The Academy of Management Learning and Education (AMLE) 8 (1), p. 72-95.
  • AERES (2008), Listes de revues scientifiques du domaine des sciences humaines et sociales, site Internet AERES.
  • AERES (2009), Liste des revues AERES pour le domaine… (Il y autant de listes que de domaines. Ces derniers correspondent à une ou plusieurs disciplines), site Internet AERES.
  • AERES (2010 et 2011), Listes de revues SHS (sciences humaines et sociales, site Internet AERES.
  • En ligneAkerlof G. A. (1970), « The Market for Lemons: Qualitative Uncertainty and the Market Mechanism », Quarterly Journal of Economics, 84 (3), p. 488-500.
  • Amabile T. M. (1996), Creativity In Context: Update to the Social Psychology of Creativity, Boulder, Westview Press.
  • Asari M., Aziz N. (2005), « The Use, Misuse and Misconception of Impact Factor », International Medical Journal, 4 (2), p. 102-103.
  • Audier F. (2009), « Évaluation et listes de revues », laviedesidees.fr, 5 octobre, p. 1-15.
  • Audier H. (2009), La prime d’excellence scientifique pour les chercheurs : 20 % de bons, 80 % de cons, site internet Sauvons la Recherche (SLR).
  • En ligneBeaud O. et al. (2010), Refonder l’Université, Paris, La Découverte.
  • En ligneBecker E. & Huselid M. A. (1992), « The incentive effects of tournament compensation systems », Administrative Science Quarterly, 37 (2), p. 336-350.
  • Belloc B. & Friebel G. (2004), « Libérons les Chercheurs », L’Expansion, n° 689.
  • En ligneBezes P. (2009), Réinventer l’État, Paris, PUF, coll. « Le lien social ».
  • Blin M., Revol H., Valade J. (2005), Rapport fait au nom de la commission spéciale chargée d’examiner le projet de loi de programme pour la recherche, Sénat, 8 décembre, p. 1-173.
  • Bosquet C., Combes P.-P., Linnemer L. (2010), « La publication d’articles de recherche en économie en France en 2008. Disparités actuelles et évolutions depuis 1998 », Rapport pour la Direction générale de la recherche et de l’innovation (DGRI) du ministère de l’Enseignement supérieur et de la Recherche.
  • En ligneBourg J.-F. (2008), « Les très hauts revenus des superstars du sport. Un état des approches théoriques et empiriques », Revue d’économie politique, 118, p. 375-394.
  • Brisset C.-A. (dir.), (2009), L’université et la recherche en colère, Un mouvement social inédit, Bellecombe-en-Bauges, Éditions du Croquant.
  • En ligneBruno I. (2008), « La recherche scientifique au crible du benchmarking. Petite histoire d’une technologie de gouvernement », Revue d’histoire moderne & contemporaine, 55 (4bis), p. 28-45.
  • Bruno I. (2008), À vos marques, prêts… cherchez ! : la stratégie européenne de Lisbonne, Bellecombe-en-Bauges, Éditions du Croquant.
  • En ligneButler L.(2003), « Explaining Australia’s increased share of ISI publications. The effects of a funding formula based on publication counts », Research Policy, vol. 32, n° 1, p. 143-155.
  • Chamberlin E. H. (1933, 1953), La théorie de la concurrence monopolistique. Paris, PUF.
  • CNU 05, (2010), Lettre ouverte par des membres élus.
  • Colletis G., Lamarche T. (2011), « Pour une nouvelle démarche d’évaluation des laboratoires de recherche, des enseignants-chercheurs et des chercheurs en économie », Commission d’évaluation, AFEP, p. 1-105.
  • En ligneDarby M.R., Karni E. (1973), « Free competition and the optimal amount of fraud », Journal of Law and Economics, 16 (1), p. 67-88.
  • En ligneDeci E.L., Koestner R., & Ryan R.M. (1999), « A Meta-Analytic Review of Experiments Examining the Effects of Extrinsic Rewards on Intrinsic Motivation », Psychological Bulletin, vol. 125, n° 6, p. 627-668 et discussion p. 692-700.
  • Destemberg A. (2009), « Un commentaire de texte du discours de Nicolas Sarkozy “À l’occasion du lancement de la réflexion pour une stratégie nationale de recherche et d’innovation” (22 janvier 2009) », http://www.sauvonsluniversite.com/spip.php?article1786.
  • En ligneDownward P., Dawson A. & Dejonghe T. (2009), Sports Economics. Theory, Evidence, and Policy, Amsterdam, Elsevier.
  • Dubernard J.-M. (2006), Rapport de M. Jean-Michel Dubernard sur le projet de loi, adopté par le Sénat après déclaration d’urgence, de programme pour la recherche, n° 2784.
  • En ligneEber N. (2008), « Ce que les sportifs ont appris aux économistes », Revue d’économie politique, 118 (3), p. 341-374.
  • En ligneEhrenberg R.G., Bognanno M.L. (1989), « Incentive Effects of Tournaments Revisited: Evidence from the European PGA Tour », Industrial and Labor Relations Review, vol. 43, p. 74-88.
  • En ligneEhrenberg R.G., Bognanno M.L. (1990), « Do tournaments have incentive effects? », Journal of Political Economy, 98 (6), p. 1307-1324.
  • European Science Foundation, ERIH ‘Initial’ lists, 2009, p. 1-2, http://www.esf.org/research-areas/humanities/research-infrastructures-including-erih/erih-initial-lists.html.
  • En ligneEspeland W.N. & Sauder M. (2007), « Ranking and Reactivity: How Public Measures Recreate Social Worlds », American Journal of Sociology, 113(1), p. 1-40.
  • En ligneGarfield E. (1964), « ‘Science Citation Index’– A New Dimension in Indexing », Science, 144 (3619), p. 649-654.
  • En ligneGauchet M. (2009), « Vers une société de l’ignorance. », Le Débat, n° 156, p. 144-166.
  • En ligneGingras Y. (2008), « La fièvre de l’évaluation de la recherche – Du mauvais usage de faux indicateurs », Bulletin de méthodologie sociologique, (100), p. 42-44.
  • Jennings C. (1999), « Citation Data: The Wrong Impact », Neuroendocrinology Letters, vol. 20, nos 1-2, p. 641-642.
  • Karpik l. (2007), L’économie des singularités, Paris, Gallimard, coll. « Bibliothèque de sciences humaines ».
  • Karpik, L. (2010), Valuing the Unique: The Economics of Singularities. Princeton, Princeton University Press.
  • Kermarrec A.-M. et al. (2007), Que mesurent les indicateurs bibliométriques ? Document d’analyse de la commission d’évaluation de l’Inria.
  • Knight F. H. (1921, 1956). Risk, Uncertainty and Profit, Boston, Houghton Mifflin.
  • En ligneKosmopoulos C.& Pumain D., (2008), « Révolution numérique et évaluation bibliométrique dans les sciences humaines et sociales », Revue européenne des sciences sociales (Cahiers Vilfredo Pareto), vol. XLVI, n° 141, p. 73-86.
  • En ligneLamont M. (2009), How Professors Think. Inside the Curious World of Academic Judgment. Cambridge, Mass., Harvard University Press.
  • En ligneLazear E., Rosen S. (1981), « Rank-Order Tournament as Optimum Labor Contracts », Journal of Political Economy, 89, p. 841-864.
  • Loi de programme n° 2006-450 du 18 avril 2006 pour la recherche, Journal officiel, 9 avril 2006.
  • Loi n° 2007-1199 du 10 août 2007 relative aux Libertés et responsabilités des Universités, Journal officiel, 11 août 2007.
  • En ligneNelson P. (1970), « Information and Consumer Behavior », Journal Pol. Econ., 78, (2), p. 311-329.
  • Pollitt C. & Boukaert G. (2000), Public Management Reform. A Comparative Analysis, Oxford, Oxford University Press.
  • Paradeise C. & Thoenig J.-C. (2011), « Réformes et ordres universitaires locaux », in Felouzis G. & Hanhart S. (dir.), Gouverner l’éducation par les nombres ? Usages, débats et controverses. Bruxelles, De Boeck, coll. « Raisons éducatives ».
  • En lignePontille D. & Torny D. (2010), « Revues qui comptent, revues qu’on compte : produire des classements en économie et gestion », Revue de la régulation (8), http://regulation.revues.org/index8881.html
  • En lignePontille D. & Torny D. (2012), « Rendre publique l’évaluation des SHS : les controverses sur les listes de revues de l’AERES », Quaderni, 77, p. 11-24.
  • Postel-Vinay O. (2002), Le grand gâchis. Splendeur et misère de la science française, Paris, Eyrolles.
  • Revue du MAUSS (2009), L’Université en crise. Mort ou résurrection ?, n° 33.
  • Rowbotham J. (2011), « End of an ERA: journal rankings dropped », The Australian, 30 mai.
  • Sarkozy N. (2009), Discours à l’occasion du lancement de la réflexion pour une stratégie nationale de recherche et d’innovation, www.elysee.fr/president/les-actualites/discours/2009/discours-a-l-occasion-du-lancement-de-la-reflexion.6868.html.
  • SLR (2004), États généraux de la Recherche, Rapport.
  • SLR (2010), « Chercheurs refusant d’être candidat à la PES (Prime d’excellence scientifique) », http://sauvonslarecherche.fr/spip.php?article3164.
  • SLR (2011), « Les enseignants-chercheurs refusent eux aussi de candidater à la PES », http://sauvonslarecherche.fr/spip.php?article3179.
  • Sobry C. (2003), Socioéconomie du sport, Bruxelles, De Boeck.
  • Sobry C. (2005), « Essai d’approche théorique de la très inégale répartition des revenus des sportifs participant au sport spectacle » in P. Bouchet & C. Sobry (2005) (dir.), Management et marketing du sport : du local au global, Villeneuve d’Ascq, Presses universitaires du Septentrion, p. 35-46.
  • Sunde U. (2003), « Potential, Prizes and Performance: Testing Tournament Theory with Professional Tennis Data », IZA Discussion Paper, n° 947, p. 1-32.
  • En ligneSzymanski S. (2003), « The Economic design of Sporting contests », Journal of Economic Literature, 41 (4), p. 1137-1187.
  • En ligneVilkas C. (2009), « Des pairs aux experts : l’émergence d’un “nouveau management” de la recherche scientifique ? », Cahiers internationaux de sociologie, n° 126, p. 61-79.
Lucien Karpik
École des Mines de Paris et CESPRA, EHESS
Dernière publication diffusée sur Cairn.info ou sur un portail partenaire
Mis en ligne sur Cairn.info le 05/12/2012
https://doi.org/10.3917/rfse.010.0113
Pour citer cet article
Distribution électronique Cairn.info pour La Découverte © La Découverte. Tous droits réservés pour tous pays. Il est interdit, sauf accord préalable et écrit de l’éditeur, de reproduire (notamment par photocopie) partiellement ou totalement le présent article, de le stocker dans une banque de données ou de le communiquer au public sous quelque forme et de quelque manière que ce soit.
keyboard_arrow_up
Chargement
Chargement en cours.
Veuillez patienter...