Question de M. MATHIEU Serge (Rhône - UMP) publiée le 20/03/2003

M. Serge Mathieu demande à Mme la ministre déléguée à la recherche et aux nouvelles technologies les perspectives de son action ministérielle s'inspirant des recommandations du Comité national d'évaluation de la recherche (CNER) chargé d'apprécier la mise en oeuvre et les résultats de la politique nationale de recherche et de développement technologique. (Rapport publié à la Documentation française). Ce rapport présente de nombreuses propositions tendant à garantir " l'efficacité et la qualité " de la recherche, ce qui est un objectif appréciable qui mérite d'être secondé.

- page 931


Réponse du Ministre délégué à la recherche et aux nouvelles technologies publiée le 24/04/2003

Le rapport du Comité national d'évaluation de la recherche (CNER) intitulé " Evaluation de la recherche publique dans les établissements publics français " analyse successivement les structures dans lesquelles oeuvrent les acteurs de la recherche publique en France et la manière dont sont évalués a priori et a posteriori les individus, les laboratoires, les établissements et les décisions publiques ; enfin, il rend compte de l'impact des évaluations. Il est appelé à constituer un ouvrage de référence sur la question. Ce rapport vise à aider la communauté des chercheurs à " mieux appréhender ce qui est en train de changer " et qui devrait influencer le choix des critères à l'aune desquels il conviendrait que la recherche soit évaluée. Sans le dire explicitement, ce document souligne toutefois clairement qu'une évaluation réussie revient souvent à savoir prendre en compte des points de vue différents aux conséquences non convergentes, voire contradictoires. Ainsi, il faut arriver à faire la distinction entre, d'une part, l'excellence de la recherche et les pratiques nécessaires du " jugement par les pairs " qui y sont attachées et, d'autre part, l'efficacité de la recherche qui appelle un " jugement extérieur " à la communauté concernée. Le rapport ne manque pas de souligner que toute évaluation approfondie de la recherche doit nécessairement reposer sur une " analyse multicritère ". Concernant l'évaluation de l'excellence de la recherche par les pairs, il faut recourir de plus en plus fréquemment à des personnalités extérieures aux institutions concernées par l'évaluation, françaises ou non. Toutefois, bien souvent, la qualification et la compétence des personnes appelées à évaluer ne peuvent se trouver que dans un cercle, même international, étroit et limité. Concernant l'évaluation de l'efficacité de la recherche, il convient de la rendre plus explicite. Cette dynamique passe par le développement d'une spécialité qui se propose d'élaborer critères et méthodes sur la base de concepts adaptés pour apprécier le fonctionnement des organisations et l'utilité des recherches au regard des moyens financiers qui sont attribués ; elle passe enfin par le développement de méthodes de comparaison et de classement ouvrant la voie à un langage commun. Il faut définir et intégrer dans la démarche des critères au contenu qualitatif pour dépasser la tentation d'un recours unique à la bibliométrie et à ses critères mesurables, tout en n'écartant pourtant pas le référentiel majeur qu'elle constitue. Il faut aussi promouvoir l'analyse de l'interdisciplinarité, mais, en même temps, considérer, comme l'écrit le rapport, que " le questionnement est général, mais la réponse doit être élaborée par discipline ". En effet, les différentes sciences ne peuvent être appréciées à l'aune des mêmes critères. Ces quelques exemples indiquent comme combien l'art de donner à l'évaluation toute sa dimension est difficile, quoique indispensable. Pour autant, et également à titre d'exemple, il est possible d'affirmer que certains principes ne devraient souffrir aucune exception. Celui de la non-confusion des rôles entre évaluateur et décideur est le principal d'entre eux. Il est également possible d'affirmer que certaines méthodes mériteraient d'être généralisées. Ainsi, les demandes des autorités responsables d'évaluation devraient toujours correctement distinguer, dans leur cahier des charges, si l'avis requis concerne la pertinence des objectifs (évaluation stratégique), la qualité des résultats (évaluation scientifique) ou l'efficacité du travail (évaluation opérationnelle). De cette réflexion approfondie au service de l'efficacité et de la qualité de la recherche, il s'agit, comme le recommande en substance le rapport, d'explorer les deux voies fécondes suivantes : asseoir peu à peu, à partir des techniques existantes, les fondements d'une " science de l'évaluation " en consentant un effort de conceptualisation de l'évaluation (méthodes, outils, impacts) par un renforcement des recherches ; continuer à améliorer, au profit des acteurs de la recherche et avec leur concours indispensable, la qualité de certaines démarches : la définition des " bonnes pratiques ", la précision des missions pour les experts, la formation à l'évaluation, la rotation régulière des experts, l'analyse et le bilan de fonctionnement des instances d'évaluation mobilisées. Le développement de ces attitudes nouvelles aura un impact et une portée supérieurs à ceux de mesures ciblées qu'il conviendra de prendre, par ailleurs.

- page 1422

Page mise à jour le