2. Devenir acteurs des classements

Devenir acteurs des classements implique tout d'abord la définition de « règles du jeu » connues d'avance et acceptées , mises en oeuvre dans un cadre légitime .

a) Classer : selon quelle « règle du jeu » ?
(1) Une classification européenne des établissements

Avant de classer, il est nécessaire de classifier, c'est-à-dire de déterminer ce qui est comparable.

Or il n'existe à l'heure actuelle aucune typologie des établissements , ni à l'échelle européenne, ni à l'échelle mondiale.

Par typologie, ou classification, on entend la distinction faite entre établissements selon leurs missions et caractéristiques propres, sans considération de leurs performances respectives.

Une telle classification devrait favoriser la mobilité des étudiants et les coopérations entre établissements, ainsi que la reconnaissance des diplômes. Elle doit être conçue comme un outil d'information au service des étudiants et des entreprises, non comme un instrument rigide limitant les ambitions des établissements.

Votre rapporteur insiste sur le fait qu'il ne s'agit pas ici d'établir de hiérarchie, ni d'instituer un système « à plusieurs vitesses », mais de reconnaître ce qui est déjà une réalité, à savoir que tous les établissements d'enseignement supérieurs n'ont pas les mêmes objectifs, et qu'il est donc inapproprié de les juger sur des critères uniformes, si l'on veut pouvoir rendre convenablement justice à leurs performances respectives.

Une forte différenciation d'objectifs existe, en effet, par exemple :

- entre universités pluridisciplinaires ou, au contraire, très fortement spécialisées ;

- entre universités de rayonnement mondial et établissements reconnus au plan national ou régional : ce ne sont pas forcément les mêmes établissements qui sont, par exemple, compétitifs dans la recherche fondamentale au niveau mondial, et pourvoyeurs d'idées fructueuses pour les PME locales ;

- entre établissements privilégiant plutôt la recherche ou plutôt l'exploitation professionnelle des savoirs ;

- entre universités privilégiant la recherche « fondamentale » ou mettant l'accent sur la valorisation ;

- entre établissements impliqués ou non dans la formation professionnelle à tous les âges.

Pour être utile toutefois, une telle classification devrait être multidimensionnelle et flexible :

- d'une part, elle ne devrait pas être univoque, mais comporter plusieurs facettes ;

- d'autre part, elle ne devrait pas être rigide, mais susceptible d'évoluer dans le temps.

(2) Des classements diversifiés « à la carte »

Les limites de classements trop généraux étant reconnus, la tendance est à privilégier des classements diversifiés, « à la carte » , c'est-à-dire établis par l'observateur (étudiant, enseignant, chercheur...) en fonction de ses propres priorités.

En premier lieu, il est souhaitable de comparer les programmes à l'intérieur d'une même discipline , plutôt que de comparer entre eux des établissements dont certains sont spécialisés, d'autre multidisciplinaires, et recouvrant en définitive des champs variés. L'Université Jiao Tong de Shanghai a pris cet impératif en considération depuis 2007, en ajoutant à son classement global un classement par grandes disciplines (ARWU-FIELD 72 ( * ) dans 5 domaines : sciences sociales, médecine et pharmacie, sciences de la vie, sciences de l'ingénieur et de l'informatique, sciences dures et mathématiques).

En second lieu, il convient de laisser à l'utilisateur des classements la responsabilité du choix de ses priorités, étant entendu qu'un certain nombre d'indicateurs de base devraient être mis à sa disposition .

Ce type d'approche est notamment préconisé par le groupe international d'experts des classements (IREG), qui a adopté à Berlin, en mai 2006, une liste de « bonnes pratiques », ayant vocation à guider les concepteurs de classements.

LES « PRINCIPES DE BERLIN » POUR DE BONNES PRATIQUES EN MATIÈRE DE CLASSEMENTS

Les principes adoptés à Berlin en mai 2006 par le groupe international d'experts des classements (IREG) sont notamment les suivants :

- reconnaître la diversité des établissements et prendre en compte leurs missions et objectifs spécifiques ;

- assurer la transparence de la méthodologie utilisée pour leur conception ;

- limiter au strict minimum les changements de méthode qui affectent la lecture des résultats ;

- mesurer des résultats plutôt que des contributions ;

- utiliser des données vérifiées et vérifiables ;

- offrir un choix sur la manière dont les classements sont présentés, c'est-à-dire permettre à l'utilisateur d'un classement de fixer ses propres priorités.

L'utilisation d'Internet accroît les possibilités d'un traitement diversifié et personnalisé de l'information. Le classement « à la carte » se développe à l'étranger, mais avec moins de retentissement que les principaux classements internationaux, dans la mesure où les enseignements que l'on peut en tirer sont plus nuancés.

Deux exemples de ce type de « classement » méritent d'être mentionnés :

- Le « ranking » effectué par le Centrum für Hochschulentwicklung (CHE) allemand , précédemment évoqué : ce think-tank met à disposition de tous, sur Internet, des indicateurs très divers auxquels chacun est libre d'attribuer l'importance qu'il souhaite. Ces évaluations sont établies par disciplines d'enseignement. Il n'en résulte pas de comparaison globale entre établissements, l'idée étant qu'il n'existe pas de « n° 1 » mais que chacun a ses forces et ses faiblesses. Ces évaluations sont par ailleurs multidimensionnelles : pour une discipline donnée, il existe plusieurs indicateurs, ce qui permet là encore d'identifier les forces et faiblesses du cursus considéré. Ces évaluations adoptent plusieurs perspectives, au sens où elles reposent sur le questionnement de différents acteurs (étudiants, professeurs). Aucun poids prédominant n'est donné à tel ou tel indicateur, les attentes des étudiants étant considérées comme hétérogènes. À eux d'établir leurs propres pondérations entre critères.

En définitive, le CHE n'attribue pas de rangs mais classe les établissements, pour chaque indicateur, en trois groupes (premier tiers, deuxième tiers, troisième tiers) afin d'éviter que des différences ténues (éventuellement imputables à la marge d'erreur) ne soient interprétées comme significatives.

EXEMPLES D'INDICATEURS UTILISÉS PAR LE CHE POUR SES ÉVALUATIONS

Les indicateurs s'adressent essentiellement aux étudiants, mais aussi aux professeurs, à qui ils apportent une information en vue de leur orientation. Chaque indicateur peut éventuellement être la consolidation de plusieurs sous-indicateurs. Tous les indicateurs ne sont par forcément utilisés pour chaque évaluation (en fonction de leur pertinence par rapport à la discipline envisagée). Des statistiques et informations diverses sont également apportées pour chaque cursus, faisant du site Internet du CHE une base de données très complètes sur l'enseignement supérieur allemand.

Les principaux indicateurs sont les suivants :

- Indicateurs factuels :

. montant moyen des financements extérieurs (rapporté au nombre d'universitaires) ;

. nombre moyen de doctorats (par professeur) ;

. nombre de publications par universitaire (sur trois ans) ;

. nombre moyen d' « inventions » (pour les disciplines scientifiques) ;

. nombre de citations par publication.

- Indicateurs d'opinion : l'opinion des étudiants

. sur la relation avec les professeurs ;

. sur la relation avec les autres étudiants ;

. sur les cours proposés ;

. sur l'organisation des études ;

. sur la bibliothèque ;

. sur les locaux ;

. sur les moyens multimédias ;

. sur la préparation à l'entrée sur le marché du travail

etc.

- Indicateurs d'opinion : L'opinion des professeurs

. institutions recommandées par les professeurs pour la qualité de l'enseignement ;

. institutions recommandées par les professeurs pour la qualité de la recherche.

Source : CHE, http://www.che.de

- Un autre exemple de système d'information, en cours d'élaboration, est fourni par l'initiative des deux organisations représentant les universités publiques américaines , visant à l'établissement d'un « portrait des universités ».

Cette initiative fait suite aux conclusions de la Commission sur l'avenir de l'enseignement supérieur 73 ( * ) , qui a souligné les nombreuses faiblesses du système universitaire américain. Malgré ses bons résultats dans les classements internationaux, ce système universitaire n'est pas moins critiquable. La Commission précitée souligne notamment sa qualité inégale , son caractère inéquitable , et le manque d'informations claires et accessibles sur des aspects cruciaux , avec pour effet d'une part, d' « empêcher les décideurs et le public de prendre des décisions informées » et, d'autre part, de « s'opposer à ce que l'enseignement supérieur démontre sa propre contribution au bien public ».

En conséquence, les deux principaux représentants des universités publiques ont lancé un projet de système d'information basé sur la responsabilité de chaque université 74 ( * ) , devant procurer des données robustes, comparables et transparentes sur les caractéristiques des étudiants et des institutions, le coût des études et les résultats de l'enseignement.

L'intérêt de ce type d'initiative est d'être fondé sur un travail d'harmonisation, en amont, des indicateurs .

Mais pour mettre en oeuvre ce type d'approche, encore faudrait-il disposer, en France, d'indicateurs harmonisés et accessibles.

* 72 Academic ranking of world universities by broad subject fields.

* 73 « A test for leadership : charting the future of U.S Higher Education », Rapport de la Commission sur l'avenir de l'enseignement supérieur nommée par Mme Margaret Spellings, Secrétaire à l'Éducation (septembre 2006).

* 74 Ce projet, baptisé « Voluntary System of Accountability », est dirigé par l'American Association of State colleges and universities (AASCU) et par la National Association of State Universities and land grant colleges (NASULGC). Il concerne 600 universités publiques, enrôlant 7,5 millions d'étudiants.

Les thèmes associés à ce dossier

Page mise à jour le

Partager cette page