Mme Ghislaine FILLIATREAU, directrice de l'Observatoire des sciences et techniques (OST)

M. Robin van Ijperen a déjà présenté le cadre de l'exercice U-Multirank dans lequel l'OST est impliqué. Je vais faire une présentation en quatre points. Lors de la première table ronde, on a largement parlé des classements, de leur raison d'être : mentionner le fait qu'ils sont à la fois en diversification très rapide mais qu'ils font tous un peu la même chose. Il y a un foisonnement et une grande vitalité et beaucoup de difficultés à essayer de voir ce qui se passe dans le monde des classements.

Je vais vous présenter très brièvement et, de manière plus opérationnelle que Robin, ce qui est fait dans l'U-Multirank, ce pilote, ce test, qui est actuellement en cours grâce à un financement de la Commission européenne, et conclure sur l'idée qu'oublier Shanghai ne consiste pas à l'oublier mais à aller plus loin et à travailler.

Pour revenir sur le premier point, qui est le fait que les classements sont de plus en plus incontournables, je rappelle le slogan de l'IREG - l'Observatoire international des classements - qui a été créé en 2004, qui regroupe plusieurs des acteurs très connus des tout premiers classements et qui a édicté les principes de Berlin dont vous avez eu tout à l'heure mention ; les principes de Berlin sont une tentative pour donner un certain nombre de règles méthodologiques minimales quant à la qualité et à la déontologie des classements quand ils sont mis en place. L'IREG s'est auto-constitué pour essayer de donner un certain nombre de règles et pour faire une surveillance, une sorte d'accréditation des classements. Sur la diapositive précédente, j'avais mis le site de l'IREG que vous pouvez aller consulter. L'IREG essaye de produire un matériau très intéressant pour montrer que les rankers ne sont pas fous et ne tirent pas avant de réfléchir mais essayent réellement de voir comment leur pratique peut s'améliorer.

Il y a des besoins croissants et multiples. Le slogan est Rankings are here to stay . L'idée est qu'ils répondent à des besoins incontournables de publics très divers. Ils sont un objet frontière entre beaucoup de demandes et ils ne vont cesser de s'imposer et de jouer un rôle pour beaucoup de publics.

L'idée est aussi que sous la pression de la concurrence - parce que l'idée est d'être le classement de référence car être un classement parmi tant d'autres est bien mais il faut aussi être un classement qui existe - il y a une multiplicité de réponses, de tentatives et de convergences qui se créent autour de classements. Tout le monde apprend les mêmes leçons, toutes les limites que vous avez entendues, tout le monde les a perçues et essaye de les dépasser. On assiste à beaucoup de propositions de systèmes d'information. Il devient aussi très important d'essayer de remettre du sens et de recadrer quand on commence à essayer d'avoir des travaux dans ce domaine et d'en revenir à des systèmes de valeurs, à des objectifs, à des tendances, à ce que l'on veut faire, pourquoi on le fait, dans quel cadre on s'inscrit. Les principes de Berlin essayent de donner ce genre de cadre et je pense qu'il est important de savoir qu'ils existent en ce moment pour s'y appuyer.

U-Multirank, qui est fait par plusieurs des organismes qui sont dans l'IREG, se range dans la catégorie des classements multicritères personnalisés. Cela consiste à ne pas classer en faisant un seul chiffre à partir de différents critères mais à garder séparés les éléments d'information.

La notion de personnalisation consiste en ce que l'utilisateur puisse choisir les clés qui vont orienter le classement et qui lui serviront à s'orienter. Un message de base est que les classements ne sont pas des outils pour vous dire exactement qui est mieux que qui. Ce sont des outils d'information et d'orientation. C'est comme cela qu'il faut les utiliser et c'est comme cela que ceux qui en font essayent de plus en plus de les enrichir. Ils doivent rester simples, mais porteurs de valeurs perceptibles et qui permettent de s'orienter.

Si on regarde U-Multirank - vous avez en haut l'adresse du site du projet - il y a cinq partenaires. Les deux co-coordinateurs sont le CHEPS et le CHE. Vous avez entendu parler de ces deux institutions, notamment le CHE qui fait depuis très longtemps au niveau national allemand un classement qui a été le prototype des classements personnalisés et multicritères et puis le CHEPS qui a fait cet outil de classification des universités européennes, de manière à essayer de commencer à s'orienter dans un univers où les choses sont comparables. C'est sur les travaux déjà antérieurs de ces deux co - coordinateurs que le projet actuel se développe.

Les autres partenaires sont l'OST, l'Observatoire des Sciences et des Techniques, Incentim, un département de l'université de Louvain, spécialisé plutôt dans les indicateurs d'innovation et le CWTS, une structure de l'université de Leyde spécialisée dans la bibliométrie.

Le travail est fait en ingénierie, en business , en sciences de management. Il y a deux associations européennes qui participent à ce test. Pour vous donner une impression de la tentative, l'idée est de capitaliser sur les expériences antérieures, sur Shanghai aussi bien que sur tout ce qui a été fait. On a tous vu qu'il est très difficile de comparer des choses qui ne sont pas comparables. Il faut donc s'orienter dans l'ensemble des établissements. U-map est un outil de classification qui va permettre d'établir des profils de chacun des établissements qui sont observés. À partir de ces profils, on a une perception des orientations majeures des établissements et une idée de ceux qui sont plus comparables aux autres. On a un premier outil d'orientation qui permet d'essayer de respecter la diversité des établissements. La seule façon de le faire c'est d'en prendre compte et de la connaître. Comme vous l'a dit Robin, il y a un certain nombre de dimensions - internationalisation, recherche, insertion professionnelle - qui sont utilisées pour caractériser les établissements. À partir de ce premier outil d'orientation, il y a un certain nombre de données qui vont permettre d'établir non pas tant un classement qu'un rangement ou qu'un deuxième outil d'orientation qui suit le modèle du CHE. L'idée est que c'est un rangement multicritères, on garde les critères séparés, on ne fait pas un seul chiffre qui résumerait plein de choses très différentes. On a une multiplicité d'informations qui restent accessibles séparément. C'est un outil contextuel, parce qu'on ne va pas donner de note individuelle et faire un classement type palmarès, mais on va simplement donner l'appartenance à trois groupes - vert, orange, rouge - qui sont trois grandes catégories dans lesquelles on va vous permettre de ranger l'université que vous êtes en train d'observer. C'est un classement personnalisé, puisqu'on peut choisir les critères et les priorités sur lesquels on va apprécier la façon dont les établissements sont ensuite présentés.

Enfin, c'est un classement qui cherche à être pertinent, à parler au niveau du département pour les établissements, au niveau des disciplines pour les étudiants. L'idée est d'orienter, pour le monde entier, puisque ce classement se veut international, notamment pour l'Europe, mais aussi pour le reste du monde, de s'orienter avec différents points de vue sur les établissements. Si vous allez sur le site du CHE, qui est un très bon modèle, vous avez le résultat d'une série de clés de tri. En tant qu'utilisateur, vous avez choisi toute une série de critères et on vous donne le résultat par université. Là, c'est par ordre alphabétique et on vous dit si elle est verte, orange ou rouge. Il y a la dimension notamment des études, de conditions d'études, sur la façon dont sont organisées les formations, sur l'insertion professionnelle. C'est un outil qui est largement orienté vers les étudiants. L'idée est de donner aux étudiants l'occasion de connaître mieux un univers qui est large, pour lequel ils ont très peu d'informations et de commencer à avoir un certain nombre de clés d'orientations sur un ensemble très vaste d'universités.

Le test se fait sur deux domaines qui sont les sciences de gestion et les sciences pour l'ingénieur. Vous voyez en bas les grandes dimensions qui sont prises en compte par toute une série d'informations.

D'autres caractéristiques essentielles de l'exercice sont simplement liées au fait que l'on apprend très vite à partir des limites des exercices précédents. Il y a une consultation permanente des parties prenantes et il y aura sans arrêt des dispositifs d'amélioration par consultation de l'ensemble des différents types d'utilisateurs. Il y a une explicitation complète des méthodes utilisées ; on peut toujours remonter vers les données, pourquoi et comment elles sont utilisées. On se rend bien compte que les difficultés sont importantes puisqu'il s'agit, dans un cadre international, d'obtenir des données qui touchent notamment à la formation, à des choses qui sont incluses dans les systèmes nationaux. Il y a donc tout un travail de traduction à faire entre pays et entre opérateurs des différents pays pour essayer de les rendre comparables. Il faut que les données soient de qualité. Pour qu'elles soient comparables, c'est leur signification même qui doit être traduite, qui doit être reprise et c'est au vu des systèmes de valeurs et des objectifs que l'on a, en prenant telle ou telle donnée, que l'on va pouvoir l'interpréter dans chacun des systèmes. Il y a donc un travail qui va dans le sens de mieux connaître les différents systèmes et qui est une pierre apportée à l'édifice de l'intégration européenne notamment.

Un autre point, qui est un vrai défi et dont on a tous un peu mais pas assez parlé, c'est la capture des dynamiques. C'est de ne pas faire des photos figées de choses qui sont certes intéressantes mais peu sensibles aux dynamiques des établissements.

Je conclus.

L'idée est qu'actuellement, les systèmes d'information sur les établissements d'enseignement supérieur sont en train de construire une sphère d'information internationale qui est encore très peu structurée, très évolutive. C'est le moment pour contribuer à ces outils, qui sont des outils informationnels. Si on veut être apprécié, si on veut être pris en compte, il faut contribuer. C'est en participant que non seulement on apprend mais qu'en plus on peut faire passer un certain nombre de messages et de réalités.

Il y a un public essentiel qui est à prendre en compte, c'est celui des étudiants. Il reste beaucoup à faire, tout le monde a vu à quel point c'était difficile. L'idée est que ce test n'est que le début et il faut être conscient que si on n'avance pas vite, la mauvaise information, qui s'obtient très rapidement, remplit très facilement cette sphère d'information. Travailler devient crucial en recherche, en s'appuyant sur la recherche, en ayant des programmes, des exercices pilotes, à l'échelle nationale mais aussi internationale pour coordonner les efforts et pour améliorer la qualité des données, améliorer la capacité d'action, rassembler des données de qualité, travailler, apprendre en travaillant.

L'OST, qui est soutenu dans cette action par le ministère, souhaite animer une coordination des acteurs français, tous ceux qui sont intéressés. L'idée est de donner une dynamique, d'au moins s'informer, de comprendre et de faire des exercices. On va organiser un atelier à la fin de l'année. Vous avez ici notre site, mon adresse mail en bas. Contactez-nous et nous vous tiendrons au courant. Tenez-vous informés. Vous avez l'adresse de U-Multirank et l'adresse de l'IREG qui sont sur cette dernière diapositive.

Merci beaucoup.

Les thèmes associés à ce dossier

Page mise à jour le

Partager cette page