UNIVERSITES

Demain quelle évaluation des établissements d’enseignement supérieur?

La publication sur le site du ministère de l’Enseignement supérieur et de la Recherche du rapport rendu fin décembre par Denis Pumain et Frédéric Dardel (lire ci-contre) sur l’évaluation de la recherche et de l’enseignement supérieur marque l’entrée dans la dernière étape du processus de passage de l’Aeres à l’HCERES (Haut conseil de l’évaluation de la recherche et de l’enseignement supérieur).

Vilipendée, accusée de tous les maux, bouc émissaire idéal d’un monde de l’enseignement supérieur et de la recherche en mal de repères, l’Aeres n’aura donc vécu que sept ans. Mais ceux qui espéraient bien en revenir aux petites procédures entre amis dans leurs laboratoires et leurs UFR risquent d’être déçus : l’évaluation des formations et des laboratoires est un acquis auquel les rapporteurs n’entendent pas renoncer.

Ne pas casser l’outil existant

Faisant remarquer que l’Aeres ne s’était sans doute pas assez inspirée des pratiques évaluatives déjà en vigueur avant sa création, Denis Pumain et Frédéric Dardel commencent pas insister sur la nécessité d’«essayer de capitaliser sur ce que l’AERES a pu apporter de positif, notamment dans l’évolution de ses pratiques». Ils n’en considèrent pas moins que la création de la nouvelle agence doit «permettre de remédier aux dispositifs et aux pratiques ayant entraîné ce manque de confiance dans l’institution».

Des procédures simplifiées

Regrettant l’«excessive bureaucratisation» de l’Aeres, les rapporteurs suggèrent que la nouvelle agence travaille dans le sens d’une «simplification» de ses procédures. Les deux rapporteurs recommandent de «privilégier une évaluation globale des stratégies de formations au niveau de chaque site plutôt que l’évaluation individuelle des formations».

La nouvelle procédure d’accréditation prévoit en effet une concertation des établissements au niveau du site pour coordonner leur offre de formation en fonction du projet stratégique du site. «C’est la cohérence de cette organisation qui doit être évaluée et non plus le contenu de chaque maquette de diplôme.»

Se concentrer sur l’essentiel

Dans leur rapport, les deux experts demandent la fin des redondances entre des évaluations pratiquées par différentes instances: «Pour l’évaluation des établissements, le rôle du HCERES est de se concentrer sur la stratégie scientifique, tandis que la Cour des Comptes ou les inspections générales évaluent d’autres aspects».

Plus de confidentialité

C’est un point crucial tant certains évalués ont mal vécu ces dernières années de voir leurs carences être mises publiquement en exergue sur le site de l’Aeres. Soulignant l’importance de prendre en compte les risques en termes d’intelligence scientifique et économique, Denis Pumain et Frédéric Dardel préconisent de «distinguer le rapport détaillé qui doit rester confidentiel et la publication en ligne d’un avis synthétique par le Haut Conseil».

Organismes et établissements: une évaluation différente

Les chercheurs le demandaient, les rapporteurs le suggèrent: il y a d’une part les organismes de recherche et d’autre part les établissements d’enseignement supérieur. «Les seconds correspondent à un modèle relativement standard et largement répandu sur le plan international, ils peuvent donc faire l’objet d’une procédure d’évaluation normalisée et sont plus faciles à appréhender par des experts internationaux. Les premiers sont en revanche beaucoup plus divers et leur évaluation est probablement plus complexe à mettre en œuvre». On se souvient effectivement de la levée de bouclier qu’avait provoqué l’évaluation – très critique – de l’Inserm par des experts internationaux mandatés par l’Aeres en 2008.

Une nouvelle logique: l’accréditation des formations

Comme l’expliquent les rapporteurs avec la nouvelle loi sur l’ESR on passe d’une «évaluation ex ante des maquettes détaillées à une évaluation ex post des formations existantes». La logique d’accréditation responsabilise les établissements qui se verront transférer une grande partie du processus au travers de la mise en place d’une auto-évaluation des diplômes.

Denis Pumain et Frédéric Dardel préconisent donc de «passer d’une évaluation exhaustive des maquettes individuelles des diplômes, à une analyse plus stratégique de l’offre de formation, s’appuyant en particulier sur les auto-évaluations et l’évaluation par les étudiants». Comme on le dit beaucoup en ce moment «Chiche».

Olivier Rollot (@O_Rollot)

Previous ArticleNext Article
Ancien directeur de la rédaction de l’Etudiant, ancien rédacteur en chef du Monde Etudiant. Olivier Rollot a développé de nombreuses expertises au service des communautés éducatives. Son expérience fait de lui un expert confirmé des stratégies de relation presse et des enjeux de communication et d’image pour l’enseignement supérieur. Il est également un expert reconnu des pédagogies innovantes et des nouveaux publics de l’enseignement supérieur, il est en effet l'un des experts français de la Génération Y. Olivier Rollot est directeur exécutif du pôle communication de HEADway Advisory depuis 2012 et rédacteur en chef de "l’Essentiel du Sup" (newsletter hebdomadaire) et de "l’Essentiel Prépas" (webzine mensuel).

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Send this to a friend