Bulletin Vert n°481
mars — avril 2009

Éditorial du Bulletin 481

Pourquoi parler encore d’évaluation ?

Alors même que de nombreuses voix s’élèvent pour dénoncer une pression évaluative qui se fait chaque jour plus forte, est-il nécessaire de parler encore d’évaluation ?

L’intérêt de l’APMEP pour l’évaluation est ancien. Il y a plus de 30 ans, une commission nationale évaluation était très active et il y a plus de 20 ans la création de l’Observatoire EVAPM insérait résolument le thème de l’évaluation dans les réflexions et les actions de l’association.

Mais de quelle évaluation parlons-nous ? Certainement pas de celle qui se prépare et qui se fait en méprisant les enseignants et quasiment contre eux, même lorsqu’elle prétend être conçue pour les aider.

En 1989 la mise en place d’une évaluation « diagnostique » de début d’année avait certes posé des problèmes, mais elle avait été concertée avec les organisations représentatives et sa préparation avait impliqué assez largement les enseignants et les cadres intermédiaires. Elle était accompagnée de formation (certes insuffisante) et s’appuyait (un peu) sur la recherche. Malheureusement, côté production d’outils, l’innovation a rapidement fait place à la routine, et, plus grave, on a assisté à une véritable trahison des intentions de départ. Ce qui avait été présenté comme devant aider les enseignants à diagnostiquer les difficultés les plus criantes des élèves, s’est transformé en production d’« indicateurs de pilotage ». De plus, les résultats ont été utilisés comme des indicateurs de l’efficacité du système : alors même que les épreuves étaient conçues de façon à ne pas mettre en difficulté plus de 30 % des élèves, des documents officiels faisaient savoir que 70 % des élèves maîtrisaient les savoirs de base. Cette escroquerie intellectuelle marquera pour longtemps la confiance que l’on peut accorder aux entreprises ministérielles en matière d’évaluation.

Il n’est pas question de dénier à l’institution le droit et même le devoir de s’intéresser aux acquis des élèves et de mener des études lui permettant de suivre les effets de sa politique et de préparer au mieux les changements nécessaires.

Le problème est que, dans ce processus, le ministère est à la fois juge et partie. De nombreux exemples ont montré comment, de ce fait, des évaluations se font dans l’ignorance totale des acteurs, des résultats sont publiés ou non, médiatisés ou non, en fonction de l’intérêt ou des politiques du moment.

Les effets pervers des évaluations à grande échelle ont depuis longtemps été mis en évidence par de nombreuses études dans le monde, et cela même dans le cas d’évaluations menées par des organismes indépendant des autorités de tutelle.

Résumons :

  • Les indicateurs obtenus sont le plus souvent de pauvres indicateurs.
    Le plus souvent, la validité est faible et on évalue rarement ce que l’on prétend évaluer. L’adaptation aux épreuves amène à délaisser des objectifs par ailleurs considérés comme essentiels.
  • Les élèves finissent par n’apprendre que pour les tests,
    ce qui conduit à des apprentissages à court terme et à un rapport faussé aux mathématiques.
  • Les enseignants sont immanquablement désignés comme responsables des défauts constatés,
    ce qui les conduit au découragement et à la passivité.

Cependant, tout acteur a le souci de savoir si son action est couronnée de succès, tout élève a besoin de savoir s’il progresse, toute équipe éducative a besoin d’avoir des indices en retour de la qualité de son travail, toute organisation a besoin de savoir si elle remplit correctement sa mission, etc. Alors, où est la contradiction ? En fait il n’y a pas vraiment contradiction, mais plutôt tension entre des aspirations et des intérêts qui peuvent n’être que partiellement convergents.

De ce fait, pour avoir des chances d’être à la fois valide et utile, l’évaluation doit impliquer l’ensemble des acteurs ; cela à tous les niveaux de son organisation, de sa conception à l’analyse des résultats. De plus l’évaluation doit être diversifiée, et il ne peut y avoir de monopole en ce qui la concerne ; elle doit être multiple et ouverte à la confrontation des analyses et au débat.

La présentation dans ce numéro de la dernière étude EVAPM manifeste le fait que les enseignants de mathématiques s’intéressent de façon globale aux acquis des élèves.

Une fois de plus, elle montre qu’une organisation professionnelle est capable de mobiliser les techniques et instruments d’analyse nécessaires à l’établissement d’un bilan aussi objectif que possible de ces acquis. On pourra sans doute considérer que, dans ce procès, l’APMEP aussi est juge et partie et il est vrai que nous ne pouvons agir qu’en confiance avec les enseignants : la méfiance et la défiance ne sont pas à notre programme ! Toutefois, les rapports que nous entretenons avec la recherche et le souci de rendre l’ensemble de la démarche transparente (ce qui devrait être le cas pour toute évaluation) nous empêche d’être au service d’un possible intérêt corporatiste. Ayant évoqué l’idée d’évaluations multiples et contradictoires, nous ne prétendons pas à autre chose que d’avoir là une pièce substantielle à verser au débat.

Nous pensons aussi avoir montré qu’il était possible, sans confondre les différentes fonctions de l’évaluation (diagnostique, formative, bilan, …), de produire des indicateurs et des analyses globales tout en fournissant aux enseignants des instruments d’évaluation diversifiés, référencés et calibrés ; instruments qu’ils peuvent utiliser en toute liberté pour l’évaluation de leurs élèves.

Si l’on veut que les enseignants ne soient pas considérés comme de simples exécutants, nous devons conserver et développer les outils d’analyse qui nous permettent de participer pleinement au débat. Pour cela il reste beaucoup à faire et nous espérons que ce dossier contribuera à convaincre les lecteurs de l’intérêt de la démarche.

 

Les Journées Nationales
L’APMEP

Brochures & Revues
Ressources

Actualités et Informations
Base de ressources bibliographiques

 

Les Régionales de l’APMEP