Alerte aux maths ?

Après l’étude de fin de seconde de mai 2003

Antoine Bodin

- 17 février 2006 -

Document de travail soumis à discussion et à compléments (23 juin 2003)

Ce texte, de type manifeste, ne cherche pas à nuancer et est d’abord écrit pour le bureau de l’APMEP. Il est soumis à discussion, tant en ce qui concerne son contenu que sur l’usage qui pourrait en être fait. Tous les avis seront les bienvenus et pris en compte. Par certains aspects il s’éloigne de la pensée aujourd’hui dominante dans les media : le niveau ne cesse de monter (Nouvel observateur du 10 juin) ; les filles obtiennent de meilleurs résultats que les garçons (émissions France culture de mai dernier en particulier).

Ce qui est présenté ici est le résultat d’une observation mais aussi d’une lecture et d’une interprétation qui doit être discutée ; l’utilisation médiatique non nuancée, ou, pire, à des fins malveillantes de ces propos pourrait nuire à notre communauté : la prudence est donc de rigueur.

D’abord, observer et confronter les points de vue, ensuite trouver un consensus minimum sur ce qu’il convient de dire, sur la façon de le faire et sur les remèdes à proposer. Tout cela dépasse les compétences de l’Observatoire EVAPM et encore plus celles de l’auteur de ce texte.

Au sens strict, l’évaluation doit inclure la prise de position par rapport à la valeur de la chose observée. En ce sens, EVAPM [1] ne s’est pas, ou assez peu, comporté jusqu’à ce jour comme un dispositif d’évaluation des programmes mais plutôt comme un dispositif de recueil d’information préparatoire à, ou susceptible d’accompagner leur évaluation.

Depuis 15 ans, nous écrivons qu’EVAPM, malgré son sigle simplificateur ne fait pas l’EVAluation des Programmes de Mathématiques, mais rassemble des éléments pour l’évaluation de ces programmes, ou plutôt, pour l’évaluation du curriculum mathématique qui, outre les programmes, contient les conditions d’enseignement, les ressources disponibles, la formation des enseignants, ...

Au fur et à mesure que les expériences se sont accumulées, il est devenu plus clair que l’évaluation elle-même, impossible sans les ressources apportées par EVAPM (ou par un dispositif analogue, c’est-à-dire comportant des données empiriques fiables), ne pouvait se faire dans le seul cadre d’EVAPM et qu’un processus interprétatif distinct et distancié de l’observatoire lui-même devait être mis en route.

Finalement, s’il y a eu évaluation explicite dans le cadre d’EVAPM, c’est évaluation de la distance entre les attentes (des programmes officiels et des enseignants) et les compétences que les élèves pouvaient manifester dans des situations standardisées.

C’est aussi l’évaluation de l’adéquation entre les démarches des élèves et les procédures utiles pour résoudre des questions de mathématiques.

C’est enfin l’évaluation de la qualité du questionnement évaluatif que nous sommes capables de formuler.

En termes d’évaluation, ce n’est sans doute pas si mal ! Pour le reste, c’est-à-dire pour l’évaluation du programme lui-même et du curriculum, EVAPM ne fournit, au mieux, que des indicateurs qui demandent à être interprétés et qui peuvent être interprétés de multiples façons.

L’illusion de transparence de l’évaluation (ils disposent de l’information, donc ils savent et ils n’ont qu’à dire...) ne peut finalement conduire qu’à l’imposture.

EVAPM nous a apporté de nombreuses connaissances sur le savoir développé par les élèves et sur les relations entre les compétences qu’ils manifestent, statistiquement, dans des situations différentes ou des domaines de savoir différents. Elle nous a aussi apporté des connaissances sur les pièges de l’évaluation. Elle nous donne cependant peu ou pas d’information sur les pratiques pédagogiques des enseignants et encore moins sur les représentations des élèves. Au moment où la désaffection des filières scientifiques a de quoi inquiéter, EVAPM donne peu d’information utile pour comprendre ce phénomène (nous verrons qu’elle donne tout de même quelques pistes).

Depuis plus de quinze ans qu’EVAPM existe, nous avons toujours fait attention à ne pas mélanger les aspects techniques et didactiques avec les aspects jugements sur le système. Nous avons même autant que possible évité au maximum de prononcer de tels jugements.

EVAPM permettant en particulier des comparaisons dans le temps, on nous a cependant souvent interrogés sur la question de la « baisse du niveau ».

En 1992, Claude Thélot, alors directeur de la DEP (pas encore DPD) a confié au responsable d’EVAPM le soin d’écrire la partie du rapport demandé par Jacques Lang, alors ministre de l’Éducation Nationale, sur la question de l’évolution des compétences des élèves en mathématiques au cours des 20 dernières années.

Il n’était pas, alors, techniquement possible de répondre à la question sur les 20 dernières années, mais sur les dix dernières années les données disponibles (celles d’EVAPM qui n’avait que 5 ans unies à celles du SPRESSE, ancêtre de la DPD) n’ont pas permis de conclure à une baisse de niveau [2].

En 1997, dix ans après la première étude menée en 1987, nous faisions une troisième évaluation en fin de sixième. Malgré les appels du pied de nombre de collègues, qui avaient peut-être justement anticipé la suite, il n’a pas été possible de conclure à une baisse de niveau [3].

En 2000, à la demande du bureau de l’APMEP, nous faisions une évaluation en début de première S. Les données d’EVAPM fin de seconde 1990, permettaient en particulier d’isoler les élèves alors orientés en 1ere C (a priori comparables aux 1ère S de 2000).

La encore, les résultats ne permettaient pas de parler de catastrophe : globalement les résultats étaient même plutôt meilleurs en octobre 2000 qu’en mai 1990, sur ce qui était comparable. Notons que si, en 2023, compte tenu des changements de programmes, il ne reste, parmi les 190 questions posées en 2003, que 10 questions encore utilisables [4], il y a fort à parier qu’elles seront alors aussi bien réussies ou mieux que maintenant. Devrons-nous alors parler de maintien du niveau ? C’est bien sûr l’une des limites des comparaisons dans le temps.

Toutefois, dans le détail, nous avons commencé à percevoir à ce moment, et à signaler, des indices qui nous paraissaient inquiétants. Outre le fait que l’on pouvait penser qu’au mois d’octobre, les élèves remobilisés et déjà « bien dans le bain » auraient dû avoir de meilleurs résultats que ceux qu’ils auraient obtenus au mois de mai précédent, moment où une certaine démobilisation pouvait se faire sentir, les résultats dans les domaines de la géométrie et en ce qui concerne la production de justifications et de preuves étaient significativement plus faibles que 10 ans plus tôt.

L’étude EVAPM menée en terminale en 1999 avait de quoi nous inquiéter, mais il n’y avait malheureusement aucun point de comparaison utilisable. Tout au plus pouvait-on dire (et on l’a dit) que les résultats n’étaient pas ceux que l’on attendait et que la distance était grande entre les objectifs officiels et les objectifs atteints. Mais il s’agit là d’un discours récurrent que l’on sait faire remonter à ... Platon (et donc dépourvu d’intérêt).

Tout cela pour inscrire ce qui va suivre dans le fil d’une histoire et d’une tradition de réserve qui nous empêche de crier à la catastrophe à partir du moindre indice.

Aujourd’hui, les faits nous semblent assez graves pour que nous ayons décidé de sortir de cette réserve.

L’étude EVAPM menée en mai 2003 en fin de seconde montre en effet, pour la première fois depuis le début d’EVAPM, une baisse importante dans les résultats observés. Il s’agit là d’une comparaison entre les résultats d’EVAPM 2003 et les résultats d’EVAPM 1991.

La baisse est visible partout, sauf en statistiques où, au contraire, on enregistre une progression significative. Mais à quel prix ?

Dans le domaine numérique, on peut dire, pour simplifier, que l’on observe une perte de compétences de l’ordre de 25% (passage d’un taux moyen de réussite de 42% à 30% !).

Le reste du tableau parle de lui-même et l’on peut extrapoler pour prévoir ce qu’il se passera dans 10 ans si l’on ne réagit pas avant.

Les 190 questions que nous avons posées étaient conformes aux attendus du programme et, pour la plupart, ne présentaient pas de difficultés particulières (par rapport à ces attentes).

Le taux moyen de réussite est 34%, ce qui est inférieur à ce que nous obtenons habituellement, mais on sait que lorsque l’on change l’instrument de mesure il est difficile de comparer les mesures.

Pour aller plus loin il n’y a que la solution de se reporter aux questions posées, de s’interroger sur leur pertinence et sur la qualité de leur formulation et de se demander ce qu’il faut penser des résultats enregistrés [5].

La variable sexe est représentée ici comme une variable discriminante. Elle l’est de fait, comme le seraient sans doute d’autres variables auxquelles nous n’avons pas accès (origine socioculturelle, salaire du père ou de la mère, nombre de livres dans la bibliothèque familiale,...).

Il est de plus en plus souvent dit que les filles ont de meilleurs résultats que les garçons. En mathématiques, c’est vrai... à HongKong ! En France, depuis le début d’EVAPM, mais aussi pour toutes les études sur épreuves standardisées auxquelles nous avons eu accès, les filles ont, en fait, de moins bons résultats que les garçons.

Si nous pointons ce résultat, c’est qu’il nous semble lié à la question de la désaffection pour les études scientifiques : les élèves les moins attirés par les études scientifiques et en particulier par les mathématiques travaillent moins cette discipline, ils ont donc de moins bons résultats. Statistiquement, les filles sont (encore) moins attirées que les garçons par les mathématiques, donc elles travaillent moins, donc elles ont de moins bons résultats.

Pour revenir à HongKong, il semble bien que les filles y aient au moins la même appétence que les garçons pour les études scientifiques, elles travaillent au moins autant les mathématiques et elles y obtiennent de meilleurs résultats. Simpliste ? Peut-être !... mais la question mériterait sans doute d’être creusée [6].

D’une façon plus générale, l’échec, en mathématiques comme ailleurs, entretien l’échec. Nous entendons l’échec comme l’obtention de mauvais résultats à répétition, ou le sentiment d’être toujours ou souvent placé dans des situations non-porteuses de sens (aux yeux de l’élève). Cette remarque n’est pas nouvelle. Elle était faite de belle façon par G. Darmois en 1965 dans sa préface à la première édition française de l’ouvrage de G.Polya « comment poser et résoudre un problème » :

« On réussit ce que l’on aime,

On aime ce que l’on réussit »

Le fait est qu’outre la baisse de compétence dont nous avons parlé plus haut, les élèves dans leur majorité ne réussissent pas... par rapport à ce qu’on leur demande. Ils ont alors peu de chance d’aimer la discipline ou simplement d’avoir envie de prolonger leur échec.

La question se pose de savoir si c’est parce qu’ils se détournent des mathématiques et de formations scientifiques (raisons externes aux conditions d’enseignement), qu’ils les travaillent moins et qu’en conséquence ils échouent, ou si c’est parce qu’ils échouent (raison qui peuvent alors être générées par les conditions d’enseignement) que les élèves se détournent des mathématiques.

Et si, en effet, le détournement des mathématiques était la cause et non la conséquence de l’échec ?

Si, pour toutes sortes de raisons, les élèves se détournaient des mathématiques, d’abord à cause de l’image qu’ils en ont et qu’ils ont de leur enseignement ? Il me semble que là encore, la question mérite d’être posée sereinement.

Il ne s’agit pas ici d’intenter je ne sais quel procès aux enseignants : ils sont les premiers à dire que les conditions qui leur sont faites ne leur permettent pas d’enseigner comme ils le voudraient. Il est certain aussi que le rapport à l’école, au travail, à l’effort, a changé dans notre société.

Il s’agit d’abord, à partir d’une étude empirique, de reconnaître le phénomène et de tenter d’en mesurer l’ampleur. Bien que venant ainsi incidemment, en appui à ceux qui, à partir d’autres points d’observations, dénoncent la baisse de qualité de l’enseignement des mathématiques, nous ne voulons ni faire appel à un soi-disant âge d’or passé, ni crier à la catastrophe. Le mot « alerte » dans le titre de ce papier doit se lire comme un appel à la vigilance, à la réflexion et à l’action...

De nombreuses raisons plus ou moins complémentaires, plus ou moins concurrentes, ont déjà été formulées ici et là. De nombreuses propositions ont été faites, en particulier par l’APMEP. Il faudra sans doute trier avant de prendre des décisions...

Mais, encore une fois, il nous a paru important de pointer le problème et la nécessité d’enclencher un processus visant à enrayer le phénomène.

Enfin, nos conclusions rejoignent largement celles de l’étude PISA 2000 de l’OCDE qui concluait que les élèves français de 15 ans avaient des connaissances (légèrement plus que les élèves d’autres pays comparables) mais qu’ils ne savaient pas les mobiliser dans des situations ayant un rapport avec l’utilisation que l’on peut faire des connaissances mathématiques (significativement moins que les élèves d’autres pays comparables).

Mais PISA a largement été méconnue en France, contrairement aux réactions parfois violentes déclanchées dans d’autres pays, en particulier en Allemagne.

Les difficultés de l’enseignement des mathématiques touchent pratiquement tous les pays, mais il ne faudrait pas que par un complexe de supériorité mal placé on se déclare à l’abri du mal.

Quelques exemples

Les exemples présentés ci-dessous parlent d’eux mêmes.

Pour être juste il faut dire que pour certaines questions on n’observe pas de baisse et que pour quelques-unes (uniquement en statistiques) on observe même une hausse. Mais les hausses compensent-elles les baisses ? Ou encore, peut-on considérer que de nouveaux savoirs développés dans le cadre des nouveaux programmes compensent les pertes constatées ?

Si nous écrivons cet article et si nous lançons cette alerte c’est, évidemment, que nous ne le pensons pas.

Pour valider ou pour réfuter nos conclusions, il faut, encore une fois, regarder l’ensemble des questions que nous avons posées (mise a plat exhaustive des attentes déduites du programme actuel). C’est possible, c’est nécessaire, et cela ne peut être fait par la seule équipe EVAPM. 

Une question que l’on ne manquera pas de nous poser :

Pourquoi avoir attendu le mois de mai 2004 pour lancer cette alerte alors que votre étude a été faite en mai 2003 ?

Réponse : parce qu’il faut du temps, beaucoup de temps, pour analyser les résultats de 15 000 élèves dans une étude qui comporte 24 épreuves et 190 questions d’évaluation (le plan d’évaluation a été fait de façon que chaque élève ne passe que deux des 24 épreuves).

Annexe : synthèse des résultats

La moyenne d’année est la note moyenne SUR 20, communiquée par les enseignants.

Les autres scores sont rapportés à l’échelle normale réduite.


[1] Pour savoir ce qu’est EVAPM, et pour avoir une vue d’ensemble sur les enseignements d’EVAPM, consulter les brochures de l’APMEP correspondantes, aller sur le site de l’APMEP, ... lire l’un des nombreux articles écrits à son sujet (en français, en anglais, en espagnol, en italien...

[2] BODIN A. (1992), Les mathématiques en fin de Troisième générale - évolution des compétences observées chez les élèves au cours des années 80. -In Rapport à Monsieur le Ministre de l’Education Nationale établi par Monsieur Claude Thélot , Directeur de la DEP (1992). Publié dans le dossier Education et formations n°17 d’octobre 1992 (DEP).et dans le bulletin de l’APMEP Février 1993

[3] Voir brochures APMEP : EVAPM sixième 1997

[4] C’est bien sûr une fiction ! Avec un peu de chance, EVAPM disparaîtra rapidement et tout espoir de comparaison sera englouti avec. Cela arrangera bien du monde et toutes les autruches qui préfèrent garder la tête dans le sable plutôt que d’affronter la vérité ou ce que l’on peut en percevoir. Pour survivre dans un environnement de plus en plus complexe, EVAPM a besoin du soutien de l’institution (sans contrepartie de soumission), ce qui nous a été accordé par le biais de l’INRP depuis plus de 10 ans, mais elle a surtout besoin de l’intérêt et des contributions des enseignants.

[5] Tous les documents nécessaires sont accessibles sur le site de l’APMEP (depuis octobre 2003)

[6] Le discours dominant actuel en France diffuse l’idée que les filles auraient, en mathématiques, de meilleurs résultats que les garçons. Il faudrait voir de façon plus précise sur quels résultats empiriques leurs conclusions s’appuient. Il est vrai que les faits sont parfois contradictoires. Par exemple, dans notre sous-population, les notes annuelles des filles orientées en S sont significativement SUPÉRIEURES à celles des garçons orientés en S (13,22 contre 12,81 - sur 20), tandis que leurs scores aux épreuves EVAPM sont INFÉRIEURS (0,61contre 0,73 sur l’échelle normale réduite).