486

De la modelisation du monde au monde des modèles (2) Des statistiques au probabilités

Introduction

Je ne reprendrai pas ici la présentation que j’avais faite de cette problématique de la modélisation en mathématique, et renvoie à l’introduction de mon premier article sur ce thème paru dans le bulletin de l’APMEP no 484. Je vais donc entrer directement dans les mondes de « l’information » et de « l’incertitude » qui vont se modéliser à travers les mondes mathématiques des statistiques et des probabilités.

Modéliser l’information … ou « un modèle peut en cacher un autre »

Deux modèles

Miracle

Voici un article paru dans le « Canard enchaîné » en juillet 2006 :
Sous le titre « Un bon cru au bac », « La République des Pyrénées » (13/7) s’extasie devant les résultats de la bonne ville de Lourdes : « 96% de mentions très bien, bien et assez bien. Du jamais vu ! » Mazette ! La cité mariale serait-elle un paradis pour les surdoués ? En réalité, pour obtenir ces mirobolants 96%, le confrère a eu un recours à un calcul simple. Il a ajouté le pourcentage du lycée public de La Serre de Sarsan (« toutes mentions confondues », 50%), à celui du lycée privé Peyramale (« 46% de mentions »). En additionnant ces deux nombres, il faudrait donc compter
« 96% de mentions » à Lourdes. Et ce n’est pas fini. Car un troisième lycée de la ville n’ayant pu être comptabilisé, la part de ces mentions au bac devrait, selon cette nouvelle arithmétique, dépasser largement les 100%. Lourdes, ville de tous les miracles !

On peut dire que l’auteur de l’article incriminé maîtrise bien l’addition, mais qu’il s’est trompé de modèle !

Deux grands modèles dans l’enseignement

Deux grands modèles vont se construire entre l’école et le collège, avec leur mode de traitement et de calcul spécifiques :
 Le modèle « additif » : comparaison « absolue ».
 Le modèle « proportionnel » : comparaison « relative ».

Et, comme l’auteur de l’article ci-dessus, nos élèves vont faire des confusions entre ces deux modèles, comme en témoignent ces situations vécues dans mes classes.

Doublants et doublements

Quand je proposais à mes élèves de sixième les résultats suivants sur le nombre de doublants en troisième dans deux collèges de l’agglomération troyenne (chiffres fictifs) :
 Albert Camus : 15 redoublants en troisième,
 Paul Langevin : 12 redoublants en troisième,

leur première réaction était de dire que le collège Langevin était meilleur que le collège Camus, puisqu’il y avait moins de redoublants.

C’était une occasion de leur faire comprendre ces notions de comparaison « absolue » et « relative », en leur proposant de calculer le « taux de doublement » avec l’information ci-dessous sur les populations de référence :
 Albert Camus : 125 élèves en troisième,
 Paul Langevin : 80 élèves en troisième.

Et ainsi de leur faire constater que leur conclusion s’inversait :
 Taux de doublement à A. Camus : 12%,
 Taux de doublement à P. Langevin : 15%.

Plus de garçons ou de filles ?

Je leur proposais alors la situation suivante :
Dans une petite ville, tous les élèves de collège sont scolarisés dans l’un des deux collèges suivants, avec la proportion de garçons et filles correspondante :
 Pierre Brossolette : 45% de garçons, 55% de filles,
 Gaston Bachelard : 60% de garçons, 40% de filles.

À ma question « Y a-t-il plus de garçons ou de filles scolarisés en collège dans cette ville ? », il se trouvait toujours un certain nombre d’élèves pour répondre qu’il y avait plus de garçons, puisqu’il y en avait 105% contre 95% de filles !
C’était alors l’occasion de leur montrer que suivant les populations de référence, on pouvait aboutir à trois conclusions différentes :
 À Brossolette : 420 élèves ; à Bachelard : 360 élèves.
Soit 405 garçons et 375 filles.
 À Brossolette : 520 élèves ; à Bachelard : 260 élèves.
Soit 390 garçons et 390 filles.
 À Brossolette : 740 élèves ; à Bachelard : 300 élèves.
Soit 513 garçons et 527 filles.

Dans un monde d’information chiffrée comme le nôtre, pour armer nos élèves dans leur vie de futur citoyen, développer cette confrontation entre ces deux modèles me paraît fondamental.

Le modèle « proportionnel »

Le modèle « proportionnel » est particulièrement riche, avec la diversité des registres de représentations possibles d’une même situation [DUVAL 1993] :
 Registre numérique : suites proportionnelles, tableaux, « règle de trois », … Ce registre est celui de l’entrée dans ce modèle à l’école primaire.
 Registre algébrique : « y = kx », propriétés de linéarité, … On trouve ce registre dès l’école primaire avec l’utilisation en acte des propriétés de linéarité.
Registre fonctionnel  : application linéaire, traduction graphique, … Ce registre est plus spécifique du collège.
 Registre géométrique : théorème de Thalès, lien entre parallélisme et proportionnalité, … Là encore ce registre est présent en acte dès l’école primaire, avec par exemple le « guide-ânes » au cycle 3 (réseaux de parallèles qui permettent de « lire » ou « représenter » des fractions).

La conceptualisation, le traitement et la validation vont être spécifiques à chacun de ces registres, et notre enseignement doit à la fois travailler au maximum ces spécificités et les conversions d’un registre à l’autre pour donner des éclairages complémentaires d’une même situation.

Les Statistiques

Les statistiques, une pratique très ancienne !

Beaucoup d’activités humaines, comme le commerce, reposent sur l’observation de données, et, en ce sens, on peut dire que les statistiques sont une discipline expérimentale que pratique l’homme depuis très longtemps, avec un objectif de prévision, comme le stock en ce qui concerne le commerce. Et pour ce faire, l’homme a toujours essayé de « limiter » le hasard. Et pourtant ce hasard est omniprésent dans nos croyances, et souvent dans nos décisions … comme nous le verrons plus loin.

La statistique descriptive

Les statistiques constituent le modèle mathématique de traitement de l’information, et cette modélisation présente là encore un aller-retour entre le monde « réel » et le monde mathématique comme l’illustre le schéma ci-dessus.
De la « réalité » vers les mathématiques, les statistiques vont transformer les données brutes en les représentant de façon « classée » pour pouvoir en faire des « résumés ». En sens inverse, ces « résumés » vont conduire à des interprétations du phénomène empirique. Comprendre cette « transformation synthétique » des informations, pouvoir l’analyser correctement, et donc prudemment sont des enjeux d’une formation de l’individu dans la société. C’est pourquoi on caractérise souvent leur enseignement par le vocable « mathématiques du citoyen », c’est-à-dire :
 une formation à l’analyse des données et au traitement de l’information,
 un développement des aptitudes à trier, ranger, transformer des informations, critiquer un traitement,
 en s’appuyant sur de fréquents changements de registre : texte, tableau, graphique, résultat numérique, … De manière plus précise, il faut faire comprendre aux élèves que le problème fondamental de la statistique descriptive est de résoudre le dilemme résultant de la transformation de données « brutes » en une « synthèse » qui parvienne à concilier le mieux possible deux pôles antagonistes : la « fidélité » et la « clarté » [Parzysz 1999].

Une question épineuse

À partir d’une question qui se pose dans le monde « réel », un premier travail sera de préciser cette question en vue de mettre en place un protocole d’observation. Un passage aux statistiques va alors permettre un traitement mathématique conduisant à proposer une réponse à cette question.
Prenons la question « Les garçons sont-ils meilleurs en maths que les filles ?  ». Précisons-la : « Les garçons réussissent-ils mieux en maths que les filles ?  »

Pour répondre à cette question, on propose de faire passer un test à 700 garçons et 600 filles de troisième d’une petite ville de province (en prenant comme hypothèse que cet échantillon est représentatif !). On leur laisse le choix de passer ce test en algèbre ou en géométrie.
Voici les résultats à ce test, c’est-à-dire le nombre d’élèves qui ont réussi (avec par exemple comme indicateur une note supérieure ou égale à 10).

Garçons
Filles
Algèbre
${23 \over 200}$
${85 \over 500}$
Géométrie
${400 \over 500}$
${90 \over 100}$

Les filles sont meilleures que les garçons !

Pour arriver à cette conclusion, on calcule le pourcentage respectif de réussite des garçons et des filles en algèbre et en géométrie :

Garçons
Filles
Algèbre
11,5%
17%
Géométrie
80%
90%

Les filles sont « meilleures » (c’est-à-dire : ont mieux réussi) à la fois en algèbre et en géométrie… Donc elles sont meilleures en maths.

Quoique !

On regroupe maintenant les résultats pour établir le pourcentage de réussite au test :

Garçons
Filles
Total
${423 \over 700}$
${175 \over 600}$
en %
60,5%
29,2%

On arrive à la conclusion contraire : les garçons sont « meilleurs en maths » (c’est-à-dire qu’ils ont mieux réussi au test).
On joue ici sur un effet de structure des sous-populations, mais le fait qu’un traitement statistique d’un même problème puisse conduire à deux réponses opposées pose à la fois la question de la complexité du modèle, et celle de la fiabilité des réponses pour une personne « non avertie » de ces « subtilités ».

Les « nombres » dans la société

Nous vivons dans un monde d’informations baigné de pourcentages, et le citoyen peut avoir beaucoup de peine à s’y repérer, à la fois par le manque de référence aux populations, et aussi parce qu’avec les mêmes données on peut arriver à deux conclusions contradictoires comme ci-dessus. Les statistiques apparaissent alors au mieux comme une science de la manipulation, au pire comme une science du mensonge, comme en témoignent les trois citations ci-dessous :

Interprétation manipulatoire des résumés du modèle :
« Il existe trois degrés dans le mensonge : les mensonges, les affreux mensonges, et les statistiques » (Benjamin DISRAELI).

Rétention d’une partie de l’information :
« Les statistiques, c’est comme le bikini, ça donne une idée, mais ça cache l’essentiel » (Louis ARMAND).

Caution intellectuelle :
« Les statistiques sont formelles : il y a de plus en plus d’étrangers dans le monde » (Pierre DESPROGES).


Le monde de l’incertitude : le modèle probabiliste

Nous vivons dans un monde empreint de hasard et d’incertitude. Comment le modéliser pour, à partir de données représentées et traitées, donner des conclusions « vraisemblables » et « probables » comme outils d’aide à la décision ? La réponse mathématique repose sur les probabilités en nous amenant à nous interroger sur la pertinence du modèle choisi, sur la fiabilité des affirmations qu’on peut produire à partir de cette modélisation, sur l’interprétation qu’on peut en tirer.

Des statistiques aux probabilités

La statistique descriptive est une première mathématisation et donc une première abstraction du monde. Les probabilités vont offrir une modélisation de cette « réalité abstraite » intégrant et mathématisant une dimension fondamentale du monde de l’incertitude : le hasard. Le schéma ci-dessous traduit ce passage des statistiques aux probabilités, appelées statistiques « inférentielles » ou « inductives ».
 Modéliser une expérience aléatoire, c’est lui associer une loi de probabilité.
 Les distributions de fréquence varient, mais le modèle est un invariant.
 La réalité est liée à la notion de variabilité, la modélisation a pour objectif de dégager ce qu’il y a d’intelligible et de prévisible dans cette variabilité.

Données observées
Données calculées
Résultats empiriques
Résultats théoriques
Distribution de fréquences
Loi de probabilité
Moyenne empirique
Espérance théorique

Le schéma ci-dessus traduit la « correspondance » entre les statistiques et les probabilités, et le travail de modélisation va consister en un aller-retour entre les deux :
 On cherche dans un premier temps à modéliser les données expérimentales observées.
 Un modèle mathématique ayant été choisi, on peut recréer des données calculées.
 Un test peut alors permettre de mesurer l’adéquation du modèle choisi aux données observées.

Des statistiques aux probabilités : un problème historique

Le prince de Toscane demande à Galilée (1554-1642) pourquoi, alors que les nombres 9 et 10 ont autant de décompositions (à savoir 6) en somme de 3 nombres compris entre 1 et 6, obtient-on plus souvent 10 que 9 lorsqu’on lance 3 dés ?
« …bien que le 9 et le 12 se composent en autant de façon que le 10 et le 11, si bien qu’ils devraient être considérés comme ayant la même probabilité, on voit néanmoins que la longue observation a fait que les joueurs estiment plus avantageux le 10 et le 11 plutôt que le 9 et le 12. » (Galilée, OEuvres)

9
10
1+2+6 1+3+6
1+3+5 1+4+5
1+4+4 2+2+6
2+2+5 2+3+5
2+3+4 2+4+4
3+3+3 3+3+4

Voici comment procède Galilée pour traiter ce problème : « les sorties des trois dés sont au nombre de six fois 36, soit 216, toutes différentes. Mais, puisque les sommes des tirages des trois dés ne sont qu’au nombre de 16, c’est à dire 3, 4, 5, …jusqu’à 18, entre lesquelles on a à répartir les dites 216 sorties, il est nécessaire que pour quelques-unes de ces sommes on ait beaucoup de sorties et, si nous trouvons combien on a pour chacune, nous aurons ouvert la voie pour découvrir ce que nous cherchons ». Il considère alors le nombre de « triplets » présentant chacune des 3 éventualités suivantes : 3 points égaux (1 « manière » pour chaque cas), 2 points égaux et un 3e différent (3 « manières » pour chaque cas), 3 points différents (6 « manières » pour chaque cas), et il additionne les cas correspondant à chacune des 6 décompositions de 9 et de 10. Il constate alors qu’il en obtient 25 pour 9 et 27 pour 10, ce qui conduit à 11,85% de « chance » pour le 9, contre 12,5% pour le 10.

Cette modélisation repose implicitement sur l’équiprobabilité de sortie des faces des dés et sur l’indépendance des jets de dés.
Mais ce qui m’a toujours fasciné, c’est le fait que le prince de Toscane ait pu émettre cette conjecture, alors que les résultats mathématiques sont si proches. Combien de fois avait-il dû jouer (ou regarder jouer) à ce jeu là ! Et, d’une certaine manière, il pressentait la « loi des grands nombres ».

Des probabilités aux statistiques : anniversaires et football

Un calcul probabiliste montre que la probabilité que dans un groupe de personnes deux d’entre elles aient le même jour anniversaire devient supérieure à son contraire à partir d’un groupe de 23 personnes. Ce calcul repose sur l’équiprobabilité des jours d’une année pour les naissances.
Où trouver 23 personnes ? Sur un terrain de football, avec les 22 joueurs et l’arbitre !
(sans les juges de touche)
Deux britanniques, Robert Matthews et Fiona Stones (Teaching Statistics 1998), ont ainsi voulu vérifier de façon expérimentale ce résultat, en s’intéressant aux matchs de première division du Royaume-Uni joués le 19 avril 1997 : sur 10 rencontres, six présentaient une coïncidence (deux personnes nées le même jour de l’année), et quatre aucune.
On est ici dans la démarche inverse : contrôler un calcul probabiliste par une statistique. On mesure ici la fonction « justificative » (voir mon article précédent) du modèle vers la réalité, et la formidable capacité d’anticipation qu’elle donne : sachant qu’il y a 365 jours dans une année, qui irait parier sur cette coïncidence dans les tribunes d’un stade … sinon les mathématiciens !

Quelle approche des probabilités ?

Les deux exemples ci-dessus montrent bien la double approche historique des probabilités :

L’approche « laplacienne », ou déterministe, qu’on trouve résumée dans le premier principe de l’« Essai philosophique sur les probabilités » de Laplace :
« Le premier de ces principes est la définition même de la probabilité qui, comme on l’a vu est le rapport du nombre des cas favorables à celui de tous les cas possibles ».
Cela suppose évidemment les divers cas également possibles (principe 2), et renvoie à la notion d’événements élémentaires équiprobables en nombre fini. On parle alors de probabilité « a priori ».

L’approche « fréquentiste » développée par Jacques Bernoulli dans son « Ars Conjectandi », qui repose sur l’observation « stabilisée » de la fréquence d’un événement dans une « longue » série d’expériences répétées « à l’identique ». Cette dernière repose sur la « loi des grands nombres ».
On parle alors de probabilité « a posteriori ».

Les exemples que je vais développer ci-dessous essaieront de faire le lien entre ces deux approches.
J’aborderai aussi, à l’occasion d’un exemple, la théorie « ensembliste » des probabilités de Kolmogorov, qui repose sur la théorie de la mesure.

Des pistes pour travailler l’aléatoire au cycle 3 – un exemple

Que ce soit dans le domaine des statistiques ou dans celui des probabilités, notre enseignement français accuse un certain retard par rapport à d’autres pays, en particulier les pays anglo-saxons.
Et pourtant dès l’école primaire on peut mener des activités mettant en jeu l’aléatoire, comme en témoigne cette situation proposée par Claudine Schwartz et Catherine Houdement :

Qui peut le plus ?

Règles du jeu :


Les élèves ont chacun la grille ci-contre. Ils sont par 2, et lancent un dé à tour de rôle.
1. Au premier lancer de dé, chacun des deux élèves choisit de placer le nombre obtenu dans une des deux cases de la première ligne (à gauche ou à droite).
2. Au second lancer, chaque élève place alors le nouveau nombre obtenu dans la case restée vide de la première ligne.
3. Ils recommencent pour la deuxième et la troisième ligne.
4. Ils additionnent les trois nombres à deux chiffres obtenus et mettent le résultat dans la case du bas.

Objectif :
Il s’agit d’obtenir le plus grand nombre possible dans la case inférieure.

Du hasard aux stratégies
Nous avons pu observer des classes de CM2 sur cette activité ; si dans un premier temps, ils placent les chiffres un peu « au hasard », très vite se dégagent :


 des stratégies toujours gagnantes : le 6 à gauche et le 1 à droite (ex : le premier tirage est un 6 et il est mis à gauche).
 des stratégies fortement gagnantes : le 5 à gauche et le 2 à droite (ex : le troisième tirage est un 2 et il a été mis à droite).
 des stratégies plus souvent gagnantes : le 4 à gauche et le 3 à droite (ex : le cinquième tirage a été un 4 et il a été mis à droite… On ne peut pas gagner à tous les coups !).

S’appuyant sur l’hypothèse de l’équiprobabilité de sortie des faces d’un dé, ces élèves dénombrent les événements favorables. On peut donc s’appuyer sur cette conceptualisation précoce pour sensibiliser les élèves à l’entrée mathématique dans le monde de l’aléatoire.

Des pistes pour travailler l’aléatoire du collège au lycée

Le lièvre et la tortue – un premier exemple

Cette activité a été proposée lors de nouveaux programmes de seconde de 2000 par Claudine Schwartz. On la retrouve dans les documents d’accompagnement (Eduscol).
Le problème de son adaptation au collège est qu’elle comporte plus de deux épreuves. Pour ma part, n’ayant plus d’élèves, je l’ai menée en formation initiale (PLC2 maths) ou en formation continue.

La partie se déroule ainsi, avec jet de dé :
 Si le dé tombe sur 1, 2, 3, 4 ou 5, la tortue avance d’une case.
Elle a 5 cases à franchir avant d’atteindre l’arrivée (la dernière case est l’arrivée, contrairement à ce que suggère le dessin ci-dessus issu des documents d’accompagnement des programmes de Seconde de 2000).
La partie est alors terminée, la tortue a gagné.
 Si le dé tombe sur le 6, le lièvre atteint directement l’arrivée. La partie est alors terminée, le lièvre a gagné.
Quelle est la situation la plus enviable : celle du lièvre ou celle de la tortue ?

Les élèves (professeurs stagiaires pour ma part) font un certain nombre de parties, puis on regroupe les résultats, et on obtient des résultats qui, sur un grand nombre de parties, donnent environ 40% de parties gagnées par la tortue, et donc autour de 60% pour le lièvre.
Cette expérience permet de montrer une certaine stabilisation des résultats en cumulant les échantillons (loi des grands nombres).

On peut alors « modéliser » mathématiquement le résultat par un calcul probabiliste (produit des probabilités sous l’hypothèse d’indépendance des lancers)
$p(T) = \left({ 5 \over 6}\right) ^5 \approx 0,40$ d’où $p(L) \approx 0,60$
Quand on propose cette activité, il est toujours bon de demander les « pronostics » de chacun avant de commencer l’expérience, et il apparaît alors qu’un certain nombre pensent que le lièvre et la tortue ont autant de chances, sachant que la tortue a 5 numéros favorables et 5 cases, et le lièvre un numéro favorable et une case. On voit que les modèles « additifs » et « multiplicatifs » se « télescopent » encore. _ On peut alors poursuivre cette réflexion en diminuant le nombre de cases pour la tortue.

Si la tortue a 4 étapes à franchir :
$p(T) = \left({ 5 \over 6}\right) ^4 \approx 0,48$ d’où $p(L) \approx 0,52$ ; le lièvre est toujours favori.

Si la tortue a 3 étapes à franchir :
$p(T) = \left({ 5 \over 6}\right) ^3 \approx 0,58$ d’où $p(L) \approx 0,42$ ; la tortue est enfin favorite.

Vous avez dit « hasard »

Une première conception répandue du hasard répond à un sentiment de « justice », et pour cela il doit être « proportionnel ». C’est le cas de tous les jeux de « hasard » comme le loto. Nul n’admettrait qu’il ne soit pas régi par une loi d’équiprobabilité.
Mais cela se traduit par une grande confusion entre statistiques et probabilités via une intuition de la loi des grands nombres, comme en témoignent les journaux spécialisés : le 7 est en bonne forme ; le 14 devrait rattraper son retard ; le 18 est en période noire ; jouez l’outsider, le 49 ! Cela va plus loin : qui oserait jouer 1, 2, 3, 4, 5, 6 ? Cette grille ne paraît pas « normale » au niveau du « hasard ». Il faut cependant noter que si toutes les grilles ont la même « chance », le gain est lui lié au choix de la grille des autres joueurs. On touche ici à la notion de variable aléatoire : le vrai problème du loto n’est pas la chance de gagner, mais de gagner beaucoup. Les renseignements statistiques que se refuse évidemment de donner la « Française des jeux » pourraient aider à cette finalité.

Une seconde conception du hasard répond à un sentiment de « fatalité » : c’est la reproduction d’événements dont la probabilité est très faible, généralement appelée « loi des séries ». On retrouve cette conception dans la croyance populaire sous la forme de dictons : « Jamais deux sans trois » ; « Un malheur n’arrive jamais seul ».

Ces deux extrêmes rejoignent deux conceptions de la notion de probabilité antagonistes :
 L’une « déterministe » à l’excès, tel D’Alembert qui pensait que si, dans un jeu de pile ou face, « pile » était sorti trois fois, alors la probabilité de tirer « face » devenait supérieure à ${1 \over 2}$.
 L’autre « aléatoire » à l’excès : « Si je traverse une route, ou je me fais écraser par une voiture, ou non » qui attribue alors à l’événement « se faire écraser par une voiture en traversant une route » une probabilité de ${1 \over 2}$.

Le « hasard mathématique » et la place de la simulation :

Le « hasard mathématique » est un modèle, qui conceptualise l’équiprobabilité ou l’équirépartition :
 En mathématiques, on utilise un modèle de dé qui attribue à chaque face la probabilité de 1/6, de même qu’un modèle de pièce qui attribue à chaque face la probabilité de 1/2.
 Pour représenter le hasard, on a créé des générateurs aléatoires qui donnent une équirépartition des nombres décimaux « formatés » comportant un nombre donné de chiffres.
 La « simulation », comme son nom l’indique, est une façon de représenter le problème de façon analogique, mais avec des outils mathématiques.
Pour comprendre la place de la simulation, j’utiliserai ce schéma ternaire que Bernard Parzysz propose dans son article « Expérience aléatoire et simulation » (Repères-IREM no 66) :

Pour simuler, il est nécessaire d’avoir modélisé le problème, c’est-à-dire d’en avoir fait une représentation qui permette de travailler avec des « générateurs aléatoires », c’est-à-dire des « modélisateurs du hasard ». Mais cela ne veut pas dire qu’on connaisse une « loi mathématique » qui explique le phénomène étudié.
Ces générateurs aléatoires doivent avoir pour qualité essentielle l’équirépartition des nombres, comme ceux que j’ai cités ci-dessus.
Réaliser de « vraies » expériences aléatoires avant de les simuler est certes indispensable. Mais lancer les dés dans une classe de troisième ou de seconde peut avoir un côté infantilisant, et pour le moins être une source de bruit et d’agitation difficile à contenir !
C’est pourquoi il peut être intéressant d’utiliser assez vite d’autres procédés de simulation, les plus communément utilisés de nos jours étant les générateurs aléatoires des ordinateurs et des calculatrices (« random »).
Pour simuler un problème, on peut :
 soit faire des « échantillons » (par exemple de 100 tirages), et cumuler les résultats ;
 soit programmer et laisser tourner l’ordinateur, et constater une certaine stabilisation de la fréquence.
Les probabilités traitent avec le même modèle ces deux approches [Duperret 1995].

Politique nataliste – un autre exemple

Cette situation est aussi issue du document d’accompagnement de seconde de 2000 (Eduscol)

Supposons qu’une politique nataliste soit mise en place à partir de la règle suivante.
Les naissances au sein d’une famille s’arrêtent :
 soit à la naissance du premier garçon,
 soit lorsque la famille comporte quatre enfants.
Quelle est l’influence d’une telle politique sur la répartition des sexes ?
Quelle est l’influence d’une telle politique sur la composition des familles ?
L’hypothèse de travail est l’équiprobabilité de naissance d’un garçon ou d’une fille.

Cette situation serait bien délicate à réaliser « en temps réel » dans le « monde réel ».
D’où la nécessité de « simuler les naissances », après les avoir modélisées(équiprobabilité d’un garçon et d’une fille, indépendance des naissances). On a alors une grande panoplie de possibles pour cette simulation : pièce (pile pour garçon, face pour fille), dé, touche random (avec par exemple le choix : impair pour les garçons, pair pour les filles), …
Là encore, il peut être intéressant de sonder les représentations « a priori » sur la répartition des sexes que peut entraîner une telle politique. Il apparaît souvent qu’il y aura davantage de filles, à cause du fait qu’on peut aller jusqu’à 4 dans une famille, alors que la naissance d’un garçon « termine » la famille.

L’activité (que j’ai pour ma part menée avec des professeurs stagiaires) peut alors se dérouler dans une classe en demandant à chaque élève de « tirer » 20 familles, avec le schéma suivant :

G/FFG/FG/G/FFFG/G/FFFF/G/FG/G/…

On cumule alors les résultats et on obtient « en moyenne » :
_ Proportion de filles (ou de garçons)  : autour de 50% (ce qui était à prévoir, et qui conforte que le générateur aléatoire est « bon », au sens de l’équirépartition !).
Proportion de familles :
 de 1 enfant : autour de 50%,
 de 2 enfants : autour de 25%,
 de 3 enfants : autour de 12%,
 de 4 enfants : autour de 12%.

L’intérêt de cette situation est qu’on peut la modéliser mathématiquement en utilisant un outil important des probabilités : les arbres.

D’autres pistes…qui ne sont plus pour le collège

Les bouteilles

Cette situation est due à Maurice Glaymann. Elle a été développée par François Huguet dans le numéro 36 de Repères-IREM. Elle exemplifie bien l’approche expérimentale par la simulation :
Un fabricant de bouteilles en verre dispose de 100 kg de verre liquide.
Avec 1 kg de verre liquide, on peut fabriquer une bouteille.
Dans les 100 kg de verre liquide, il y a 100 pierres ou impuretés que l’on ne peut pas enlever et qui sont réparties de manière aléatoire.
Le fabricant ne s’intéresse qu’à la fabrication de bouteilles de « haute qualité », c’est-à-dire sans impureté.
Si une bouteille contient au moins une pierre, elle est mise au rebut !
Combien peut-il espérer obtenir de bouteilles de « haute qualité » ?

Simulons cette expérience

Lorsque je mène cette activité avec des professeurs stagiaires, c’est l’occasion deréfléchir sur des procédures de simulation. Pour simuler cette expérience, on peut par exemple construire un tableau 10 × 10 avec repérage (voir ci-dessous) qui représenteles 100 bouteilles. On procède alors à un tirage de 100 couples de chiffres, en utilisant un générateur aléatoire. Chaque couple de chiffres tiré représente une impureté dans la bouteille repérée par ce couple.
Le tableau ci-dessous est la réalisation d’une telle expérience : on trouve 37 bouteilles sans impureté.
Si on répète un certain nombre de fois cette « expérience simulée », les résultats oscillent entre 33 et 41, de façon très stable (la modélisation mathématique que nous allons établir explique cette stabilité).
Si on prend donc l’angle d’approche « fréquentiste », on peut donc dire à partir de ces expériences que la probabilité d’avoir une bouteille sans impureté est d’environ 37% (probabilité a posteriori).

Modélisons mathématiquement cette situation

Soit I l’ensemble des impuretés.
Soit B l’ensemble des bouteilles.
Soit F(I, B) l’ensemble des applications de I dans B.
F(I, B) représente l’ensemble des « cas possibles ».
Soit $b_i$ une bouteille, quelle est la probabilité que $b_i$ soit sans impureté ?
Soit $B_i$ = B$-${$b_i$}, F(I,$B_i$) représente l’ensemble des « cas favorables » à l’événement « $b_i$ est sans impureté ».
Utilisons alors le calcul probabiliste « déterministe » de Laplace (probabilité « a priori » ) :
La probabilité que $b_i$ soit sans impureté est

$p={card(F(I,B_i)) \over card(F(I,B))}={99^{100} \over 100^{100}} \approx 0.3665$

Curiosité : ${1 \over 0.3665} \approx 2,72$...
Et à quoi peut bien faire penser 2,72… !!!

Généralisons le problème

On passe à n bouteilles et n impuretés. Le calcul précédent devient :
p = ${(n-1)^n \over n^n}=\left( 1-{1 \over n} \right)^n$
Or $\displaystyle{\lim_{n \rightarrow \infty}} \left( 1-{1 \over n} \right)^n={1 \over e}$ et ${1 \over e} \approx $ 0,3678...

Probabilité que deux entiers naturels (non nuls) pris au hasard soient premiers entre eux

Si on prend ces entiers naturels entre 1 et 10, on a le tableau :

On constate que la « proportion » de couples premiers entre eux est 63%. Je peux donc dire que la probabilité que deux entiers naturels compris entre 1 et 10 pris au hasard soient premiers entre eux est 0,63.

Comment définir de manière générale cette probabilité « p » que deux entiers naturels non nuls soient premiers entre eux ?

Si on prend comme ensemble de référence les sous-ensemble [1,n] × [1,n] de $\mathbb N^* \times N^*$, on peut déterminer le nombre de couples premiers entre eux, ce qui donne comme ci-dessus la probabilité $p_n$ que deux entiers pris entre 1 et n soient premiers entre eux.

Si on passe à $N^* \times N^*$, la définition laplacienne des probabilités ne peut fonctionner (elle conduirait à un rapport « d’infinis » !).
On définit donc la probabilité « p » cherchée comme la limite de $p_n$ quand n tend vers l’infini … si elle existe !
En utilisant cette démarche, on obtient que la probabilité qu’un nombre entier soit pair est 1/2, qu’il soit multiple de 3 est 1/3, …
Montrer l’existence de « p » n’est pas simple (ça se fait, avec du matériel mathématique un peu plus « lourd » !). Nous l’admettrons ici.

Supposons donc l’existence de « p »

En utilisant la théorie de Kolmogorov, et la remarque ci-dessus sur la probabilité qu’un entier soit un multiple de n, on obtient :
Soit $A_1= \{ (x,y) \in N^* \times N^* \ | \ x \wedge y=1 \}$ donc $p(A_1)=p$
Soit $A_2= \left\{ (x,y) \in N^* \times N^* \ | \ x \text{ et } y \text{ divisible par 2 } \text{ et } {x \over 2} \wedge {y \over 2}=1 \right\} $ donc $p(A_2)={p \over 4}$
Soit $A_n= \left\{ (x,y) \in N^* \times N^* \ | \ x \text{ et } y \text{ divisible par n } \text{ et } {x \over n} \wedge {y \over n}=1 \right\} $ donc $p(A_n)={p \over n^2}$.
Or $\bigcup_{n=1}^\infty A_n = N^* \times N^*$ , où les $A_n$ sont deux à deux disjoints, d’où :
$1=p \left( N^* \times N^* \right) =p \left( \bigcup_{n=1}^\infty A_n \right)=\displaystyle{\sum_{n=1}^ \infty}} p(A_n)= \displaystyle{\sum_{n=1}^ \infty}} {p \over n^2}= p \displaystyle{\sum_{n=1}^ \infty}} {1 \over n^2}$
Or $\displaystyle{\sum_{n=1}^ \infty}} {1 \over n^2}= {\pi^2 \over 6}$ , donc p est l’inverse de ${\pi ^2 \over 6}$ , d’où p $\approx$ 0,607.

Probabilité qu’une fraction soit irréductible

Le calcul ci-dessus montre donc que si on prend une fraction « au hasard », elle a 61% de « chances » d’être irréductible.
Que veut alors dire prendre un échantillon de fractions « au hasard ». Si on prend la page d’un manuel de collège intitulée « simplification des fractions », elle a bien peu de chances d’être représentative … ou alors l’auteur du manuel s’est « planté » dans les exercices qu’il propose !

Tirer « au hasard » ???

On voit dans l’exemple ci-dessus que cela doit être précisé … comme je vais le montrer avec mes « spaghettis ».

Les spaghettis : le retour !

Je vais maintenant revenir sur mes problèmes de spaghettis que j’avais proposés dans mon premier article (bulletin 484) pour entrer encore plus avant dans ce processus de modélisation. Et je vais pour cela utiliser la « simulation » qui, comme je le rappelle, est une façon de représenter le problème de façon analogique, mais avec des outils mathématiques.

Mes spaghettis de quatrième

Mon expérience malheureuse de quatrième consistait à couper un spaghetti en trois « au hasard » pour voir si les trois morceaux obtenus pouvaient « former » un triangle. Je suis bien incapable de modéliser cette expérience réelle. Mais elle va m’éclairer pour simuler. En observant les élèves, on constate deux grandes façons de faire : soit ils essaient de couper le spaghetti d’un « seul coup » en trois, avec peu de chances d’obtenir trois morceaux, soit ils font une première cassure, puis recassent l’un des deux morceaux obtenus.
Pour simuler cette expérience, je prends le « spaghetti mathématique » que j’avais proposé en troisième (de longueur 1 et avec équiprobabilité de cassure), et je décris en langage « informatique » chacune des deux expériences :



 x = rnd ; y = rnd.
 a = min (x,y) ; b = max(x,y) − a ; c = 1 − (a + b).
 Test : max {a,b,c} < ${1 \over 2}$ (la somme des trois longueurs étant 1).

On peut alors :
 soit faire des « échantillons » (par exemple de 100 tirages), et on trouve comme fréquences de triangles : 0,26 ; 0,23 ; 0,25 ; 0,27 ; 0, 24 ; …
 soit programmer et laisser tourner l’ordinateur, et constater une certaine stabilisation de la fréquence dans l’intervalle [0,24, 0,26],
en s’appuyant sur le fait que les probabilités traitent avec le même modèle ces deux approches (voir plus haut).

  x = rnd ; y = rnd.
 a = x  ; b = (1 − x)y ; c = 1 − (a + b).
 Test : max {a,b,c} < ${1 \over 2}$.
 Le tirage d’échantillons donne comme fréquences de triangles : 0,22 ; 0,18 ; 0,19 ; 0,20 ; 0,21 ; 0,17 ; 0,17 ; …
 La suite obtenue en faisant tourner l’ordinateur a une certaine stabilisation dans l’intervalle [0,18, 0,21].
Au-delà de montrer que la mesure de la fréquence est ici un intervalle (voir la typologie que je vous avais proposée), cette double expérience met en évidence que « au hasard » mérite d’être précisé. Dans les deux cas on a coupé un spaghetti au hasard, mais ce sont les conditions de l’expérience qui permettent de modéliser ce hasard (cf. « le paradoxe de Bertrand »).

Modélisation géométrique

Comment alors trouver un modèle mathématique qui permette de calculer « la » probabilité d’obtenir un triangle dans les conditions d’expérience ci-dessus ? Il faut passer du modèle discret au modèle continu, et de l’équiprobabilité à la probabilité uniforme.
Chacun des tirages me donne un couple (x,y) qui peut être représenté par un point dans un repère. La probabilité cherchée est donc le rapport du nombre de points satisfaisant à l’obtention d’un triangle par rapport au nombre de points possibles.
En plongeant dans le modèle continu, cela va se traduire par le rapport de l’aire de la surface où se trouvent ces points solutions à l’aire totale possible qui est ici celle du carré [0,1] × [0,1], c’est-à-dire 1 (la notion d’ouvert et de fermé n’ayant pas d’importance compte tenu de la modélisation).

Couper un spaghetti « au hasard » en 3 morceaux « simultanément »

Distinguons les deux cas x < y et x > y.
Si x < y, le test max { a,b,c } < ${1 \over 2}$ donne :


${x} < {1 \over 2}, y-x < {1 \over 2}, 1-y<{1 \over 2}$

L’aire de la surface « solution », et donc la probabilité, est ${1 \over 8}$.
Si x > y, on trouve comme surface « solution » le triangle symétrique de celui ci dessus par rapport à la diagonale du carré « y = x », donc de nouveau une probabilité de ${1 \over 8}$..

Ces deux cas étant exclusifs, la probabilité cherchée est donc : p = ${1 \over 4}$, soit 0,25, ce qu’on aurait pu « pronostiquer » compte tenu des fréquences obtenues !

Couper un spaghetti « au hasard » en 2 morceaux, puis « le morceau restant » en 2

On traduit comme ci-dessus le testmax { a,b,c } < ${1 \over 2}$, ce qui donne :
${x} < {1 \over 2}, (1-x)y < {1 \over 2},$
$1-[x+(1-x)y]<{1 \over 2}$
Le calcul de l’aire de la « surface solution » donne, via le calcul intégral, la probabilité :
p=ln(2)$-{1 \over 2}$ , soit environ 0,1931.
Là, c’était beaucoup plus difficile de « pronostiquer » un tel résultat à partir des fréquences !

Et mes spaghettis de troisième ?

Je rappelle l’expérience : trois tirages aléatoires indépendants, et un test pour savoir si on peut faire un triangle avec les trois « longueurs » obtenues. Il m’a fallu un certain temps pour « quitter le plan », et comprendre que je travaillais avec trois spaghettis indépendants, et que les trois « cassures » pouvaient être représentées par un triplet (x,y,z) de coordonnées d’un point de l’espace. La modélisation géométrique donne alors comme solution le rapport du volume du « solide solution » par le volume du « solide possible », ici le cube [0,1] × [0,1] × [0,1], soit 1.
Pour trouver ce solide solution, il suffit d’enlever le solide non solution.
Celui-ci se découpe en trois solides élémentaires du cube donnés par les conditions :
z > x + y ; y > x + z ; x > y + z.
Le cas z > x + y

On trouve un tétraèdre de volume ${1 \over 6}$.
Les deux autres cas donnent chacun un tétraèdre de volume ${1 \over 6}$, et n’ont pas de parties « solides » communes.
La probabilité de non solution est donc ${1 \over 6}+{1 \over 6}+{1 \over 6}$ , soit ${1 \over 2}$ .
Donc la probabilité d’obtenir un triangle dans mon expérience de troisième est :
p = 1 $-{1 \over 2}$ , soit p =${1 \over 2}$.
Lorsque j’ai trouvé cette modélisation et ce résultat, qui confirmait mon approche fréquentiste, j’étais heureux ! Ma pensée était devenue libre par rapport à ce problème, et c’est avec confiance que je regardais tourner mon ordinateur, ou répétais cette expérience par échantillon avec mes élèves.
Ce qu’apportent les mathématiques, c’est cette merveilleuse compétence d’anticipation et de contrôle !

À la recherche d’une loi modèle : la loi de Benford

Supposons une situation qui nous donne une grande quantité de nombres qui nous apparaissent tout à fait aléatoires, et que l’on nous pose la question suivante :
« Prenons le premier chiffre de chacun de ces nombres : quelle est la répartition des 1, des 2, …, des 9 ? ».
En absence de toute autre connaissance, notre réflexe sera l’équiprobabilité, c’est-à-dire que nous supposerons que chaque chiffre a une probabilité d’apparition de 1/9.

Trois références de données

La situation suivante nous a été proposée par Claudine Schwartz lors d’une réunion de la CREM (voir article précédent pour cette commission).
Le tableau ci-dessous donne la fréquence d’apparition du premier chiffre de nombres pris respectivement :
 Colonne 2 : 1000 nombres du Monde daté du vendredi 23 avril 1999 ;
 Colonne 3 : 914 nombres d’un historique de compte de la société Gilibert ;
 Colonne 4 : nombres d’habitants de 1229 communes obtenus lors du
recensement de 1992.

Premier chiffre
Le monde
Gilibert
Commune
1
0,322
0,317
0,321
2
0,151
0,161
0,168
3
0,108
0,142
0,133
4
0,099
0,088
0,081
5
0,073
0,070
0,087
6
0,081
0,061
0,067
7
0,055
0,070
0,055
8
0,065
0,040
0,045
9
0,046
0,050
0,044

Deux constats s’imposent :
= On est bien loin de l’équiprobabilité (qui est pourtant notre premier réflexe).
 Les trois expériences donnent des résultats vraiment proches.

La loi de Benford

Claudine Schwartz, en s’appuyant sur le constat que les résultats étaient invariants par changement d’échelle, a « modélisé » ces situations en utilisant la loi de Benford :
« La probabilité que le premier chiffre à gauche dans l’écriture en base 10 soit i = 1, …,9 est log (1 + 1/i) (logarithme décimal) ».
La dernière colonne du tableau ci-dessous donne les fréquences théoriques obtenues par calcul avec cette loi. La modélisation par cette loi apparaît comme très bonne d’un point de vue qualitatif.

Premier chiffre
Le monde
Gilibert
Commune
Loi de Benford
1
0,322
0,317
0,321
0,301
2
0,151
0,161
0,168
0,176
3
0,108
0,142
0,133
0,125
4
0,099
0,088
0,081
0,097
5
0,073
0,070
0,087
0,080
6
0,081
0,061
0,067
0,067
7
0,055
0,070
0,055
0,058
8
0,065
0,040
0,045
0,051
9
0,046
0,050
0,044
0,046

Mais avoir modélisé mathématiquement nous donne-t-il le sens profond du phénomène ? Cette question m’a conduit à deux pistes de réflexion :

Comment Benford a-t-il eu l’idée d’une telle loi ?

Benford a établi cette loi en 1938, à la suite d’étude de nombreuses données ; il s’appuyait sur les travaux d’un astronome américain, Simon Newcomb, qui en avait donné les prémisses en 1881 en s’appuyant sur un constat : la forte usure des premières pages des tables de logarithmes ! Dans le système à base 10, les logarithmes décimaux des nombres sont uniformément distribués, ce qui peut se traduire par le fait qu’un nombre a autant de chances d’être entre 100 et 1000 (log 2 et log 3) qu’entre 10 000 et 100 000 (log 4 et log 5). Cette répartition va s’appliquer aux phénomènes de type exponentiel.

Comment donner du sens à cette loi ?

Nous sommes devant des phénomènes « évolutifs ». Pour donner du sens à cette modélisation, j’ai essayé d’imaginer une simulation (qui ne peut reposer sur le tirage « au hasard » de nombres) : j’écris la suite des entiers naturels en déclenchant un chronomètre ; le chronomètre s’arrête « au hasard », et je fais mes comptes ! Il y a donc bien du hasard là-dedans, mais pas là où on le croit.

Connaître le bon modèle, ça sert !

Tout cela me direz-vous n’est que jeu de mathématicien ! Ceux qui se sont fait « épingler » par le fisc qui utilisait cette loi pour vérifier leur comptabilité n’en sont pas complètement convaincus !

Conclusion

En guise de conclusion … 1

J’avais été sollicité par l’IREM de Montpellier pour un séminaire sur les « probas/stats ». La conférence de clôture avait été assurée par un professeur de médecine du CHU de Montpellier, et j’avais été très sensible à sa conclusion :
« Nous sommes tous les enfants du hasard » .
« Le jour où le hasard n’existera plus, c’est l’homme qui n’existera
plus, car c’est le hasard génétique qui sauve les espèces »
.
Cette conclusion illustre parfaitement la spécificité du « modèle mathématique du hasard » que j’ai développé dans ce texte, par rapport au « hasard » de la nature. Et par rapport aux éléments que j’ai donnés sur la perception des nombres par notre société, elle me conduit à affirmer : la formation à la pensée statistique, ça n’est pas l’école du mensonge, c’est celle de l’humilité !

En guise de conclusion … 2

Les statistiques ont fait leur apparition dans le programme de collège en 1986. Il a fallu attendre 2008 pour que les probabilités y trouvent une première place. Et pourtant, dès 1812, Laplace affirmait :
« Et si l’on observe ensuite que dans les choses qui peuvent ou non être soumises au calcul, la théorie des probabilités apprend à se garantir des illusions, il n’est pas de science qu’il soit plus utile de faire entrer dans le système de la fonction publique. »
Cela traduit pour le moins un grand retard dans notre enseignement pour ce domaine, beaucoup plus développé dans d’autres systèmes scolaires, comme les pays anglosaxons.

En guise de conclusion … 3

Comme je vous l’avais annoncé, j’ai essayé dans ces deux articles de « revisiter » un certain nombre de « mondes mathématiques » de notre enseignement sous l’angle du rapport au réel et de la modélisation. Compte tenu de l’ampleur du sujet et de la place dont je disposais, cela a pu apparaître comme un survol. Pour terminer, je vous rappelle ce que je disais en fin de mon premier article :
S’il faut garder une idée forte, c’est que les mathématiques sont au regard de l’histoire un formidable outil intellectuel pour penser le monde qu’a créé l’homme, qu’il a enrichi au fil des siècles et des civilisations ! Et si nous pouvions persuader nos élèves de cela, peut-être notre enseignement produirait-il moins « d’écorchés vifs des mathématiques » !
Nous avons le devoir de transmettre ce patrimoine de l’humanité, et Joseph Fourier résume bien cela en disant des mathématiques qu’elles sont « une faculté de la raison humaine, destinée à suppléer à la brièveté de la vie et à l’imperfection des sens ».

Bibliographie

BARROW J. D. (1996) Pourquoi le monde est-il mathématique ? Éditions Odile Jacob.

BRISSIAUD R. (2007) Calcul mental, symbolisme arithmétique et résolution de problèmes. Bulletin APMEP no 469.

DUPERRET J.-C. (1995) L’apprenti fréquentiste. Repères-IREM no 21.

DUPERRET J.-C. et FENICE J.-C. (1999) L’accès au littéral et à l’algébrique : un enjeu du collège. Repères-IREM no 34.

DUPERRET J.-C. (2001) Le geste géométrique ou l’acte de démontrer. Repères-IREM no 43.

DUVAL R. (1993) Registres de représentation sémiotique et fonctionnement cognitif de la pensée. Annales de Didactique et de Sciences cognitives no 5.

HOUDEMENT C. et KUZNIAK A (2006) Paradigmes géométriques et enseignement de la géométrie. Annales de didactique et de sciences cognitives, vol 11, IREM de Strasbourg.

HOUDEMENT C. (2007) À la recherche d’une cohérence entre géométrie de l’école et géométrie du collège. Repères-IREM no 67.

IREM de Montpellier (2002) Les narrations de recherche. Brochure APMEP no 151.

KAHANE J.-P. (1997) Le théorème de Pythagore, l’analyse multifractale et le mouvement brownien. Repères-IREM no 29.

KAHANE J.-P. et al (2002) L’enseignement des sciences mathématiques : rapport de la CREM. éditions Odile Jacob.

PARZYSZ B. (2003) Heurs et malheurs du su et du perçu en statistique. Des données à leurs représentations graphiques. Repères-IREM no 35.

PARZYSZ B. (2007) Expérience aléatoire et simulation. Repères-IREM no 66.

<redacteur|auteur=500>

Les Journées Nationales
L’APMEP

Brochures & Revues
Ressources

Actualités et Informations
Base de ressources bibliographiques

 

Les Régionales de l’APMEP