Accueil » Publications » Le Bulletin Vert » Les dossiers » DU HASARD
  APMEP   DU HASARD

Article du bulletin 484

Adhérer ou faire un don

Des statistiques aux probabilités. Des probabilités à la statistique.

Jean-Louis Piednoir [1]

Cet article fait suite à un exposé fait à Périgueux lors d’un colloque organisé par les commissions inter-Irem collège et statistique et probabilités en juin 2008.

À la découverte du hasard

Le calcul des probabilités est actuellement une branche de la mathématique née au 17e siècle, mais il a eu, au moins en France, des difficultés à être reconnue comme telle dans le milieu mathématique, et son étude a été considérée comme accessoire dans le cursus classique des études mathématiques. Jusque dans les années soixante, un cours de calcul des probabilités n’était proposé dans les universités que comme une option de la licence de mathématiques, rien ne figurait dans les programmes du secondaire dit d’enseignement général. Pour ses utilisations dans d’autres disciplines, il existait certes des enseignements de probabilité (dans des filières à finalité professionnelle), mais il était admis que « l’honnête homme », le citoyen, pouvait s’en passer.

Mais le succès de l’application du calcul des probabilités et des techniques statistiques qui y sont liées, dans des domaines de plus en plus nombreux de la connaissance et des activités humaines, ne permettait plus une telle ignorance. Avec des hésitations les divers programmes de mathématiques des séries générales du lycée lui ont fait une place. Le voilà maintenant au programme de la classe de troisième.
Certes il existait des précédents. C’est en 1942 qu’apparait pour la première fois une mention du calcul des probabilités dans les programmes de l’enseignement secondaire. Il s’agit d’une mention dans le chapitre arithmétique du programme de la classe terminale « philosophie sciences » devenue « sciences expérimentales » en 1945 puis terminale D jusqu’en 1995. Il semble cependant qu’au baccalauréat on n’ait quasiment pas abordé le sujet. Lors de l’élaboration des programmes d’enseignement après la deuxième guerre mondiale, en 1945, Maurice Fréchet, le grand probabiliste (1878- 1973), propose un enseignement des probabilités et de la statistique en première et terminale, mais il n’est pas suivi par la commission compétente ; seul demeure l’enseignement en terminale « sciences expérimentales », évalué à l’écrit du baccalauréat à partir de 1959 et jusqu’en 1967 où cette classe est remplacée par la terminale D. Les sujets sont du type tirages dans une urne avec équiprobabilité des différentes issues. Par la suite, au lycée subsistera un programme de probabilités qui sera plus développé dans les séries B et D que dans les séries C et A. L’approche décrite dans les programmes suit les fluctuations des programmes de mathématiques, très formelle de 1971 à 1984, plus intuitive après. Avec l’introduction d’une initiation aux probabilités au collège, la France rejoint les curricula de nombreux pays de l’OCDE ; d’ailleurs l’évaluation internationale PISA [2] contient des exercices de probabilité.

Reste que l’enseignement des probabilités est difficile. On n’a pas l’habitude de raisonner sur de l’incertain. Dans les exercices scolaires le déterminisme pur et dur est à la base de l’enseignement scientifique. Il faut découvrir une nouvelle façon de penser, répondre aux questions posées par les élèves. Pour ce faire il nous a semblé utile que le professeur ait réfléchi sur une notion de base clé : le hasard. Mais elle est elle-même polysémique et on va essayer, non d’en faire le tour, mais de proposer quelques éclairages en insistant sur quelques aspects historiques et en montrant les liens entre probabilité et statistique.

Une variabilité à expliquer

1. Premières réflexions

Depuis qu’il existe des hommes sur terre et que ceux-ci réfléchissent, nombreux sont les phénomènes tels que, connaissant les conditions initiales repérables, il est impossible de prévoir l’issue, plusieurs sont possibles. Comment interpréter cette variabilité ? Les premières explications font appel à la pensée magique. Selon les situations on fait appel à la volonté d’êtres supérieurs invisibles, l’esprit des morts agit, un ennemi vous a jeté un sort, etc. Devant un événement malheureux, on peut invoquer le Destin des Grecs ou la volonté de Dieu.

Pourtant dès l’antiquité d’autres comportements se font jour. Le grand commerce existe, il n’est pas sans risque, il faut réunir des capitaux et en cas de succès partager les bénéfices, souvent importants, mais aussi risquer de tout perdre. Le partage est évidemment lié à une façon d’évaluer empiriquement la chance du retour de l’expédition commandée. Au Moyen-Age « le prêt à la grosse » réglait la question en accordant au financier un intérêt de 30%, alors que s’il investissait dans l’agriculture il était de 8% et dans l’industrie de 16%. Dans le même registre empirique la fixation d’une rente viagère oblige à spéculer sur la date de décès de la personne bénéficiaire. Les philosophes essaieront de traiter le problème. Carnéade, au deuxième siècle av. J.-C., ébauche une théorie de la connaissance qui s’écarte du tout ou rien pour ébaucher du probable fondé aussi sur les convictions et les argumentations des individus.

À noter que la pensée magique continue de nos jours à influencer de nombreuses personnes.

2. La notion de hasard se dégage

Pour tenter de dégager la notion de hasard et en chercher les lois éventuelles, il fallait plusieurs conditions.

En premier lieu il faut dégager le fortuit, l’imprévisible de l’interprétation par l’intervention d’une volonté cachée : esprit, divinité que l’on pouvait éventuellement se concilier par des actes magiques. Au haut moyen âge les procédures judiciaires introduites par les peuples germaniques en Gaule comportaient les ordalies ou jugements de Dieu ; un suspect soumis à une épreuve à l’issue incertaine était réputé innocent s’il en triomphait car il avait obtenu le soutien divin. Par leur réflexion des théologiens de l’époque postérieure démontrèrent que Dieu ne pouvait intervenir dans de telles conditions, que, de plus, dans les jeux de hasard comme le jeu de dés, l’issue favorable pour un joueur n’avait rien à voir avec la faveur divine.

En second lieu il fallait percevoir au-delà de la variabilité des régularités troublantes. Et c’est là qu’interviennent les jeux de hasard. Le mécanisme du jeu de dés est simple, ensuite le nombre de joueurs et donc de parties est très grand. Il est donc possible de faire des statistiques, c’est-à-dire de compter combien d’issues favorables apparaissent dans une suite de parties. Bien sûr il ne s’agit pas de comptage rigoureux mais d’observations qualitatives d’accros des jeux. Ces préstatistiques ont permis de noter, par exemple, que si on joue avec trois dés et que l’on s’intéresse à la somme des points obtenus, le 9 sort moins souvent que le 10.

Enfin il fallait avoir à sa disposition les outils mathématiques indispensables pour exprimer un hasard quantifié. Dans les situations simples des jeux de hasard, les symétries géométriques des dés permettent, une fois admis que l’on peut mesurer les chances, de postuler, sur les cas élémentaires, des chances égales pour parler le langage du 17e siècle. Mais une issue intéressante est en général un ensemble de cas élémentaires, il faut donc les compter. Heureusement depuis le 13e siècle des mathématiciens ont développé ce que l’on appelle actuellement l’analyse combinatoire, premières notions de combinaisons, d’arrangements. On peut citer Richard de Fournival qui, dans son poème épique « De Vetula » de 1250, dénombre le nombre de façons de faire différentes sommes avec trois dés.

Au début du 16e siècle un problème chatouille la curiosité des mathématiciens : le problème des partis. Il s’agit de répartir les mises dans un jeu comportant une suite de parties quand le jeu est interrompu et que l’on désire tenir compte des parties déjà jouées. Plusieurs d’entre eux s’y sont essayés, surtout des italiens, et souvent avec des erreurs.

3. Le modèle mathématique

1654 est l’année où, par un échange de lettres, Pascal et Fermat vont poser les bases d’un modèle mathématique que Pascal appellera « géométrie du hasard ». En supposant l’équiprobabilité des issues élémentaires et en admettant que le partage des enjeux se fait selon les chances de gagner à partir de la partie interrompue d’un jeu inachevé ils donnent une solution exacte du problème des partis par des méthodes différentes. Les notions de probabilité, d’espérance mathématique sont en place. À noter que si des savants, aussi au fait des grands débats d’idées et que leur morale éloigne des futilités, s’intéressent à des phénomènes aussi dérisoires que les jeux de hasard, c’est qu’ils avaient perçu que l’élaboration d’une quantification du hasard devait s’attaquer à partir de cas simples comme l’explique Leibniz en 1704.

À la suite, apparaissent les notions de probabilité conditionnelle, d’indépendance, de variable aléatoire. À partir de cet équipement somme toute réduit, il devient possible de raisonner, de produire des théorèmes. Un des plus importants permettra de rendre compte des régularités observées dans les premières « statistiques ». En 1713 paraît l’ouvrage posthume de Jacques Bernoulli (il est mort en 1705), « l’Ars Conjectandi », où est démontré le premier théorème du calcul des probabilités, forme élémentaire de la fameuse loi faible des grands nombres. On considère une urne à deux catégories A et B dans laquelle on effectue n tirages avec remises (c’est-à-dire indépendants). Soit p la proportion de A, alors la probabilité que la fréquence relative des A s’écarte de p de plus de $\varepsilon$, $\varepsilon$ positif arbitraire, tend vers 0 quand n tend vers l’infini.

Un autre théorème asymptotique sera démontré au début du 19e siècle par Laplace après plusieurs tentatives au siècle précédent de donner une approximation en termes probabilistes de l’écart entre la fréquence empirique $f_n$ observée (n nombre de tirages) et la proportion p dans une urne à deux catégories. Il s’agit du théorème dit de la limite centrée qui postule que, quand le nombre de tirages indépendants est grand, alors la quantité ${{f_n-p}\over{\sqrt{np(1-p)}}}$ suit à peu près une loi continue dite de Laplace-Gauss.

Elle rend compte de l’observation faite par les artilleurs qui, tirant de nombreux boulets avec un même canon, voyaient le tas de boulets dont le profil présentait la forme de la fameuse courbe en cloche. Ainsi ce deuxième théorème rencontrait la réalité observable malgré sa subtilité.

Dans un tout autre registre, à partir de la notion de probabilité conditionnelle, le révérend Thomas Bayes, théologien et mathématicien, veut pouvoir au vu d’une issue observée dans une situation aléatoire déterminer les probabilités des causes. On sait qu’un phénomène est dû à k causes. Pour chacune d’elles on connaît les probabilités des différentes issues possibles. On observe l’une d’entre-elles, que peut-on dire de la probabilité de chacune des causes possibles ? Il s’agit d’un problème inverse, qui aura une grande importance dans l’interprétation ultérieure de la probabilité. Le résultat est connu sous le nom de théorème de Bayes.

Au 20e siècle il reviendra à Kolmogorov de proposer une axiomatique complète du calcul des probabilités que tous les spécialistes utilisent aujourd’hui. Elle est simple et opérationnelle. Elle permet une démonstration des théorèmes de la théorie tout comme une axiomatique de la géométrie permet de démontrer tous les théorèmes portant sur les configurations du plan ou de l’espace, à ceci près qu’elle est beaucoup plus simple.

Les interprétations du hasard

1. Extension du champ d’application du calcul des probabilités

L’exemple des jeux dits de hasard a permis de construire une théorie rendant compte de régularités observées. Très vite on l’utilisa dans d’autres domaines que les jeux et avec succès. Citons en vrac :
- Survie d’un individu ayant atteint un âge donné, ce qui est important pour déterminer la valeur des rentes viagères.
- Naissance d’un garçon ou d’une fille ; avec étonnement on a remarqué que le taux de masculinité était le même dans plusieurs capitales européennes et légèrement supérieur à 0,5.
- Erreurs de mesure en physique, en astronomie.
- Études anthropométriques.

Dans des phénomènes aussi différents, on peut ajuster un modèle probabiliste et constater que sur de grands échantillons on retrouve les mêmes régularités que dans les jeux de hasard. Partout existent des convergences, des courbes en cloche sont observées. À une différence notable près : il n’y a plus de symétries et, partant, l’équiprobabilité ne joue plus un rôle central.

La probabilité quantifiant une issue donnée étant inconnue, il faut pouvoir lui donner une valeur, il faut mesurer la probabilité. La première façon de procéder était, en référence à la loi des grands nombres, d’estimer la probabilité inconnue par la fréquence observée quand on a beaucoup d’expériences indépendantes.

Il s’agit du premier exemple de la démarche de la statistique inductive dite aussi mathématique, prendre une décision sur la loi de probabilité partiellement inconnue censée régir un phénomène aléatoire, à partir de plusieurs observations du dit phénomène. La statistique comme collecte et organisation de données expérimentales rend possibles les applications concrètes du calcul des probabilités en attribuant des valeurs numériques à des paramètres inconnus. Elle a été au départ de la possibilité d’une quantification, elle revient comme discipline opérationnelle, d’où le titre de cet article. En retour les concepts probabilistes permettent de définir les qualités des procédés statistiques utilisés.

Mais l’axiomatique de Kolmogorov ne dit rien sur la nature du hasard. Il en résulte que rien n’assure a priori la validité de son utilisation dans telle ou telle situation réelle. Un détour par les interprétations de ce qu’est le hasard s’impose. On verra que selon l’interprétation faite les champs d’application et les procédures statistiques utilisées varient.

Remarque importante sur le modèle probabiliste. Quand on construit un modèle probabiliste sur un phénomène, pensons au jet d’un dé honnête, la probabilité, ici l’équiprobabilité des faces, est dans la fabrication du dé, dans la façon de le lancer, sans tricher. Elle n’existe que tant que le dé roule sur la table. Une fois l’expérience réalisée, il n’y a plus de probabilité mais un constat, on a obtenu la face j, j = 1, 2, 3, 4, 5, 6. Autrement dit la probabilité est dans l’acte, non dans le résultat.

2. Le hasard et le déterminisme

Le déterminisme est à la base de la connaissance scientifique, les expériences doivent être répétables. Considérer des phénomènes caractérisés par la variabilité et l’imprévisibilité des issues possibles pouvait sembler contradictoire avec la méthode scientifique [3]. Les exemples précédents et d’autres ont montré pourtant l’efficacité de cette « géométrie du hasard ». Comment interpréter la variabilité et les constats faits lors de répétitions indépendantes, constats dont rendaient compte les deux théorèmes limites de la théorie : la loi des grands nombres et le théorème de la limite centrée ? Les stabilisations observées pouvaient permettre de retrouver un certain déterminisme.

Une première idée est de constater qu’il est impossible de tout connaître.
Considérons le jet d’un dé. La connaissance précise des conditions initiales de lancement, des lois de rebond permettrait peut-être de prévoir la face finalement observée, mais cela n’est pas possible. Un autre exemple est encore plus spectaculaire. On sait qu’un gaz est composé de molécules et que de leur agitation résultent pression et température, la loi de Mariotte donne une approximation de la relation entre ces deux caractéristiques. Si on part des molécules, de leurs vitesses, des chocs existant entre elles, que peut-on affirmer sur ces grandeurs physiques ? Le calcul direct est évidemment impossible : il y a environ 1023 molécules dans une mole de gaz !

Mais toutes les causes sont nombreuses et diverses. Aussi, au début du 19e siècle Laplace énoncera l’hypothèse suivante, « il suit que, dans une série d’événement indéfiniment prolongée, l’action des causes régulières et constantes doit l’emporter à la longue sur celle des causes irrégulières ». Poisson ajoute « que si l’on observe des nombres considérables d’évènements d’une même nature, dépendants de causes constantes et de causes qui varient régulièrement, tantôt dans un sens, tantôt dans l’autre, c’est-à-dire sans que leur variation soit progressive dans un sens déterminé, on trouvera entre ces nombres, des rapports constants  ». Un sens proche est d’interpréter le hasard comme la rencontre fortuite de causes sans lien les unes avec les autres.

Dans les sciences sociales ce déterminisme de la longue durée est de peu de secours car il est impossible de le vérifier, surtout quand les fluctuations sont importantes.
Comme le dit J.M. Keynes, l’économiste : « dans le long terme nous serons tous morts ».

Une autre façon de combiner déterminisme et hasard est de considérer, comme le fait Poincaré, la sensibilité d’un phénomène aux conditions initiales. C’est le fameux effet « papillon » : les battements d’ailes d’un papillon en Amazonie pourraient déclencher un cyclone aux États-Unis. Mais une autre théorie mathématique, née de l’étude des solutions d’une équation différentielle selon les conditions initiales, la théorie du chaos, fait peu de place au hasard.

3. La probabilité objective

Si on abandonne la référence au déterminisme, on peut considérer, qu’au moins au niveau microscopique, la nature des phénomènes physiques est fondamentalement aléatoire. La mécanique quantique a établi des lois limitant la connaissance. Il est impossible de mesurer avec une précision arbitraire à la fois la vitesse et la position d’une particule, c’est le principe d’incertitude de Heisenberg. Pour de nombreux physiciens, il existe un hasard absolu, le hasard quantique non réductible à une forme quelconque de déterminisme.

Le cas de la physique des particules n’est pas le seul. Si les phénomènes observables, qu’ils soient de nature physique, biologique, sociale, sont fondamentalement aléatoires et peuvent être décrits et analysés par le modèle probabiliste, alors on postule que la probabilité est une propriété du phénomène étudié, indépendante de l’observateur. C’est la conception objective de la probabilité. La loi des grands nombres sert de justification, elle permet une approximation de la loi de probabilité régissant la réalité analysée.

On se place a priori dans une optique où l’expérience faite est, au moins par la pensée, placée dans le cadre d’une suite infinie d’expériences, même si une telle suite est irréalisable car l’homme est un animal fini. Les répétitions indépendantes du phénomène jouent un rôle central, ce qui signifie en langage courant que la probabilité d’apparition d’une issue à une moment donné de la répétition n’est pas influencée par ce qui s’est passé antérieurement. Les procédures statistiques utilisées pour donner une valeur aux paramètres inconnus du modèle devront être convergentes, ce qui signifie que l’estimateur du paramètre inconnu, caractéristique du phénomène devra tendre vers sa « vraie » valeur quand le nombre d’observations indépendantes tend vers l’infini, au moins en un certain sens.

On appelle aussi fréquentiste une telle conception de la probabilité. Elle est la plus répandue et elle sous-tend la notion de probabilité des programmes actuels de l’enseignement secondaire. Elle est relativement intuitive, au moins au niveau d’une première présentation de la notion. Elle n’est pas sans défaut.

Pour certains cette conception de la probabilité est à la fois mal assurée logiquement et trop étroite. Mal assurée logiquement car, pour définir la probabilité à partir de la loi des grands nombres, il faut parler de probabilité. En effet, son énoncé précis est le suivant : « Soit une épreuve aléatoire donnant 1 avec la probabilité p et 0 avec la probabilité (1 − p), n répétitions indépendantes de cette épreuve et $X_n$ le nombre de 1 qui seront obtenus. Alors la probabilité que $X_n \over n$ diffère de p d’au plus $\varepsilon$, $\varepsilon$ positif arbitraire, tend vers 0 quand n tend vers l’infini ».

Un autre énoncé de la loi faible des grands nombres, plus général, est le suivant.
Si P désigne la probabilité, si $X_1, …, X_n$ sont n variables aléatoires indépendantes et de même loi appelée loi de la variable X telle que $E(X_i) = E(X)$ existe, alors :

$$ \forall \varepsilon > 0,P\left[ |{1 \over n}\sum_{i=1}^n X_i-E(X)|>\varepsilon \right] \underset{n\to+\infty}{\longrightarrow} 0 $$

On voit qu’un certain cercle vicieux s’introduit : on parle de probabilité pour définir la probabilité. Au 20e siècle, Von Mises et A. Wald ont proposé des axiomatiques fondant d’une façon plus rigoureuse la probabilité objective.

Trop étroite car disqualifiant l’application des probabilités à des phénomènes sans répétitions possibles, et sans la possibilité d’intégrer des informations non prises en compte par le modèle probabiliste. Une autre interprétation est proposée.

4. La probabilité subjective

Les tenants de la probabilité subjective partent, non de l’expérience à réaliser et dont les issues possibles peuvent varier d’une expérience à l’autre, mais de l’opérateur.
Celui-ci a une opinion sur les issues possibles du phénomène étudié et il traduit cette opinion par une distribution de probabilité. La probabilité n’est plus une qualité objective du phénomène, mais une opinion sur ce dernier. Pour illustrer une telle interprétation on utilisera l’exemple qu’Henri Poincaré proposait et qui fut repris par Émile Borel [4] et Georges Darmois [5]. Considérons le jeu de l’écarté : vous tirez une carte dans un jeu de 32 cartes, vous avez gagné si vous tirez le roi de coeur. Un individu arrive, il tire le roi de coeur et vous vous posez la question « est-il un tricheur ? ». Il vous faut modéliser la situation : t symbolise le tricheur, $\overline t$ le joueur honnête, r tirer le roi de coeur, $\overline r$ tirer une autre carte.
L’espace fondamental est : $\Omega = \{t;\overline t\} \times \{ r,\overline r \}$ ;
T est l’événement « être un tricheur » : $T = \{t \} \times \{ r,\overline r \}$ ;
$\overline T$ est l’événement « être un joueur honnête » $\overline T = \{\overline t\} \times \{ r,\overline r \}$ ;
R est l’événement « tirer le roi de coeur » : $R = \{t;\overline t\} \times \{ r \}$ ;
$\overline R$ est l’événement « ne pas tirer le roi de coeur » : $\overline R = \{t, \overline t\} \times \{ \overline r \}$ ;
On a évidemment $P_{\overline T} (R)={1 \over 32}$. Supposons que le tricheur réussisse son coup deux fois sur trois, alors $P_T (R)={2 \over 3}$. Posons p = P(T) ; on veut connaître la probabilité que l’individu soit un tricheur sachant qu’il a tiré le roi de coeur, donc la quantité $P_R(T)$.
Par définition $P_R(T)={P(R \cap T) \over P(R)}$ et $P(R \cap T)=P_R(T) \times P(T)$ ; de même $P(\overline T \cap R)=P_{\overline T} (R) \times P(\overline T)$.

On remarque que $R=(T \cap R) \cup (\overline T \cap R)$ et que $(T \cap R)$ et $(\overline T \cap R)$ sont incompatibles. Il vient $P_R(T)={{2 \over 3}p \over {2 \over 3}p + {1 \over 32}(1-p)}$, soit $P_R(T)={64p \over {61p+3}}$

En introduisant un autre langage, on peut dire que le fait de tirer le roi de coeur avait deux causes : joueur honnête ou tricheur et on cherche les probabilités des causes quand on sait l’événement réalisé.

Plus généralement, on a le théorème suivant appelé Théorème de Bayes : Soit ($A_1, A_2, …, A_k$) une partition de $\Omega$ en k événements incompatibles, E un événement de probabilité non nulle, alors :

$$P_E(A_j)={P_{A_j} (E) \times p(A_j) \over \sum_{j=1}^k P_{A_j} (E) \times P(A_j)}$$

L’interprétation possible est claire : E étant dû aux « causes » $A_1, …, A_k$, quelle est la probabilité de chaque cause quand E est réalisé ? Il s’agit d’un problème inverse déjà présenté par Simon Laplace au début du 19e siècle comme septième principe du calcul des probabilités dans son « Essai philosophique sur les probabilités », et qui est le paradigme des subjectivistes. P($A_j$) quantifie mon opinion a priori sur $A_j$, j’observe E, je tiens compte de cette information pour modifier cette opinion et j’obtiens une opinion a posteriori $P_E (A_j)$. Il semble toutefois dans ce schéma que les $P_{A_j} (E)$ n’aient pas tout à fait le même statut d’opinion, ils ont un relent de probabilités objectives !

Pour justifier leur point de vue, les subjectivistes ou bayésiens s’appuie sur la théorie de la décision. Supposons que nous ayons à parier sur des issues possibles d’un phénomène que l’on ne peut prévoir, mais le pari est obligatoire. C’est la situation quotidienne de tout individu qui prend chaque jour des décisions et n’est jamais totalement sûr des conséquences de ses actes. Si on impose au processus de décision, sous forme d’axiomes, des règles logiques de cohérence, on peut montrer que cela revient à mettre sur l’ensemble des états de la nature (les causes de l’exemple précédent) une distribution de probabilité, sur les conséquences observables (les issues) une utilité pour le décideur qui choisit le pari selon le critère de l’espérance mathématique telle que Pascal l’a introduite.

Le choix de la probabilité par l’individu n’est évidemment pas arbitraire, elle intègre les informations qu’il peut avoir. Si vous traversez la rue, vous donnez une probabilité très faible à l’événement « être écrasé par un véhicule ». Mais le choix spontané des individus n’est pas toujours cohérent. On a une maladie grave, un traitement difficile, mais 68% de succès. Avec cet énoncé, 44% des sondés acceptent le traitement. Mais, si on annonce 32% d’échecs, ce qui est la même information, il n’y a plus que 18% des sondés prêts à subir le traitement.

On traduit des informations incomplètes, les résultats d’expériences antérieures par une probabilité. La probabilité, forgée au départ pour représenter le hasard, est utilisée pour représenter une connaissance incomplète, une incertitude, ce qui n’est pas conceptuellement la même chose. Pire, on combine l’expression de la dite incertitude avec des considérations plus objectives, voir le problème du tricheur, pour aboutir à un état plus précis de la connaissance. La validité de la démarche est souvent discutée, encore que, dans certains cas, l’expérience longue valide le procédé.

On notera que les procédures statistiques utilisées par les bayésiens pour donner des valeurs numériques à des paramètres inconnus des lois d’un modèle probabiliste sont différentes de celles utilisées par les fréquentistes, même si souvent, dans la pratique il y a des convergences.

À signaler qu’à partir du point de vue subjectiviste il est possible, à partir d’axiomes de cohérence de démontrer les axiomes que Kolmogorov a énoncés dans sa définition de la probabilité. Ce travail a été fait par Bruno de Finetti en 1937 dans un long article paru en français dans les « Annales de l’I.H.P. », tome 7 disponible sur la toile.

Hasard et probabilité

1. De la randomisation

Le hasard présenté ci-dessus est présenté comme naturel : il est impossible de prévoir avec certitude l’issue d’une expérience, d’un phénomène. Quelle que soit l’interprétation que l’on fait de la probabilité, la situation de variabilité s’impose à l’observateur, au scientifique. Il arrive aussi qu’il soit provoqué à des fins de connaissance. Le cas le plus connu est celui des sondages.

Vous avez face à vous un lot de pièces mécaniques dont vous voulez connaître la solidité. Pour ce faire essayez les dites pièces jusqu’à la rupture. Évidemment on aura une connaissance parfaite en les essayant toutes, mais elle sera évidemment inutilisable car aucune pièce ne sera disponible. Une solution s’impose : se contenter d’essais sur une petite fraction de la production, autrement dit prendre un échantillon et juger de la qualité du lot sur celui-ci. Mais comment le choisir ? Les causes provoquant une certaine faiblesse de la pièce sont inconnues. À prendre n’importe comment les pièces de l’échantillon on s’expose à des biais. Par exemple, pour une raison inconnue, les bonnes pièces risquent d’être par exemple sous représentées et on gaspillera une production coûteuse en la rejetant à tort. La seule solution rationnelle est d’agir comme si ces causes inconnues étaient dues au hasard. On tirera donc les pièces de l’échantillon au hasard dans la production.

On procède de même quand on veut connaître l’effet d’une substance chimique sur un organisme, par exemple celui de la souris. Dans une cage provenant d’un élevage de souris, on tire au hasard la moitié de l’effectif auquel on administre la substance, l’autre moitié formant l’échantillon témoin. Si le premier groupe était formé, par exemple, des premiers individus pris, le biais risque d’être important. Les premières prises sont probablement les plus fragiles, les moins agiles et l’expérience est faussée. La fragilité, l’agilité des individus ne sont pas des variables d’intérêt, on s’en débarrasse en les confondant avec le hasard. Un tel procédé s’appelle la randomisation, du vieux mot français randonnée qui signifiait promenade sans but, donc au hasard, revenu dans le vocabulaire probabiliste après un passage par l’anglais.

2. Le hasard « Canada dry »

Reste à voir comment pratiquement choisir au hasard. Le cerveau humain ne peut produire une série longue de 0 et de 1 que l’on puisse a posteriori considérer comme le résultat de tirages indépendants du type lancers d’une pièce non biaisée. Il faut donc construire un procédé pratique et sûr.

Calculettes et tableurs proposent par les fonctions « random » ou « aléa », des générateurs de nombres présentés comme aléatoires. On a une suite de nombres entiers entre 0 et 9 supposés être tirés d’une urne à 10 catégories par des tirages indépendants, chaque nombre ayant la probabilité 0,1 de sortir. En fait il s’agit d’une supercherie mais d’une supercherie féconde : la suite affichée est produite par un algorithme compliqué mais parfaitement déterministe. Pourtant quand on regarde de longues listes de nombres produites par de tels algorithmes, pas trop longues toutefois car il y a une périodicité des résultats, on constate qu’elles se comportent comme s’il s’agissait de numéros tirés du chapeau. Diverses procédures statistiques sont utilisées pour s’en assurer. Ça a l’aspect du hasard, ça se comporte comme le hasard, mais ce n’est pas du hasard, d’où le nom de hasard « Canada dry » en référence à la publicité bien connue. En particulier on peut mettre en évidence la loi des grands nombres, le théorème de la limite centrée et d’autres résultats asymptotiques plus subtils. Ces nombres, appelés scientifiquement pseudo aléatoires, ont pris une importance croissante dans la recherche scientifique, l’enseignement, avec les possibilités actuelles des ordinateurs.

Ils sont à la base du procédé appelé simulation. Elle est utilisée dans le programme de la classe de seconde pour présenter, dans une optique fréquentiste, la notion de hasard. Pour beaucoup de problèmes stochastiques les calculs analytiques sont d’une complexité telle qu’ils sont souvent impraticables. Le modèle probabiliste étant précisé, on procède à des expériences artificielles un très grand nombre de fois et la loi des grands nombres permet de se faire une idée des conséquences du modèle. S’il est adéquat les conséquences sur la réalité étudiée suivent.

Le citoyen et le hasard

Si peu de choses sont certaines dans ce bas monde, si le hasard est une catégorie courante et aussi un instrument de connaissance, pensons aux sondages ; si la pensée magique subsiste pour rendre compte de la variabilité permettant toutes les manipulations, alors il est nécessaire de commencer une initiation au hasard pas trop tard dans la scolarité.

À partir d’observations de nature statistique, on compte des fréquences. Les mathématiciens ont mis au point un modèle magnifique, d’une efficacité redoutable dans de nombreux aspects de la vie quotidienne dès lors qu’il est articulé avec cette branche de la statistique dite statistique inductive. On est parti de la statistique pour y revenir. En sus le modèle probabiliste s’applique à des réalités qui ne sont pas de la catégorie du hasard, l’information incomplète ou le pseudo hasard permettant de nouveaux développements.

Encore une illustration de la redoutable efficacité des mathématiques.

Bibliographie sommaire

L’auteur a bien conscience de l’arbitraire du choix ci-dessous, il existe d’autres ouvrages aussi intéressants que ceux signalés ci-dessous

1. Manuels universitaires

Peu de manuels classiques de probabilités et de statistique abordent de front une réflexion sur la notion de hasard, ils sont surtout centrés sur l’étude du modèle probabiliste et des procédures statistiques qui y sont associées. Parmi les nombreux ouvrages existants on peut citer les suivants :

Droesbeke Jean-Jacques (1996). Éléments de statistique, éditeurs : Ellipses et Université Libre de Belgique (simple et facilite l’initiation).

Ekeland Yvan (1991). Au hasard, Seuil (approche des concepts de hasard, de probabilités).

Lejeune Michel (2004). Statistique, la théorie et ses applications, Spinger (ouvrage de base sur les techniques de statistique inférentielle, très pédagogique).

Picard Philippe (2007). Hasard et probabilités, histoire, théorie et applications, Vuibert (une étude historique intéressante du calcul des probabilités).

Saporta Gilbert (1990). Probabilités, analyse des données, statistique, Technip (ouvrage de référence abordant toutes les techniques classiques de la statistique, bien présenté et très clair).

Schwartz Daniel (1994). Le jeu de la science et du hasard, Flammarion (peu de mathématiques mais une réflexion sur notre attitude face au hasard à partir d’exemples issus de la biologie).

2. Études didactiques

Les ouvrages de la commission inter-IREM statistique et probabilités sont tous une mine pour l’enseignement, les éditeurs sont Brigitte Chaput et Michel Henry. Citons :
(2001) Autour de la modélisation en probabilités, Presses de l’université de Franche-Comté.
(2002) Probabilités au lycée, APMEP brochure 143.
(2005) Statistique au lycée (vol.1), APMEP brochure 156.
(2007) Statistique au lycée (vol.2), APMEP brochure 167.

Autres ouvrages :

Courtebras Bernard. À l’école des probabilités, Presses universitaires de Franche-Comté.

Piednoir Jean-Louis & Philippe Dutartre (2001). Enseigner la statistique au lycée de la seconde au BTS, Commission inter-IREM lycées techniques, brochure 112, IREM Paris-Nord.

Robert Claudine (1998). L’empereur et la girafe, initiation à la statistique, Diderot multimédia.

Sites dédiés

De nombreux sites dédiés à l’enseignement des mathématiques ont un chapitre consacré aux probabilités et à la statistique. Le site « statistix », animé en particulier par Claudine Schwartz, propose des activités très intéressantes.
L’article fondateur de Bruno de Finetti (1934) sur la probabilité subjective paru dans les « Annales de l’institut Henri Poincaré » a été numérisé, il est disponible sur la toile.

(Article mis en ligne par Armelle BOURGAIN)

[1] Inspecteur général de l’éducation nationale (honoraire).

[2] L’OCDE a mis en place une procédure périodique d’évaluation des compétences des jeunes de 15 ans en trois domaines : compréhension de l’écrit, mathématiques, sciences, dans les différents pays. Elle est appelée PISAet a fait l’objet de nombreux commentaires, dans les différents pays, sans parler de la place des pays dans les différents classements.

[3] « Par l’union ainsi réalisée entre les démonstrations des mathématiques et l’incertitude du hasard » selon les termes de Blaise Pascal dans son adresse à l’académie parisienne de mathématiques en 1654.

[4] Émile Borel (1871 - 1956), mathématicien français, s’est beaucoup impliqué dans laréflexion sur les programmes de l’enseignement secondaire. On lui doit en particulier les programmes de la réforme de 1902 qui inspireront encore les programmes de 1945 en vigueur jusqu’au début des années soixante.

[5] Georges Darmois (1888 - 1960), mathématicien français, s’est toujours intéressé aux applications des mathématiques, y compris lors de la guerre de 14-18, a succédé à M. Fréchet dans la chaire de calcul des probabilités et physique mathématique, a été le premier à enseigner la statistique en France.


 Accueil   Plan du site   Haut de la page   Page précédente