Dictionnaire de Mathématiques fondé sur les exemples et l’illustration des notions

(article de Francesco Colonna Romano)

Ludovic Legry

Applications des notions mathématiques de lycée/Capes

J’ai choisi de me placer au niveau Capes parce qu’il s’agit d’un approfondissement du programme de lycée (ce qui veut dire qu’une bonne partie de ce qui suit peut-être dit au lycée) et, dans l’attente d’une meilleure classification, les thèmes ci-dessous suivent les titres des leçons données au Capes 2005. Si des idées sur l’application des maths ne sont pas exigibles au Capes, je pense qu’en parler dans une leçon est une manière de se distinguer des autres candidats, grâce à des idées sans risque. En effet, donner une application ce n’est pas s’aventurer dans un domaine mathématique que l’on connaît mal et sur lequel on pourrait avoir des questions. Et en plus une fois qu’on a compris l’idée, on ne risque pas de l’oublier (pas de formules, pas de théorèmes). C’est donc une stratégie qui peut s’avérer payante, et demande très peu de travail.

En ce qui concerne les références bibliographiques, je ne peux pas donner grand chose, car ce qui suit est fondé sur des souvenirs de cours et des extrapolations. Pour les préciser, j’ai parfois eu recours à une recherche Google. On trouve notamment sur Wikipedia de très bons articles d’explications.

Bonne lecture, et n’hésitez pas à formuler vos remarques

Francesco Colonna-Romano


  • Arithmétique : née pour résoudre des problèmes pratiques (de comptabilité, de partages d’héritages), l’arithmétique est devenue un jeu et une source de défis. Par exemple la résolution d’équations diophantiennes (équations polynomiales à coefficients entiers, dont on cherche des solutions entières), la plus connue parmi celles-ci étant celle de Fermat . On a montré au 20ème siècle qu’il n’existe pas d’algorithme permettant de savoir si une équation diophantienne possède des solutions, il faut raisonner au cas par cas. L’arithmétique sur les entiers se généralise à l’anneau des polynômes à une indéterminée (où l’on peut définir une division euclidienne) et à d’autres anneaux. On peut dire je crois que l’arithmétique est l’étude de « nombres » en considérant la relation de divisibilité. Longtemps, l’arithmétique a été considérée comme un domaine de maths pures complètement dépourvu d’applications. Pourtant, avec les ordinateurs (qui ne connaissent que les nombres entiers) et la cryptographie, des applications énormes sont apparues. Le principe de la cryptographie RSA est de coder un texte par un calcul de congruences utilisant un grand nombre premier. Le décryptage se fait en appliquant une transformation inverse fondée sur un nombre que le public n’a pas les moyens de calculer. La sûreté de la méthode RSA repose sur la difficulté de décomposer en facteurs premiers un grand nombre sans essayer toutes les possibilités, ce qui prend bien trop de temps. Il y a certes des méthodes en apparence plus simples, comme remplacer chaque caractère par un autre suivant une transformation donnée, mais cela oblige celui qui crypte et celui qui décrypte à connaître tous les deux cette transformation. Au contraire, la méthode RSA permet à n’importe qui de coder (par exemple tout internaute payant par carte de crédit), mais seulement à la banque de décoder, grâce à une clé différente.
  • Barycentre : à simplifier des sommes vectorielles (de type ). Ceci est utile dans la recherche de certaines lignes de niveau ( ), mais surtout en physique où les lois de Newton pour un système complexe se simplifient en remplaçant ce système par le barycentre sur lequel s’exerce la résultante des forces. Ne pas oublier l’interprétation physique du barycentre comme le centre d’inertie qui permet de tenir un solide en équilibre. D’autre part, le barycentre sert aussi à définir les ensembles convexes (ceux qui contiennent les barycentres de leurs points affectés de coefficients positifs).
  • Cercle : c’est avec la droite la courbe la plus simple à tracer, incarne la perfection pour les Grecs, d’où l’importance des constructions à la règle et au compas. Il peut être vu comme un polygone régulier avec une infinité de côtés. Parmi les figures de périmètre fixé il a une surface maximale, ou un périmètre minimal à surface fixée, ce qui fait qu’en physique il apparaît comme courbe de minima d’énergie (penser à une bulle de savon).
  • Coniques : après les droites (courbes de degré 1), ce sont les plus simples (de degré 2). Elles servent donc à approcher localement une courbe quelconque (en faisant un DL à l’ordre 2). Sections d’un cône par un plan, on peut les visualiser simplement avec le cône de lumière produit par un abat-jour ou une lampe de poche. Ellipse et hyperbole décrivent le mouvement de planètes ou d’une charge électrostatique sous l’effet d’une masse/charge ponctuelle. La parabole décrit la trajectoire d’un boulet de canon dans un champ de pesanteur uniforme. Les propriétés de leurs tangentes expliquent leurs propriétés optiques. Par exemple pour la parabole, tout rayon parallèle à l’axe focal est renvoyé sur le foyer (d’où les antennes paraboliques) et inversement (d’où les phares des voitures). On a des propriétés analogues pour les autres coniques, si bien qu’on les utilise pour fabriquer des télescopes.
  • Continuité : La continuité est une propriété fondamentale de la plupart des phénomènes physiques classiques (c’est faux pour la mécanique quantique). Par exemple, la trajectoire d’un point est continue, les déformations que l’on peut faire subir à un objet sont continues. L’énergie doit varier continûment (car sa variation correspond à une puissance, nécessairement limitée), donc aussi la vitesse d’un point, la tensions aux bornes d’un condensateur, l’intensité dans une bobine, la température d’un corps. En économie, la continuité des fonctions d’offre et de demande permet d’assurer que les courbes se coupent et qu’il existe un prix d’équilibre (c’est la loi de l’offre et la demande). Or il est plausible de considérer que la demande des consommateurs dépend continûment du prix, mais ceci l’est beaucoup moins pour l’offre (car la nature de la production industrielle, avec des effets de seuil au-delà desquels il faut investir dans une nouvelle machine, produit des discontinuités). Les hypothèses de continuité jouent un rôle crucial dans l’acceptation ou la critique de la théorie économique de la concurrence dans un marché à information parfaite, qui sert de base à l’idéologie libérale. C’est la topologie qui étudie les propriétés des fonctions continues. Celles-ci conservent le fait d’être en un seul morceau (en dimension 1 c’est le fait d’être un intervalle, sinon c’est la connexité), la compacité, et les ouverts et fermés (en fait c’est la fonction réciproque qui les conserve). Les fonctions continues conservent aussi le fait d’avoir ou pas des trous (c’est défini par le groupe fondamental ) : on ne peut pas passer d’une sphère à un tore (beignet). (Digression : c’est la théorie des catastrophes qui étudie comment des phénomènes continus peuvent être à l’origine de comportements discontinues.) Il est bon de connaître des exemples de fonctions non continues (avec éventuellement beaucoup de discontinuités.)
  • Convexité : Beaucoup de fonctions classiques sont convexes ou concaves (fonction carré, inverse, puissance, logarithme, exponentielle). La convexité permet d’obtenir un certain nombre d’inégalités utiles : Jensen ou Holder/Minkowski. (Le lien entre métrique et convexité est profond : en effet les boules unités pour une norme donnée sont convexes à cause de l’inégalité triangulaire, et il existe une réciproque (qui permet de reconstituer la norme à partir d’un convexe qui constitue la boule unité)). Autre exemple de telles inégalités : en intégration numérique par la méthode des trapèzes, on peut obtenir un encadrement du calcul approché. D’autre part, la convexité permet d’affirmer l’existence d’extrema sans faire appel à la compacité. Ceci sert par exemple à définir la projection orthogonale sur un convexe fermé, ou le calcul de la distance à celui-ci. Ou encore, en économie, la fonction d’utilité (qui traduit le bien être qu’un individu tire d’un panier de biens) est convexe, ce qui veut dire qu’un individu préfère un peu de chaque bien plutôt que beaucoup d’un seul. L’aversion au risque se traduit aussi par de la convexité : l’individu préfère obtenir sûrement l’espérance d’une loterie (variable aléatoire), dont l’utilité est donc supérieure à l’espérance de l’utilité des diverses issues. Ces hypothèses dont convexité permettent d’assurer l’existence d’une solution au « problème du consommateur » : maximiser la fonction utilité sous la contrainte de budget fixé. Le gros théorème relatif à la convexité est celui de Hahn-Banach : si on a un convexe fermé et un point n’appartenant pas à ce dernier, il existe un demi-espace fermé contenant Le premier convexe, mais pas le point. Il permet d’affirmer qu’un convexe fermé est l’enveloppe convexe de ses tangentes.
  • Courbes paramétriques : Elles correspondent à la notion la plus générale de courbe (généralisent les courbes de fonctions, les courbes polaires, les courbes implicites), et décrivent la trajectoire d’un point dans l’espace en fonction du temps. Leur étude sert donc naturellement en mécanique.
  • Complexes : Au niveau du lycée, les nombres complexes sont un outil très puissant permettant de faire du calcul analytique (y compris avec des angles) en manipulant une seule coordonnée (ils permettent aussi de définir une « multiplication de vecteurs » !!). Ils permettent aussi d’écrire de manière simple les transformations du plan (isométries et similitudes). En électricité, on représente une fonction sinusoïdale par son amplitude et sa phase (module et argument), ce qui permet de tout traiter avec un seul nombre complexe. En associant une impédance (« résistance complexe ») aux bobines et aux condensateurs, on peut utiliser la loi d’Ohm (U=RI) qui était valable pour les résistances seulement en courant continu. On peut donc traiter très simplement des circuits contenant divers types de composants. (Plus généralement, le nombre complexe Entrée/Sortie appelé fonction de transfert résume la manière dont un circuit transforme un signal en l’amplifiant et en le déphasant. Pour assembler plusieurs circuits ils suffit de multiplier ces fonctions de transfert.) Enfin, en maths, le théorème de d’Alembert dit que est algébriquement clos (et c’est le plus petit corps contenant dont on peut dire cela), c’est-à-dire que tout polynôme de degré n y possède exactement n racines, et cela simplifie souvent les calculs. Sur on sait que des équations possèdent des solutions, qu’une matrice possède des valeurs propres (donc on peut les trigonaliser), etc. Enfin, un autre gros résultat pour l’analyse : les fonctions dérivables au sens complexes sont automatiquement et développables en série entière.
  • Croissance comparée de suites ou fonctions : exemples pratiques : comparer la complexité d’algorithme (polynomial, comme le pivot de Gauss, factoriel comme le voyageur de commerce ou la méthode de Cramer, en logarithme pour certains tris...), Malthus compare la croissance des ressources (arithmétique) à celle de la population (géométrique).
  • Dérivée : En maths, cette notion sert à l’origine à déterminer l’équation de la tangente à une courbe, ce qui donne en même temps le sens de variation de la fonction et de trouver ses extrema. Il s’est révélé par la suite que la dérivation est l’opération inverse de l’intégration, et donc que les formules de dérivée servent aussi au calcul de primitives et d’intégrales. En physique, la vitesse et l’accélération sont des dérivées, l’intensité électrique est la dérivée de la charge d’un condensateur, la tension d’une bobine est la dérivée de l’intensité, plusieurs forces (gravitation, électrostatique, élastique) « dérivent » (c’est des gradients) d’un potentiel qui est une énergie. La puissance est la dérivée de l’énergie. La force de pression est le gradient de la pression. Tous les flux (de chaleur, de particules) sont des gradients. La vitesse d’une réaction chimique est une dérivée. Les lois physiques (loi de Newton en mécanique, loi des mailles en électrocinétique, bilan d’énergie en thermodynamique) donnent des relations entre fonctions et dérivées, ce qui conduit à des équations différentielles (voire des EDP). La dérivée représente tout ce qui est taux de variation : taux de croissance d’une population (n’/n=natalité-mortalité), taux de contagion pour une maladie. En économie, le taux de croissance d’une économie (ou du chômage, ou de n’importe quelle grandeur) est une dérivée. Le coût marginal d’un produit est le coût de production d’une unité supplémentaire, est la dérivée du coût de production total. Le prix de vente d’un produit est fixé égal au coût marginal de la dernière unité produite. Le taux marginal de substitution traduit la propension d’un consommateur à remplacer un produit par un autre lorsque le prix du premier augmente.
  • Développements limités : le but est d’approcher une fonction par un polynôme, considéré plus simple. Ceci généralise le fait de remplacer une courbe par sa tangente (qui est un DL à l’ordre 1). Ceci permet des calculs approchés ou de donner un ordre de grandeur d’une fonction au voisinage d’un point. La plupart des lois physiques peuvent apparaître comme des développement limités. Par exemple, la loi d’Ohm U=RI est une approximation à l’ordre 1. Dans certains cas limites (très grandes intensités par exemple), on est obligés de rajouter un terme d’ordre 2. A chaque fois que l’expression d’une force est linéaire (ou polynomiale), c’est qu’en fait on simplifie la réalité en faisant un développement limité. On peut donner aussi l’équation du pendule y’’+sin(y)=0 que l’on simplifie en y’’+y=0 pour des petites oscillations. Lorsqu’on fait un développement limité, on aurait parfois envie de le prolonger à l’infini. Lorsque c’est possible (pas toujours), ceci donne les séries entières.
  • Equations différentielles : elles apparaissent naturellement à chaque fois qu’on a une relation entre une grandeur et ses dérivées. La loi de Newton en physique relie l’accélération et des forces dépendant de la position. La loi des mailles et la loi d’Ohm relient courant et intensité. La vitesse d’une réaction chimique dépend des concentrations des réactifs. Le taux de croissance d’une population dépend de la taille de celle-ci (car si la population est trop nombreuse, alors il y a moins de ressources disponibles pour chacun, les maladies se propagent mieux, etc.) Les équations différentielles (et leur généralisation à plusieurs variables, les EDP) sont donc l’outil de base de la physique et de la dynamique des populations. Remarque : les suites récurrentes constituent l’équivalent discret des équations différentielles.
  • Fonctions exponentielles et logarithme : c’est des fonctions nouvelles, auxquelles on ne pouvait pas penser en faisant de l’algèbre, qui se limitait aux quatre opérations, et au calcul de racines. Or justement ces fonctions ne peuvent pas s’écrire à partir de fractions rationnelles et de racines. La fonction exponentielle décrit la désintégration d’un noyau radioactif, la croissance d’une suite géométrique (rencontrée dans la croissance d’un embryon, dans celle d’une population à taux de natalité fixé, d’une somme placée en banque à taux fixe), la décharge d’un condensateur, le temps d’attente d’un bus, la croissance de la consommation d’énergie au vingtième siècle, le comportement d’un agent économique « raisonnable » qui fait des choix équilibrés entre le bien-être immédiat et celui futur. Le logarithme intervient dans le calcul du pH d’une solution, dans la définition de la magnitude d’un séisme (on utilise une échelle logarithmique à chaque fois que l’on veut visualiser sur un même graphique des données des écarts de valeur importants).
  • Fonctions homographiques : ce sont les transformations qui conservent les angles, et transforment des cercles-droites en cercles-droites. Elles généralisent donc les isométries et les similitudes. Leur expression complexe est du type : ou . L’inversion est un bon exemple de transformation ne conservant pas la forme des figures (les élèves de lycée n’en connaissent pas). Des transformation de ce type interviennent en cartographie : si l’on a une carte (obtenue par projection stéréographique d’une sphère sur un plan), par exemple centrée sur l’Europe, et on veut construire une carte (centrée sur le pôle nord), il faut utiliser une transformation homographique. (ceci s’explique par leur rôle en géométrie projective).
  • Fonctions polynômes : les fonctions polynômes sont les plus simples après les fonctions linéaires (elles apparaissent dès qu’on multiplie deux telles fonctions). Elle ont aussi l’avantage de pouvoir être définies sur , sur ou sur seulement. On sait calculer relativement bien avec ces fonctions (dérivées, primitives) et on sait plus souvent résoudre les équations polynomiales que des équations plus générales. D’ailleurs, le théorème de d’Alembert permet de majorer (ou d’avoir, si on est sur ) le nombre exact de ces solutions. Par les développements limités, on peut approcher localement une fonction suffisamment régulière par un polynôme. On peut aussi approcher une fonction par un polynôme d’interpolation qui passe exactement par des points fixés (et dont on peut imposer les tangentes). Sur un segment, le théorème de Stone-Weierstrass affirme que l’on peut approcher une fonction continue par un polynôme d’aussi près que l’on veut et de manière uniforme. Les fonctions polynôme servent aussi de référence pour leur comparer les autres fonctions (par exemple pour un développement asymptotique), pour tester des méthodes d’intégration numérique, ou pour exprimer la complexité d’un algorithme informatique (un algorithme polynomial est correct, moins bien qu’un algorithme en log mais mieux qu’un algorithme exponentiel ou factoriel).
  • Fonctions réciproques : une fonction traduit à priori une relation de cause à effet. La fonction réciproque c’est retrouver la cause connaissant l’effet. On voit bien que ceci ne sera pas possible si deux causes différentes ont le même effet (non injectivité) ou si l’effet considéré est impossible (non surjectivité), d’où le lien entre existence de fonction réciproque et bijectivité. Une remarque : une équation est toujours de la forme f(x)=y. Pour la résoudre, on est conduit à chercher des fonctions réciproques. Deux problèmes alors : l’existence de telles fonctions (quitte à restreindre des intervalles) et leur calcul pratique.
  • Géométrie analytique (ie avec un repère cartésien) : elle permet de ramener n’importe quel problème géométrique à un problème de calcul, dont on peut théoriquement venir à bout à coup sûr par des algorithmes de résolution d’équations. Ceci a constitué un progrès énorme.
  • Géométrie du plan et espace affine euclidien : Les Grecs ont inventé la géométrie parce qu’ils en avaient besoin pour la navigation : d’une part pour dessiner des cartes et d’autre part pour positionner un bateau sur une carte déjà existante (penser au fait que les instruments de navigation sont souvent des sortes de rapporteurs (sextant, astrolabe), qu’on appelle « compas » la boussole). Cela suppose de savoir construire ou calculer angles et longueurs de triangles. Cependant, peu à peu, la géométrie a pris une valeur éducative (cf. « Que nul n’entre ici s’il n’est géomètre » de l’Académie de Platon), car c’était le seul domaine où s’opérait réellement la démonstration (L’arithmétique à l’époque était plus une collection de recettes.) Il y a deux manières de définir le plan et l’espace (et du coup aussi les vecteurs, les produits scalaires, les droites, etc). D’une part avec les Axiomes de Hilbert qui complètent ceux d’Euclide (par deux points passe une et une seule droite, si on prend deux points il existe toujours un point entre les deux, etc.) C’est l’approche du collège, on introduit ensuite les vecteurs définis par leur longueur, leur sens et leur direction, on définit leur somme par la règle du parallélogramme. On introduit aussi un produit scalaire comme produit de longueurs par le cosinus de l’angle. Grâce à tout cela on obtient finalement un espace affine euclidien. A l’inverse, on peut prendre le plan vectoriel (isomorphe à ) et le munir d’une structure affine et d’une forme bilinéaire symétrique, ce qui permet ensuite de démontrer tous les postulats d’Euclide (et Hilbert). Cette approche est introduite après le bac, elle a pour avantage d’être beaucoup plus concise et de s’appliquer en dimension supérieure. C’est bien de savoir que ces deux constructions existent et son équivalentes. (Remarque : définir un espace affine est compliqué et fastidieux, dans les deux approches. D’où l’approche de mon prof de sup qui assimilait points et vecteurs.)
  • Graphes/Arbres : Ca intervient en informatique car on peut souvent représenter un algorithme sous forme de graphe (cf. automates finis). L’arbre est aussi une manière efficace de classer des données de manière hiérarchisée (penser aux classifications des espèces en biologie ou aux dossiers d’un ordinateur). Par ailleurs, les graphes modélisent certaines situations réelles comme des villes reliées par des réseaux de transports (le but étant alors de parcourir ce graphe ou de déplacer des marchandises sur ces graphes avec un coût minimal. On pensera au célèbre problème du voyageur de commerce), la toile internet (le principe de Google est une marche aléatoire sur ce graphe), ou encore des relations entre agents sociaux (individus, ménages, familles) (un résultat : en partant d’un individu au hasard on peut trouver une personne qu’il connaît qui en connaît une autre qui... pour arriver en 7 coup à n’importe quel autre homme sur terre). De nombreux problèmes comme faire un emploi du temps ou affecter du personnel (cf les mutations des profs) peuvent se ramener à des problèmes de graphes.
  • Indépendance probabiliste : notion non assimilée par les joueurs de hasard (qui cherchent à jouer une combinaison qui est sortie moins fréquemment). En statistiques, l’indépendance n’est qu’une hypothèse (qui se traduit par un faible coefficient de corrélation). Par exemple, à la fin du dix-neuvième siècle, on avait remarqué une corrélation entre les oscillations des cycles économiques et des taches solaires (qui avaient même période). Cette corrélation était une pure coïncidence. Cependant, si les acteurs économiques commencent à croire à cette théorie, elle peut devenir exacte : si tous anticipent une croissance économique à un moment donné, ils vont se comporter de manière telle que cette croissance aura lieu. C’est une grande digression, mais c’est amusant de voir qu’en sciences humaines des dépendances peuvent apparaître entre événements à priori indépendants.
  • Intégration et primitives : L’intégrale possède trois interprétations : l’opération inverse de la dérivation, la surface sous une courbe et la somme (c’est le sens du symbole ) d’une infinité de petits éléments. Ce troisième aspect apparaît dans l’étude des sommes de Riemann, il est beaucoup utilisé en physique pour modéliser les milieux continus (distribution linéique/ surfacique/ volumique de charge, de masse, calcul du centre de gravité, de la résultante d’un champ de forces). Le travail d’une force apparaît aussi comme la somme des travaux élémentaire par rapport au temps. Cette même approche donne des équations continues en dynamique des populations : par exemple, si n(x,t) est le nombre d’individus d’age entre x et x+dx à l’instant t, alors donne la population totale à l’instant t, le nombre de naissances ( étant la natalité pour un parent d’âge x), est l’espérance de vie, etc. C’est la théorie de la mesure et l’intégrale de Lebesgue qui réalise la synthèse entre intégrale et somme. On voit apparaître cette synthèse notamment dans la théorie des probabilités avec des lois continues : les formules de moyennes, variances se récrivent avec des intégrales. En physique, la valeur efficace d’une grandeur (par exemple de l’intensité, de la tension, d’une force) est définie comme la valeur continue qui transporte la même énergie. C’est une moyenne (d’une valeur absolue ou d’un carré), elle est calculée à partir d’une intégrale. Pour ce qui est l’aspect surface de l’intégrale, il est bon de savoir qu’Archimède déjà utilisait des techniques semblables pour calculer certaines surfaces (parabole par exemple).
  • Intégration par parties et changement de variable : l’intégration étant l’inverse de la dérivation, tous les techniques de calcul d’intégrale proviennent d’une formule de dérivation. L’IPP correspond à la dérivation d’un produit, le changement de variable à la dérivation d’une fonction composée. Ces deux techniques apparaissent donc naturellement, et ne doivent donc pas être considérées comme des astuces.
  • Intégration numérique : Deux motivations : d’une part des intégrales qu’on ne sait pas calculer lorsque la fonction devient trop complexe, d’autre part des fonctions simples dont on ne peut pas exprimer de primitives (penser à 1/x avant d’avoir inventé le logarithme, penser à sin(x)/x ou à exp(x2)). On ne peut donc espérer calculer les intégrales exactes, on est obligés de se contenter de valeurs approchées. On dispose alors de différentes méthodes, la meilleure étant celle qui converge le plus rapidement, c’est-à-dire qui donnera le résultat le plus proche avec le moins de calculs. Comme on ne peut pas comparer les méthodes sur toutes les fonctions (et on peut toujours trouver une fonction particulière qui rend plus avantageuse telle méthode), on utilise les fonctions polynômes, les fonctions convexes, les fonctions dont la dérivée est majorée par k.
  • Intersection de plans et droites : cette partie est importante car la vision géométrique formée sert à comprendre l’algèbre linéaire (en dimension supérieure) et la théorie des systèmes linéaires.
  • Isométries : elles correspondent aux déplacements que l’on peut faire subir à un objet solide (d’où leur utilité en mécanique pour décrire les mouvements de base d’un objet), auxquelles s’ajoute la réflexion dans un miroir. Elles conservent l’essentiel des propriétés géométriques, dont notamment longueurs et angles. Bien que ce ne soit pas prouvé au lycée, c’est bien de savoir qu’il n’y a pas d’autres isométries que rotations, réflexions, translations et symétries glissées. Dans l’espace il n’y a que translations, rotations, réflexions et réflexions glissées, symétries-rotations, vissages. Si on rajoute les homothéties (qui apparaissent naturellement avec les agrandissements, ou avec le théorème de Thalès) on obtient les similitudes, qui ne conservent plus les longueurs mais toutes les autres propriétés. Il est bon de savoir qu’il existe d’autres transformations qui ne conservent pas tout cela et de savoir en donner des exemples. On peut penser aux projections (qui restent linéaires, elles conservent l’alignement), mais aussi homographies et inversions (pour l’expliquer simplement, on peut penser au changement de cartes entre planisphères), ou d’autres déformations (on peut imaginer leur effet sur une boule de caoutchouc.)
  • Isométries conservant une figure : cela a une application physique grâce au Principe de Curie : « toute symétrie dans les causes produit la même symétrie dans les conséquences ». Par exemple, on cherche les isométries laissant invariantes la distribution de charges électrostatiques (ex : rotation), pour déduire ensuite que le champ électrique produit est aussi invariant (on sait donc qu’il est dirigé selon l’axe de la rotation). Par ailleurs, lorsqu’on essaie de classer tous les groupes de cardinal fixé (pair), on tombe toujours sur le groupe diédral, que l’on comprend mieux si on le voit comme le groupe des isométries laissant invariant un polygone régulier. (Si vous parler de cela, il vaut mieux savoir nommer d’autres groupes finis, le groupe symétrique, ,...)
  • Limites : on a une grandeur qui dépend d’une autre (elle est une fonction). La limite c’est le comportement de la première grandeur lorsque la variable est proche d’une grandeur donnée. En maths, la tangente est limite des droites sécantes, une distribution de probabilité est limite des fréquences statistiques (c’est la loi des grands nombres). Les limites sont aussi nécessaires pour définit la continuité et marquent le lien entre discret et continu (les réels sont définis comme limites de suites de rationnels). En physique, biologie, économie, lorsque le paramètre est le temps, la limite en l’infini est particulièrement intéressant car on suppose que le système tend toujours à l’infini vers un état d’équilibre, plus simple et stable. Pour cela il faut laisser le temps aux irrégularités initiales de s’effacer.
  • Loi Binomiale : remarquer que la variance d’une loi binomiale tend vers 0 si n tend vers l’infini. Cela démontre un cas particulier de la loi des grands nombre (pour des tirages de Bernoulli). On peut alors expliquer que cette loi constitue le lien entre probabilités et statistiques (les fréquences observées par les statistiques sont d’autant plus proches des probabilités théoriques que le nombre d’expériences est grand).
  • Nombres : c’est intéressant de voir comment la notion de nombre a évolué pour passer des entiers aux relatifs, aux rationnels, au réels (on distingue algébriques et transcendants) puis aux complexes (voir les quaternions, non commutatifs, et les octonions, non associatifs). C’est intéressant de savoir qu’il n’existe pas d’autres ensembles de nombres (vus comme des algèbres de dimension finie sur le corps des réels), et qu’un martien qui ferait des maths serait conduit à inventer exactement ces même nombres (aux notations près). Chaque extension de l’ensemble des nombres permet de résoudre de nouvelles équations. Du coup, si on devait définir aujourd’hui la notion de nombre, il faut dire que c’est des objets munis de deux lois (+ et x) vérifiant un certain nombre de propriétés sympas (associativité, distributivité, commutativité, existence d’opposées, d’inverses). On peut bien sûr aussi définir chaque ensemble de nombres par des axiomes ( est une partie contenant une opération « Successeur » tel que tout nombre sauf 0 est successeur d’un autre nombre..., est un corps archimédien complet) ou par construction à partir de l’ensemble de nombres plus petits.
  • Optimisation : c’est la recherche d’extrema d’une fonction (qui se fait en général grâce à l’outil de la dérivée). Une grosse partie de l’économie est faite de problèmes d’optimisation sous contrainte (c’est-à-dire que l’on ne maximise plus seulement sur un ouvert, mais sur un domaine fermé) : le consommateur maximise son utilité sous la contrainte de son budget, le producteur détermine la production de manière à maximiser le profit. On peut aussi voir la physique comme des problèmes d’optimisation : un rayon lumineux minimise le chemin optique (d’où les lois de Descartes), les états d’équilibre d’un systèmes sont des minima de fonctions d’énergie.
  • Polynômes du second degré : ce sont les fonctions les plus simples après les fonctions linéaires. Elles interviennent naturellement lorsqu’on souhaite approcher une fonction en faisant un DL à l’ordre 2. Ceci explique aussi pourquoi beaucoup de lois physiques utilisent des fonctions du second degré (par exemple la force de frottement aérodynamique est donnée par le carré de la vitesse). Elles interviennent tout simplement en géométrie pour calculer l’aire d’une figure dont les longueurs dépendent d’une variable x. Enfin, les polynômes du second degré (de discriminant négatif) constituent (avec les polynômes de degré 1) les polynômes irréductibles sur . On s’y ramène donc lorsqu’on veut factoriser un polynôme de degré supérieur ou décomposer une fraction rationnelle en éléments simples.
  • Probabilités : Elles interviennent dans les jeux de hasard, où l’on voit que les joueurs ne comprennent pas la notion d’événements indépendants, puisqu’ils sont capables d’élaborer des stratégies au loto (en fonction de la fréquence des nombres), ni la loi des grands nombres : plus ils jouent, plus leurs gains vont se réduire à l’espérance de gain, qui est souvent une perte nette ; la seule chance de gagner, c’est en jouant peu et s’arrêtant aussitôt. Par ailleurs, les probabilités jouent un rôle considérable en finance, lorsqu’il s’agit de donner une valeur à des actifs de plus en plus complexes (évaluer par exemple le prix d’un risque dans une vente à terme, etc). En physique quantique, il n’y a plus de connaissance de la position exacte d’une particule, seule est connue la probabilité de se trouver à tel ou tel endroit. (Et le principe d’Heisenberg affirme que plus l’on cherche à connaître précisément cette particule, plus sa vitesse nous paraîtra comme aléatoire.) Enfin, les probabilités vont de pair avec les statistiques, elle permettent d’évaluer la fiabilité d’une prédiction statistique.
  • Produit scalaire : se souvenir qu’ils y a deux approches (comme pour la géométrie). En physique il sert à exprimer le travail d’une force. En proba-stats, la covariance est aussi un produit scalaire. Il sert en général à exprimer des projections sur un axe de coordonnées (dans l’espace, il permet de retrouver de trouver l’expression générale d’une projection, d’une rotation ou d’une symétrie de caractéristiques données).
  • Produit vectoriel : toujours 2 approches, celle géométrique de lycée et comme unique représentant d’une application antisymétrique. En physique il sert d’abord à exprimer certaines forces (la force de magnétique ou de Coriolis , qui déterminent la forme des cyclones météo), orthogonales à la vitesse, qui ont tendance à faire tourner. De plus, le moment d’une force traduit la tendance qu’une force a à faire tourner un système mécanique autour d’un axe fixé, et le théorème du moment cinétique décrit comment un système tourne autour d’un axe donné. On remarque ici que le produit vectoriel est très lié à l’idée de rotation. Par ailleurs, le produit vectoriel permet de calculer des surfaces et volumes (grâce au produit mixte).
  • Projections (affines, orthogonales) : Interviennent dans les jeux vidéo et en graphisme 3D. Tous les calculs sont effectués en 3D, il faut ensuite calculer le projeté sur l’écran du spectateur. Et aussi : la projection orthogonale correspond à un plus court chemin. Du coup, beaucoup d’approximations reviennent à faire des projections orthogonales : les probabilités conditionnelles, la méthode des moindres carrés, les séries de Fourier.
  • Relations métriques et trigonométriques dans un triangle : le but est de calculer des angles ou distances que l’on ne peut mesurer directement à partir d’autres mesures. Cela peut servir en cartographie ou pour construire un triangle dont on connaît les angles, alors qu’on n’a pas de rapporteur (toujours l’exemple de la navigation). La formule la plus importante est celle de Al-Kashi, qui généralise celle de Pythagore.
  • Résolution approchée d’une équation : on sait qu’on ne peut pas donner des solutions exactes de certaines équations : la plupart des équations polynomiale de degré supérieur ou égal à 5 (théorie de Galois), une équation différentielle y’=1/x ou y’=y (avant d’avoir inventé les fonctions logarithme et exponentielle), y’=exp(x2), l’équation du pendule, etc. Même dans le cas de systèmes linéaires (que l’on sait résoudre théoriquement) de très grande taille, la complexité de la résolution exacte dépasse la capacité des logiciels de calcul formel et conduit à rechercher plutôt des solutions approchées. Pour résoudre les équations complexes rencontrées en pratique (penser au nombre de variables rencontrées dans la modélisation d’un avion par la méthode des éléments finis), on est donc conduit naturellement à rechercher une solution approchée, calculée informatiquement.
  • Séries statistiques à deux variables : on peut mesurer expérimentalement deux grandeurs, on cherche à mettre en évidence une relation (la plus simple possible) entre ces deux grandeurs. La plausibilité d’une telle relation est mesurée par le coefficient de corrélation (ou la covariance). Si on peut, on résume la série statistique en la remplaçant par le point moyen. Pour plus de précision, on peut utiliser une relation linéaire (la droite de régression), sinon on peut utiliser une fonction plus compliquée. Il faut alors faire un compromis entre simplicité du modèle et efficacité (on peut toujours utiliser un polynôme d’interpolation qui passe exactement par tous les points du nuage, mais ce n’est pas intéressant). Il faut préciser qu’une corrélation statistique ne prouve pas un lien de cause à effet entre deux phénomènes, il montre juste qu’ils ont tendance à évoluer ensemble (attention à ne pas dire que la météo dépend du nombre de touristes à la plage). La méthode de régression (par les moindres carrés) est la base de l’économétrie, c’est l’unique manière de prouver un résultat en sciences sociales et humaines. Si on veut étudier par exemple l’influence de paramètres Xi (comme l’âge, le sexe, le diplôme, l’origine sociale, etc) sur une grandeur Y (le taux de chômage ou la réussite au permis de conduire), on écrit une relation et on estime les ai par régression. Leur grandeur et leur signe permettra de mesurer l’importance du paramètre Xi pour expliquer la grandeur Y.
  • Suites : penser d’emblée au parallèle suite/fonction (les suites sont des fonctions de dans ), qui donne aussi le parallèle série/intégrale. Sachant qu’un ordinateur ou une succession de mesures ne donnent que des valeurs discrètes, on comprend aisément que les suites serviront à approcher du continu. D’ailleurs, construction de Cantor des nombres réels définit justement un réel comme limite d’une suite (de Cauchy) de rationnels. Par ailleurs, de nombreuses méthodes de résolution d’équations font appel à des suites (c’est le principe d’un algorithme, qui est l’équivalent informatique de la récurrence), convergeant en général vers la solution de l’équation. On peut citer la méthode de Newton pour résoudre une équation, la méthode d’Euler pour résoudre une équation différentielle. Google aussi utilise ce principe pour déterminer le Page Rank. Tout ceci repose souvent sur des théorèmes de points fixes (par exemple d’une application contractante.) D’autre part, des modèles discrets sont parfois plus simples à écrire que leur équivalent continu, et plus facile à calibrer sur des données initiales. On les utilise notamment en dynamique des populations : il y a l’exemple de Malthus qui soutient que les ressources économiques augmentent de manière arithmétique alors que la population croît exponentiellement. On peut aisément écrire une équation plus réaliste du type avec un population à l’instant n et (a-bun) taux de variation natalité-mortalité. En couplant de telles équations on peut décrire un système à plusieurs espèces (proie-prédateurs, espèces en concurrence pour une ressource). Ces modèles sont transposables tels quels en épidémiologie où les différentes espèces sont remplacées par des individus sains/infectés. Enfin, on peut aussi citer en économie le célèbre modèle à générations imbriquées de Samuelson. Ce modèle relativement simple (mais pas suffisamment pour être présentée en 10 minutes lors d’un oral) avec deux suites couplées permet de modéliser l’épargne, les échanges entre générations, les retraites, la monnaie, les bulles spéculatives, etc. On suppose que chaque individu vit 2 périodes, une première (jeunesse) où il travaille, une deuxième (vieillesse) où il ne peut plus travailler. On note an et bn le nombre de jeunes et de vieux à l’époque n. Par un calcul d’utilité, on détermine l’épargne de chaque génération... Une fois une suite définie, le but de l’étude est en général de déterminer le comportement pour n grand (variations, convergence, calcul de la limite, ou comparaison à une autre suite).
  • Suites arithmétiques et géométriques : ce sont les plus simples, elles servent de référence pour leur comparer des suites plus compliquées. Elles permettent néanmoins de décrire l’évolution d’une population (cf. Malthus) en première approximation, le montant d’un dépôt en banque à taux d’intérêt fixe, le nombre de cigarettes fumées par un fumeur régulier en n jours. La formule donnant la somme des termes d’une suite géométrique est appelée « formule 0 de l’analyse » a énormément d’applications, notamment dans les séries (la série géométrique sert de série de référence).
  • Systèmes d’équations linéaires : ils interviennent énormément lorsqu’on veut résoudre informatiquement un problème physique. En effet, on est alors conduit à discrétiser un problème et remplacer les surfaces et solides par les points d’un maillage (on appelle cela des méthodes « par éléments finis ») reliés par des courbes polynomiales, sur lesquelles ont va pouvoir utiliser un algorithme d’optimisation. Ces méthodes sont utilisées dans l’industrie pour simuler la fabrication de pièces mécaniques et leur comportement (résistance à la chaleur, aux déformations, aérodynamique). Elles font appel à des systèmes linéaires énormes. Bien sûr, il n’est alors plus question de résoudre ces systèmes à la main, on utilise toute la puissance des ordinateurs. Puisqu’on parle d’ordinateurs, il est bon d’avoir une idée de la complexité, c’est-à-dire du nombre de calculs nécessaires pour la résolution d’un système de n équations à n inconnues (sachant que n est grand). La méthode de Cramer (par le calcul de déterminants) est en (ce qui devient vite énorme), le pivot de Gauss est en , ce qui est mieux. Autre exemple, l’algorithme Page Rank de Google qui classe les pages selon leur importance utilisait en 2001 un système à 500 millions d’équations (une par page web). Aujourd’hui c’est bien plus. Encore un exemple : en physique, pour se ramener à des équations que l’on sait résoudre, on linéarise. Par exemple l’équation du pendule est remplacée par . Et pareil pour des systèmes d’équations différentielles, que l’on linéarise au voisinage de l’équilibre. L’étude du système linéarisé permet d’étudier la stabilité de l’équilibre. Enfin, il peut être bon de rappeler que dans un système linéaire ce qui compte ce sont les coefficients et pas le nom des variables. D’où l’idée d’utiliser des tableaux de coefficients (les matrices) pour simplifier les calculs.
  • Théorème de l’angle inscrit : il sert à caractériser et prouver la cocyclicité. Il permet aussi de résoudre le problème de la navigation (et du GPS) : pour se repérer sur une carte, un navigateur repère 3 points (un phare, un cap, un rocher), et mesure les angles par rapport à ces points. Il obtient alors sa position sur une carte à l’intersection de deux cercles.
  • Théorème de Thalès et sa généralisation (le théorème sur les triangles semblables) : il permet de calculer des distances inaccessibles (calcul de la hauteur d’une pyramide, fabrication du télémètre, inventé à la Renaissance).
  • Triangles : Ce sont les polygones les plus simples, on peut obtenir n’importe quel polygone complexe ou même approcher une surface courbe en la découpant en triangles. D’où les applications au calcul d’aire. En informatique, les triangles servent pour les images de synthèse et les effets spéciaux en 3D : on restitue l’idée d’une surface courbe grâce à un grand nombre de triangles. Les logiciels de morphing (déformation d’image) marchent aussi en découpant une image plane en triangles qu’ils déforment et recombinent. En architecture, on peut penser que les triangles étant simples à fabriquer, on s’en sert pour restituer des courbes : on pensera à la géode qui est une sphère faite de petits triangles. Les triangles apparaissent aussi en cartographie et navigation avec la méthode de triangulation : pour placer un point sur une carte, on a besoin de trois autres points et des angles que l’observateur mesure entre lui et chaque couple de point. Il suffit alors de construire les triangles souhaités. Ces points de repère ont d’abord été sur la côte, puis dans les étoiles, et enfin les satellites (c’est le principe du GPS).
  • Vecteurs : penser qu’on a deux manière de les définir, comme au collège (direction, sens, norme, ce qui de manière formalisée revient aux axiomes de Hilbert) ou espaces vectoriels. Ils interviennent naturellement en mécanique pour décrire le mouvement et résumer l’effet d’une force (qui en toute rigueur est plutôt un champ de vecteurs, puisqu’elle a un point d’application), ou plus généralement en physique pour décrire un flux (de chaleur, de particules, de courant).

Francesco Colonna Romano http://www.eleves.ens.fr/home/colonna/enseignement/enseignement.html