Mathématiques post-modernes

4 octobre 2013  - Ecrit par  Pierre Colmez Voir les commentaires (26)

Ce billet se veut une réponse partielle aux arguments en faveur de l’enseignement de
la statistique énoncés dans le billet de Pierre Arnoux et Jean-Pierre Raoult.
Commençons par le sempiternel couplet sur les « maths modernes » déconnectées de la réalité,
ce qui a causé leur perte :
Un des arguments souvent avancés dans ce débat est qu’une priorité actuelle pour l’enseignement des mathématiques dans ce pays est de redonner une place aux structures fondamentales de l’algèbre et de la géométrie ; or si ces fondations ont été sacrifiées, c’est en grande partie parce que la période des « maths modernes » les avait maladroitement disconnectées de justifications qui, à l’époque, pouvaient se trouver en particulier dans les liens avec la physique.
La vérité est un peu différente. La mort des maths modernes au lycée a plusieurs causes qui se sont conjuguées,
la première a été la pénurie de profs de maths au cours des années 1980 (suite au quasi-arrêt des recrutements
à la fin des années 1970 - il fallait combattre l’inflation... - et à la montée en puissance des besoins en
informaticiens qui a détourné une partie des candidats potentiels vers des emplois nettement plus lucratifs) ; je me
souviens de discussions à la table de mes parents au sujet d’un ballon d’essai pour remédier à cette pénurie : il
était envisagé de faire appel à des ingénieurs en les payant plus que les profs (inutile de dire que
cette solution n’a pas été envisagée très longtemps...). Comme on manquait de profs (et l’objectif
d’amener 80% d’une classe d’âge au baccalauréat n’a pas arrangé les choses), il ne restait
plus beaucoup de solutions : soit on faisait une grande campagne de recrutements, soit on
diminuait les horaires de maths et, dans la foulée, les programmes. C’est, malheureusement,
la seconde solution qui a été choisie (il n’est pas impossible que la relation conflictuelle
qu’entretenait certain conseiller occulte, et futur ministre, avec les mathématiques (pré-modernes) ait joué
un rôle dans ce choix). Bien sûr, on ne pouvait pas diminuer les horaires de la matière noble
de la série scientifique sans justification (autre que de gros sous), et donc il a fallu
commencer par écorner le prestige des mathématiques (avec des arguments comme celui ci-dessus datant
de la grande époque de la guerre entre les maths pures et les maths appliquées, et
d’autres s’appuyant sur les erreurs des débuts de l’enseignement des maths modernes)
 [1].
L’offensive des statisticiens a parachevé le travail (je ne sais pas en quelle mesure
la présence d’un statisticien réfractaire à la géométrie
à la tête du Conseil National des programmes a influé sur le processus).

Cette offensive est assez ancienne. Je suis tombé sur un livre
de Arthur Engel (traduit de l’allemand) datant de 1975, dont l’avant-propos
commence par « Probabilités et Statistique » sont aujourd’hui des outils
indispensables dans toutes les sciences. Ce n’est plus qu’une question de
temps pour qu’elles entrent à l’école. leur introduction dans les classes,
à tous les niveaux, enrichira notablement le contenu mathématique,
le rendra plus intéressant et efficace
.
La prédiction de la dernière phrase ne s’est malheureusement pas
réalisée, c’est le moins que l’on puisse dire [2].
Les probabilistes de ma génération avec lesquels j’ai discuté du sujet m’ont dit avoir été atterrés quand ils ont appris que les statistiques allaient faire leur apparition
au lycée [3], et qu’ils l’étaient encore plus devant le résultat ; les profs de prépas semblent
un peu étonnés par le niveau des élèves qu’ils récupèrent. Les seuls qui
semblent être contents de ce qu’il s’est passé sont des statisticiens de la génération précédente
(et encore, même eux ne peuvent que constater qu’il y a un problème).
Il me semble qu’il serait urgent d’analyser les causes de la catastrophe actuelle,
et pas de déplorer que l’on ne charge pas encore un peu plus la barque
Ces réactions de rejet viennent, et ceci nous paraît très grave,
de se manifester dans les projets de programmes de mathématiques mis en consultation, en mai et juin 2013,
pour les secondes années des classes préparatoires scientifiques.
C’est non seulement la statistique qui y est victime d’ostracisme, car totalement absente,
mais aussi le calcul des probabilités qui y est très réduit dans ses ambitions...
Je suis assez d’accord avec les auteurs que
l’absence des lois normales et exponentielles est assez incompréhensible, mais ce ne sont pas les
seules omissions qui sont étranges : par exemple, le fait que l’algèbre linéaire
se fasse sur un sous-corps du corps des complexes est parfaitement incompréhensible
à une époque où les ingénieurs informaticiens créent autant de richesses
que ceux des industries classiques.

Un enseignement rigoureux de la statistique
me semble poser un vrai problème sans un bagage mathématique suffisant.
S’il s’agit juste de laisser entendre que fréquence et probabilité
sont en gros la même chose, cela ne pose pas de problème. Par contre,
si on veut quantifier la différence, ce que l’on est en droit
d’attendre d’un traitement mathématique, on se heurte à de vraies difficultés.
Je n’ai toujours pas réussi
à comprendre ce que signifie exactement
« la proportion $p$ est élément de l’intervalle $[f-1/\sqrt{n},f+1/\sqrt{n}]$ avec un taux de confiance de plus de 95%, où $f$ désigne la fréquence observée sur un échantillon de taille $n$ » (cet énoncé semble être le but de tout l’enseignement mathématique en section scientifique au lycée).
Je n’ai pas de mal à saisir ce que cela peut vouloir dire d’un point de vue intuitif, mais c’est la signification
mathématique qui m’échappe (un comble !) : il me semble
qu’en l’absence de renseignements concernant la distribution potentielle de $p$, cette phrase n’a aucun sens
 [4].
Du coup, j’ai des doutes sur ce qu’on peut vraiment faire en classe préparatoire
(surtout avec le niveau actuel de l’enseignement au lycée, en partie du fait
de la présence d’un gros module de statistique), mais on pourrait
se donner comme but de démontrer certains cas du théorème de la limite centrale
sur lequel beaucoup de choses reposent (cela reste du domaine des probabilités mais
peut préparer le terrain pour un enseignement en école d’ingénieurs).
Il ne faut pas oublier que l’esprit des classes préparatoires est assez particulier
et que les élèves sont déjà traumatisés par l’existence d’une infinité
de pièges potentiels dans des questions qui n’en comporteraient pas
dans un enseignement classique.

Notes

[1Il s’agit d’un procédé parfaitement classique que l’on peut voir à l’oeuvre
dans l’alignement actuel de la fiscalité du diesel sur celui de l’essence classique : pour y arriver,
il a fallu mettre en avant le caractère cancérigène du diesel (je ne suis pas en train
de nier que le diesel soit cancérigène, mais s’il est vraiment dangereux, la logique
voudrait qu’on l’interdise plutôt qu’on aligne son prix sur celui de l’essence).
Le même procédé a été utilisé pour augmenter d’un tiers la charge
d’enseignement des profs de fac : comme ils jouissaient plutôt d’une bonne réputation,
il a fallu commencer par la casser, et les universités en payent encore le prix à l’heure actuelle.

[2Le livre lui-même
fait honneur à son avant-propos qui continue par C’est un livre
de travail. En effet, quelle somme de travail représentent les exemples
cités et commentés ainsi que les exercices posés ! Un grand effort
a été fait pour rendre l’ouvrage intéressant et original.

[3Les maths modernes avaient fait une place non nulle aux probabilités
en terminale (avec la loi binomiale, la loi des grands nombres et l’inégalité de
Bienaymé-Tchebychev (nom tr\es impressionnant pour un lycéen...) mais pas
le théorème de Moivre Laplace), ce qui permettait d’enrichir la combinatoire
de la classe de première (qui est passée par pertes et profits depuis).
Il est assez ridicule que cet enseignement n’ait pas été renforcé dans
les classes préparatoires à l’époque.

[4J’en viens à penser que la disparition de la définition rigoureuse d’une limite
est destinée à ce que les élèves en viennent à trouver normal
que les notions qu’ont leur introduit soient entourées d’un flou artistique
et qu’ils ne se posent surtout pas de questions.

Partager cet article

Pour citer cet article :

Pierre Colmez — «Mathématiques post-modernes» — Images des Mathématiques, CNRS, 2013

Commentaire sur l'article

  • Mathématiques post-modernes

    le 4 octobre 2013 à 09:20, par Elisabeth Gassiat

    Cher Pierre,
    Dans la phrase
    « la proportion p est élément de l’intervalle [f−1/√n,f+1/√n] avec un taux de confiance de plus de 95%, où f désigne la fréquence observée sur un échantillon de taille n »
    p est une constante (inconnue), qui n’a donc pas de distribution de probabilité, et c’est f qui est la variable aléatoire.
    Voici la définition mathématique d’un intervalle de confiance que je donne à mes étudiants, appliquée à ton exemple. Ici, nf est une variable aléatoire de loi binomiale B(n,p). Je vais noter cette loi P_p.
    Un intervalle de confiance pour p de niveau de confiance 1-a est un intervalle aléatoire I (ici, l’intervalle I=[f−1/√n,f+1/√n] dont tu parles) tel que :
    POUR TOUT p, P_p ( p appartient à I ) est supérieure à 1-a.
    Ce qui est important c’est ce qui est en majuscule, car justement p est inconnu.
    Bien cordialement,
    Elisabeth Gassiat

    Répondre à ce message
    • Mathématiques post-modernes

      le 4 octobre 2013 à 17:50, par Vincent Beffara

      Et encore une façon de se rassurer : les énoncés $p \in [f-1/\sqrt n, f+1/\sqrt n]$ et $f \in [p-1/\sqrt n, p+1/\sqrt n]$ sont exactement équivalents, et le second ne pose aucun problème conceptuel, puisqu’il parle de la loi de $f$.

      Répondre à ce message
  • Mathématiques post-modernes

    le 5 octobre 2013 à 12:54, par Pierre Colmez

    Le second énoncé ne pose effectivement pas de problème, mais mes neurones ayant été un peu déformés par un séjour prolongé dans le monde $p$-adique, je ne vois pas pourquoi les deux énoncés sont EXACTEMENT équivalents.
    La définition ci-dessus est-elle la même que celle que l’on peut trouver sur le site de l’Institut national de la statistique et des études économiques ?

    Répondre à ce message
    • Mathématiques post-modernes

      le 7 octobre 2013 à 14:14, par Vincent Beffara

      Ils sont exactement équivalents parce qu’ils disent tous les deux que $|f-p|$ est inférieur ou égal à $1/\sqrt n$ ... mais j’imagine que la question n’est pas là ?

      Un truc qui m’a longtemps chiffonné dans les cours de stats : ça a un sens de dire « avec une proba au moins 95% le paramètre $p$ se trouve dans l’intervalle $[f-a,f+a]$ où $f$ est la moyenne des observations » ($f$ est une variable aléatoire, une vraie fonction que l’on voudra appliquer à des vraies observations un jour) ; ça n’en a plus vraiment de calculer $f$, de trouver disons $1.2$, et de dire « avec une proba au moins 95% le paramètre $p$ se trouve dans l’intervalle $[1.2-a,1.2+a]$ » parce qu’en effet là on a un intervalle fixé, $p$ n’est pas aléatoire et on ne fait plus de probas, le 95% ne veut plus rien dire.

      C’est important qu’un intervalle de confiance soit un intervalle aléatoire, donc (pour « bourbakiser » les stats un petit peu) une application mesurable de l’espace des issues possibles de l’expérience vers celui des intervalles de la droite réelle, et non pas l’image par cette application d’une réalisation donnée de l’expérience.

      Certes dans les sondages c’est l’inverse qui est fait, on donne un intervalle de confiance numérique, et du coup la question du sens à donner au 95% se pose ...

      Répondre à ce message
      • Mathématiques post-modernes

        le 7 octobre 2013 à 22:30, par Pierre Colmez

        En fait, je m’étais effectivement mélangé les pédales, en ne repérant pas la symétrie du problème, mais il faut dire que je suis un peu perturbé par le fait qu’un énoncé parfaitement clair peut être équivalent à un énoncé auquel je ne comprends rien : quel est exactement l’évènement
        « $p$ appartient à $I$ » dont on mesure la probabilité dans le message d’Elisabeth Gassiat ? Et surtout, pourquoi présenter les choses de cette manière s’il y a une formulation claire équivalente ?

        Répondre à ce message
        • Mathématiques post-modernes

          le 8 octobre 2013 à 17:14, par Elisabeth Gassiat

          Etant donné que l’intervalle (aléatoire) I est égal à [f−1/√n,f+1/√n], l’évènement « p appartient à I » est égal à l’événement « p∈[f−1/n‾√,f+1/n‾√] » qui est égal à l’événement « f∈[p−1/n‾√,p+1/n‾√] ».
          Pourquoi présenter les choses de cette manière ? Pour dire ce dont on parle : on cherche de l’information sur le paramètre p (constant, inconnu) à partir d’une variable aléatoire, dont la loi dépend de p ; on donne cette information sous la forme qui dit quelque chose sur p (p est dans tel intervalle, qui je le rappelle, est aléatoire), et l’on quantifie la probabilité de cet événement.
          La notion d’intervalle de confiance est une notion subtile, qui met en jeu la notion d’aléatoire et la notion de modèle.
          De manière générale, pour dire vite, le point de vue, en probabilité, est que l’on étudie les propriétés, l’évolution, d’un processus aléatoire étant donnée sa loi. Et qu’en statistique, on dispose du processus aléatoire, on ne connait pas sa loi, et on quantifie ce que l’on peut dire de sa loi.
          Une difficulté de l’enseignement « utilisateur » est de distinguer une variable aléatoire de la valeur observée par l’expérience, comme l’a très bien expliqué Vincent Beffara.
          Peut-être, si l’on a été confronté assez tôt avec la notion de variable aléatoire, on a plus de facilité à comprendre ce genre d’énoncés.

          Répondre à ce message
        • Mathématiques post-modernes

          le 8 octobre 2013 à 18:10, par Vincent Beffara

          On a deux façons de décrire la même chose, l’une où on l’on voit clairement pourquoi cette chose est vraie, et l’autre où on voit que ça nous apprend quelque chose de non trivial, qui implique une notion qui ne va pas de soi a priori.

          C’est la preuve qu’on est en train de faire des mathématiques, non ?

          Répondre à ce message
          • Mathématiques post-modernes

            le 9 octobre 2013 à 15:15, par Pierre Colmez

            Rendre incompréhensible un énoncé parfaitement clair me semble
            une manière bizarre de faire des maths. Ceci dit, j’ai enfin identifié la
            source de mon incompréhension : l’intervalle de confiance n’est pas un
            intervalle mais un ruban (on voit que ce n’est pas Bourbaki qui a fixé
            la terminologie).

            Quand on me dit « intervalle de confiance », je m’imagine
            dans la situation suivante. J’ai devant moi des urnes
            contenant des boules noires et des boules blanches, la proportion $p$ de
            boules noires dépendant de l’urne considérée. Je choisis une urne
            au hasard et je tire $n$ boules au hasard dans cette urne. Je constate
            que la fréquence d’apparition de noir est $f$ et j’aimerais bien
            fabriquer un intervalle contenant $f$ tel que $p$ ait plus de 95% de chances
            se trouver dans cet intervalle (que j’appellerais intervalle de confiance à
            hauteur de 95 %). Dit comme ça, il me semble que c’est impossible
            si je n’ai aucune information sur la distribution éventuelle de $p$.

            Mais, en fait, ce n’est pas du tout ce à quoi « intervalle de confiance »
            fait référence : on est juste en train de dire que, dans la situation
            décrite ci-dessus, l’écart entre $p$ et $f$ sera
            inférieur à $1/\sqrt{n}$
            dans plus de 95% des expériences
            (je me demande pourquoi on ne dit pas les choses de cette
            manière) ; autrement dit, le couple $(f,p)$ (résultat de l’expérience) a
            plus de 95% de chances de se trouver
            dans le ruban $|p-f|\leq 1/\sqrt{n}$ (c’est un ruban dans le carré
            $0\leq f,p\leq 1$ des couples $(f,p)$ possibles).

            En traduisant « ruban » par « intervalle aléatoire », on retombe sur ce que
            dit Vincent ci-dessus. Les statisticiens ont surement de bonnes raisons
            de préférer la seconde terminologie, mais elle me semble source
            potentielle de problèmes... En tout cas, merci à tous les deux pour
            vos explications ; j’ai enfin réussi à comprendre l’énoncé structurant
            tout le cours de terminale S (je reste plus que perplexe devant ce choix
            de programme pour un cours à ce niveau).

            Répondre à ce message
            • Mathématiques post-modernes

              le 9 octobre 2013 à 17:30, par Elisabeth Gassiat

              Cher Pierre, je suis désolée, tu n’as toujours pas compris.
              Un intervalle de confiance est bien ce que tu imagines.
              Il n’y a pas de bande, p est un point, il y a une seule urne. Quand on fait un sondage, il y a une seule population.
              J’ai l’impression que c’est la notion d’événement (en probabilité) qui te manque ?
              Ici ce que signifie le 95%, c’est que si tu répètes ton sondage une infinité de fois (dans la même population, mais avec des tirages indépendants), la proportion des cas où p est à une distance 1/racine de n de la fréquence observée, que je noterais f_obs (qui change avec chaque expérience, c’est en ceci que f est une variable aléatoire), sera 95%.
              Bien cordialement,
              Elisabeth

              Répondre à ce message
              • Mathématiques post-modernes

                le 9 octobre 2013 à 17:45, par Pierre Colmez

                Tu me vois mortifié. L’énoncé auquel je crois est le suivant : pour toute
                mesure de probabilité sur $[0,1]\times[0,1]$ de la forme $P_p\times P_f$,
                où $P_f$ est la mesure uniforme sur $[0,1]$ (et $P_p$ est quelconque),
                la mesure de la bande $|p-f|\leq 1/\sqrt{n}$ est supérieure à $0,95$.
                Autrement dit, quelle que soit la répartition des proportions $p$, j’ai plus
                de 95% de chance que l’écart entre $f$ et $p$ soit inférieur à $1/\sqrt{n}$.
                (La mesure $P_p$ a le droit d’être concentrée en un point.)

                Répondre à ce message
                • Mathématiques post-modernes

                  le 10 octobre 2013 à 16:11, par Elisabeth Gassiat

                  Non.
                  Ce n’est pas cela la définition d’un intervalle de confiance,
                  et l’énoncé que tu donnes, tel que tu le donnes, est faux.
                  J’ai répondu jusqu’à présent en pensant au lecteur qui connait mal ces questions.
                  Je ne répondrai plus.

                  Répondre à ce message
                • Mathématiques post-modernes, suite et fin ?

                  le 10 octobre 2013 à 18:24, par Jean-François Le Gall

                  Pierre, ma collègue Elisabeth donnant des signes de fatigue, je prends le relais dans la discussion. D’abord, je suis obligé de confirmer que ton dernier énoncé est curieux : tu sembles écrire que pour toute mesure de probabilité sur le carré [0,1] * [0,1] de forme produit et dont la seconde marginale est uniforme, la mesure d’un « petit » voisinage de la diagonale est supérieure à 95%, ce qui est évidemment faux. Le problème vient sûrement d’une question de notations, et j’imagine que tu veux considérer la mesure de probabilité sur le carré obtenue en choisissant d’abord la première coordonnée p selon une certaine loi, puis la seconde comme la loi de la fréquence empirique lue sur une échantillon de taille n d’une loi de Bernoulli de paramètre p . Modulo ces modifications je suis d’accord avec ton énoncé.

                  Mais je ne comprends pas bien pourquoi tu veux absolument que p soit lui aussi aléatoire : comme l’a expliqué Elisabeth, ce n’est pas le point de vue en statistique. Je vais encore donner un exemple pour (peut-être) éclaircir les choses. Imagine qu’on veuille connaître à l’aide d’un sondage la proportion de réponses oui dans un referendum. Ici p est la vraie proportion évaluée sur toute la population (c’est une constante, qui n’a rien d’aléatoire si on imagine que chaque personne est bien décidée). En faisant un sondage, on va calculer la proportion f de oui dans un échantillon de n individus tirés au hasard de manière indépendante (je simplifie évidemment, dans les « vrais » sondages on ne tire pas de manière indépendante), et f sera une variable aléatoire puisqu’elle dépend des individus tirés au hasard. Un intervalle de confiance correspond à une valeur de a>0 telle que la propriété f-a < p< f+a (dans laquelle je répète que f est aléatoire et p ne l’est pas) soit vraie avec une probabilité au moins 0.95, par exemple. Le point-clé est que, a étant donné, on peut obtenir la propriété précédente en choisissant n (le nombre d’individus sondés) assez grand, de manière indépendante de p - heureusement car on ne connaît pas p ! L’institut de sondage peut donc dire sans mentir : je vais vous fournir une valeur f (aléatoire) telle que la probabilité que la proportion p de oui soit entre f-a et f+a (ou, si tu préfères, que f soit entre p-a et p+a) sera supérieure à 0.95.

                  En revanche, comme l’a très bien expliqué Vincent Beffara, une fois qu’on a fait le sondage et qu’on a trouvé une valeur numérique, par exemple f = 0.45 ,
                  cela n’a plus de sens mathématique de dire que p est entre 0.45-a et 0.45+a avec probabilité au moins 0.95, puisque p et a étant des constantes la propriété 0.45-a < p < 0.45 + a sera soit vraie soit fausse.

                  Je reconnais que la notion d’intervalle de confiance est sans doute un peu subtile pour des élèves de Terminale. Mais nous sommes aujourd’hui tellement abreuvés de sondages qu’il ne me semble pas inutile de faire réfléchir sur les questions mathématiques qu’ils posent.

                  Répondre à ce message
                  • Mathématiques post-modernes, suite et fin ?

                    le 10 octobre 2013 à 21:45, par Pierre Colmez

                    La raison pour laquelle je voulais que $p$ soit aléatoire est la suivante. Je m’imaginais dans la situation d’un sondeur dont le sondage lui fournit une fréquence $f$, et qui se demande ce qu’il peut bien pouvoir en déduire sur $p$ : on est donc dans une problématique de calculer $p$ sachant $f$ (si on dispose d’une distribution a priori des $p$ possibles, il me semble que la question a un sens, et que la réponse dépend de cette distribution). Je réalise que ce n’est pas ce que la notion d’intervalle de confiance recouvre mais
                    que cette notion est en rapport avec la distribution des couples $(p,f)$,
                    et pas de celle de $p$ à $f$ fixé (je suis d’accord que ce n’est pas la distribution uniforme sur $f$ qu’il faut mettre mais bien celle que tu décris ; j’ai écrit ma réponse un peu trop vite).

                    Répondre à ce message
                    • Mathématiques post-modernes, suite et fin ?

                      le 11 octobre 2013 à 10:36, par Jean-François Le Gall

                      Je comprends mieux ton point de vue maintenant. C’est ce qu’on appelle le point de vue bayésien, où l’on part d’une loi de probabilité fixée sur le paramètre p que l’on cherche à estimer (la distribution a priori). En fonction des observations f on construit ensuite une distribution a posteriori (le principe est le théorème de Bayes, qui dit en gros que connaissant la loi de p et la loi de f sachant p on peut construire la loi de p sachant f). La statistique bayésienne est une branche importante de la statistique mathématique, mais pour des lycéens cela me semble encore un cran de difficulté au-dessus de l’estimation d’un paramètre fixé p à partir d’un échantillon de variables de loi dépendant de p .

                      Répondre à ce message
                      • Mathématiques post-modernes, suite et fin ?

                        le 11 octobre 2013 à 14:23, par Pierre Colmez

                        Maintenant que nous avons compris nos incompréhensions respectives, il reste une question en suspens, à savoir : pourquoi fournit-on aux lycéens un énoncé aussi ambigu au lieu de leur dire que « si on tire $n$ boules au hasard dans une urnecontenant une proportion $p$ de boules noires, l’écart entre la fréquence $f$ observée et $p$ est inférieur où égal à $1/\sqrt{n}$ dans plus de 95% des cas » ?
                        Cela fournit un énoncé plus souple, symétrique en $f$ et $p$, et non ambigu (je ne suis pas sûr d’être le seul à avoir des problèmes avec l’énoncé original ; c’est en tout cas ce que Vincent Beffara laisse entendre ci-dessus).

                        Répondre à ce message
                        • Mathématiques post-modernes, suite et fin ?

                          le 12 octobre 2013 à 11:02, par Vincent Beffara

                          Il reste encore quelques incompréhensions apparemment. D’abord, la situation n’est pas symétrique en $f$ et $p$, ils n’ont pas du tout le même rôle ! $p$ est un paramètre (que l’on ne connaît pas mais qui est fixé et qu’on cherche à estimer) alors que $f$ est une variable aléatoire. La symétrie entre les deux n’apparaît que quand on passe du théorème central limite à l’intervalle de confiance, mais c’est un peu une coïncidence, il y aurait d’autres façons de faire des intervalles de confiance, dans des modèles autres que celui de l’urne en question c’est plus compliqué ... En particulier rien n’impose à $p$ et $f$ d’être dans le même espace, c’est souvent le cas en pratique d’avoir $p\in \mathbb R^d$ alors que $f \in \mathbb R$ (ce qui correspond à une famille à plusieurs paramètres de lois de probas sur $\mathbb R$).

                          Mais surtout, on veut faire des statistiques. Ce qui nous intéresse c’est $p$, donc on énonce le résultat en termes qui nous informent sur $p$. Bien sûr que dessous, dans le cas qui nous intéresse, il y a le théorème central limite, que tu peux exprimer comme tu le dis de manière un peu plus symétrique, ou bien de la façon habituelle en exprimant la probabilité que $f$ soit dans un intervalle autour de $p$ - encore une fois tous ces énoncés sont rigoureusement équivalents. Mais écrire le TCL c’est faire des probas alors qu’écrire un intervalle de confiance c’est faire des stats. C’est plus un changement de point de vue qu’autre chose dans le cas des urnes, dans des cas plus compliqués ce n’est plus le cas.

                          En fait le problème vient peut-être de là, cet intervalle de confiance particulier $[f-1/\sqrt n, f+1/\sqrt n]$ est trop simple à obtenir et du coup on ne comprend pas ce qu’on est en train de faire, on a l’impression que c’est un jeu d’écriture, alors que c’est plus subtil que ça.

                          Voici un exemple où on fait « vraiment des stats », pour être plus explicite : on se donne un tirage $(X_k)$ de $n$ variables aléatoires indépendantes de loi gaussienne $\mathcal N(m,\sigma^2)$ dont à la fois la moyenne et la variance sont inconnues. Comment obtenir un intervalle de confiance pour la moyenne $m$ ? Si on connaît $\sigma$ c’est essentiellement la même chose que pour l’urne, on applique le TCL et ça marche. Mais si on ne connaît pas $\sigma$, c’est là qu’il faut commencer à réfléchir ...

                          Ce sont des notions subtiles, qui doivent être bien expliquées, et avec lesquelles il faut du temps pour se familiariser, ça je le maintiens, mais ce n’est pas pour autant que les énoncés sont ambigus !

                          Répondre à ce message
                        • Mathématiques post-modernes, suite et fin ?

                          le 12 octobre 2013 à 16:29, par Jean-François Le Gall

                          Je suis tout à fait d’accord avec le dernier énoncé que propose Pierre. Cependant, cela ne me semble pas très différent de l’énoncé original qui était le point de départ de notre discussion. On remplace dans cet énoncé « $p$ est élément de $[f-{1/\sqrt{n}},f+{1+\sqrt{n}}]$ » par « l’écart entre entre $f$ et $p$ est inférieur ou égal à $1/\sqrt{n}$ », puis « avec un taux de confiance 95% » par « dans plus de 95% des cas » et on trouve exactement la même chose. Cela mérite-t-il vraiment un long débat sur Images des maths ?

                          Chaque domaine des mathématiques a sa terminologie propre, qui n’est pas toujours un modèle de clarté. Les choix des statisticiens sont liés aux motivations appliquées (comme l’explique bien Vincent, $f$ et $p$ ne jouent pas du tout des rôles symétriques dans les applications). La terminologie utilisée en statistique serait peut-être plus claire si Bourbaki s’était intéressé a ce domaine. Il est sans doute heureux que ce n’ait pas été le cas, car les incursions de Bourbaki en théorie de l’intégration (le premier pas vers les probabilités puis les statistiques) n’ont pas été très convaincantes ...

                          Répondre à ce message
                          • Mathématiques post-modernes, suite et fin ?

                            le 13 octobre 2013 à 19:54, par Pierre Colmez

                            Maintenant que j’ai
                            compris ce que j’étais censé comprendre de l’énoncé
                            de terminale S, je cherche à comprendre pourquoi ce n’est pas ce que
                            je comprends...
                            Je vois deux options pour expliquer
                            cet état de fait :

                            — Je reste prisonnier de ma vision du sondeur qui essaye d’interpréter le
                            résultat de ses mesures et donc essaie de voir ce qu’il peut dire sur $p$
                            en connaissant $f$.

                            — Je rajoute inconsciemment des quantificateurs à l’énoncé (comme je
                            le ferais à tout énoncé mathématique), et comme
                            il a l’air de porter sur $f$, je le transforme en « quelque soit $f$... »,
                            et j’aboutis à un énoncé faux.

                            Dans le premier cas, ce n’est pas grave : je n’aurai jamais à enseigner cet
                            énoncé, et je dispose d’un énoncé de remplacement qui me
                            satisfait pleinement. Dans le second, c’est plus embètant car cela
                            suggère que toute personne ayant
                            une formation mathématique a une forte probabilité d’interpréter
                            l’énoncé de manière incorrecte. Pour trancher, je ne vois pas
                            d’autre solution que de faire un sondage en demandant à des mathématiciens
                            ou des professeurs de maths comment ils comprennent l’énoncé.

                            La première fois que je l’ai lu,
                            je n’ai pas tiqué car il me semblait en accord avec ce que j’avais retenu
                            du théorème de la limite centrale. Là où les choses se sont gâtées
                            c’est quand je me suis mis en tête de l’utiliser pour voir comment
                            $p$ se concentre autour de $f$, dans le but de fournir un exemple permettant
                            aux élève d’appréhender ce phénomène.
                            J’ai pris l’exemple suivant : on considère
                            des urnes avec 10 boules noires ou blanches, et
                            on prend toutes les combinaisons possibles pour chacune des boules, ce qui
                            donne 1024 urnes contenant chacune 10 boules. Maintenant, on choisit
                            une urne au hasard, on prend 2 boules dans cette urne, et on constate
                            qu’elles sont blanches. Cela implique-t-il que parmi les 8 boules
                            restantes il y a, en moyenne, plus de blanches que de noires comme
                            l’énoncé semblait le suggérer ? J’ai fait le calcul et, à ma grande
                            surprise, j’ai constaté que « non » (par contre, si on ne prend
                            que 11 urnes contenant respectivement $0,1,2,...,10$ boules blanches, la
                            réponse devient « oui »). J’ai trouvé un argument
                            expliquant ce phénomène, et ce même argument
                            prouvait aussi que si je remplace $10$ par $1\,000\,000$ dans
                            le processus ci-dessus, que je tire $1000$ boules au lieu de $2$,
                            et que je trouve $300$ noires et $700$ blanches, eh bien, parmi les
                            999\,000 boules restantes dans l’urne, il y aura, en moyenne, autant
                            de blanches que de noires contrairement à ce que l’énoncé me
                            semblait suggérer (cela m’a fait écrire la note [3] du
                            billet).
                            Je me suis rendu compte plus tard que la probabilité de tirer
                            $300$ boules noires et $700$ blanches était epsilonesque, mais je n’ai
                            finalement compris ce que l’énoncé essayait de dire que grâce aux messages
                            de Vincent Beffara au début de la discussion.

                            Enfin, en ce qui concerne Bourbaki, il me semble qu’il a écrit un
                            livre d’intégration et pas un livre de théorie de la mesure.
                            Superficiellement, cela semble être la même chose, mais les points
                            de vue sont assez éloignés, et il n’est donc pas très étonnant
                            que les probabilistes ne soient pas contents s’ils croient
                            que c’est un livre de théorie de la mesure. A contrario,
                            le point de vue de Bourbaki a ouvert la voie aux distributions
                            et à l’intégration $p$-adique par exemple, deux choses qui n’ont
                            rien à voir avec la théorie de la mesure.

                            Répondre à ce message
  • Mathématiques post-modernes

    le 7 octobre 2013 à 08:51, par Karen Brandin

    À aucun moment, il s’agit de suggérer qu’il n’y a pas de manière motivée et parfaitement rigoureuse d’énoncer ces résultats de statistiques mais simplement d’insister sur le fait que dans le contexte d’une classe de seconde puis d’une terminale S/ES, les élèves ne disposent pas du bagage qui leur permettraient d’y voir autre chose qu’une recette un peu magique à appliquer. Lorsque l’on examine les exercices bâtis autour de ce thème au bac session 2013, il s’agissait systématiquement d’applications directes, applications dont on pouvait s’acquitter sans avoir compris un traître mot du cours.

    On fait des élèves des consommateurs de mathématiques, des consommateurs de modèles ; malheureusement, cette situation de passivité en satisfait la plupart mais à aucun moment, elle les laisse médusés en se disant : « oh que les maths sont belles et efficaces ». On ne leur a même pas demandé de contrôler les conditions d’application du théorème de Moivre-Laplace ou ne serait-ce que de le citer. Lorsqu’il s’est imposé, la question commençait « on admettra que ... » ; pourquoi dans ce cas l’énoncer en cours puisqu’au final, il y aura la réponse dans le texte ?

    Peut-être que l’on a crié au loup trop tôt, ou trop souvent, mais la situation est vraiment critique.

    J’ai toujours abordé le cours du second degré en 1S avec sérénité car c’est un chapitre agréable parfait pour débuter l’année et rassurer les élèves ; pour la première fois en huit ans, c’est un calvaire au point que certains m’ont demandée, dépassés le nombre de contextes différents qui pouvaient conduire à du second degré, s’il n’était pas possible de leur dresser une liste des questions les plus fréquentes :-( !!!

    Dans le même temps, je travaille avec une jeune fille qui suit un double cursus prépa/ fac en économie dans le but d’intégrer l’ENS Cachan et là encore, on se fait peur à chaque instant. Le programme se distingue malgré tout d’une prépa ECE mais il est, dans son genre, très dense.

    Le prof commence par un chapitre de logique puis enchaîne -très rapidement selon la coutume - sur les polynômes sauf que « second degré avec paramètre », elle ne connait pas ; « les équations bicarrées », elle ne connait pas (idem pour tout autre changement de variable) ; « factoriser un polynôme de degré 3 connaissant une racine évidente », idem ; idem des équations irrationnelles etc ...

    Le chapitre suivant concerne les applications ; la parité qui peut être bien utile lorsque l’on veut mpontrer qu’une fonction n’est pas injective par exemple, n’est pas une notion abordée en ES ; la fonction valeur absolue, inconnue au bataillon donc impossible de résoudre les exercices qui la font intervenir et c’est comme cela, sans fin.

    En macroéconomie, ils ont dès le départ besoin de calculer des dérivées partielles sauf que même pour les élèves qui avaient suivi le programme de spécialité en terminale, les fonctions à deux variables ont été sorties du programme.

    Vous imaginez la masse d’informations que ces élèves ont dû assimiler en un mois ; ils sont obligés d’appliquer sans comprendre. La jeune fille en question que je suis depuis trois ans est très sérieuse ; elle n’a pas eu 03 au bac, elle a eu 20 donc elle aurait pu s’attendre à ne pas être à ce point mise en difficulté.

    C’est effarant et je trouve choquant, très triste aussi que si peu de voix s’élèvent. Celles que l’on entend sont souvent prestigieuses donc c’est encourageant pour ceux qui sont « sur » (ou plutôt « sous » désormais) le terrain, mais il n’en reste pas moins que « l’union fait la force ».

    Enfin, à ceux qui prônent les maths utiles comme solution à tous les maux (voire les maths du quotidien), c’est-à-dire prenant appui sur des situations concrètes, je conseille de s’immerger dans une classe de ES car en section économique, les études de fonctions sont en général constituées de deux grandes parties : une partie A abstraite avec les questions classiques (dérivées, tableau de variation, TVI ...) et une partie B où la fonction qui s’appelait jusq’alors et de manière très originale « f » s’appelle tout à coup « C » car elle devient une fonction de coût. Vient ensuite la fonction « Recette » et bien entendu la fonction « Bénéfice » dont on demande de vérifier qu’elle admet un maximum. La partie B n’est pratiquement jamais traitée alors que c’est en général une relecture de la partie A, il n’y a aucune prise d’initiative sinon celle de faire « le lien » ...

    C’est une preuve je crois que pour des élèves en difficultés, prendre des exemples dans la vie courante ou provenant d’autres disciplines demande un effort d’adaptation en plus de l’effort mathématique donc non seulement cela ne les aide pas mais comme ils disent si bien : « ça les embrouille ».

    C’est lorsqu’ils se sentent plus à l’aise, plus en confiance, qu’ils acceptent enfin de lâcher prise et renoncent à ce « deux poids, deux mesures » en s’adaptant à des contextes plus imagés. Il faut là encore laisser le temps au temps.

    Répondre à ce message
  • Mathématiques post-modernes : un peu d’histoire

    le 7 octobre 2013 à 15:03, par Pierre Arnoux

    Je voudrais rétablir quelques faits sur la chronologie de la réforme des maths modernes et de sa fin ; on trouvera des données plus complètes sur les rapports de la DEPP, et une vue générale sur le site de Daniel Duverney, http://danielduverney.fr/textes-courts-systeme-educatif/ , voir en particulier le texte 4, et dans le texte http://skhole.fr/de-la-désaffection-pour-les-études-scientifiques-par-pierre-arnoux

    La réforme des maths modernes commence en 1969, en seconde et en sixième, et arrive au bac en juin 1972. Elle est assez vite considérée comme un échec, en partie parce qu’elle représente un grand changement auquel les professeurs n’ont pas été formés. Pendant 10 ans, le nombre de bacheliers scientifique augmente très lentement, voire stagne.

    Une contre-réforme prend place en 1983 et 1986, signalant la fin des « maths modernes ». La part de l’algèbre est fortement réduite, et remplacée par un ambitieux programme d’analyse (on trouvera une histoire détaillée des programmes de mathématiques français de la filière scientifique au 20ème siècle sur http://jpdaubelcour.pagesperso-orange.fr/histoire20.html ). A l’époque, il n’y a aucune diminution d’horaire, et pas encore de problèmes de recrutements, en tout cas en 1983, car il y a encore très peu de places offertes. Dans les années qui suivent, le nombre de bacheliers est multipliée par 2, et l’on n’entend pas parler de baisse de niveau.

    Je n’avais jamais entendu dire , jusqu’à aujourd’hui, que la réforme de 1983 était motivée par des raisons d’économies, et cela aurait peu de sens, puisqu’elle aboutit à doubler les effectifs pour un horaire inchangé. On voit bien maintenant pourquoi il n’y a plus eu de candidats professeurs dans les années suivantes : c’est avant tout parce qu’on avait supprimé les postes dans les années précédentes, et que la plupart des étudiants avaient abandonné cette filière sans débouchés, comme j’ai eu l’occasion de le montrer ailleurs. Comme ce genre de raison prosaïque ne permet pas d’envolées lyriques, on préfère en général trouver d’autres explications, telles que la concurrence de l’informatique. Il faudra m’expliquer pourquoi l’informatique a présenté une concurrence entre 1980 et 1990, puis à partir de 2005, mais pas entre les deux, et pourquoi elle a eu le même effet sur les professeurs d’histoire-géographie que sur les professeurs de maths.

    Une autre réforme démarre en 1992 en seconde, sous l’impulsion d’Allègre, et c’est elle qui diminue les horaires ; il n’est pas clair que ce soit pour des raisons de recrutement : le nombre de candidats sera multiplié par 3 dans les trois années suivantes (comme il va très probablement l’être dans les trois ans à venir, cela a déjà commencé pour les professeurs du primaire), avant un nouvel effondrement dû à une gestion calamiteuse des ressources humaines dans les années 2000. La motivation essentielle de cette réforme est idéologique, et elle n’a rien à voir avec les maths modernes, qui étaient à l’époque disparues des lycées depuis 10 ans. Ce ne sont pas des mathématiques modernes qu’a sacrifiées la réforme de 1992, mais des mathématiques extrêmement classiques.

    Répondre à ce message
    • Mathématiques post-modernes : un peu d’histoire

      le 7 octobre 2013 à 22:14, par Pierre Colmez

      J’ai un peu de mal à voir comment on peut doubler les effectifs sans diminution d’horaire et sans recrutements (on n’a pas doublé le nombre d’élèves par classe que je sache ?). En ce qui concerne la baisse du niveau, j’ai donné des colles plusieurs années de suite en maths sup, au lycée Louis-le-Grand. Les exercices que je donnais étaient durs, mais les élèves arrivaient à les faire avec des indications, sauf la dernière année où j’ai collé, à savoir en 1991-92, où les élèves étaient complètement perdus devant les exercices du début d’année. J’ai ensuite fait passer le concours d’entrée à l’Ecole Normale de Cachan, et en 1993, il s’est passé un phénomène un peu étrange, à savoir que les redoublants étaient nettement plus à l’aise que les autres (ce n’est normalement pas le cas). J’en ai conclu qu’il avait dû y avoir une réforme ,
      et aussi que baisser le niveau de ce qu’on enseigne fait baisser celui des élèves (quelle surprise...).

      Répondre à ce message
    • Mathématiques post-modernes : un peu d’histoire

      le 9 octobre 2013 à 15:53, par Pierre Colmez

      En ce qui concerne l’aspect financier de la reforme de 1992,
      le scénario qui
      concorde avec mes souvenirs est le suivant :

      — - Chevènement annonce l’objectif des 80% d’une classe d’age au bac.

      — - Quelques années plus tard cela se traduit par une augmentation
      massive des lycéens qui n’a pas du tout été anticipée.

      — - On décide de rouvrir les vannes du recrutement (avec un nombre astronomique
      de postes au CAPES apres des années de vaches maigres).

      — - Malheureusement, c’est trop tard, car les étudiants ne sont pas
      au rendez-vous vu qu’il faut 4 ans entre le moment ou on annonce des
      postes et le moment ou ceux à qui on les a annoncés arrivent a maturité
      et, qu’en mathématiques, une partie de ceux sur lesquels on aurait pu compter
      s’est tournée vers l’informatique.

      — - En catastrophe, on décide de diminuer l’horaire de maths, et le contenu
      des programmes. Une fois qu’on a commencé, il n’y a aucune raison
      de ne pas continuer, surtout que les allègements successifs transforment
      le savoir des élèves en gruyère et donc qu’ils comprennent de moins en
      moins et qu’il faut alléger de plus en plus..., et que les arguments
      utilisés pour justifier la première diminution sont toujours utilisables.

      On aurait pu envisager d’autres scénarios comme, par exemple, supprimer
      les maths en série littéraire pour les préserver en série scientifique
      (ce qui nous aurait ramené à la situation pré « maths modernes »), le temps
      que l’on reconstitue un vivier de profs de maths.
      L’arbitrage qui a été fait est surement dû, au moins en partie,
      aux ambitions personnelles
      de certains conseillers du ministère de l’Éducation Nationale (dont le
      très néfaste Claude Allègre).

      Maintenant, si on parle d’idéologie, le basculement de l’algèbre
      vers l’analyse, puis la statistique, me fait furieusement penser
      à la lutte ancestrale que j’évoquais dans un
      précédent billet.

      Répondre à ce message
  • Mathématiques post-modernes

    le 8 octobre 2013 à 10:07, par Karen Brandin

    En espérant que le lien fonctionne, je transmets l’adresse d’un document produit par l’APMEP que j’avais lu en son temps pour essayer de mieux appréhender le cadre du théorème de Moivre-Laplace que dans ma scolarité, je n’ai pas eu l’occasion de rencontrer.

    Devant l’urgence de faire appliquer le théorème pour rendre les élèves « effectifs », je n’ai pas eu l’occasion de m’attarder sur sa genèse avec eux mais il est clair en lisant ces pages que ce thème est trop ambitieux pour le lycée si on veut faire plus que simplement « le consommer ».

    Lien : http://www.apmep.asso.fr/En-terminale-statistique-et

    Sinon, une fois sur le site de l’APMEP, il faut aller dans la rubrique « commissions et groupes » puis « histoire des maths » puis « nouveaux programmes : approches historiques » et enfin « histoire du théorème De Moivre-Laplace ».

    Répondre à ce message
  • Mathématiques post-modernes

    le 8 octobre 2013 à 20:34, par Karen Brandin

    Je renvoie toute personne désireuse de se faire une idée précise et aussi rigoureuse que possible de ce qui est enseigné au lycée (en particulier en Terminale S) en consultant par exemple le cours de Paul Milan du lycée pour adultes de Paris.

    En terminale, il y a une histoire malgré tout, un « liant », qui est réalisé par le théorème discret/continu de De Moivre-Laplace ; en seconde où l’on fait ses premières armes avec ces notions, en revanche, rien n’est expliqué et si j’osais, je dirais : « rien n’est à comprendre. »

    La notion même de variable aléatoire est à peine évoquée. Je crois qu’on demande aux enseignants d’utiliser le mode « Alea » de la calculatrice en guise d’apéritif mais j’avoue être complètement opaque à cette partie du programme. On exige simplement de ne pas confondre « fluctuation et confiance » tout en remarquant que les intervalles se déduisent naturellement l’un de l’autre.

    Comment confondre ? Dans un cas, on dispose d’une fréquence théorique et on veut contrôler si notre échantillon spécifique répond bien à la théorie (dans le cas contraire, on le rejette, on porte une plainte, on suspecte une fraude etc ...).

    Dans l’autre, c’est le contraire si l’on peut dire. On a sous le yeux un échantillon -par exemple les résultats aux élections dans 40 bureaux de vote- et on « extrapole » en en déduisant au risque d’erreur 5% ce qui devrait être le résultat national.

    Aucun élève n’est ennuyé pour appliquer ces notions ; pour cette fois, disons qu’il est « inutile de savoir d’où l’on vient pour savoir où l’on va »

    http://www.lyceedadultes.fr/sitepedagogique/documents/math/mathTermS/12_statistique_estimation/12_cours_statistique_estimation.pdf

    Répondre à ce message
  • Mathématiques post-modernes

    le 12 octobre 2013 à 20:48, par Samuel

    Merci pour toutes ces discussions assez éclairantes tant sur l’histoire des réformes que de la clarification de l’énoncé discuté pour le simple prof de maths que je suis (qui par ailleurs fait à peu près le même constat que Karen Brandin)

    Répondre à ce message
    • Mathématiques post-modernes

      le 9 décembre 2013 à 21:20, par Pierre Colmez

      Voici un écho à la première des notes du billet.

      Répondre à ce message

Laisser un commentaire

Forum sur abonnement

Pour participer à ce forum, vous devez vous enregistrer au préalable. Merci d’indiquer ci-dessous l’identifiant personnel qui vous a été fourni. Si vous n’êtes pas enregistré, vous devez vous inscrire.

Connexions’inscriremot de passe oublié ?

Suivre IDM