La courbe bleue en cloche
Piste bleue Le 4 août 2019 Voir les commentaires (1)
La courbe en cloche ou courbe de Gauss est l’une des courbes mathématiques les plus célèbres. On la voit apparaître dans un grand nombre de situations concrètes — en statistiques et en probabilités — et on lui fait souvent dire tout et n’importe quoi.
Ceci est la version « piste bleue » de cet article de la « piste noire ».
La courbe en cloche ou courbe de Gauss est l’une des courbes mathématiques les plus célèbres. On la voit apparaître dans un grand nombre de situations concrètes — en statistiques et en probabilités — et on lui fait souvent dire tout et n’importe quoi.
La voici :

Son équation peut effrayer au premier abord. Nous ne nous en servirons pas, mais la voici quand même car elle est « jolie ».
\[ y = \frac{1}{\sqrt{2\pi}}e^{-\frac{1}{2}x^2}.\]
Elle présente une bosse. Elle est symétrique par rapport à un axe vertical. A droite, elle descend à partir de son sommet, et poursuit sa descente en approchant l’axe horizontal au point d’en être visuellement indiscernable. Pour $x=10$ par exemple, la valeur est incroyablement petite, de l’ordre de cinq dix-millièmes de milliardièmes de milliardièmes...
Les probablistes interprètent $y$ comme une densité de probabilité.
C’est une très belle courbe, très lisse, très régulière. Elle partage ces caractères avec ses avatars, les courbes en cloche, qu’on obtient en changeant d’origine (par une translation $(x \mapsto x-m)$) ou par changement d’échelle
(une dilatation $(x\rightarrow\sigma x$ et $y \mapsto {y}/{\sigma}$). Ici, $m$ désigne la valeur moyenne, qu’on appelle aussi l’espérance : c’est également la valeur de $x$ qui donne la plus grande valeur de $y$. Quant à la lettre grecque $\sigma$ (lire sigma), elle caractérise la dispersion de la courbe autour de sa moyenne : on l’appelle l’écart type.
Lorsque $\sigma$ est petit, la cloche est pointue : regardez le changement de forme par changement d’échelle.
Imaginons par exemple qu’on mesure la taille de tous les garçons d’une même tranche d’âge dans notre pays, et qu’on représente les résultats par un diagramme. Sur l’axe horizontal, on décompose en intervalles de tailles — disons d’un centimètre de large — et au dessus de chaque intervalle, on place un bâton vertical dont la hauteur indique le nombre d’enfants qui ont une taille dans cet intervalle.
Il se trouve que la forme de ce diagramme ressemblera beaucoup à une des courbes en cloche que nous venons de décrire.
Evidemment, on peut penser que notre diagramme aura « en gros » la forme d’une cloche : il y a une valeur moyenne pour la taille de ces enfants — certains sont plus grands, d’autres plus petits — et une bonne proportion ont une taille qui ne s’éloigne pas trop de la moyenne. On peut aussi penser que, comme dans les cloches, le diagramme présente une seule bosse [1]. Mais ce que nous allons expliquer va bien plus loin que cela : ce diagramme en bâtons est très bien décrit quantitativement par l’une des courbes en cloche.
Le théorème central
Un théorème fondamental de la théorie des probabilités — le théorème central limite — permet de comprendre pourquoi dans de nombreuses situations concrètes, le diagramme décrivant la distribution d’un phénomène aléatoire extrêmement général est une courbe en cloche. Insistons : il ne s’agit pas de dire des choses qualitatives sur le diagramme, comme le fait qu’il a une bosse par exemple, mais il s’agit au contraire de l’affirmation que le diagramme sera extrêmement bien approché par l’une des cloches dont nous avons écrit l’équation précise plus haut. Ceci qui permet de faire des prédictions sur les valeurs numériques de ces distributions.
Historiquement, avec de Moivre (1728) et Laplace (1786), c’est le jeu de pile ou face qui a conduit à la courbe en cloche.
Plus précisément, il s’agit d’un jeu dans lequel les deux faces ne se présentent pas nécessairement avec la même probabilité ($p$ pour pile et $q=1-p$ pour face). On jette la pièce $n$ fois et on compte le nombre de fois où on « tombe sur pile ». Le théorème affirme dans ce cas que le diagramme représentant les probabilités de tomber sur $k$ fois pile dans un jeu de $n$ lancers s’approche d’une cloche (de moyenne $np$ et d’écart type la racine carrée de $npq$), lorsque le nombre $n$ de lancers tend vers l’infini.
Regardez ce petit film : il montre ces diagrammes pour diverses valeurs de $n$. Par exemple, dans sa position finale, on a $n=32$ et on discute donc d’un lancer de $32$ pièces ; les bâtons verticaux représentent les probabilités d’avoir $0, 1, 2, ..., 32$ fois pile.
On voit bien que lorsque $n$ est grand, le diagramme est proche de la cloche.
C’est là un théorème central de passage à la limite en probabilités (« der zentrale Grenzwertsatz des Wahrscheinlichkeitsrechnung » ; et cette expression de Pólya (1930) est devenue bizarrement en anglais « Zentral Limit Theorem » et en français, Théorème limite central, ou central limite, ou de la limite centrale, (Wikipédia s’en amuse)).
Ce théorème relatif au jeu de pile ou face — donc a priori d’usage limité — peut être généralisé de manière étonnante.
Sous sa forme la plus générale, le théorème central dit que, sous certaines conditions, la distribution d’une somme de quantités aléatoires indépendantes, tend vers une courbe en cloche. C’est pour cette raison qu’on rencontre ces cloches un peu partout. Dès qu’un phénomène est la superposition d’un grand nombre de causes aléatoires indépendantes [2], une cloche se présente (à la limite) ! Et cela, indépendamment de la nature des multiples causes aléatoires, qui peuvent tout à fait suivre une autre loi de probabilité, comme par exemple une loi de pile ou face. Il s’agit de l’un des exemples les plus frappants de phénomènes d’universalité en mathématiques : en ajoutant un grand nombre d’aléas dont on ne sait rien, la distribution limite de la somme est une courbe en cloche de Gauss.
Comme l’écrit Paul Lévy : « des erreurs indépendantes les unes de autres, très nombreuses et très petites, ont une somme qui obéit à la loi de Gauss » (notes aux Comptes rendus de 27 mars 1922).
Regardez cette simulation de la planche de Galton : une bille tombe et elle est soumise à des chocs aléatoires. Lorsqu’on lance un grand nombre de billes, la distribution des billes sur la base s’approche d’une cloche...
Une bonne partie de l’aire située sous la courbe en cloche se répartit dans un petit intervalle autour de la moyenne. Une règle pratique est la suivante :
La probabilité pour qu’une variable aléatoire gaussienne ne s’écarte pas plus que de deux écarts types de la moyenne est de l’ordre de 95 %.
Ce théorème central limite est essentiel dans la théorie des erreurs et c’est d’ailleurs ce qui intéressait Gauss au premier chef. Si je mesure la longueur d’une table un grand nombre de fois avec mon décimètre, la répartition des résultats aura tendance à se faire sur une cloche de Gauss, et 95% des résultats seront dans un intervalle de deux écarts types autour de la moyenne. Cet intervalle de confiance de deux écarts types est ce que les physiciens appellent « l’incertitude de la mesure ».
Comme toujours, l’universalité est relative !
La réflexion profonde de Paul Lévy autour des hypothèses précises du théorème central limite a abouti à mettre en évidence d’autres formes d’universalité pour les sommes d’aleas indépendants, les lois de Lévy, qui interviennent aussi, de façon plus cachée, dans beaucoup de phénomènes naturels suffisamment dispersés (leurs variances sont infinies). Le théorème central, sous forme général, n’est pas un énoncé ; c’est un programme.
Une récréation proposée par Laplace : les garçons et les filles
Le premier exemple est de grand intérêt historique et méthodologique. Il est exposé par Laplace dans son introduction à la Théorie analytique des probabilités.
Il constate que pour $43$ naissances, il y a $22$ garçons et $21$ filles.
Accordons-nous le plaisir de lire Laplace :

Mais dans la commune de Carcelle le Grignon, en Bourgogne, la situation est inversée et il y a plus de naissances de filles que de garçons. Est-ce une anomalie ?

Le calcul de Laplace revient à ceci. Le nombre de garçons est un peu comme si on tirait à pile ou face (il parle de « croix ou pile ») avec une pièce un peu favorable au pile (c’est-à-dire aux garçons) (probabilité $p=0,5116$).
L’échantillon correspond à $n = 2009$. Laplace calcule que sa moyenne est $np = 1028$ et que son écart-type est $22,9$ ; la valeur observée, $983$, est à la distance $45$ de $1028$. On se trouve donc à deux écarts-types en dessous de la moyenne. Nous l’avons déjà dit : se trouver à plus de deux écarts types de la moyenne est un événement qui se produit $5$ fois sur $100$. Il n’est pas étonnant que parmi plusieurs centaines de villes étudiées, un tel écart à la moyenne se présente de temps à autre, et pourquoi pas à Carcelle le Grignon ?

Continuons la lecture. A Paris, la situation semble différente...

Dans le cas de Paris, $n = 770 \ 941$, la moyenne est $394\ 435$ et l’écart-type $439$. La valeur observée, $393\ 386$, est à la distance $1049$ de la moyenne c’est-à-dire $2,39$ écarts-types. Lorsqu’on calcule la probabilité d’être à une distance supérieure à $2,39$ écarts types, on trouve $0,0168$. Un événement trois fois moins probable que le précédent. Surtout, il ne s’agit pas de constater une telle anomalie dans un quelconque village de France (il y en a beaucoup) mais à Paris, qui est une ville unique ! Il est donc raisonnable de « s’autoriser la recherche » de la cause de l’anomalie....
Avant la lettre, Laplace pratique un test d’hypothèse, une méthode statistique classique aujourd’hui.

Quelle est la cause proposée par Laplace ?
On trouve sur internet des tables numériques qui permettent de calculer la probabilité de s’éloigner de plus de $x$ écarts types de la moyenne. Pour les « branchés », on peut même acheter pour 0,79 € un petit logiciel qu’on peut télécharger sur son IPhone, pour un usage à tout moment de la journée !
Une récréation inventée
Le second exemple est une histoire inventée, mettant en scène un mathématicien des années 1900 et son boulanger, qui lui livre tous les jours un pain qui pèse en principe deux livres. Tous les jours le mathématicien enregistre devant témoins le poids du pain livré. Après une année, il intente procès à son boulanger pour production frauduleuse, et gagne le procès : le poids moyen du pain livré est $980 $ g., avec un écart-type de $20 $ g...
Si l’écart-type constaté par le mathématicien est de $20 $ g, et s’il a fait $365$ observations, l’intervalle de confiance sur son estimation de la moyenne est divisé par la racine carrée de $365$, c’est-à-dire par environ $19$. On peut donc dire qu’avec une probabilité de 95 %, la moyenne des poids des pains fabriqués par le boulanger est comprise entre
$980$ plus ou moins $2 \times (20 /19)$ autrement dit entre $978$ g et $982$ g. On peut donc être presque sûr que le boulanger est un escroc et que ses pains ne font pas $1$ kg en moyenne, comme il le prétend. En fait on peut même estimer la probabilité que le boulanger ne soit pas un escroc à $10^{-22}$ : quasiment impossible ! L’histoire est inventée car on ne sait pas si un tribunal prendrait en compte ce genre de considérations !
L’année suivante, le boulanger ne lui livre que des pains pesant plus d’un kilogramme. Le mathématicien intente procès pour production frauduleuse et gagne encore : l’enregistrement montre une distribution des poids des pains livrés suivant la queue à partir de $1000$ de la gaussienne précédente, centrée en $980$ et d’écart-type $20$ (la zone bleue sur la figure suivante). Donc le boulanger n’a pas modifié sa production. Simplement, il pesait le pain avant de le livrer au mathématicien procédurier et si ce choix pesait moins d’un kilogramme, il en choisissait un autre jusqu’à ce qu’il trouve un pain auquel le mathématicien n’aurait rien à reprocher. Malins ces mathématiciens ;-)
Une expérience
Le troisième exemple est une expérience que j’ai faite à quelques reprises au cours des années 1970, et qu’il pourrait être intéressant de refaire aujourd’hui. On s’adresse à un public assez instruit et de bonne volonté en demandant à chacun, suivant un signal régulier (à peu près un signal toutes les secondes), d’écrire $P$ ou $F$ comme s’il jouait à pile ou face. Puis on recense pour chacun le nombre $P$, ce qui donne un diagramme en cloche centré sur la moitié du nombre de signaux émis. Puis on recense le nombre de changements, $PF$ ou $FP$ ; cela donne encore un diagramme en cloche, mais son centre est nettement décalé. En regardant les cloches de plus près, elles sont plus resserées que les cloches correspondant à un choix au hasard. L’interprétation est aisée : nous sommes guidés par la mémoire, qui enregistre à notre insu l’écart entre les nombres de $P$ et de $F$ déja écrits. L’expérience nécessite au moins 60 personnes et au moins 36 signaux.
Une cloche en théorie des nombres ?
Qu’y a-t-il de moins aléatoire que les nombres entiers $1,2,3,4, ...$ ? Et pourtant, les nombres premiers semblent bien avoir un comportement aléatoire. Voici un exemple de théorème, démontré par Erdös et Kac, qui montre encore une fois l’apparition d’une cloche de Gauss dans un endroit pour le moins surprenant. Pour chaque entier naturel $n$, notons $P(n)$ le nombre de nombres premiers distincts qui divisent $n$. Par exemple, $1024$ est égal à $2^{10}$ et n’est divisible que par le nombre premier $2$ et on a donc $P(1024)=1$. Par contre $30$ est divisible par les nombres premiers $2,3,5$ et $P(30)=3$. Le théorème affirme que la distribution de $P(n)$ lorsqu’on se limite aux entiers inférieurs à une certaine valeur $N$ tend vers une courbe en cloche dont on peut calculer explicitement la moyenne (c’est le logarithme du logarithme de $N$) et l’écart type (c’est la racine carrée du logarithme du logarithme de $N$).
Cela signifie par exemple que si on prend un nombre très grand, disons de l’ordre de $1 000 000 000$, il faut s’attendre à ce qu’il soit divisible par 3 nombres premiers. Mais l’énoncé est bien plus précis que cela bien sûr.
Fourier et la chaleur
Peu de temps après Laplace, Fourier avait introduit la fonction de Gauss, sous la forme
\[ v (x, t) = \frac{1}{\sqrt t} e^{-\frac{x^2}{2t}}\]
comme solution de l’équation de la chaleur.
On imagine une droite qui conduit la chaleur et $v (x, t)$ représente la température au temps $t>0$ du point d’abscisse $x$. L’équation de la chaleur permet de calculer la vitesse à laquelle la température en chaque point évolue dans le temps [3].
Si par exemple, la température à un certain moment présente un maximum en $x$, la chaleur va fuir du point $x$ pour aller réchauffer ses voisins plus froids et la température en $x$ va baisser. Au contraire, si elle présente un minimum, ce sont les voisins de $x$ qui vont apporter leur chaleur et réchauffer $x$. L’équation de la chaleur exprime cela de manière quantitative.
Notez que lorsque $t$ tend vers l’infini, la cloche s’aplatit ce qui correspond au fait que la chaleur se diffuse sur la droite.
Cette interprétation est fondamentale dans tous les problèmes de diffusion, et une nouvelle interprétation de la courbe en cloche est donnée par le mouvement brownien [4] :
Ici, il s’agit de modéliser une particule erratique qui se déplace sur une droite de manière aléatoire. Supposez que vous connaissiez la position initiale de la particule et que vous cherchiez à connaître sa position au bout d’un temps $t$. Tout ce que vous pouvez dire s’exprime en termes de probabilités bien sûr : il se trouve que la distribution sera une cloche centrée sur le point de départ et dont l’écart-type est égal à la racine carrée de $t$ : plus on attend et plus la particule peut s’éloigner du point de départ.
D’une certaine façon, les chocs moléculaires associés à la chaleur se font de manière aléatoire au niveau microscopique et ils sont responsables de la diffusion thermique.
La théorie du mouvement brownien lui-même fait le lien entre l’équation de la chaleur et la loi de Gauss.
Ce survol est bien incomplet. On pourra consulter un excellent article de Bernard Bru, très agréable à lire, qui donne en particulier tous les éclaircissements souhaitables sur le qualificatif « gaussien » attribué à la courbe en cloche.
Ce survol permet néanmoins de rendre compte d’un passage du Discours préliminaire à la Théorie analytique de la chaleur, de Fourier, (1822), dont j’ai souvent cité la première phrase, mais dont la dernière, comme me l’a fait remarquer le géologue américain T. Narasimhan, concerne évidemment la fonction de Gauss. Ce sera la conclusion de cet article.
"L’étude approfondie de la nature est la source la plus féconde des découvertes mathématiques. Non seulement cette étude, en offrant aux recherches un but déterminé, a l’avantage d’exclure les questions vagues et les calculs sans issue ; elle est encore un moyen de former l’analyse elle-même, et d’en découvrir les éléments qu’il nous importe le plus de connaître, et que cette science doit toujours conserver, ces éléments fondamentaux sont ceux qui se reproduisent dans tous les effets naturels.
On voit, par exemple, qu’une même expression, dont les géomètres avaient considéré les propriétés abstraites, et qui sous ce rapport appartient à l’analyse générale, représente aussi le mouvement de la lumière dans l’atmosphère, qu’elle détermine les lois de la diffusion de la chaleur dans la matière solide, et qu’elle entre dans toutes les questions principales de la théorie des probabilités."
La forme primitive de cet article s’est considérablement enrichie grâce à l’aide de la rédaction de Images des Mathématiques et à la suite de commentaires de lecteurs. Merci en particulier à Jos Leys pour les figures et les animations.
Références
B.Bru, La courbe de Gauss ou le théorème de Bernoulli raconté aux enfants. Mathématiques et sciences humaines n°173, 3 (2006), 5-23.
E. Brian et M. Jaisson, Le sexisme de la première heure : hasard et sociologie, Cours et travaux (Paris), ISSN 1629-54544, 2007 (étude sur le sex-ratio).
J. Fourier, Théorie analytique de la chaleur, 1822.
W.Feller, An introduction to probability Theory and its applications (1ère édition 1950 ; 3ème édition 1967, Wiley).
I.M. Gelfand, G.E.Šilov, Fonctions généralisées, Editions Mir, Moscou 1958.
Y Katznelson et S Mandelbrojt, Quelques classes de fonctions entières et le problème de Gelfand et Šilov. CRAS Paris 256 (1963) 1652-1655.
P.S. Laplace, Théorie analytique des probabilités, introduction (aussi, Essai philosophique sur les probabilités).
P.S. Laplace, Ecole normale de l’an III, Leçons de mathématiques, ed. J. Dhombres, Dunod 1992 (pp.125-140, particulièrement p.129 et la bibliographie p.604).
E. Lesigne, Pile ou Face, une introduction aux théorèmes limites du calcul des Probabilités, Ellipse 2001.
Notes
[1] Ce dernier point n’est d’ailleurs pas complètement clair et c’est pour cette raison que nous n’avons considéré que les garçons. Une population mélangée, présentant des caractéristiques physiques différentes pourrait tout à fait mener à une distribution « multi-modale », avec plusieurs bosses.
[2] L’indépendance est l’un des concepts difficiles de la théorie des probabilités : deux quantité aléatoires sont dites indépendantes si la connaissance de la valeur de l’une n’apporte aucune information sur la valeur de l’autre. Il a fallu du temps avoir de pouvoir formaliser convenablement cette définition.
[3] comme dans le fameux fût du canon de Fernand Raynaud...
Partager cet article
Pour citer cet article :
Jean-Pierre Kahane — «La courbe bleue en cloche» — Images des Mathématiques, CNRS, 2019
Laisser un commentaire
Dossiers
Actualités des maths
-
5 mars 2023Maths en scène : Printemps des mathématiques (3-31 mars)
-
6 février 2023Journées nationales de l’APMEP, appel à ateliers (9/4)
-
20 janvier 2023Le vote électronique - les défis du secret et de la transparence (Nancy, 26/1)
-
17 novembre 2022Du café aux mathématiques : conférence de Hugo Duminil-Copin (Nancy et streaming, 24/11)
-
16 septembre 2022Modélisation et simulation numérique d’instruments de musique (Nancy & streaming, 22/9)
-
11 mai 2022Printemps des cimetières
Commentaire sur l'article
La courbe bleue en cloche
le 17 novembre 2009 à 14:14, par jacques lafontaine