À l’occasion d’un colloque interdisciplinaire, j’ai eu l’occasion de constater une nouvelle fois la difficulté qu’il y a à faire accepter à un public non averti que, en théorie des probabilités, un événement peut-être possible bien que de probabilité nulle.
L’exemple que j’utilise habituellement pour illustrer cet apparent paradoxe est celui d’une fléchette ponctuelle lancée au hasard sur une cible (disons circulaire) d’aire 1. En général, tout le monde accepte sans problème l’idée que, si la fléchette est lancée vraiment au hasard, alors la probabilité d’atteindre une zone quelconque fixée est égale à l’aire de cette zone. Puisqu’un point définit une zone d’aire nulle, sa probabilité d’être touché est donc nulle elle aussi. Or une fois la fléchette lancée, il faut bien qu’elle finisse sa course sur un certain point. Ce point, qui est donc atteint, avait pourtant, comme tous les autres, une probabilité nulle de l’être.
Selon mes observations, les objections que ce raisonnement suscite sont de deux ordres :
1) une contestation de la nullité de la probabilité à l’aide d’un recours à une proto-analyse non standard (la probabilité d’atteindre un point donné ne serait pas nulle mais « infiniment petite ») ;
2) une contestation de la légitimité de parler d’une fléchette ponctuelle au sujet d’une expérience physique.
Bien entendu, ces deux obstacles sont de nature très différente. Le premier concerne la perception de ce que c’est qu’un nombre, et c’est un argument mathématique qui permet de le surmonter : supposons que la probabilité d’un point soit minuscule, par exemple d’un milliardième ; puisque la cible contient une infinité de points, prenons-en un milliard plus un ; cela définit une zone dont la probabilité est égale à (un milliard plus un) fois un milliardième, qui vaut plus que 1. L’argument est simple et imparable, même si son pouvoir de conviction est sans doute un peu faible (et je passe ici sur le fait qu’il peut conduire à proposer de sommer les probabilités nulles de tous les points et donc suggérer que la probabilité de la cible entière serait elle-même nulle, nous embarquant dans de lourdes explications sur la notion d’infini non dénombrable). Le fait est que, le plus souvent, cette contestation de la nullité de la probabilité de chaque point cède vite la place à la seconde objection, intellectuellement plus délicate, qui relève de la difficulté à accepter que l’idéalisation mathématique oblige parfois à s’extraire des objets physiques dont elle est (au moins en partie) issue. Or le public universitaire auquel je m’adressais était évidemment tout à fait capable d’abstraction, et comprenait fort bien que, par exemple, les propriétés géométriques des cercles font sens bien qu’elles se formulent avec d’abstraits cercles sans épaisseur. L’on peut donc supposer, même si ce n’est là qu’une idée un peu gratuite, que ces deux objections ne sont en réalité qu’accidentelles, au sens où elles pourraient n’être que les boucliers les plus immédiats et les plus commodes dont on se saisit pour se protéger du paradoxe.
Quoi qu’il en soit, l’ami Lebesgue, fondateur de la théorie mathématique de la mesure, a décidément franchi un obstacle épistémologique considérable en formalisant la notion d’ensemble négligeable. En a-t-on vraiment mesuré toute la portée extra-mathématique ? Je serais très intéressé par des références et des idées sur la question.
14h54
Voir les 7 commentaires