Accident nucléaire : une certitude statistique

un article de Libé

Le 5 juin 2011  - Ecrit par  Étienne Ghys Voir les commentaires (22)

C’est le titre d’un article de Libération, paru ce vendredi 3 juin 2011, de Benjamin Dessus [1] et Bernard Laponche [2].
Une phrase attire mon attention : la probabilité d’un accident nucléaire majeur en Europe dans les trente prochaines années serait de plus de 100%.
Bigre, une probabilité de plus de 100%, je n’avais jamais vu ça !
En effet, avec une telle probabilité, il doit s’agir d’une certitude statistique...

Dommage qu’on maltraite les probabilités de cette manière.
On calcule si rarement des probabilités dans Libé...

Explications de texte.

L’article commence par estimer la probabilité d’un accident majeur par réacteur nucléaire et par année de fonctionnement.
Selon l’article, le parc mondial actuel de réacteurs cumule $14 000$ réacteurs-ans (environ $450$ réacteurs pendant $31$ ans).
Pendant cette période, il y a eu quatre accidents majeurs, ce qui mène à une probabilité d’accident majeur d’environ $0,0003$ par an pour chaque réacteur.

Les auteurs en « déduisent » donc que la probabilité d’un accident majeur en France (avec ses $58$ réacteurs) pendant les trente prochaines années serait de $58$ fois $30$ fois $0,0003$, donc d’environ $50 \%$.
Quant à la probabilité d’un accident en Europe ($143$ réacteurs) dans les trente prochaines années, elle « est » de $143$ fois $30$ fois $0,0003$, « donc » d’environ $129 \%$. Comment une probabilité pourrait-elle dépasser $100 \%$ ? Plus sûr que la certitude ?
Les auteurs ont sans doute mauvaise conscience d’écrire que la probabilité est de $129\%$ alors ils se contentent d’écrire qu’elle est de « plus de $100\%$ »...
Ils concluent « La réalité, c’est que le risque d’accident majeur en Europe n’est pas très improbable, mais au contraire une certitude statistique. »

Quel dommage qu’un ingénieur et un physicien puissent commettre de telles erreurs sur des questions aussi élémentaires de probabilités.
D’autant plus dommage que s’ils avaient fait un calcul correct, ils n’auraient pas conclu à une « certitude statistique » mais à des chiffres qui sont de toutes façons alarmants.

Faisons ce calcul.

Si la probabilité d’un accident majeur est de $0,0003$ par an et par réacteur, la probabilité qu’il n’y ait pas d’accident est de $(1-0,0003)$ pour un réacteur et une année.
La probabilité qu’il n’y ait aucun accident majeur pendant les 30 ans qui viennent, parmi les $143$ réacteurs européens est donc
 [3]
de $(1-0,0003)^{30\times 143}$ soit à peu près $0,28$.
La probabilité qu’il y ait un accident majeur en Europe dans les 30 prochaines années est donc de $72 \%$.

Ce calcul a-t-il un sens ? Je n’en suis pas sûr, mais en tous les cas il en a plus que celui qui mène à une probabilité « supérieure à $100\%$ ».

$72\%$, ce n’est pas une certitude. Mais c’est quand même une probabilité sérieuse.
Sommes-nous prêts à prendre un tel risque ?
Un tel chiffre devrait pourtant nous faire réfléchir.
Mais, comme écrivait Pierre Simon de Laplace en 1814
 [4]
 :

« Nous ne craignons point pour de faibles avantages, d’exposer notre vie à des dangers beaucoup moins invraisemblables que la sortie d’un quine [5] à la loterie de France ».

Notes

[1Ingénieur et économiste, président de Global Chance.

[2Physicien nucléaire, expert en politiques de l’énergie, Global Chance.

[3Je fais ici une hypothèse d’indépendance entre les réacteurs et les années. Cette hypothèse est bien sûr tout à fait discutable.
Par exemple parmi les quatre accidents majeurs depuis trente ans, on compte les trois réacteurs de Fukushima dont les accidents ne sont pas tout à fait indépendants.

[4Lisez l’essai philosophique sur les probabilités de Pierre Simon de Laplace, et tout particulièrement le chapitre « Des illusions dans l’estimation des probabilités ».

[5Cinq numéros gagants.

Partager cet article

Pour citer cet article :

Étienne Ghys — «Accident nucléaire : une certitude statistique » — Images des Mathématiques, CNRS, 2011

Crédits image :

Image à la une - http://fr.wikipedia.org/wiki/Débit_de_dose_radioactive

Commentaire sur l'article

Voir tous les messages - Retourner à l'article

  • A propos du 72%

    le 5 juin 2011 à 11:40, par François Sauvageot

    Bonjour,

    à propos du 72% calculé par Etienne, et dont il dit, par euphémisme, dont il n’est pas sûr qu’il ait un sens, j’aimerais donner quelques pistes indiquant qu’en effet il n’est pas à prendre au pied de la lettre (ni au pied du chiffre, d’ailleurs).

    L’estimation de la probabilité d’accident majeur ($p=0,03$%) est sujette à une erreur importante puisqu’on a peu d’observations et elle pourrait varier au minimum du simple au double (en ne comptant Fukushima que pour un seul événement du point de vue des événements indépendants), ce qui donne alors 53% au lieu de 72%.

    C’est le plus simple que l’on puisse faire pour établir un autre calcul, mais il y a d’autres problèmes pour l’indépendance. On suppose implicitement que $p$ ne varie pas au cours du temps, qu’il est indépendant du type de centrale etc. Affiner $p$ conduirait à donner plusieurs valeurs selon les cas et on serait alors plus démuni pour estimer cette valeur dans le cas de types de centrales n’ayant jamais eu à subir d’accident majeur.

    Par ailleurs il semble que ces accidents majeurs soient très fortement liés à des problèmes humains. Si tel est le cas (et que donc les questions de type de centrale, d’ancienneté etc. soient négligeables devant ce facteur), alors $p$ est en effet uniquement lié à la fréquence des erreurs humaines (et de certaines catastrophes naturelles ?).

    Mais alors la question qui se pose est de savoir si on peut faire confiance aux humains pour ne plus faire d’erreurs ...

    Pour terminer sur une note plus technique, la modélisation proposée ici est par loi binomiale : on évalue une probabilité d’accident et ensuite on fait comme si, pour chaque centrale, chaque année, on tirait au dé pour savoir si elle a à subir un accident majeur. Ce n’est pas nécessairement le modèle le mieux adapté dans le cas des événements rares. Les statisticiens font souvent usage de la loi de Pareto. Le calcul serait alors différent. C’est cette loi qui est utilisée par exemple pour modéliser les crues, mais dans ce cas, même si les crues catastrophes ne sont pas si fréquentes, on a nettement plus de données pour ajuster les prédictions.

    Bref, ce qui est extrêmement choquant, de mon point de vue, c’est qu’un tel calcul soit mené tel qu’il est mené. La démarche est même fallacieuse : non seulement la méthode de calcul est incorrecte, mais le résultat est dénué de sens. C’est choquant dans un quotidien national et c’est choquant que ce soit signé par des scientifiques.

    C’est fort dommageable. On peut en effet se poser la question du risque d’accident majeur et on peut en donner des estimations. Je ne crois pas, personnellement, au 72% ou au 53%, pas au pied de la lettre, mais il me semble très clair que le risque zéro n’existe pas, qu’un tel risque aussi infime soit-il conduit à une très forte probabilité d’accident à long terme. Est-on en mesure d’accepter ce risque ? de dire qu’on pourra gérer les accidents de façon à ce que personne n’en souffre, voire tout simplement que l’humanité y survive ?
    C’est l’humanité qui crée ce danger, c’est donc à elle de répondre à ces questions.

    Répondre à ce message

Laisser un commentaire

Forum sur abonnement

Pour participer à ce forum, vous devez vous enregistrer au préalable. Merci d’indiquer ci-dessous l’identifiant personnel qui vous a été fourni. Si vous n’êtes pas enregistré, vous devez vous inscrire.

Connexions’inscriremot de passe oublié ?

Suivre IDM