22 avril 2014

17 messages - Retourner à l'article

Voir tous les messages - Retourner à l'article

  • Intervalle de confiance : pourquoi tant de défiance ?

    le 28 avril 2014 à 16:53, par Claudine Schwartz

    Si on est en cours de mathématiques,et qu’on tire mentalement ou par simulation numérique des boules rouges ou blanches dans une urne, et si on connait la proportion p de boules blanches,(ici appelé vraie valeur de la probabilité de tirer une boule rouge), alors on est capable de calculer une plage fixe (un intervalle de fluctuation propre à l’urne) où la fréquence f de boules rouges a une forte probabilité de se trouver. A partir de là, on peut aussi construire des plages aléatoires, appelées intervalles de confiance, qui ont de fortes chances « d’attraper p » lorsqu’on réitère les tirages. C’est ce qui est dit dans l’article de JP Raoult.

    Mais quand on est en dehors du cours de maths, en dehors d’une problématique directe de sondages, que fait-on ? On est amené à assimiler l’expérience aléatoire du moment au tirage dans une urne imaginaire ; bon, mais alors parler de vraie valeur de la proportion de boules rouges dans une urne qui elle est tout a fait imaginaire est certes poétique mais quelque peu déroutant. De plus, dire qu’on aurait un fort pourcentage de chances d’attraper cette valeur si on refaisait un grand nombre de fois l’expérience est aussi osé car précisément, on cherche à produire un énoncé à la suite d’une seule série d’expériences. Bref, les statisticiens du 20ème siècle ont fait la vie dure aux collègues de physique, de biologie, de SES : le monde d’Alice aux pays des merveilles qui est celui de nombreux ouvrages pédagogiques de statistique est difficile à confronter à des questions de biologie et à des données expérimentales ! Les enseignants de ces disciplines seraient sans doute plus à l’aise en disant qu’un intervalle de confiance est un ensemble de valeurs admissibles du paramètre du modèle qu’on cherche à mettre en place. Le terme admissible relève d’un consensus : le modèle est admissible si pour ce modèle, la fréquence est là où on l’attend, ie dans l’intervalle de fluctuation choisi à l’avance. On indique ainsi clairement qu’on tisse ensemble résultats mathématiques et consensus sociaux. J’ai détaillé ces propos sybillins ici (http://publications-sfds.math.cnrs.fr/index.php/StatEns/article/view/125/115), dans un numéro de la revue de la SFDS (société française de statistique) qui se proposait d’ouvrir à certains débats.

    J’ai été présidente du groupe de travail chargé d’introduire vers les années 2000 de l’aléatoire à partir de la classe de seconde. Les nouveautés introduites n’avaient pas vocation à être scellées dans la pierre sous la forme donnée à cette époque et les programmes étaient bien sûr destinés à évoluer. Aujourd’hui, je constate qu’il y a vraiment problème : les débats sont peu ou prou toujours les mêmes. Depuis bientôt 15 ans ! Je n’ai bien sûr pas de solution toute faite, mais après avoir visité pas mal de classes, écouté les enseignants, je pense qu’on fait fausse route et que la statistique devrait être prise en charge par ceux qui ont à la fois les questions et la production de données. C’est-à-dire la physique (incertitude des mesures), la biologie, les SES. En mathématiques, on ferait des probabilités, de l’expérimentation numérique, (un peu de processus, on essaye de faire comprendre le théorème central limite). Evidemment, on va parler de l’incontournable interdisciplinarité. Est-ce que cela change les termes du débat ?

    Répondre à ce message
Pour participer à la discussion merci de vous identifier : Si vous n'avez pas d'identifiant, vous pouvez vous inscrire.