5 septembre 2014

16 messages - Retourner à l'article
  • Markov et la Belle au bois dormant

    le 7 septembre 2014 à 12:07, par amic

    Article sympa, je ne connaissais pas ce paradoxe de la Belle au bois dormant, qui est assez simple à présenter, avec une jolie conclusion.

    Bon, j’aurais plus imaginé que la machine à laver soit celle du prince charmant, pour changer. Si le boulot d’Aurore est de dormir, j’imagine que celui du prince charmant est plus salissant ;-)

    Répondre à ce message
  • Markov et la Belle au bois dormant

    le 8 septembre 2014 à 14:45, par Philippe Gay

    Merci ! Vous pourrez trouver d’autres paradoxes sur probas-enigmes.
    Mon premier article devait s’intituler « L’Argument de l’Apocalypse… selon Madame Michu », mais cela risquait d’être perçu comme trop sexiste. A tort, car Madame Michu était elle aussi perspicace ! Alors on a changé le titre en « L’Argument de l’Apocalypse… selon la Répression des fraudes ».
    Maintenant, si Aurore dort, on peut imaginer le prince charmant réparer la machine à laver ou le modem d’Aurore, en cas de panne, pendant que nos expérimentateurs terminent leurs tests.

    Répondre à ce message
  • Markov et la Belle au bois dormant

    le 17 septembre 2014 à 10:57, par LéoGR

    L’article est très clair sur les chaines de Markov homogènes à nombre d’états fini. Pour le paradoxe de la Belle au bois dormant, le vecteur propre donne alors les probabilités des différents réveils (S1,S2 et S3) après « un grand nombre de réveils » (théoriquement, une infinité de réveils).
    Aussi, dans quelle mesure le vecteur propre de cette chaine doit-il être le repère que doit utiliser la Belle au réveil pour définir son degré de croyance, dans une expérience unique ?
    En effet, dans cette chaine de Markov, le premier réveil est soit un réveil Face, soit un réveil Pile (l’état initial n’étant pas probabilisé). Si le premier réveil est un réveil Face alors le deuxième a une chance sur 2 d’être un réveil Face. Si le premier réveil est un réveil Pile alors le deuxième réveil est nécessairement un réveil Pile. Dans les deux cas, un deuxième réveil aura nécessairement lieu. Dans une expérience unique de la Belle, le premier réveil a une chance sur deux d’être un réveil Face et le deuxième réveil (s’il a lieu) n’a aucune chance d’être un réveil Face. Dans une expérience unique, un deuxième réveil n’a qu’une chance sur deux d’avoir lieu.
    Le vecteur propre de la chaine de markov proposée n’est-il pas le repère que doit utiliser la Belle dans une version (voir Bostrom 2006) où la Belle est soumise à une infinité d’expériences avec oublie entre les réveils et entre les expériences ?

    Répondre à ce message
    • Markov et la Belle au bois dormant

      le 17 septembre 2014 à 19:32, par Philippe Gay

      Merci LeoGR pour votre intervention.

      Il y a deux démonstrations de la BABD dans cet article :

      1. La première se base sur une expérience unique et Aurore répond :
          * en connaissant les probabilités connues des trois éléments qu’elle est susceptible de rencontrer ;

          * puis en appliquant le principe suivant : à la probabilité la plus grande correspond la réponse à choisir. C’est le principe de maximum de vraisemblance. Il est par exemple utilisé par les codes correcteurs d’erreurs en télécoms. Une autre stratégie serait moins « payante ». (Je remercie Gérard Grancher qui a mis en exergue ce point digne d’intérêt.)

      2. La seconde utilise bien sûr la chaîne de Markov qui simule une répétition infinie de cette expérience et obtient le même résultat. Une remarque souvent faite en cours : peu importe que ce soit Aurore qui fasse disons 100 fois l’expérience ou que ce soit 100 personnes qui la fassent une fois : cela revient à faire la même chose. Ces 100 (ou plus) expériences et à plus forte raison une infinité, donne les probabilités sur une seule : c’est une application de la Loi des grands nombres. Plus le nombre d’essais est grand et plus nos expérimentateurs auront de chance de mesurer de façon précise les probabilités.

      Il y a cohérence entre les deux démonstrations. Il n’y a pas lieu de dissocier les probabilités sur un tirage et celles sur plusieurs. Ce serait remettre en cause les bases théoriques et l’expérience quotidienne. D’ailleurs, comment la probabilité sur un tirage peut être différente après une infinité de tirages ? Il faudrait fournir aux expérimentateurs une pièce magique...

      Vous dites « … Dans une expérience unique, un deuxième réveil n’a qu’une chance sur deux d’avoir lieu. » Oui, mais cela est vrai pour pour tous les réveils… et on a équiprobabilité entre les trois cas. Donc l’objection ne tiens pas. Mais on peut faire autrement, comme expliqué sur http://probas-enigmes.pagesperso-orange.fr/Aurore.html ou sur http://probas-enigmes.pagesperso-orange.fr/Article_PDF.html . Peu importe, à chacun de choisir sa méthode.

      La question n’est pas de savoir si l’on passe de probabilités (1/2,1/2) à (1/3, 1/3, 1/3), mais de voir ce que chaque démonstration sous-entend.

      J’ai créé différents problèmes où l’on voit ce passage de probabilités (1/2,1/2) à (1/3, 1/3,1/3) sur http://probas-enigmes.pagesperso-orange.fr/index.html .

      Je me suis demandé si l’on pouvait imaginer des problèmes où l’on verrait au contraire un passage de (1/2, 1/2) à (1/2, 1/4, 1/4). (Je sais que cela vous tiens à cœur, alors je me suis prêté au jeu.) Il faut pour cela un autre processus : http://probas-enigmes.pagesperso-orange.fr/Vishy.html . Et là, un nouveau graphe de Markov est (presque) nécessaire pour voir la différence de structure avec la BABD !

      J’ai été un peu long. Effectivement, cet article aborde plusieurs sujets différents si l’on fouille un peu.

      Répondre à ce message
  • Markov et la Belle au bois dormant

    le 19 mai 2016 à 14:25, par J.Bennetier

    Je partage l’avis de LeoGR concernant l’argument des chaînes de Markov qui me semble contenir deux erreurs .
    (1) Quelque soit la situation initiale les probabilités qu’un réveil quelconque se trouve dans l’une 3 situations Lundi-Pile, Lundi-Face ou Mardi-Pile ne valent jamais (1/3,1/3,1/3), sauf après une infinité de lancers, ce que l’expérimentateur pourrait trouver un peu long.
    (2) Cet argument conduit à estimer la probabilité d’être dans l’une des 3 situations lors d’un réveil quelconque, c’est-à-dire la probabilité estimée par un observateur extérieur à l’expérience et non pas par Aurore elle-même.
    P.S. A mon avis le cas des 3 vies de Vishy où P(VieUnique) = P(vie1 ou Vie2) = 1/2 est exactement celui de la Belle au bois dormant.

    Répondre à ce message
  • Markov et la Belle au bois dormant

    le 19 mai 2016 à 14:27, par J.Bennetier

    Je partage l’avis de LeoGR concernant l’argument des chaînes de Markov qui me semble contenir deux erreurs .
    (1) Quelque soit la situation initiale les probabilités qu’un réveil quelconque se trouve dans l’une 3 situations Lundi-Pile, Lundi-Face ou Mardi-Pile ne valent jamais (1/3,1/3,1/3), sauf après une infinité de lancers, ce que l’expérimentateur pourrait trouver un peu long.
    (2) Cet argument conduit à estimer la probabilité d’être dans l’une des 3 situations lors d’un réveil quelconque, c’est-à-dire la probabilité estimée par un observateur extérieur à l’expérience et non pas par Aurore elle-même.
    P.S. A mon avis le cas des 3 vies de Vishy où P(VieUnique) = P(vie1 et Vie2) = 1/2 est exactement identique à celui de la Belle au bois dormant.

    Répondre à ce message
    • Markov et la Belle au bois dormant

      le 19 mai 2016 à 17:07, par Philippe Gay

      Pour maîtriser les chaînes de Markov, il faut un peu de pratique.

      1) La convergence vers les valeurs propres prend du temps si l’on simule un grand nombre de multiplications de matrices de transitions. C’est pour cela que la recherche des valeurs propres est la méthode à préférer, même si sur le plan pédagogique les deux ont leur importance. Si l’on se donne la peine de faire le calcul de cette multiplication (avec un tableur ou un logiciel comme Matlab), on voit assez vite que l’on devient proche de (1/3, 1/3, 1/3) quelles que soient les valeurs initiales choisies. On a là une petite matrice et ce n’est pas trop pénible. (Pour des matrices plus larges, il faut effectivement éviter cette méthode et passer par les valeurs propres.) Une remarque importante : la probabilité EST la probabilité. ELLE NE CHANGE PAS. C’est notre approche intellectuelle qui nous fait croire que le résultat évolue (ce qui serait absurde). En fait, c’est simplement nos observations qui se rapprochent de la valeur cherchée. On a un graphe qui simule une infinité de tirages. La loi des grands nombres permet d’affirmer que l’on « mesure » les bonnes probabilités. Si vous testez une simple pièce de monnaie (sans chaîne de Markov), il faut là aussi un grand nombre de lancers pour vérifier qu’elle est bien équilibrée. Il n’y a pas d’erreur à ce niveau.

      2) Le graphe montre tous les passages d’Aurore dans les trois états. Il répond à la question « Où sera Aurore après un grand nombre de transitions ? ». C’est la question que se posent les expérimentateurs, Aurore ou un simple spectateur. Tous auront la même réponse, soit (1/3, 1/3, 1/3). Sauf que les expérimentateurs voient tous les réveils, Aurore les fait tous, mais ne se rappelle que d’un seul, et le spectateur qui passe n’en voit qu’un et un seul. Peu importe : c’est comme une urne où prendre une boule ou plusieurs ne changerait pas les probabilités. Il n’y a pas d’erreur à ce niveau non plus.

      Le problème des « Vies de Vishy » que j’ai créé avait bien pour but de créer un équivalent inédit à ce problème de la Belle au bois dormant.

      Répondre à ce message
  • Markov et la Belle au bois dormant

    le 19 mai 2016 à 20:03, par J.Bennetier

    Merci de m’avoir lu et répondu.
    Que l’on prenne une valeur approchée ou la valeur 1/3 lors d’un réveil au rang n de la chaîne de Markov il s’agit toujours d’une probabilité calculée par un observateur qui assiste, comme vous le notez, à un seul réveil. Ce calcul ne s’applique pas, comme le prétendent les tieristes, au cas de Aurore qui peut être réveillée deux fois.
    Vous convenez que les problèmes des Vies de Vishy et de la Belle au bois dormant sont identiques. La solution du problème des Vies devrait être la même que celle que vous donnez pour le problème de la Belle c’est-à-dire P(VieUnique) = P(vie1) = P(Vie2) = 1/3 or la solution donnée dans votre article est P(VieUnique) = 1/2 et P(vie1) = P(Vie2) = 1/4. Il me semble qu’il y a là une contradiction.

    Répondre à ce message
    • Markov et la Belle au bois dormant

      le 19 mai 2016 à 20:27, par Philippe Gay

      Si je suis votre raisonnement, Aurore et un observateur verraient des probabilités différentes ? Franchement, je ne vois pas pourquoi. Il y a quelque chose qui m’échappe.

      Prenons un exemple plus simple. Si je jette une pièce de monnaie équilibrée, je verrai toujours les probabilités pour Pile et Face de 1/2, quel que soit l’état de ma mémoire ou le nombre de lancers. Et si quelqu’un passe à côté de moi, il verrait lui aussi ces mêmes probabilités même si sa mémoire est différente de la mienne et s’il ne compte pas les lancers de la même façon. Pour moi et pour cette nouvelle personne, c’est le même graphe de Markov, même si le nombre de « lectures » diffère.

      (Pour les Vies de Vishy, il y a effectivement des ressemblances, mais aussi des différences. Pardon pour ma précédente intervention. Quelle que soit votre opinion, on peut dire ceci : si c’est le même graphe même probabilités. Sinon, on ne peut pas conclure.)

      Répondre à ce message
  • Markov et la Belle au bois dormant

    le 28 février à 19:16, par T.Barbier

    Bonjour, et merci pour cet article. J’ai de mon coté repris l’exemple de la piece truquée. Cependant lorsque je fais la recherche de vecteur propre avec Matlab ou Wolfram alpha, je ne retrouve pas le vecteur annoncé. (voir piece jointe). Pourriez-vous m’éclairer sur ce point ?

    Merci

    Document joint : vecteurs_propres.png
    Répondre à ce message
    • Markov et la Belle au bois dormant, normaliser les vecteurs de probabilités

      le 1er mars à 09:32, par Philippe Gay

      Bonjour, merci pour votre lecture attentive. Vous avez raison de faire ce type d’exercices, car rien ne vaut une bonne pratique !
      En fait Wolfram (ou R, Matlab ou Python) a trouvé LES réponses, TOUTES les réponses... et même celles qui ne nous intéressent pas.
      A ce stade, il faut :
      * éliminer les vecteurs avec des valeurs de signes différents (car les probabilités négatives n’ont pas de sens pour nous ici en probabilités) ;
      * puis NORMALISER le vecteur trouvé (on ne trouve qu’un vecteur et seul), c’est-à-dire multiplier ce vecteur par une constante pour que la somme de ses composantes soit 1. Ceci découle du fait que la somme des probabilités est 1.
      Donc :
      * on élimine le vecteur (-1,1) : probabilités négatives impossibles ;
      * on normalise le vecteur (15/8, 1) : on obtient (15/23, 8/23) ;
      * et surtout, on vérifie que le produit T.V donne bien V (ouf, c’est bon !).
      Ceci découle du fait que la notion de vecteur propre a d’autres sens profonds en mathématiques et qu’ici en probabilités on n’utilise qu’une partie de cette théorie.

      J’aime bien Wolfram. Si je l’avais connu à l’époque, j’aurais commenté ce genre de résultats. Toutefois, en faisant ce type de calculs à la main ou avec un tableur, on évite ce type de malentendu.
      N’hésitez pas à me faire part de votre avis.

      Cordialement.

      Répondre à ce message
      • Markov et la Belle au bois dormant, normaliser les vecteurs de probabilités

        le 1er mars à 11:54, par T.Barbier

        Bonjour, et merci pour votre réponse.

        Effectivement, je ne m’étais pas remis dans un contexte de probabilité qui m’aurait permis d’avoir un oeil un peu plus critique sur les résultats fournis.

        A ce titre, vous parlez de normalisation afin d’exprimer l’idée que la somme des composantes du vecteur (la somme des probabilités) doit être égale à 1. La normalisation enforce une contrainte sur la longueur du vecteur égale à 1 et non sur la somme de ses composantes qui peut, elle, aller de 1 à racine(2). Si je souhaite reprendre l’exemple sous Matlab, il ne me faut donc pas faire :
        >> V = V / norm(V) ;
        mais bien :
        >> V = V / sum(V) ;
        afin d’obtenir la somme des probabilités égale à 1.

        C’est bien entendu ce que vous sous-entendiez mais je me suis permis de clarifier pour celles et ceux aui, comme moi, n’auraient pas saisi la subtilité.

        Cordialement.

        Répondre à ce message
  • Markov et la Belle au bois dormant

    le 1er mars à 16:00, par Philippe Gay

    Je suis d’accord avec vous. Vous avez raison de souligner ce point et il faudrait utiliser un autre terme que « normaliser » : on réduit la somme des composantes à une somme de 1.
    D’ailleurs je viens de voir que Python fournit lui aussi valeurs et vecteurs propres, et il fait une normalisation au sens où le vecteur affiché est de module 1.
    Merci pour votre correction.

    Répondre à ce message
  • Markov : pièce de monnaie magique

    le 30 avril à 10:54, par stephanefm

    Bonjour,

    Merci pour cet article très intéressant !

    Je ne comprends pas les calculs de probabilité pour la pièce de monnaie magique.

    Selon le graphe, on devrait avoir
    Pt+1(S1) = 0.4.Pt(S1) + 0.25.Pt(S2)
    Pt+1(S2) = 0.6.Pt(S1) + 0.75.Pt(S2)

    Sauriez-vous d’où peut provenir mon erreur ?
    Merci à vous

    Répondre à ce message
    • Markov : pièce de monnaie magique

      le 30 avril à 13:24, par Philippe Gay

      Merci pour votre lecture attentive. Je pense que vous avez raison. Le graphe a une erreur et es lignes sont permutées.

      Répondre à ce message
      • Markov : pièce de monnaie magique

        le 30 avril à 20:17, par stephanefm

        Merci beaucoup pour votre réponse je commençais à douter de ma compréhension de l’exemple.

        Bonne soirée

        Répondre à ce message
Pour participer à la discussion merci de vous identifier : Si vous n'avez pas d'identifiant, vous pouvez vous inscrire.