Notre univers est-il irréversible ?

Piste rouge Le 20 septembre 2013  - Ecrit par  Nils Berglund Voir les commentaires

Si vous vous amusez à passer à l’envers les vidéos faites durant vos vacances, vous observerez des comportements bizarres : les morceaux du vase brisé se reforment comme par magie ; la boule de glace que le petit dernier a laissé tomber remonte spontanément dans son cône. Nous avons un sens inné de la direction dans laquelle s’écoule le temps. Pourtant les équations microscopiques de la physique sont parfaitement symétriques par rapport au renversement du temps. Comment expliquer cette apparente contradiction ?

La physique des vases et des boules de glace étant déjà relativement compliquée, nous allons considérer un système plus simple à décrire : un gaz de faible densité contenu dans deux récipients connectés par un petit tube. L’animation suivante donne une image de ce qui se passe à l’échelle microscopique : les molécules du gaz se déplacent dans tous les sens, et rebondissent sur les bords du récipient. Nous avons choisi une configuration initiale où toutes les molécules se trouvent dans le récipient de gauche, et on les voit peu à peu se répartir sur les deux récipients.

Est-il possible de voir toutes les molécules revenir dans le récipient de gauche ? Cela serait contraire à notre intuition, comme à notre expérience de tous les jours.
Comme l’a formulé Henri Poincaré :

Qu’une goutte de vin tombe dans un verre d’eau ;
quelle que soit la loi du mouvement interne du
liquide, nous le verrons bientôt se colorer d’une
teinte rosée uniforme et à partir de ce moment on
aura beau agiter le vase, le vin et l’eau ne paraîtront
plus pouvoir se séparer. Ainsi voici quel
serait le type du phénomène physique irréversible :
cacher un grain d’orge dans un tas de blé, c’est
facile ; l’y retrouver ensuite et l’en faire sortir,
c’est pratiquement impossible.
 [1]

Toutefois, une évolution où toutes les molécules retournent dans le récipient de gauche est parfaitement compatible avec les équations de la physique. Une autre façon de dire les choses : si à un temps donné, on pouvait arrêter toutes les molécules, pour les faire repartir en sens inverse, en suivant les lois de la physique, elles reviendraient dans leur configuration initiale. On dit que ces lois sont réversibles.

Un point qui a beaucoup intrigué les physiciens de la fin du XIXe siècle est que le comportement réversible des molécules semble en contradiction avec les lois de la thermodynamique, qui décrivent par exemple le fonctionnement des machines à vapeur. En thermodynamique, les transformations sont souvent irréversibles, ce qui limite le rendement des machines convertissant la chaleur en travail, et rend impossible la construction d’un mouvement perpétuel. Pourtant ces systèmes sont constitués d’atomes ou de molécules dont le comportement est parfaitement réversible. Comment peut-on réconcilier ces deux aspects qui paraissent contradictoires ?

La réponse de Ludwig Boltzmann

Une réponse à ce paradoxe apparent a été fournie par physicien autrichien Ludwig Boltzmann, et cette réponse est essentiellement encore valable aujourd’hui :

Puisqu’un système de particules donné ne peut jamais aller de lui-même vers un état de même probabilité, mais seulement vers un état plus probable, il est également impossible de construire un système de particules qui, après avoir parcouru différents états, retournerait périodiquement dans son état initial : un mouvement perpétuel. [2]

Essayons de clarifier le contenu de cette phrase. Boltzmann introduit ici la notion de probabilité d’un état. Les différents états du système (définis par exemple par le nombre de molécules dans le récipient de gauche) n’ont pas tous la même probabilité. Un système constitué d’un grand nombre de particules a fortement tendance à évoluer vers des états plus probables, ce qui l’empêche de revenir dans son état initial, du moins si celui-ci est peu probable.
Boltzmann en déduit que des comportements qui violeraient l’irréversibilité sont tellement improbables qu’on ne les observe pas en pratique.

Dans cet article nous nous proposons d’expliquer ce que cela veut dire de manière plus quantitative.

Nombre d’Avogadro

La simulation ci-dessus a été faite avec $200$ particules. En vérité, la matière à notre échelle en contient beaucoup plus. Une mole est par définition un échantillon de matière contenant autant d’atomes ou de molécules que $12$ grammes de carbone $12$. Une mole d’eau (H$_2$O, poids atomique $18$) pèse environ $18$ grammes [3], soit $1,\!8$ centilitres à pression et température normales - moins qu’il n’en faut pour mettre dans votre pastis.

Le nombre d’atomes ou molécules par mole est appelé le nombre d’Avogadro, et il vaut à peu près
\[ N_A = 6,\!02214129 \times 10^{23} \]
Ce nombre est grand, très grand. Pour mieux s’en rendre compte, imaginons qui nous remplacions chaque molécule de nos $18$ grammes d’eau par un dé à jouer d’un centimètre de côté. Avec ces $6\times 10^{23}$ dés nous pourrions

  • fabriquer un cube de $800$ kilomètres de côté ;
  • recouvrir la surface de la Terre, océans compris, sur une hauteur de $1000$ mètres ;
  • faire une chaîne longue de $600\, 000$ années-lumière, soit deux fois la circonférence de notre galaxie.

On peut penser que la taille gigantesque du nombre d’Avogadro rend impossible toute prédiction de l’évolution d’un échantillon de matière à notre échelle. Or il se trouve que dans de nombreux cas, comme celui des gaz dilués, la matière obéit au contraire à des lois assez simples [4]. Cela est dû au fait que l’on ne considère pas la position des molécules individuelles, mais des quantités macroscopiques, comme le volume, la pression et la température. Si ces quantités ont un comportement plus simple, c’est grâce à la loi des grands nombres.

Loi des grands nombres

Il convient donc de distinguer entre descriptions microscopique et macroscopique du système considéré. Dans le cas de notre gaz réparti entre deux récipients, cela revient à la distinction suivante :

1. Description microscopique : Dans quel récipient se trouve chacune des molécules ?

2. Description macroscopique : Combien de molécules se trouvent dans chaque récipient ?

Quelle différence entre ces deux descriptions ? Considérons le cas où il n’y a que $2$ molécules. La figure suivante montre qu’il y a $4$ manières de disposer ces deux molécules dans les deux récipients, ce sont les configurations microscopiques :

Dans la colonne de droite, nous avons noté $X$, le nombre de molécules dans le récipient de droite. $X$ ne peut prendre que $3$ valeurs : $0$, $1$ ou $2$. En fait, deux des configurations microscopiques correspondent à la même configuration macroscopique, celle où $X$ vaut $1$, car cette dernière ne distingue pas les molécules entre elles.

Voyons ce qui se passe pour $3$ molécules :

Il y a maintenant $8$ manières de les disposer dans les deux récipients ($8$ configurations microscopiques) pour $4$ configurations macroscopiques.

Pour $4$ molécules, nous obtenons $16$ configurations microscopiques et $5$ macroscopiques.

De manière générale, pour $N$ molécules, nous aurons $2^N$ configurations microscopiques (il y a deux choix possibles pour placer chacune des $N$ molécules), et $N+1$ configurations macroscopiques. Certaines configurations macroscopiques regrouperont donc beaucoup de configurations microscopiques - mais pas toutes, puisque par exemple $X=0$ et $X=N$ correspondent à un seul état microscopique.

Supposons maintenant que chaque état microscopique a la même probabilité d’apparaître, à savoir $1/2^N$. Les états macroscopiques n’auront pas tous la même probabilité. Par exemple,

  • pour $2$ molécules, $X$ vaut $0$ avec probabilité $1/4$, $1$ avec probabilité $2/4=1/2$ et $2$ avec probabilité $1/4$ ;
  • pour $3$ molécules, $X$ vaut $0$ ou $3$ avec probabilité $1/8$, et $1$ ou $2$ avec probabilité $3/8$ ;
  • pour $4$ molécules, $X$ vaut $0$ ou $4$ avec probabilité $1/16$, $1$ ou $3$ avec probabilité $4/16$, et $2$ avec probabilité $6/16$.

En fait, les états avec à peu près autant de molécules dans les deux récipients sont plus probables que ceux avec beaucoup plus de molécules d’un côté que de l’autre.

La loi binomiale

On peut donner une formule explicite pour la probabilité de l’état macroscopique $X$.
Celle-ci vaut
\[ \frac{1}{2^N} \binom{N}{X} \]
où le symbole $\binom{N}{X}$, aussi noté $C^X_N$, se lit « $X$ parmi $N$ ». Il représente le nombre de manières qu’on a de choisir $X$ objets parmi $N$. Si l’on choisit ces objets l’un après l’autre, on a $N$ choix pour le premier objet, puis $N-1$ pour le deuxième, et ainsi de suite, donc $N\times(N-1)\times\dots\times(N-X+1)$ possibilités en tout. Mais puisque l’ordre dans lequel les objets sont choisis n’importe pas, il faut diviser par le nombre de manières de permuter $X$ objets, soit $X\times(X-1)\times\dots\times2\times1$.
Ceci fournit
\[ \binom{N}{X} = \frac{N\times(N-1)\times\dots\times(N-X+1)}{X\times(X-1)\times\dots\times2\times1} \]
Par exemple, on a
\[ \binom{4}{2} = \frac{4\times3}{2\times1} = 6 \]
ce qui est bien le nombre de choix de $2$ molécules parmi $4$ trouvé ci-dessus.

Les nombres $\binom{N}{X}$, appelés coefficients binomiaux, se retrouvent dans le triangle de Pascal.

Lorsque le nombre de molécules $N$ augmente, le phénomène s’accentue : les configurations avec un nombre comparable de molécules de chaque côté sont de plus en plus privilégiées. C’est ce qu’affirme la loi des grands nombres. Pour la formuler, introduisons la proportion de molécules dans le récipient de droite,
$x=X/N$. C’est un nombre qui varie entre $0$ et $1$, et $x=0,\!5$ lorsqu’il y a autant de molécules de chaque côté.

Loi des grands nombres : Donnons-nous un intervalle symétrique autour de $0,\!5$, par exemple $[0,\!49 \,; 0,\!51]$ ou $[0,\!499 \,; 0,\!501]$, et un seuil $p<1$. Alors on peut trouver un nombre $N$ de molécules tel que $x$ se trouve dans l’intervalle donné avec une probabilité valant au moins $p$.

En fait, on a des résultats quantitatifs sur la taille de $N$, en fonction de la taille de l’intervalle et du seuil $p$. En statistique, on exprime plutôt la taille de l’intervalle en fonction de $N$ et de $p$, on parle alors d’intervalle de confiance. Sa taille varie comme l’inverse de la racine carrée de $N$ [5]. Par exemple, si $N=100$, alors $x$ sera compris, avec une probabilité d’au moins $99\%$, entre $0,\!37$ et $0,\!63$. Si $N=10000$, $x$ sera compris entre $0,\!487$ et $0,\!513$ avec la même probabilité. Si $N$ vaut un million, $x$ sera compris entre $0,\!4987$ et $0,\!5013$.

Si nos deux récipients contiennent ensemble $10^{24}$ molécules,
la probabilité que la proportion de molécules situées dans le récipient de gauche soit supérieure à $0,\!5 + 3\times10^{-12}$ ou inférieure à $0,\!5 - 3\times10^{-12}$ est d’environ $2$ pour un milliard. C’est nettement inférieur à la probabilité de cocher les six bons numéros au loto [6]. Autrement dit, avec une probabilité presque égale à $1$, il y a autant de molécules dans les deux récipients à $0,\!3$ milliardièmes de pour cent près.

La loi des grands nombres résout partiellement notre paradoxe : si toutes les configurations microscopiques ont la même probabilité, une écrasante majorité des configurations macroscopiques aura à peu près la moitié des molécules dans le récipient de gauche. C’est donc ces configurations qu’on a le plus de chances d’observer.

Le même argument s’applique si l’on subdivise les deux récipients en plusieurs compartiments, tant que le nombre de compartiments reste très petit par rapport au nombre de molécules. C’est pourquoi les systèmes physiques constitués d’un grand nombre de particules peuvent être décrits par des valeurs moyennes.

Le modèle d’Ehrenfest

Jusqu’ici, nous avons donné une description statique de notre système : on ne considère que les positions des molécules à un instant donné, sans se préoccuper de la manière dont elles sont arrivées dans le récipient de gauche ou de droite. Cette description ne fournit pas vraiment une explication satisfaisante de notre paradoxe, qui concerne l’évolution du système au cours du temps. Il s’agit donc d’améliorer le modèle en tenant compte du déplacement des molécules.

Une version dynamique du modèle des deux récipients a été introduite par Tatiana et Paul Ehrenfest [E]. On peut la formuler à nouveau de manière microscopique ou macroscopique.

  • Dynamique microscopique : A chaque unité de temps (disons chaque seconde), on tire au hasard l’une des $N$ molécules, chaque molécule ayant probabilité $1/N$. On déplace alors cette molécule du récipient dans lequel elle se trouve vers l’autre récipient.
  • Dynamique macroscopique : A chaque seconde, s’il y a $X$ molécules dans le récipient de droite, on déplace une molécule de droite à gauche avec probabilité $X/N$, et de gauche à droite avec probabilité $1-X/N$.

Les deux définitions sont équivalentes, car s’il y a $X$ molécules à droite, et que chaque molécule a une probabilité $1/N$ d’être choisie, la probabilité de choisir une molécule dans le récipient de droite vaudra $X/N$.

Ce genre de processus s’appelle une chaîne de Markov.
Voici un schéma des probabilités de transition dans le cas de $3$ molécules :

On peut facilement réaliser l’expérience avec $6$ boules de la manière suivante [7] :

  • Matériel : Deux récipients (genre saladiers), un dé à jouer, six boules numérotées (par exemple des boules de billard), un tableau noir ou une feuille de papier, et une craie ou un feutre.
  • Déroulement : Mettre toutes les boules dans le récipient de gauche. Lancer le dé. Trouver la boule correspondant au numéro obtenu, la retirer de son récipient et la placer dans l’autre récipient. Recommencer.

Si l’on note le nombre de boules dans le récipient de droite (vide au départ) au cours du temps, on obtient un graphique ressemblant à ceci (dans cet exemple, le dé est tombé successivement sur $2, 6, 1, 5, 3, 6, 3, 4, 1, 1, 2, 3, 5, 2, 6, 5, \dots$) :

La variable $X$ se promène au hasard entre $0$ et $6$. Voici le résultat d’une seconde expérience, faite sur ordinateur cette fois, avec un nombre de particules $N$ égal à $100$ :

En voici finalement une simulation avec $N=1000$ molécules :

On voit que la variable $X$ approche assez rapidement la valeur $N/2$ (c’est-à-dire que $X/N$ s’approche de $0,\!5$), puis fluctue autour de cette valeur. Plus $N$ est grand, plus ces fluctuations sont petites.

Est-ce que la distribution de probabilité de $X$ (c’est-à-dire la probabilité que $X$ prenne les valeurs $0$, $1$, jusqu’à $N$) se stabilise ? En tous cas, on peut voir assez facilement qu’il existe un état d’équilibre, dans lequel ces probabilités ne changent pas au cours du temps. Pour s’en rendre compte, il vaut mieux faire appel à la description microscopique. Voici à quoi ressemblent les probabilités de transition dans le cas de $2$ particules :

Ce graphe est un carré parfaitement symétrique. Il est alors naturel de supposer que si l’on donne à chacun des $4$ états possibles la même probabilité de $1/4$, cette distribution ne devrait pas changer au cours du temps. En effet, pour qu’on soit dans un état donné au temps $t+1$, il faut que

  • l’on ait été dans l’un des deux états voisins au temps $t$, ce qui arrive avec probabilité $1/4+1/4=1/2$ ;
  • et qu’on se soit déplacé vers le bon état, ce qui arrive avec probabilité $1/2$ ;

On atteindra donc tout état donné au temps $t+1$ avec probabilité $(1/2)\times(1/2)=1/4$.

Dans le cas de $3$ molécules, les transitions possibles forment les arrêtes d’un cube [8] :

Dans ce cas, chaque état a $3$ voisins. Le raisonnement ci-dessus s’adapte sans difficulté, et montre que si chaque configuration a une probabilité de $1/8$, il en reste de même pour tous les temps.

De la même manière, s’il y a $N$ molécules, et que chaque configuration microscopique a la probabilité $1/2^N$, cela reste vrai pour tous les temps. On dit que le système est dans un état d’équilibre, ou encore que sa distribution de probabilité est stationnaire. Mais cette distribution est exactement celle que nous avons introduite au paragraphe précédent ! Comme nous l’avons vu, si tous les états microscopiques ont la même probabilité, le système a bien plus de chances d’avoir à peu près autant de molécules dans chaque récipient.

Si le système démarre dans l’état où toutes les molécules sont dans le récipient de gauche, va-t-il s’approcher de cet état d’équilibre ? Presque. La seule subtilité est que le nombre de molécules dans le récipient de droite sera toujours pair aux temps pairs, et impair aux temps impairs. Pour les temps assez grands, le système va donc osciller entre deux distributions [9]. Mais du point de vue macroscopique, ces distributions sont presque pareilles. On comprend donc pourquoi les trajectoires simulées du système passent la plupart du temps près de $X=N/2$, la configuration avec autant de molécules dans chaque récipient.

En conclusion, au bout d’un temps assez long, un gaz contenant $10^{24}$ molécules se trouvera dans un état très proche de son état d’équilibre statique. Il y aura alors moins de deux chances sur un milliard que le nombre de molécules dans les deux récipients diffère de plus d’un milliardième de pour cent.

L’entropie de Boltzmann

Nous venons de voir que le système a tendance à aller vers des états plus probables, c’est-à-dire avec à peu près autant de molécules dans chaque récipient.
Ceci rappelle le fait connu en thermodynamique qu’une grandeur $S$ appelée entropie tend à augmenter au cours du temps, sans jamais diminuer. Boltzmann donna une nouvelle interprétation à l’entropie : celle-ci dépend directement de la probabilité $W$ d’une configuration. Comment en dépend-elle ? Prendre $S$ proportionnelle à $W$ ne marche pas. En effet, si l’on réunit deux systèmes indépendants, leurs probabilités se multiplient, alors que leurs entropies devraient s’ajouter. Mais la fonction logarithme a le bon goût de convertir des produits en sommes ! Boltzmann en déduisit la formule
\[ S = k ~{\rm log} W \]
où la constante de proportionnalité $k$ est aujourd’hui appelée constante de Boltzmann. Cette formule fut par ailleurs inscrite sur la tombe du physicien.

Temps de récurrence

Nous pouvons maintenant aborder la question qui nous a motivés au départ : le système peut-il revenir dans son état initial, dans lequel toutes les molécules se retrouvent dans le récipient de gauche ?

Le réponse est oui, et en fait cela va arriver avec probabilité $1$. On dit que la chaîne de Markov est récurrente. Cette propriété suit du fait qu’il y a un nombre fini de configurations possibles, et qu’elles communiquent, c’est-à-dire qu’on peut aller de l’une à l’autre en un nombre fini de pas. Elle est à rapprocher du théorème de récurrence de Poincaré.

Comment alors réconcilier la récurrence avec l’idée que le système va vers des configurations plus probables ? La réponse à cette question a été donnée par le mathématicien Marc Kac [K], et elle est contenue dans le résultat suivant :

Théorème : Le temps moyen entre deux passages successifs dans une configuration donnée est égal à l’inverse de la probabilité que le système à l’équilibre se trouve dans cette configuration.

Idée de la preuve.

Fixons une configuration $X$.
Notons $n(Y)$ le nombre moyen de fois que le processus visite l’état $Y$ entre deux visites de $X$. Par convention, $n(X)=1$. Notons $p(Y)$ la probabilité que le système à l’équilibre soit dans la configuration $Y$.

On vérifie alors que, tout comme $p$, $n$ est un invariant de la dynamique, c’est-à-dire que les valeurs $n(Y)$ ne changent pas au cours du temps. On en déduit que $n$ est un multiple de $p$ [10] : il existe une constante $c$ telle que $n(Y)=c\times p(Y)$ pour toute configuration $Y$. Comme $n(X)=1$, cette constante vaut $c=1/p(X)$.

Nous savons de plus que la somme des $p(Y)$ vaut $1$, puisque c’est une distribution de probabilité. Il suit que la somme des $n(Y)$ vaut $c$, c’est-à-dire $1/p(X)$. Mais cette somme n’est autre que le temps total écoulé entre deux visites de $X$.

Par exemple, dans le cas du système avec $3$ molécules, nous avons vu que
\[p(0)=1/8, \quad p(1)=3/8, \quad p(2)=3/8, \quad p(3)=1/8.\]
Si l’on prend comme configuration de référence $X=0$, nous voyons que la constante de proportionnalité $c$ vaut $8$, et donc
\[n(0)=1, \quad n(1)=3, \quad n(2)=3, \quad n(3)=1.\]
Cela signifie qu’entre deux visites de la configuration $0$, le processus visite en moyenne $3$ fois la configuration $1$, $3$ fois la configuration $2$, et $1$ fois la configuration $3$.
Le temps moyen entre deux passages en $X=0$ est donc $1+3+3+1=8$ (il faut ajouter $1$ pour le pas nous ramenant en $0$).

Appliquons ce résultat à la configuration $X=0$, lorsque toutes les molécules se trouvent dans le récipient de gauche. Nous avons vu qu’à l’équilibre, cette configuration a la probabilité $1/2^N$. Le théorème implique donc que le temps moyen entre deux passages dans la configuration $X=0$ est $T=2^N$. Dans le cas où $N$ est égal au nombre d’Avogadro, on a donc
\[ T = 2^{6\times10^{23}} \]
Pour convertir cette expression en puissances de $10$, on peut remarquer que $2^{10}=1024$ est proche de $10^3$, et donc
\[ T = (2^{10})^{6\times 10^{22}}\simeq 10^{18\times 10^{22}} \]
Nous avons vu plus haut que le nombre d’Avogadro, un nombre de $24$ chiffres, est extrêmement grand. Que dire alors de $T$, un nombre de $10^{22}$ chiffres ? Sa taille dépasse l’entendement. Selon le modèle standard, notre univers est âgé d’une dizaine de milliards d’années, soit environ $3\cdot 10^{17}$ secondes. Ce temps est incomparablement plus petit que le temps de récurrence $T$.

Il n’est pas évident de se faire une idée de la taille gigantesque du nombre $T$, mais essayons tout de même. Imaginons $100\,000$ personnes qui auraient joué simultanément et indépendamment au loto depuis le Big Bang, en remplissant chaque seconde un ticket. Alors $T$ est environ égal au nombre de manières différentes de remplir tous ces tickets. Et l’inverse de $T$, c’est-à-dire la probabilité que toutes les molécules se trouvent dans le récipient de gauche, est égal à la probabilité que tout le monde ait gagné à tous les coups...

Une histoire de rebondissements

Est-ce le fin mot de l’histoire ? Pas tout à fait. Rappelez-vous, le modèle d’Ehrenfest est un modèle probabiliste, dans lequel on suppose les molécules indépendantes, et ayant toutes la même probabilité de changer de récipient. Un gaz réel obéit à des lois déterministes (du moins en mécanique classique). On peut penser que ses molécules se comportent de manière tellement chaotique que l’hypothèse d’Ehrenfest est justifiée.

Considérons toutefois le système suivant. Il s’agit de particules indépendantes dans un récipient de forme circulaire, qu’on appelle aussi un billard mathématique [11] circulaire. Les particules sont représentées par de petits bâtonnets indiquant la direction dans laquelle elles se déplacent. Observons leur évolution :

Les particules ne se dispersent pratiquement pas, ce qui est dû à l’existence d’une quantité conservée [12]. En revanche, si nous allongeons le récipient pour lui donner la forme d’un stade, l’évolution des particules ressemble à ceci :

Il semble que les particules adoptent très rapidement toutes les positions et toutes les vitesses possibles. Cela a été effectivement prouvé rigoureusement par Leonid Bunimovich [B].

On peut penser que la situation du billard circulaire est exceptionnelle, alors que celle du stade est typique : le système visite au cours du temps tous les états possibles, avec la même probabilité. C’est le contenu de l’hypothèse ergodique. Cette hypothèse a été prouvée dans certains cas particuliers, voir par exemple [Si], ainsi que [Sz] pour un aperçu historique. Toutefois, son importance en physique statistique reste controversée. En effet, le raisonnement de Boltzmann nécessite seulement que le système ne reste pas, comme c’est le cas du billard circulaire, dans des configurations très particulières. Le système n’a pas besoin de visiter toutes les configurations microscopiques pour montrer un comportement irréversible, il lui suffit de se diriger vers des configurations macroscopiquement probables (lire par exemple la discussion dans [G]). Cette constatation est exploitée en théorie cinétique des gaz, qui se sert d’une description à une échelle intermédiaire entre les échelles microscopique et macroscopique. On pourra par exemple lire l’article [V] pour voir comment l’irréversibilité intervient dans ces modèles.

Bibliographie

[B]
Leonid Bunimovich ; On the ergodic properties of nowhere dispersing billiards,
Comm. Math. Phys. 65 (1979), 295-312.

[E]
Paul Ehrenfest et Tatiana Ehrenfest ; Über zwei bekannte Einwände gegen das Boltzmannsche H-Theorem, Zeitschrift für Physik 8 (1907), 311-314.

[G]
Giovanni Gallavotti ; Ergodicity, ensembles, irreversibility in Boltzmann and beyond, Journal of Statistical Physics 78 (1995),1571-1589. Prépublication.

[K]
Mark Kac ; Random Walk and the Theory of Brownian Motion, American Mathematical Monthly 54(7) (1947), 369-391.

[Si]
Nándor Simányi ; Conditional proof of the Boltzmann-Sinai ergodic hypothesis, Inventiones Mathematicae 177 (2009) 381-413. Prépublication.

[Sz]
Domokos Szasz ; Botzmann’s ergodic hypothesis, a conjecture for centuries ?, Studia Scientiarium Mathematicarum Hungarica (Budapest) 31 (1996) 299-322.

[V]
Cédric Villani ; (Ir)réversibilité et entropie, Séminaire Poincaré XV (2010), 17-75.

Post-scriptum :

L’auteur tient à remercier François Béguin, Aurélien Djament et lboullu pour leur relecture attentive d’une première version de cet article. Cet article est basé sur un exposé au Centre Galois. Merci à tous les animateurs et participants de m’avoir donné l’occasion de tester cet exposé en public !

Article édité par François Béguin

Notes

[1Henri Poincaré, La valeur de la science, 1905 (Paris : Flammarion), Chapitre VIII.
Ecouter le podcast.

[2« Da ein gegebenes System von Körpern von selbst niemals in einen absolut gleich wahrscheinlichen Zustand übergehen kann, sondern immer nur in einen wahrscheinlicheren, so ist es auch nicht möglich, ein Körpersystem zu konstruieren, welches, nachdem es verschiedene Zustände durchlaufen hat, periodisch wieder zum ursprüglichen Zustand zurückkehrt : ein perpetuum mobile. »

Ludwig Boltzmann, Populäre Schriften 1905 (Leipzig : Johann Barth), p. 48.

[3Ce n’est pas exactement $18$ grammes pour deux raisons : d’abord, les éléments sont présents sous forme de plusieurs isotopes, de poids atomiques différents ; ensuite, l’énergie de liaison dans les noyaux crée un défaut de masse.

[5Pour un énoncé plus précis, voir le Théorème limite central.

[6Pour gagner au loto selon la formule d’avant 2008, il fallait cocher les $6$ bons numéros parmi $49$. Le nombre de choix possibles était donc de $\binom{49}{6} = 13\,983\,816$, ce qui équivaut à environ une chance sur $14$ millions de gagner. Depuis 2008, une nouvelle formule est en place, avec bien entendu encore plus de choix possibles.

[7Testée par l’auteur lors d’exposés au Centre Galois en 2011.

[8La structure rappelle celle d’un monument à Bruxelles, non ?

[9Cet inconvénient disparaît si l’on suppose les temps entre transitions aléatoires.

[10Cela n’est pas évident, mais suit du théorème de Perron-Frobenius pour les matrices positives irréductibles. Ce théorème affirme que de telles matrices admettent une valeur propre maximale (en l’occurrence $1$) qui est simple, et donc tous les invariants de la dynamique (vecteurs propres associés à la valeur propre $1$) sont multiples les uns des autres.

[11Voir par exemple ici, et sur Images des Mathématiques.

[12Le moment cinétique par rapport au centre du disque.

Partager cet article

Pour citer cet article :

Nils Berglund — «Notre univers est-il irréversible ?» — Images des Mathématiques, CNRS, 2013

Commentaire sur l'article

Laisser un commentaire

Forum sur abonnement

Pour participer à ce forum, vous devez vous enregistrer au préalable. Merci d’indiquer ci-dessous l’identifiant personnel qui vous a été fourni. Si vous n’êtes pas enregistré, vous devez vous inscrire.

Connexions’inscriremot de passe oublié ?