Indiscernabilité et indépendance en physique statistique

Piste rouge Le 22 août 2017  - Ecrit par  Nicolas Rougerie Voir les commentaires

Où l’on explique que de beaux théorèmes mathématiques permettent de considérer les constituants d’un système de physique statistique comme indépendants, une simplification énorme qui est à la base de nombreux modèles effectifs.

Systèmes à grand nombre de particules

Beaucoup des systèmes physiques qui nous entourent sont constitués d’un nombre gigantesque de composants élémentaires. Qu’on parle d’une galaxie, qui contient de $10 ^{10}$ à $10 ^{11}$ étoiles, d’une goutte d’eau, qui contient de l’ordre de $10 ^{23}$ molécules, ou même d’échantillons plus exotiques préparés en laboratoire qui peuvent contenir seulement quelques milliers de particules, il est la plupart du temps hors de question de décrire exhaustivement un tel système. Il faudrait pouvoir prendre en compte les interactions entre chaque paire de particules. Dans une galaxie, chaque étoile exerce une force gravitationnelle sur toutes les autre étoiles. Si il y a $N$ étoiles, ça fait environ $N ^2$ forces à prendre en compte. Dans le cas de notre chère Voie Lactée, ça fait environ $10 ^{22}$ interactions à prendre en compte, tout autant de termes dans les équations qui décriront le système, c’est monstrueusement compliqué.

JPEG - 362.6 ko

Modélisation en mécanique statistique.

Prenons l’exemple d’un système de $N$ particules classiques vivant dans l’espace $\mathbb{R}^3$. On connaît avec précision l’état du système si on sait donner pour chaque particule sa position $x\in \mathbb{R} ^3$ et son vecteur vitesse $v \in \mathbb{R} ^3$. Pour $N$ particules on doit donc connaître $N$ couples $(x_1;v_1)\ldots (x_N;v_N)$.

Dans certaines situations, on ne peut connaître avec certitude ces $N$ couples. On cherche alors la probabilité (ou densité de probabilité) que la particule $1$ ait la position $x_1$ et la vitesse $v_1$, la particule $2$ la position $x_2$ et la vitesse $v_2$ ... la particule $N$ la position $x_N$ et la vitesse $v_N$. On notera cette probabilité $\boldsymbol{\mu}_N (x_1,\ldots,x_N;v_1,\ldots,v_N).$

Pour avoir une description un peu plus pratique, on est amené à faire des hypothèses plus ou moins audacieuses sur le comportement du système, espérant qu’elles mèneront à des modèles effectifs dont on aura une chance de calculer les solutions. Une des grandes questions en physique consiste à évaluer la pertinence de ces hypothèses, à justifier les approximations qu’on est amené à faire pour obtenir des théories plus simples.

Approximation de champ moyen

L’approximation la plus simple qu’on puisse faire s’appelle approximation de champ moyen. On suppose que toutes les particules sont indépendantes et font toutes la même chose (indépendantes et identiquement distribuées). On simplifie donc drastiquement le problème en disant que les $10^4$, $10^{10}$, ou $10 ^{23}$ constituants élémentaires du système sont bien décrits par une seule quantité, qui donne le comportement effectif d’une particule typique du système. Au lieu des $10^4$, $10^{10}$, ou $10 ^{23}$ équations dont on était partis (une pour chaque particule), avec leurs $10^{8}$, $10^{20}$, ou $10 ^{46}$ termes, on aura une seule équation pour cette quantité effective.

Au lieu de ressentir des forces d’interaction avec un grand nombre d’autres particules, cette quantité interagira avec elle même, menant à une équation auto-consistante, et c’est celle-ci qu’on résoudra pour obtenir des informations sur le système de départ. Une telle description est dite « de champ moyen » : on oublie le détail des forces complexes que subit chaque particule pour ne prendre en compte que l’effet moyen exercé sur elle par l’ensemble des autres particules.

L’ équation obtenue est d’un type différent, et plutôt plus compliqué, que les équations de départ (elle est non linéaire alors que les équations de départ sont linéaires), mais comme il n’y en a qu’une seule, on est en général largement gagnant avec cette stratégie.

Historiquement, elle remonte au moins aux travaux de Maxwell et Boltzmann au 19ème siècle. L’équation de Boltzmann en théorie cinétique des gaz est basée sur ce genre de considérations [1]. Le lecteur sait peut-être que Hilbert posa une question fameuse en 1900, comme partie de son 6ème problème : peut-on rigoureusement dériver les équations de la mécanique des fluides en partant de l’équation de Boltzmann ? Puisque cette question est maintenant en grande partie résolue (travaux de Bardos, Golse, Levermore, Lions, Masmoudi, Saint-Raymond sur les limites hydrodynamiques, années 1990 et 2000), on peut raisonnablement affirmer que l’équation de Navier-Stokes est également ultimement basée sur ce genre d’hypothèses, que l’on appelle souvent « chaos moléculaire ».

Equation de Navier-Stokes
\[ \frac{\partial u}{\partial t} +u \cdot \nabla u - \nu\Delta u= - \nabla p, \quad \nabla \cdot u = 0. \]

L’équation de Jeans-Vlasov, utilisée aussi bien en dynamique galactique qu’en physique des plasmas, est également une équation de champ moyen, de même que de très nombreux modèles de chimie quantique utilisés au moins en première approximation pour déterminer les propriétés de la matière aux échelles microscopiques.

Equation de Jeans-Vlasov
\[ \begin{cases} & \partial_t f + v \cdot \nabla_x f + E(x) \cdot \nabla_v f = 0 \,, \\ & E(x) = \int_{{\mathbb R} ^d} \rho(t,y)\,F(x-y)\,dy, \\ & \rho(t,x)= \int_{{\mathbb R} ^d} f(t,x,v) \,dv, \end{cases} \]

Formalisation de l’approximation de champ moyen.

Reprenons la modélisation précédente, basée sur la loi de probabilité $\boldsymbol{\mu}_N (x_1,\ldots,x_N;v_1,\ldots,v_N).$ Supposer que les particules sont indépendantes et identiquement distribuées revient à poser
\[ \boldsymbol{\mu}_N (x_1,\ldots,x_N;v_1,\ldots,v_N) = \rho (x_1;v_1) \rho (x_2;v_2) \ldots \rho (x_N;v_N)\]
où $\rho \geq 0$ est une densité de probabilité pour une seule particule. L’interprétation est que $\rho$ donne le comportement typique d’une particule générique.

Il se trouve que cette simplification, qui peut paraître exagérée, marche très bien en pratique. On arrive à obtenir des informations valables dans ce cadre, et ce pour une très grande variété de systèmes physiques. Il y a une explication mathématique à ce fait, et nous allons tenter d’en faire sentir la puissance dans cet article.

Dans la suite on sera guidé par la question générale quelles sont les propriétés génériques que satisfait tout système raisonnable et qui font que l’approximation de champ moyen est un outil efficace ?

Indiscernabilité et symétrie

Le fait physique le plus important dans ce contexte est l’indiscernabilité des particules. On parle ici de systèmes de particules identiques, ou tellement similaires que nous ne sommes pas capables de les distinguer les unes des autres. Pensons aux électrons dans un métal par exemple : que vous repériez un électron ou un autre, le signal sur votre appareil de mesure sera le même.

Mathématiquement, ceci se traduit par une propriété de symétrie : les propriétés du système sont invariantes par échange des particules qui le constituent. Numéroter les particules, disons de $1$ à $N$, est souvent commode pour écrire un modèle. Mais les propriétés physiques ne changent pas si vous permutez les numéros des particules, et le modèle doit prendre ceci en compte.

Indiscernabilité

Le postulat de base est ici que
\[ \boldsymbol{\mu}_N (x_1,\ldots, x_i,\ldots, x_j,\ldots, x_N;v_1,\ldots v_i,\ldots v_j,\ldots, v_N) = \\ \boldsymbol{\mu}_N (x_1,\ldots,x_j,\ldots,x_i,\ldots, x_N;v_1,\ldots, v_j,\ldots v_i,\ldots, v_N) \]
pout tout $i,j=1,\ldots N$. C’est clairement le cas dans l’approximation de champ moyen lorsque $\boldsymbol{\mu}_N$ s’écrit à partir d’un seul $\rho$ comme précédemment.

Symétrie et Indépendance : un exemple

En quoi la propriété de symétrie qui découle de l’indiscernabilité des particules est-elle reliée à l’approximation de champ moyen ? Quel lien y-a-t il entre symétrie et indépendance ?

Pour le comprendre, prenons un exemple simple. Imaginons une urne qui contient $N$ boules, numérotées de $1$ à $N$. On va tirer $k$ boules de cette urne au hasard de deux manières différentes :

  • Avec remplacement. On tire une boule, on note son numéro, on la remet dans l’urne. De cette façon, tous les tirages sont clairement indépendants : à chaque coup vous tirez au hasard une boule de la même urne qui en contient $N$. Toutes les séries de $k$ nombres choisis parmi les $N$ sont possibles et ont la même probabilité. Vous avez exactement autant de chances d’obtenir $3,1,4,2$ que $1,2,3,4$ ou $1,1,1,1$.
  • Sans remplacement. On tire une boule, on note son numéro, on la met de côté. Ici les tirages ne sont plus indépendants. Au premier coup vous tirez une boule parmi $N$, comme précédemment, mais au deuxième coup vous tirez une boule au hasard parmi $N-1$, et le résultat du deuxième tirage dépend du premier. Le procédé reste cependant symétrique : la probabilité de tirer une série de $k$ nombres parmi les $N$ ne dépend pas de l’ordre de ces $k$ nombres. Vous ne pourrez jamais tirer la série $1,1,1,1$ mais vous avez autant de chances de tirer $3,1,4,2$ que $1,2,3,4$.

Cet exemple montre bien que les notions d’indépendance et de symétrie sont distinctes : l’indépendance implique la symétrie par rapport aux permutations, mais pas l’inverse.

Par contre les deux procédés ci-dessus sont quasiment identiques si $N$ est très grand devant $k$. Il est très facile de sentir pourquoi : faisons deux tirages, $k=2$. Au premier coup vous tirez une boule, de numéro mettons $k_1$. Si vous replacez la boule dans l’urne, au deuxième coup vous avez exactement une chance sur $N$ de tirer n’importe quelle boule de $1$ à $N$. Si vous ne replacez pas la boule $k_1$ dans l’urne, vous avez $0$ chances de tirer $k_1$ au deuxième coup et une chance sur $N-1$ de tirer n’importe quelle autre boule. Si $N$ est très grand, il est clair que les deux manières de tirer ont peu de chances de donner un résultat différent. Ceci est simplement dû au fait qu’en tirant avec remplacement, vous allez tirer la même boule deux fois de suite avec une probabilité $1/N$, très faible si $N$ est grand.

Théorèmes « à la de Finetti »

Maintenant, qu’est-ce que le tirage de boules au hasard a à voir avec un système à grand nombre de particules ? Est-ce que la relation entre indépendance et symétrie est une propriété générale ?

Il se trouve que oui : mettons que vous regardez un système avec $N$ particules (les $N$ boules dans l’urne), ne vous intéressez qu’à $k$ d’entre elles au hasard (les $k$ boules que vous tirez de l’urne), sans vous soucier de leur ordre (symétrie : le fait que la probabilité d’une série de nombres ne dépend pas de l’ordre de ces nombres). Alors si $N$ est très grand par rapport à $k$ (mettons $k=2$ et $N=10000$) votre système se comporte quasiment comme si ses constituants étaient indépendants. Si vous savez étudier le même système sous l’hypothèse plus forte que ses particules sont indépendantes (dans le cadre d’une approximation de champ moyen donc), alors vous saurez étudier le système général, à une très bonne approximation près.

Lois réduites.

Formalisons un peu l’idée de « ne s’intéresser qu’à $k$ particules au hasard ». Pour une loi $\boldsymbol{\mu}_N$ décrivant $N$ particules, la loi réduite pour $k$ particules est donnée pour $k\leq N$ par
\[ \boldsymbol{\mu}_N ^{(k)} (x_1,\ldots,x_k;v_1,\ldots,v_k) = \int_{\mathbb{R} ^{3(N-k)}\times \mathbb{R} ^{3(N-k)}} \boldsymbol{\mu}_N (x_1,\ldots,x_N;v_1,\ldots,v_N) \\ dx_{k+1}\ldots dx_N dv_{k+1} \ldots dv_N, \]
c’est-à-dire que l’on intègre la loi totale par rapport aux positions et vitesses de $N-k$ particules. Le choix des $N-k$ particules sur lesquelles intégrer n’importe pas puisque la loi totale est supposée symétrique. On interprète $\boldsymbol{\mu}_N ^{(k)} (x_1,\ldots,x_k;v_1,\ldots,v_k)$ comme la probabilité qu’une particule parmi les $N$ ait la position $x_1$ et la vitesse $v_1$, qu’une autre ait la position $x_2$ et la vitesse $v_2$, ..., une autre encore la position $x_k$ et la vitesse $v_k$.

Par exemple, pour une loi de type champ moyen de forme
\[ \boldsymbol{\mu}_N (x_1,\ldots,x_N;v_1,\ldots,v_N) = \rho (x_1,v_1)\ldots \rho (x_N,v_N)\]
on a
\[ \boldsymbol{\mu}_N ^{(k)}(x_1,\ldots,x_k;v_1,\ldots,v_k) = \rho (x_1,v_1) \ldots \rho (x_k,v_k).\]

Plus précisément, la probabilité d’un évènement impliquant $k$ particules de votre système, avec $k$ très petit devant $N$ est une somme de probabilités pour des systèmes indépendants. En termes techniques, on parle de superposition statistique de systèmes indépendants : la loi réduite pour $k$ particules est proche d’une combinaison convexe de lois pour $k$ particules indépendantes. Une interprétation commode est de penser que le comportement de n’importe quel système peut se réduire à un tirage au hasard d’une certaine loi de champ moyen. Notons bien la subtilité de cette phrase : on tire au hasard une loi de probabilité, et le comportement des particules du système est décrit en tirant au hasard par rapport à cette probabilité.

Version simplifiée du théorème de de Finetti.

Modulo quelques petites simplifications à but pédagogique, le théorème de de Finetti dit que toute loi de probabilité symétrique pour $N$ particules (cf inserts précédents) $ \boldsymbol{\mu}_N$ peut s’approcher sous la forme
\[ \boldsymbol{\mu}_N (x_1,\ldots,x_N;v_1,\ldots,v_N) \underset{N\to\infty}{\approx} \sum_{j=1} ^M \lambda_j \rho_j (x_1;v_1) \ldots \rho_j (x_N;v_N)\]
lorsque $N$ est grand. Ici $M$ est un nombre entier positif, les $\lambda_j$ sont des coefficients positifs satisfaisant
\[ \sum_{j=1} ^M \lambda_j = 1\]
et les $\rho_j$ des lois de probabilité à une particule. Cette écriture correspond bien à une combinaison convexe (superposition statistique) de lois de type champ moyen. Il faut ici penser que le système décrit par $ \boldsymbol{\mu}_N$ suit la loi de champ moyen $\rho_j$ avec probabilité $\lambda_j$.

En fait, le résultat est plus faible et la décomposition ci-dessus ne s’applique stricto sensu qu’aux lois réduites pour $k$ particules. Le vrai théorème dit que les lois réduites pour $k$ particules obtenues à partir des membres de droite et de gauche de l’équation précédente coïncident asymptotiquement pour $k$ fixe dans la limite $N\to \infty$ :
\[ \boldsymbol{\mu}_N ^{(k)}(x_1,\ldots,x_k;v_1,\ldots,v_k) \underset{N\to \infty}{\approx} \sum_{j=1} ^M \lambda_j \rho_j (x_1;v_1) \ldots \rho_j (x_k;v_k).\]

Ce type de résultat s’appelle un « Théorème à la de Finetti », du nom du mathématicien italien qui en a prouvé la première version (dans les années 1930). Un résultat très général de ce genre a été prouvé par Hewitt et Savage en 1953. Une preuve plus simple a été donnée en 1980 par Diaconis et Freedman, l’un de ses outils de base étant la comparaison entre les deux manières de choisir des boules au hasard décrites plus haut.

Une justification de l’approximation de champ moyen

Nous pouvons maintenant faire la liste des propriétés générales de systèmes physiques qui permettent l’usage de l’approximation :

  • Les particules interagissent deux à deux seulement. Par exemple les forces gravitationnelles sont des forces entre paires de particules. On pourrait plus généralement imaginer un système où les particules interagissent $k$ par $k$, du moment que $k$ reste petit.
  • Les particules sont indiscernables. On a vu sur l’exemple ci-dessus que cette propriété de symétrie est reliée à une propriété d’indépendance si il y a beaucoup de particules.
  • Le modèle de départ est linéaire : si vous en avez deux solutions, leur somme est également une solution. C’est le cas des équations de Newton et de Schrödinger, qui sont les modèles les plus fondamentaux de la physique non relativiste (respectivement classique et quantique).

Exemple : énergie de paire.

On trouve les états d’équilibre d’un système en minimisant une fonctionnelle d’énergie. Un exemple typique est un système où l’énergie de $N$ particules situées en $x_1,\ldots, x_N$ est donnée par
\[ H(x_1,\ldots,x_N) = \sum_{j=1} ^N V (x_j) + \sum_{1\leq i < j \leq N} w(x_i-x_j)\]
où $V$ et $w$ sont deux fonctions de $\mathbb{R} ^3$ dans $\mathbb{R}$. Une application possible concerne les électrons d’un plasma : ils sont confinés par un potentiel électrique extérieur, modélisé par $V$, que ressent chaque électron. De plus ils se repoussent deux à deux à cause de la force de Coulomb entre particules de même charge. Le potentiel associé à cette force est modélisé par $w$.

Dans cet exemple on cherche une loi $\boldsymbol{\mu}_N(x_1,\ldots,x_N)$ donnant la probabilité de trouver les particules en $x_1,\ldots,x_N$ en minimisant par rapport à $\boldsymbol{\mu}_N$ l’expression
\[ \mathcal{E} [\boldsymbol{\mu}_N] = \int_{\mathbb{R} ^{3N}} H (x_1,\ldots,x_N) \boldsymbol{\mu}_N (x_1,\ldots,x_N) dx_1 \ldots x_N\]
ce qui est bien sûr linéaire en $\boldsymbol{\mu}_N$ :
\[ \mathcal{E} [ a \boldsymbol{\mu}_N + b \boldsymbol{\nu}_N] = a \mathcal{E} [\boldsymbol{\mu}_N] + a \mathcal{E}[\boldsymbol{\nu}_N]\]
pour tous nombres $a,b$ et densités de probabilité $\boldsymbol{\mu}_N,\boldsymbol{\nu}_N$.

L’expression ci-dessus ne dépend en fait que des lois réduites $\boldsymbol{\mu}_N^{(1)}$ et $\boldsymbol{\mu}_N^{(2)}:$
\[ \mathcal{E} [\boldsymbol{\mu}_N] = N \int_{\mathbb{R} ^3} \boldsymbol{\mu}_N ^{(1)}(x) V(x)dx + \frac{N(N-1)}{2} \int_{\mathbb{R} ^3 \times \mathbb{R} ^3} \boldsymbol{\mu}_N ^{(2)}(x,y) w(x-y) dx dy. \]

Ces trois propriétés permettent d’appliquer des théorèmes de de Finetti, qui vous disent qu’à une très bonne approximation près, vous pouvez faire comme si votre système était constitué de particules indépendantes. Plus précisément :

  • Le premier point permet d’exprimer toute la physique en termes d’évènements impliquant une paire de particules génériques.
  • Le deuxième point permet d’appliquer les théorèmes à la de Finetti pour voir la loi de probabilité des évènements impliquant deux particules à la fois comme une superposition statistique de lois pour des particules indépendantes.
  • Il est plus difficile de voir l’utilité du troisième point sans utiliser d’équations. Grosso modo, il indique que les lois physiques du système se comportent bien par rapport aux superpositions statistiques (qui sont des combinaisons linéaires).

Exemple : minimisation d’une énergie de paire.

Dans le cas d’une énergie de paire décrit ci-dessus nous cherchons un $\boldsymbol{\mu}_N$ minimisant l’énergie. En utilisant le théorème de de Finetti évoqué précédement, on a alors, pour $N$ grand,
\[ \mathcal{E} [\boldsymbol{\mu}_N] \approx \sum_{j=1} ^M \lambda_j \mathcal{E} \left[\rho_j (x_1)\ldots \rho_j (x_N)\right]\]
et il n’est pas difficile de voir que l’on peut minimiser le membre de droite en choisissant $\lambda_1 = 1,\lambda_2 = 0,\ldots,\lambda_M = 0$ et en prenant un $\rho_1$ qui minimise
\[ \mathcal{E} \left[\rho (x_1)\ldots \rho (x_N)\right]\]
par rapport à $\rho$. Au lieu de chercher une fonction de $N$ variables $\boldsymbol{\mu}_N$, on a seulement à trouver une fonction de une variable $\rho$. Celle-ci devra minimiser l’énergie de champ moyen
\[ \mathcal{E} [\rho] = N \int_{\mathbb{R}^{3}} V (x)\rho (x) dx + \frac{N(N-1)}{2} \iint_{\mathbb{R} ^3 \times \mathbb{R} ^3}\rho (x) w(x-y)\rho (y) dx dy \]
qui n’est, comme annoncé, pas linéaire en $\rho$.

Perspectives en mécanique quantique

Disons quelques mots sur le cadre des applications des Théorèmes à la de Finetti. La stratégie évoquée ici marche bien pour des systèmes de mécanique statistique classique. On veut dire par là que les particules suivent les lois de Newton et/ou de Maxwell, qu’il y en a un très grand nombre mais qu’on ne s’intéresse qu’à des comportements globaux.

Le cas des systèmes quantiques est moins bien exploré, mais il existe des équivalents quantiques du théorème de de Finetti, dûs à Størmer (1969), à Hudson et Moody (1976). Dans ce cadre il faut savoir qu’il y a essentiellement deux types de particules quantiques : bosons et fermions. Les bosons n’ont rien contre le fait de tous faire la même chose, les fermions détestent ça. Ceci porte le doux nom de « principe d’exclusion de Pauli ». On connait maintenant de bons théorèmes de de Finetti quantiques pour les bosons, mais pas pour les fermions.

La recherche sur ce sujet et sur ses applications aux systèmes quantiques à grand nombre de particules est encore active [2]. Une source d’inspiration est la physique des condensats de Bose-Einstein, un état de la matière particulier, observé pour la première fois en 1995. De nombreuses propriétés spectaculaires de gaz de bosons à très basse température s’expliquent précisément par le fait que toutes les particules du gaz font très exactement la même chose, indépendamment les unes des autres.

Film « Condensation de Bose-Einstein » tiré de Wikipedia

On notera en passant que la découverte de ces états de la matière est la conclusion d’une longue quête, commencée dans les années 1920 par Bose et Einstein.

Conclusion

J’espère avoir réussi à vous donner un petit aperçu d’une idée mathématique belle et générale, ainsi que de ses applications en physique. On notera la puissance de l’abstraction mathématique : une méthode générale s’applique à une très grande variété de systèmes physiques différents dont on n’utilise qu’une certaine propriété commune, ici de symétrie.

« La mathématique est l’art de donner le même nom à des choses différentes » disait Henri Poincaré (cf Science et méthode, page 29)...

Post-scriptum :

La rédaction d’Images des mathématiques ainsi que l’auteur remercie les relecteurs Amic et Clément Caubel pour leurs relectures attentives et leurs suggestions.

Article édité par Radu Ignat

Notes

[1Note pour le spécialiste : Bien qu’il ne s’agisse pas stricto sensu d’une équation de champ moyen...

[2C’est un des thèmes de recherche de votre serviteur, en collaboration avec Phan Thành Nam et Mathieu Lewin principalement

Partager cet article

Pour citer cet article :

Nicolas Rougerie — «Indiscernabilité et indépendance en physique statistique» — Images des Mathématiques, CNRS, 2017

Crédits image :

Image à la une - Image tirée du film « Condensation de Bose-Einstein », Wikipedia.
img_17378 - BsnSCB.com

Commentaire sur l'article

Laisser un commentaire

Forum sur abonnement

Pour participer à ce forum, vous devez vous enregistrer au préalable. Merci d’indiquer ci-dessous l’identifiant personnel qui vous a été fourni. Si vous n’êtes pas enregistré, vous devez vous inscrire.

Connexions’inscriremot de passe oublié ?

Suivre IDM