Les diagrammes de Feynman 1
Piste rouge Le 28 septembre 2016 Voir les commentaires (3)
Les diagrammes de Feynman, introduits à la fin des années 1940 par le physicien américain Richard Feynman, permettent de représenter des calculs algébriques compliqués sous forme graphique. C’est un parfait exemple de visualisation de formules par des dessins, permettant à la fois d’alléger les notations et d’éviter les erreurs de calcul.
Cette première partie d’un article qui en comprend trois est en piste rouge. Certains blocs dépliants passent toutefois au niveau piste noire, voire hors piste.
Le physicien américain Richard Feynman (1918—1988) est connu, entre beaucoup d’autres choses [1], pour avoir introduit une représentation graphique en théorie quantique des champs, qu’on appelle aujourd’hui diagrammes de Feynman.
- Richard Feynman lors d’une visite au Fermilab. Copyright 1984 Tamiko Thiel, CC BY-SA 3.0
La théorie quantique des champs décrit le comportement de particules élémentaires, telles que les électrons, les photons et les quarks. Par exemple, le diagramme de Feynman ci-dessous (tiré de l’article Wikipedia) décrit l’annihilation d’un électron et d’un positron, pour former un photon. Le photon se désintègre ensuite en une paire quark-antiquark, et l’antiquark émet peu après un gluon. Cela paraît raisonnablement simple, non ?
- Exemple de diagramme de Feynman. $e^-$ et $e^+$ représentent respectivement un électron et un positron (anti-électron), $\gamma$ un photon, $q$ et $\bar q$ un quark et un antiquark, et $g$ un gluon.
La réalité est en fait beaucoup plus subtile que cette représentation graphique ne le suggère. Les équations de la théorie quantique des champs sont compliquées à écrire, et il n’est pas du tout évident d’y reconnaître les particules élémentaires telles que les photons, électrons, etc. La théorie donne plutôt accès à des probabilités : par exemple, on peut s’intéresser à la probabilité d’observer à la fois un photon à Paris à cet instant, et un photon à Rome dans une seconde.
Déduire ces probabilités des équations de la théorie quantique des champs n’est pas non plus chose facile. On n’y arrive en général que par approximations successives, par ce que l’on appelle un calcul perturbatif. Chaque étape de ce calcul peut être représentée par un ou plusieurs diagrammes de Feynman.
L’oscillateur harmonique à température $T$
Au lieu de la physique quantique des champs, nous allons considérer des modèles issus de la physique statistique. Leur traitement est très similaire à celui des modèles de la physique quantique, mais en évite certaines difficultés (liées en particulier à la présence de nombres complexes).
Pour commencer, considérons une bille attachée au bout d’un ressort dont l’autre extrémité est fixée. Si la force exercée par le ressort sur la bille est proportionnelle à l’élongation du ressort, on dit qu’on a affaire à un oscillateur harmonique. Si aucune autre force n’agit sur la bille, celle-ci va osciller verticalement, et l’élongation en fonction du temps suivra une sinusoïde . Si la bille est également soumise à un frottement, la sinusoïde s’amortira au cours du temps.
![]() |
![]() |
Nous sommes toutefois intéressés par le cas où la bille est très petite, par exemple de la taille d’un grain de pollen, et plongée dans un fluide de température $T$. Sous l’effet des chocs des molécules du fluide, le mouvement de la bille devient beaucoup plus erratique, à peu près comme ceci :

En physique statistique, on renonce à décrire précisément le mouvement de la bille, pour ne s’intéresser qu’à la probabilité qu’elle se trouve en différents endroits. Pour cela, la quantité importante est l’énergie potentielle de la bille [2]. Celle-ci est donnée par
\[
E = \frac12 k X^2
\]
où $k$ désigne la constante de raideur du ressort, et $X$ la différence entre la longueur du ressort et sa longueur au repos.
Le principe fondamental de la physique statistique, dû à Ludwig Boltzmann et Willard Gibbs, prend ici la forme suivante [3] :
Si le système est à l’équilibre à température $T$ (mesurée en degrés Kelvin, donc par rapport au zéro absolu), alors la déformation $X$ du ressort suit une loi normale, centrée, de variance
\[ V = \frac{k_{\rm B}T}{k} \]
où $k_{\rm B}$ désigne la constante de Boltzmann, qui vaut $1,\!38064852 \times 10^{−23}$ Joules par degré Kelvin.
En d’autres termes, la probabilité que $X$ soit compris dans l’intervalle $[a;b]$ est donnée par l’aire délimitée par cet intervalle et la fameuse courbe en cloche, comme indiqué sur la figure suivante :

La position moyenne, que nous noterons $\langle X \rangle$ [4] est nulle par symétrie. La variance est par définition la moyenne de la position au carré : $V = \langle X^2 \rangle$. On voit sur la figure qu’il est très probable que la position $X$ soit comprise entre $-3\sqrt{V}$ et $3\sqrt{V}$. Le principe de Boltzmann—Gibbs implique que plus la température est élevée, plus les fluctuations de la position de la bille seront importantes. Inversement, si le ressort est plus rigide, sa constante $k$ est plus grande et les fluctuations seront moindres.
D’autres valeurs moyennes peuvent être calculées à l’aide du théorème suivant, qui est un cas particulier simple des équations de Schwinger—Dyson que nous rencontrerons dans la deuxième partie de cette article.
Il n’est pas nécessaire de connaître la preuve de ce résultat pour lire la suite. Toutefois, les lecteurs familiers avec le calcul intégral la trouveront dans l’encadré ci-dessous.
Ce théorème nous permet de calculer, par récurrence, toutes les valeurs moyennes de la forme $\langle X^n\rangle$ (qu’on appelle les moments de $X$) :
- Si $n$ est impair, alors $\langle X^n\rangle = 0$.
- Si $n$ est pair, comme nous savons déjà que $\langle X^2\rangle = V$, nous obtenons par récurrence $\langle X^4\rangle = 3\cdot V^2$, $\langle X^6\rangle = 5\cdot 3\cdot V^3$, $\langle X^8\rangle = 7\cdot 5\cdot 3\cdot V^4$ et ainsi de suite.
Chaînes d’oscillateurs
Passons maintenant à un système plus compliqué, composé d’un grand nombre $N$ de billes. Chaque bille peut se déplacer verticalement, et est attachée par un ressort de constante $k_1$ à un point d’ancrage, équidistant des points d’ancrage de ses deux voisines. De plus, chaque bille est attachée à ses voisines par des ressorts de constante $k_2$. Nous supposons que la longueur au repos des ressorts entre billes est plus petite que la distance entre les points d’ancrage, de sorte qu’à l’équilibre toutes les billes se trouvent à la même hauteur.

Ce système n’est pas choisi par hasard. En effet, en théorie quantique des champs, les particules sont assimilées à des modes vibratoires d’un champ, assez semblables aux modes propres de vibration de chaînes de particules couplées par des ressorts. D’ailleurs, les vibrations de réseaux cristallins sont appelés phonons en physique du solide.
Pour calculer l’énergie de notre chaîne, nous allons faire l’hypothèse simplificatrice que la longueur au repos des ressorts entre particules est négligeable par rapport à la distance $L_0$ entre les points d’ancrage. Lorsque le système est dans son état d’équilibre, son énergie est alors donnée par $E_0=\frac12(N-1)k_2L_0^2$, puisque seuls les $N-1$ ressorts de constante $k_2$ ne sont pas au repos.
Dans le cas général, notons $X_i$ la position verticale de la $i$ème bille par rapport à sa position d’équilibre. Le théorème de Pythagore nous apprend que le carré de la longueur du ressort entre les billes $i$ et $i+1$ est égal à $L_0^2 + (X_{i+1}-X_i)^2$. L’énergie du système vaut donc
\[
E = E_0 + \frac12 k_1\left(X_1^2+X_2^2+\dots+X_N^2\right)
+ \frac12 k_2 \left( (X_2-X_1)^2 + \dots + (X_N-X_{N-1})^2\right)
\]
Comme cette expression est un polynôme du second degré, le principe de Boltzmann et Gibbs affirme que si la chaîne est à l’équilibre à la température $T$, alors le vecteur $(X_1,\dots,X_N)$ suit une loi normale multivariée centrée. C’est une généralisation de la loi normale du cas d’une seule bille (obtenue, justement, en remplaçant l’exposant $-x^2/(2V)$ par un polynôme du second degré).
Dans le cas d’une seule bille, tous les moments $\langle X^n \rangle$ étaient déterminés par la variance $V$ de la distribution. Dans le cas présent, un rôle analogue est joué par les covariances, c’est-à-dire les valeurs moyennes
\[
C_{ij} = \langle X_i X_j \rangle
\]
(si $i=j$, $C_{ii}$ n’est autre que la variance $V_i$ de $X_i$) [6]. Comme son nom le suggère, la covariance $C_{ij}$ nous renseigne sur la tendance qu’ont $X_i$ et $X_j$ à se ressembler : si $C_{ij}$ est positif, alors il y a plus de chances que la $i$ème et la $j$ème bille se trouvent du même côté de leur position d’équilibre. Si $C_{ij}$ est négatif, alors elles auront tendance à se trouver de côtés opposés [7].
Les différentes covariances peuvent être calculées en termes des coefficients $k_1$, $k_2$ et de la température [8]. Le théorème d’Isserlis—Wick affirme que la moyenne de tout produit des $X_i$ s’exprime en fonction des covariances.
- Si $n$ est impair, alors $\langle Y \rangle = 0$.
- Si $n$ est pair, alors $\langle Y \rangle$ s’écrit comme une somme de produits des covariances. Chaque terme de la somme est un produit de $n/2$ covariances, obtenu en regroupant deux à deux les indices du monôme. Il y a exactement un terme pour chaque regroupement possible.
Par exemple, ce théorème affirme que
\[
\langle X_1 X_2 X_3 X_4 \rangle
= \langle X_1 X_2 \rangle \langle X_3 X_4 \rangle
+ \langle X_1 X_3 \rangle \langle X_2 X_4 \rangle
+ \langle X_1 X_4 \rangle \langle X_2 X_3 \rangle
\]
car il y a exactement $3$ manières de regrouper deux à deux les indices $1,2,3,4$. Les indices ne sont pas obligés d’être distincts. Par exemple, s’ils sont tous égaux, on retrouve l’expression $\langle X_1^4 \rangle = 3 \langle X_1^2 \rangle^2 = 3V_1^2$ que nous avons obtenue plus haut.
Il est commode de représenter ces relations de manière graphique. En dénotant les covariances par

on peut visualiser le théorème de Wick pour $4$ variables comme ceci :

Cette représentation graphique constitue notre premier exemple de diagrammes de Feynman.
Les blocs dépliants ci-dessous contiennent deux preuves différentes du théorème d’Isserlis—Wick. La première est une généralisation directe de la preuve du théorème pour une loi normale d’une variable, qui nécessite toutefois de connaître la notion de dérivée partielle. La seconde preuve n’utilise que des manipulations de polynômes, mais elle est plus longue.
Le modèle $\Phi^4$
Dans l’étude de la chaîne de billes, nous avons fait l’approximation que la longueur au repos des ressorts connectant les billes était négligeable par rapport à la distance entre les points d’ancrage. Si cette hypothèse n’est pas satisfaite, l’énergie potentielle n’est plus un polynôme du second degré : elle contient des racines carrées. On sort alors du monde des distributions normales (aussi appelées Gaussiennes), et on ne dispose plus de résultats aussi puissants que le théorème d’Isserlis—Wick.
En théorie quantique des champs, l’énergie a la forme d’un polynôme du second degré dans le cas de particules libres, c’est-à-dire qui n’interagissent pas. Par exemple, des photons et des électrons qui ne se « voient » pas et vivent leur vie de manière complètement indépendante sont décrits par une énergie de ce type. Dès qu’on tient compte de l’interaction entre les particules, des termes non-quadratiques font leur apparition, et la distribution de probabilité devient non gaussienne.
Le modèle $\Phi^4$ (lire « phi-quatre ») a été introduit en physique afin de comprendre des distributions non Gaussiennes dans un cas relativement simple. Cela revient, dans notre système, à supposer que les ressorts connectant chaque bille à son point d’ancrage ne sont plus harmoniques, mais que leur énergie est de la forme
\[
\frac12 k_1 X_i^2 + \frac 14 a X_i^4
\]
Les termes proportionnels à $a$ ont pour effet d’ajouter à l’énergie $E$ un terme
\[
W = \frac a4 \left( X_1^4 + X_2^4 + \dots + X_N^4 \right)
\]
La nouvelle énergie $E+W$ donne lieu, par le principe de Boltzmann—Gibbs, à une nouvelle distribution de probabilité, qui n’est plus Gaussienne (sauf bien sûr si $a=0$).
Pour des distributions non Gaussiennes, le théorème d’Isserlis—Wick ne s’applique plus, et il n’est pas du tout évident de calculer des valeurs moyennes. On peut cependant espérer que si $a$ est petit, ces moyennes ne seront par très différentes de leur valeurs dans le cas Gaussien. En d’autres termes, on considère le terme $W$ comme un terme de perturbation de l’énergie. C’est ce calcul de perturbation qui donne lieu aux diagrammes de Feynman, comme nous allons le voir dans la deuxième partie de cet article.
L’auteur remercie vivement les relecteurs Claire Lacour, Denis Chadebec, Rémi Molinier, Himynameisarno, Gérald Grandpierre et Sébastien Breteaux, dont les remarques ont grandement contribué à la lisibilité de cet article.
Notes
[1] Richard Feynman est également connu pour ses cours de physique, édités sous forme de livres, pour avoir obtenu le Prix Nobel de Physique en 1965 pour ses travaux sur l’électrodynamique quantique, pour avoir participé à l’enquête sur l’accident de la navette Challenger, et pour les nombreuses anecdotes qui circulent à son égard, notamment sur la période qu’il a passée à Los Alamos pour travailler sur le projet Manhattan.
[2] Pour simplifier, nous ne tenons pas compte ici de l’énergie cinétique $\frac12 m v^2$ de la bille (où $m$ désigne sa masse et $v$ sa vitesse). Cette approximation se justifie si la bille est soumise à un frottement visqueux suffisamment fort.
[3] Dans des cas plus généraux, il convient de remplacer dans cet énoncé la loi normale par une distribution de probabilité de densité proportionnelle à $e^{-E/(k_{\rm B}T)}$.
[4] Nous empruntons ici à la physique la notation $\langle X \rangle$ pour la valeur moyenne. En mathématiques, on préfère en général la notation $\mathbb{E}(X)$, et on parle de l’espérance de $X$.
[5] Pour le voir, on peut remarquer que la fonction exponentielle satisfait $e^t > t^k/k!$ pour tout entier positif $k$ et tout $t>0$. Cette méthode et d’autres donnant le même résultat sont décrites ici.
[6] Nous nous servons ici du fait que les moyennes $\langle X_i\rangle$ et $\langle X_j\rangle$ sont nulles. En général, on définit la covariance par $C_{ij} = \langle X_i X_j \rangle - \langle X_i\rangle \langle X_j\rangle$.
[7] Comme nous avons affaire à une loi normale, si la covariance $C_{ij}$ est nulle, alors les positions $X_i$ et $X_j$ sont indépendantes. Pour des distributions de probabilité plus générales, cela n’est plus vrai : l’indépendance implique une covariance nulle, mais il peut arriver que des variables ayant une covariance nulle ne soient pas indépendantes.
[8] Définissons des nombres $K_{ij}$ tels que $(E-E_0)/k_{\rm B}T$ s’écrive comme la somme des $\frac12K_{ij}X_iX_j$. On peut assembler ces nombres dans une matrice $K$ de taille $N\times N$. Les covariances $C_{ij} = \langle X_i X_j \rangle$ sont alors données par les éléments de la matrice inverse de $K$.
Partager cet article
Pour citer cet article :
Nils Berglund — «Les diagrammes de Feynman 1» — Images des Mathématiques, CNRS, 2016
Laisser un commentaire
Actualités des maths
-
6 février 2023Journées nationales de l’APMEP, appel à ateliers (9/4)
-
20 janvier 2023Le vote électronique - les défis du secret et de la transparence (Nancy, 26/1)
-
17 novembre 2022Du café aux mathématiques : conférence de Hugo Duminil-Copin (Nancy et streaming, 24/11)
-
16 septembre 2022Modélisation et simulation numérique d’instruments de musique (Nancy & streaming, 22/9)
-
11 mai 2022Printemps des cimetières
-
3 mai 2022Comment les mathématiques se sont historiquement installées dans l’analyse économique (streaming, 5/5)
Commentaire sur l'article
Les diagrammes de Feynman 1
le 12 octobre 2016 à 10:44, par mmanu
Les diagrammes de Feynman 1
le 12 octobre 2016 à 20:58, par Nils Berglund
Merci
le 17 octobre 2016 à 16:37, par Walabiz