Systèmes automatiques et évolutions intégrables

Piste noire Le 19 octobre 2015  - Ecrit par  Patrick Gérard Voir les commentaires

Cet article a été écrit en partenariat avec La Gazette des Mathématiciens

Cet article, en partenariat avec la Société Mathématique de France (SMF) et son journal la Gazette des mathématiciens, paraît également sur la Gazette.

L’étude des systèmes automatiques est au cœur de nombreuses questions des sciences de l’ingénieur. Cet article explique comment un système automatique à temps discret peut être caractérisé par une suite décroissante de nombres positifs, ses énergies caractéristiques, et une suite d’angles associés. On montre ensuite comment cette correspondance peut être utilisée de façon inattendue : elle permet en effet de décrire explicitement certaines évolutions non linéaires, et de mettre en évidence un phénomène qui s’apparente à la turbulence, la transition vers les hautes fréquences.

Cet article comporte trois parties. Tout d’abord, nous introduisons la notion de système automatique, un procédé transformant un signal d’entrée en un signal de sortie, et vérifiant certaines conditions d’invariance et de stabilité. Nous associons à tout système automatique une suite de nombres positifs, appelés énergies caractéristiques, et une suite d’angles, puis nous montrons inversement que la connaissance de ces quantités permet de reconstruire le système automatique de départ. La seconde partie, indépendante de la première, est une introduction succincte aux évolutions linéaires et non linéaires rencontrées dans différentes applications des mathématiques, et au phénomène de transition vers les hautes fréquences qui peut apparaître dans les évolutions non linéaires. Enfin, dans la troisième partie, nous montrons comment la théorie des systèmes automatiques permet de décrire explicitement une certaine évolution non linéaire, appelée équation de Szegö cubique, et d’y mettre en évidence un phénomène de transition vers les hautes fréquences.


Une introduction élémentaire aux systèmes automatiques

Dans le cadre le plus simple que nous adoptons ici, un système automatique est un procédé transformant un signal d’entrée en un signal de sortie. Dans ce qui suit, un signal est modélisé par une suite infinie de nombres complexes
\[x_0, x_1, x_2, \dots \ ,\]
l’indice entier décrivant un temps discret. On appelle énergie d’un signal la somme des carrés des modules de ses coefficients
\[\vert x_0\vert ^2+\vert x_1\vert ^2+\vert x_2\vert ^2+\dots \]
On dit que le signal est d’énergie finie si cette somme est finie. C’est par exemple le cas pour un signal géométrique
\[x_k=a\, q^k\]
où $a$ et $q$ sont de nombres complexes et $\vert q\vert <1$.
Nous utiliserons quelques opérations simples sur les signaux d’énergie finie.

  • Superposition. Étant donnés deux signaux d’énergie finie $x_0, x_1, x_2, \dots \ ,$ et $x_0', x_1', x_2', \dots \ $, le superposé de ces deux signaux est le signal $x_0+x_0', x_1+x_1', x_2+x_2', \dots \ $.
  • Conjugaison et dilatation. Étant donné un signal d’énergie finie $x_0, x_1, x_2, \dots \ ,$ le conjugué de ce signal est le signal $\overline x_0,\overline x_1,\overline x_2,\dots $, où $\overline z$ désigne le conjugué du nombre complexe $z$, et le dilaté de ce signal par un nombre complexe $\lambda $ est le signal $\lambda x_0,\lambda x_1,\lambda x_2,\dots $.
  • Décalages. Étant donné un signal d’énergie finie $x_0, x_1, x_2, \dots \ ,$ on lui associe le signal décalé vers la droite $0, x_0, x_1, x_2, \dots \ ,$ et le signal décalé vers la gauche $x_1, x_2, x_3,\dots \ .$

Un système automatique est un procédé associant à tout signal d’énergie finie $x_0,x_1,x_2,\dots $, dit signal d’entrée, un signal d’énergie finie $y_0,y_1,y_2,\dots $, dit signal de sortie, avec les propriétés suivantes :

  • au superposé de deux signaux d’entrée est associé le superposé des deux signaux de sortie correspondants.
  • au signal d’entrée dilaté est associé le signal de sortie dilaté.
  • à un signal d’entrée décalé vers la droite est associé le signal de sortie correspondant décalé vers la gauche.
    En termes mathématiques, les deux premières propriétés traduisent la linéarité de l’application associant le signal d’entrée au signal de sortie. La troisième propriété est plus subtile, et traduit une invariance temporelle globale . Cette propriété est illustrée par la figure ci-dessous, le signal d’entrée étant représenté aux temps négatifs de façon décroissante, et le signal de sortie de façon croissante aux temps positifs ou nuls. L’effet de décalage vers la droite du signal d’entrée peut être alors vu comme un décalage de l’origine des temps d’une unité vers le passé pour toute la chaîne, en remplaçant la valeur $y_0$ par $0$.

    Voici un exemple très simple de système automatique. Soient $a$ et $b$ des nombres complexes. À tout signal d’entrée $x_0,x_1,x_2,\dots $, on associe le signal de sortie
    $y_0,y_1,y_2,\dots $ donné par
    \[y_0=ax_0+bx_1\ ,\ y_1=bx_0\ ,\ y_2=\dots =y_{n+2}=\dots 0\ .\]
    On constate que dans ce cas particulier de procédé, que nous noterons $P_{a,b}$, seules les deux valeurs $x_0,x_1$ du signal d’entrée sont prises en compte, et seules les deux valeurs $y_0,y_1$ peuvent être non nulles.

Un système automatique est caractérisé par une suite particulière de nombres complexes, qui est le signal de sortie $c_0,c_1,c_2,\dots $ associé au signal d’entrée $1,0,0,\dots $. On peut montrer qu’un signal d’entrée quelconque $x_0,x_1,x_2,\dots $ est alors transformé en le signal de sortie $y_0,y_1,y_2,\dots $ donné par les formules
\[y_k=c_k\, x_0+c_{k+1}\, x_1+c_{k+2}\, x_2+\dots \ ,\ k\in {\mathbb N} ,\ \]
la somme sur un nombre infini de termes étant bien définie à cause de la condition d’énergie finie. Dans la littérature mathématique, une telle transformation est appelée un opérateur de Hankel [P]
Le signal $c_0,c_1,c_2,\dots $ est appelé signal fondamental du procédé $P$. Il vérifie en fait des conditions plus contraignantes que le simple fait d’être d’énergie finie. Nous supposerons dans ce qui suit que la suite tend rapidement vers 0, par exemple aussi vite qu’une suite géométrique de raison plus petite que $1$.
Dans le cas du procédé $P_{a,b}$ ci-dessus, le signal fondamental n’est autre que la suite $a,b,0,0,\dots ,0,\dots $.

Étant donné un procédé $P$, on construit un autre procédé $P'$ en décalant l’origine des temps d’une unité vers le passé : si le signal $x_0,x_1,x_2,\dots $ est transformé en $y_0,y_1,y_2,\dots $ par le procédé $P$, alors $P'$ le transforme en $y_1,y_2,y_3,\dots $. Le signal fondamental du procédé décalé $P'$ ainsi défini est le décalé vers la gauche du signal fondamental de $P$. Ainsi, le procédé décalé du procédé $P_{a,b}$ ci-dessus associe à tout signal d’entrée $x_0,x_1,\dots $ le signal de sortie $bx_0,0,\dots $, c’est-à-dire le procédé $P_{b,0}$.

Les énergies caractéristiques d’un système

Étant donné un procédé $P$, on peut montrer la propriété suivante, dite de stabilité : le quotient de l’énergie d’un signal de sortie par l’énergie du signal d’entrée correspondant ne dépasse pas une certaine valeur, ne dépendant que du procédé $P$. La valeur maximale de ce quotient est appelée la première énergie caractéristique du système. Pour définir la deuxième énergie caractéristique, on se restreint aux signaux d’entrée vérifiant une certaine contrainte linéaire, c’est-à-dire une condition du type
\[x_0h_0+x_1h_1+x_2h_2+\dots =0\ ,\]
où $h_0,h_1,h_2,\dots $ est un signal donné d’énergie finie. Les quotients correspondants définissent à nouveau une valeur maximale, dépendant de la contrainte choisie, et la valeur minimale de ces quantités pour toutes les contraintes possibles est appelée la deuxième énergie caractéristique du système. La troisième énergie caractéristique se définit de même, en considérant cette fois des signaux d’entrée satisfaisant à deux contraintes linéaires, la quatrième correspond à trois contraintes linéaires, et ainsi de suite jusqu’à ce que l’on obtienne éventuellement $0$. On définit ainsi une suite finie ou infinie de nombres strictement positifs, appelés énergies caractéristiques du système. On remarque que cette suite est décroissante.

Dans le cas très simple du procédé $P_{b,0}$, il est facile de constater que, si $b$ n’st pas nul, il admet une seule énergie caractéristique, qui est $\vert b\vert ^2$. Le lecteur averti pourra vérifier que, si de plus $a$ est non nul, le procédé $P_{a,b}$ admet deux énergies caractéristiques distinctes, qui sont les valeurs propres de la matrice
\[\left (\begin{array} {cc}\vert a\vert ^2+\vert b\vert ^2& a\overline b \\ b\overline a &\vert b\vert ^2\end{array}\right )\]

Les énergies caractéristiques d’un système sont des quantités importantes ; en pratique elles peuvent souvent être mesurées. Une question essentielle est alors d’explorer les liens entre ces énergies caractéristiques et le signal fondamental $c_0,c_1,c_2,\dots $ définissant le procédé.
On a remarqué plus haut que la suite des énergies caractéritiques était décroissante, et on peut montrer qu’elle tend vers la valeur $0$, éventuellement en prenant cette valeur à partir d’un certain rang.
Réciproquement, peut-on créer un procédé ayant une suite d’énergies caractéristiques qui soit donnée à l’avance ? En quoi ces quantités sont-elles caractéristiques du système ? C’est à ce type de question que nous allons tenter de répondre.
Notons que le procédé décalé $P'$ admet lui aussi des énergies caractéristiques. On peut démontrer qu’elles sont intercalées avec celles de $P$. En d’autres termes, la première énergie de $P$ est au moins égale à celle de $P'$, qui est au moins égale à la deuxième énergie de $P$, au moins égale à celle de $P'$, etc. Le plus souvent, ces inégalités sont strictes, jusqu’à ce que l’on atteigne l’énergie $0$. Les procédés vérifiant cette propriété seront appelés procédés génériques.

L’exemple du signal géométrique

L’exemple du signal géométrique.
Considérons le procédé associé à la suite géométrique
\[c_k=a\, q^k\]
où $a$ est un nombre complexe différent de $0$, et $q$ est un nombre complexe de module strictement plus petit que $1$. Le signal d’entrée $x_0,x_1,x_2,\dots $ est alors transformé en
\[y_k=a\, q^kx_0+a\,q^{k+1}x_1+a\, q^{k+2}x_2+\dots =a\, q^k(x_0+q\, x_1+q^2x_2+\dots )\ .\]
Un calcul fondé sur l’inégalité de Cauchy—Schwarz — voir l’article Inégalité-de-Cauchy-Schwarz-sommes de carrés — montre que le quotient de l’énergie de $y$ par l’énergie de $x$ a pour valeur maximale
\[e_1=\frac{\vert a\vert ^2}{(1-\vert q\vert ^2)^2}\]
et que cette valeur n’est atteinte que si le signal $x$ est proportionnel au signal $1,\overline q,\overline q^2,\dots $. En outre, dès que $x$ satisfait à la contrainte linéaire \[x_0+q\, x_1+q^2x_2+\dots =0\ ,\]
la formule ci—dessus montre que $y_k=0$ pour tout $k$. Il n’y a donc qu’une seule énergie caractéristique.
Le procédé $P'$ a pour signal fondamental $a\, q, a\, q^2, a\, q^3,\dots $, ce qui revient à remplacer $a$ par $a\, q$. Il n’a donc lui aussi qu’une seule énergie caractéristique, égale à
\[e_1'=\frac{\vert a \vert ^2\vert q \vert ^2}{(1-\vert q\vert ^2)^2}\ .\]
On constate que, puisque le module de $q$ est strictement plus petit que $1$, celle—ci est strictement inférieure à celle de $P$. Le procédé $P$ est donc générique au sens défini ci—dessus. On constate sur cet exemple que la connaissance des énergies caractéristiques de $P$ et de $P'$ permet de déterminer les modules des nombres complexes $a $ et $q$. Il manque toutefois les arguments de ces nombres complexes pour reconstruire le signal fondamental.

Les angles d’un système

Étant donné un procédé $P$ générique, nous allons associer un angle à chaque énergie caractéristique non nulle de $P$. Il faut d’abord observer que, pour chaque énergie caractéristique de $P$ , il est possible de définir une notion de signal d’entrée optimal : par exemple, pour la première énergie caractéristique $e_1$ de $P$, un signal d’entrée $x$ est optimal si le quotient de l’énergie du signal de sortie par l’énergie de $x$ vaut $e_1$.
On peut alors décomposer le conjugué du signal fondamental de $P$ en la superposition de signaux optimaux pour les énergies caractéristiques de $P$. Si $x$ est le signal optimal intervenant dans cette décomposition et correspondant à une énergie non nulle $e$, on montre que le signal de sortie obtenu en appliquant le procédé $P$ au signal $x$, est un dilaté du signal conjugué de $x$. L’argument du rapport de proportionnalité est appelé l’angle du système associé à l’énergie $e$.
On procède de même avec le système décalé $P'$, à ceci près que l’on décompose le conjugué du signal fondamental de $P$, et non celui de $P'$, en une superposition de signaux optimaux pour les énergies caractéristiques de $P'$.

Cas d’un système géométrique.

Cas d’un système géométrique. Revenons à l’exemple du procédé $P$ dont le signal fondamental est la suite géométrique $a, a\, q, a\, q^2,\dots $. On a vu ci-dessus que, pour la première énergie caractéristique de $P$ et de $P'$, les signaux optimaux sont proportionnels au signal
$u=1,\overline q,\overline q^2,\dots $. Dans ce cas, le conjugué $x$ du signal fondamental de $P$ est le dilaté de $u$ par le nombre $\overline a$.
Les signaux de sortie correspondants sous l’action de $P$ et de $P'$ sont alors respectivement
\[y=\frac{\overline a}{1-\vert q\vert ^2}\overline x\ ,\ y'=\frac{\overline aq}{1-\vert q\vert ^2}\overline {x}\ ,\]
de sorte que les angles associés au système sont
\[\psi =-{\rm arg}(a)\ ,\ \psi '=-{\rm arg}(a)+{\rm arg}(q)\ .\]
Ainsi, la connaissance des énergies caractéristiques de $P$ et de $P'$ et des angles associés permet de retrouver $a$ et $q$.

Comment reconstruire le signal fondamental

Le point essentiel est le suivant : un procédé générique $P$ est entièrement caractérisé par la liste des énergies caractéristiques non nulles de $P$ et de $P'$, et par la liste des angles associés ; en outre, il est possible de reconstruire explicitement le signal fondamental à partir de ces données.

Un exemple de reconstruction.

Un exemple de reconstruction.
Supposons que $P$ et $P'$ ont chacun deux énergies fondamentales. Désignons par
\[e_1>e'_1>e_2>e_2'>0\]
la liste ordonnée de ces quatre énergies, et notons $\psi _1,\psi _1',\psi _2, \psi _2'$ les quatre angles associés. Pour tout nombre complexe $z$, considérons la matrice
\[\mathscr C(z)=\left (\begin{array} {cc}{\displaystyle \frac{\sqrt {e_1}\, {\rm e}^{i\psi _1}-\sqrt{e_1'}\, {\rm e}^{i\psi _1'}\, z}{e_1-e_1'}} & {\displaystyle \frac{\sqrt {e_1}\, {\rm e}^{i\psi _1}-\sqrt{e_2'}\,{\rm e}^{i\psi _2'}\, z\, }{e_1-e_2'}} \\ & \\ {\displaystyle \frac{\sqrt {e_2}\, {\rm e}^{i\psi _2}-\sqrt{e_1'}\, {\rm e}^{i\psi _1'}\, z\, }{e_2-e_1'}}&{\displaystyle \frac{\sqrt {e_2}\, {\rm e}^{i\psi _2}-\sqrt{e_2'}\, {\rm e}^{i\psi _2'}\, z}{e_2-e_2'}}\end{array}\right ) \]
On peut montrer que cette matrice est inversible pour toute valeur de $z$ de module au plus égal à $1$. On pose alors
\[u(z)=v(z)+w(z)\ ,\]
où les nombres $v(z)$ et $w(z)$ sont solutions du système d’équations linéaires \[\ \mathscr C(z)\begin{pmatrix} v(z)\\ w(z) \end{pmatrix} =\begin{pmatrix} 1 \\ 1 \end{pmatrix} \ . \]
La fonction $u$ est alors une fonction de la forme
\[u(z)=\frac{az+b}{1-sz+pz^2}\ ,\]
et il est possible de la développer en série de puissances de $z$,
\[u(z)=c_0+c_1z+c_2z^2+\dots \ ,\]
les coefficients $c_0,c_1,c_2,\dots $ sont alors ceux du signal fondamental de $P$ !

Le processus de reconstruction est toujours de la même nature que celui que nous avons décrit dans l’exemple ci-dessus : il s’agit d’inverser une certaine matrice, dont la taille est le nombre des énergies caractéristiques non nulles de $P$, et donc le coefficient en ligne $j$ et en colonne $k$ est
\[ \frac{\sqrt {e_j}\, {\rm e}^{i\psi _j}-\sqrt{e_k'}\, {\rm e}^{i\psi _k'}\, z}{e_j-e_k'}\ .\]
Puis on applique l’inverse de cette matrice au vecteur colonne ayant toutes ses composantes égales à 1, et l’on fait la somme des composantes du vecteur ainsi obtenu.
Lorsque le nombre d’énergies caractéristiques est infini, on inverse des matrices de plus en plus grandes, et on passe à la limite lorsque la taille de la matrice tend vers l’infini.
On obtient ainsi une fonction $u$ de la variable complexe $z$ dans le disque unité, appelée fonction de transfert du système, dont les coefficients du développement en puissances de $z$ forment le signal fondamental de $P$. Dans le cas d’un nombre fini d’énergies caractéristiques non nulles, $u$ est une fraction rationnelle, mais dans le cas général toute fonction admettant un développement en série de puissances de $z$ dans le disque des nombres complexes de module au plus égal à $1$ est la fonction de transfert d’un système.
Lorsque le procédé n’est pas générique, c’est-à-dire lorsqu’il existe des répétitions dans la liste des énergies caractéristiques, une formule du même type subsiste, mais la notion d’angle doit être remplacée par une notion plus générale.


Évolutions linéaires et non linéaires

Un grand nombre de phénomènes sont décrits par ce que l’on appelle une équation d’évolution. Le principe en est simple : supposons l’état d’un système physique, biologique, économique, etc.. soit décrit par une grandeur $u$. Le but est de décrire comment varie la grandeur $u$ au cours du temps. Dans de très nombreux cas, cette description se fait à travers un problème mathématique, dont l’énoncé est du type suivant : la dérivée de $u$ par rapport au temps est une quantité $X(u)$ :
\[\frac{du}{dt}=X(u)\ .\]
Comme on peut s’y attendre, la difficulté de ce problème dépend beaucoup de la manière dont la quantité $X(u)$ dépend de $u$. Pour simplifier un peu la discussion, nous supposerons que l’évolution obéit au principe d’invariance temporelle, c’est-à-dire qu’elle est invariante par translation de l’origine des temps . Voyons quelques exemples.

Le principe de superposition

On dit que l’évolution ci-dessus obéit au principe de superposition, ou principe de linéarité, si, chaque fois que $u$ et $v$ sont deux solutions du problème, alors $u+v$ l’est aussi, et, pour tout nombre $\lambda $, $\lambda u$ l’est aussi.
Supposons d’abord que l’état du système soit décrit par une seule valeur complexe. Alors on montre que $X(u) $ est proportionnel à $u$,
\[X(u)=a\, u\]
où $a$ est une constante complexe, et il est facile de résoudre ce problème d’évolution,
\[\frac{du}{dt}=a\, u\]
en fonction de la valeur initiale de $u$ :
\[u(t)={\rm e}^{ta} u(0)\ .\]
Si l’état est décrit par un ensemble fini de valeurs complexes, on montre qu’il est possible de se ramener essentiellement à l’équation précédente.

Mais souvent l’état d’un système ne se limite pas à la donnée d’une seule valeur complexe, ni même d’un nombre fini de valeurs complexes : il est décrit par une fonction dépendant elle-même d’une ou de plusieurs autres variables. Par exemple, la température en chaque point d’un conducteur thermique, la vitesse de vibration en tout point d’une membrane, la densité de population en tout point d’un territoire, $\dots$ Pour illustrer cette situation, plaçons-nous dans un cadre simple, où $u$ est une fonction d’une variable réelle $x$, qui soit périodique de période $2\pi $. La quantité $X(u)$ est alors elle aussi une fonction $2\pi $-périodique de $x$, qui peut être très compliquée. Supposons en outre l’invariance spatiale du problème : si, pour un certain nombre $\ell $ et pour tout $x$, $\tilde u(x)=u(x+\ell )$, alors $X(\tilde u)(x)=X(u)(x+\ell ).$ Il existe alors à nouveau un moyen de se ramener au cas où $X(u)=a\, u$, inventé par Joseph Fourier au début du XIXème siècle, pour résoudre un problème de ce type, l’équation de la chaleur, décrivant l’évolution de la température dans un conducteur thermique.
Il suffit de remplacer la fonction $u$ par une suite de nombres complexes $(c_k)_{k\in {\mathbb Z}}$ indexée par tous les entiers relatifs. Ces nombres $c_k$ sont appelés les coefficients de Fourier de $u$ . En un sens à préciser, et qui a donné du travail à plusieurs générations de mathématiciens, la valeur en $x$ de la fonction $u$ est la somme des
termes
\[c_k\, {\rm e}^{ikx}\]
lorsque $k$ parcourt tous les entiers relatifs, de la même manière qu’un signal sonore est la superposition de ses harmoniques.

On montre alors que chaque coefficient de Fourier $c_k$ vérifie une équation du type
\[\frac{dc_k}{dt}=a_k\, c_k\]
où $a_k$ est une constante. On résout alors cette équation comme ci—dessus pour chaque $k$, et, à tout instant $t$, on accède à $u(t,x)$ en sommant les termes
\[c_k(t)\, {\rm e}^{ikx}=c_k(0)\, {\rm e}^{ta_k+ikx}\]
lorsque $k$ parcourt les entiers relatifs.

Dynamiques non linéaires et transition vers les hautes fréquences

Même si l’on se restreint aux évolutions obéissant aux principes d’invariances temporelle et spatiale, le cadre des équations d’ évolution non linéaires est considérablement plus vaste que celui des équations linéaires, et offre à ce jour de très nombreux problèmes ouverts.
Parmi eux, le comportement de la solution $u$ lorsque le temps devient très grand est une question importante et délicate. Supposons pour simplifier que l’évolution se fasse à énergie constante, c’est-à-dire que la somme des carrés des modules des coefficients de Fourier $c_k(t)$ d’une solution $u(t)$ ne dépende pas du temps $t$.
Dans le cas linéaire précédemment décrit, on peut montrer qu’alors les constantes $a_k$ ci-dessus sont imaginaires pures, et donc que le module de chaque coefficient de Fourier $c_k$ reste constant au cours du temps ; seul l’argument change, à vitesse constante égale à la partie imaginaire de $a_k$. Dans le cas non linéaire, c’est loin d’être le cas. Il peut arriver que, bien que la somme des $\vert c_k(t)\vert ^2$ reste constante, les termes de cette somme varient au cours du temps, en prenant par exemple des valeurs nettement plus grandes lorsque les indices $k$ sont très grands. On appelle ce phénomène une transition vers les hautes fréquences. Il joue un rôle important dans de nombreuses branches : mécanique des fluides, optique non linéaire, mécanique quantique...[N] En général, on détecte ce phénomène en observant que la solution $u$ présente de fortes oscillations dans la variable spatiale $x$ pour de grandes valeurs du temps.
Voici un exemple très élémentaire. Considérons le problème
\[\frac{du}{dt}=-i\vert u\vert ^2u\ .\]
Alors on vérifie que la fonction $\vert u\vert ^2$ reste constante au cours du temps, de sorte que la solution de valeur initiale $u_0$ est donnée par la formule
\[u(t)=u_0\, {\rm e}^{-it\vert u_0\vert ^2}\ .\]
Supposons maintenant que $u_0$ et $u$ dépendent aussi de la variable spatiale $x$. Alors la solution
\[u(t,x)=u_0(x)\, {\rm e}^{-it\vert u_0(x)\vert ^2}\ ,\]
présente de forte oscillations lorsque $t$ est grand. En effet, pourvu que $\vert u_0\vert ^2$ ne soit pas une constante, la formule ci—dessus montre que le module de la dérivée en $x$ de $u(t,x)$ est de taille $t$ lorsque $t$ est très grand. Ce phénomène, que l’on a réussi a mettre en évidence ici grâce à une formule explicite, est en général très difficile à détecter, précisément à cause de l’absence de formules explicites. Nous allons toutefois décrire un exemple où une modification du terme $X(u)=-i\vert u\vert ^2u$ induit des transitions beaucoup plus fortes vers les hautes fréquences.


Le cas de l’équation de Szegö

Reprenons l’équation
\[\frac{du}{dt}=-i\vert u\vert ^2u\ ,\]
et supposons que la donnée initiale $u_0$ a des coefficients de Fourier $c_k$ nuls pour tout $k< 0$, en d’autres termes qu’il définissent un signal, au sens de la première partie de cet article. Il est facile de voir que cette propriété n’est pas conservée au cours du temps, aussi allons—nous modifier le terme non linéaire $X(u)$ pour assurer qu’elle le soit. Remplaçons donc la fonction
$-i\vert u\vert ^2u$ par la fonction $\Pi (-i\vert u\vert ^2u)$, dont les coefficients de Fourier sont les mêmes que ceux de $-i\vert u\vert ^2u$ si $k\ge 0$, mais sont nuls si $k<0$. Il s’agit d’un exemple très simple de filtrage du terme non linéaire $-i\vert u\vert ^2u$. Que devient alors le phénomène de transition vers les hautes fréquences pour cette nouvelle évolution, appelée équation de Szegö [1] ?

Cette fois, la formule explicite ci-dessus n’est bien sûr plus valable, et il est difficile de deviner comment on pourrait la modifier pour obtenir la solution du nouveau problème. Par ailleurs, du fait que l’équation est non linéaire, l’équation sur les coefficients de Fourier $c_k$ semble également inaccessible à la résolution explicite.
Nous allons contourner cette difficulté en faisant appel aux systèmes automatiques. Soit $u$ une solution de l’équation de Szegö ; à chaque instant $t$, considérons le procédé $P(t)$ dont $u(t)$ est la fonction de transfert. En d’autres termes, le signal fondamental de $P(t)$ est la suite $c_0(t),c_1(t),c_2(t),\dots $ des coefficients de Fourier de $u(t)$.
On observe alors une surprenante propriété : chacune des énergies caractéristiques du procédé $P(t)$ et de son procédé décalé $P'(t)$ est une fonction constante de $t$ ! En outre, les angles correspondants évoluent à vitesse constante, égale à cette énergie caractéristique, exactement comme les arguments des coefficients de Fourier de la solution d’une équation linéaire ! Il est donc possible de résoudre explicitement l’équation de Szegö, selon la procédure suivante :

  • Déterminer les énergies caractéristiques du procédé $P_0$ défini par la condition initiale $u_0$, et de son procédé décalé, et les angles associés.
  • Faire évoluer les angles, pendant le temps $t$, à vitesse constante égale à l’énergie caractéristique.
  • Reconstruire la fonction de transfert $u(t)$ selon le principe décrit au paragraphe précédent.

Cette procédure conduit à des formules explicites pour la solution $u$ à tout instant, ce qui est très rare pour des évolutions non linéaires. On dit que l’évolution est intégrable. Bien que considérablement plus compliquées que dans le cas d’une évolution linéaire, ces formules permettent d’accéder à des propriétés qualitatives importantes de la solution. En particulier, elles permettent de montrer un phénomène de transition vers les hautes fréquences : pour la plupart des données initiales $u_0$, on peut trouver des temps $t$ arbitrairement grands tels que la taille de la dérivée en $x$ de la solution $u(t,x)$ soit plus grande que toute puissance de $t $ ! Le principe de construction consiste à choisir des énergies caractéristiques qui se rapprochent très vite les unes des autres en tendant vers $0$, et de choisir convenablement les angles initiaux. Aux instants où ces angles se retrouvent en phase, on assiste à de fortes oscillations de la solution.

Voici un exemple simple (...)

Voici un exemple simple montrant en quoi le rapprochement des énergies caractéristiques facilite la transition vers les hautes fréquences.
Considérons la donnée initiale
\[u_0(x)={\rm e}^{ix}\ ,\]
dont la suite des coefficients de Fourier est $0,1,0,0,\dots $. On peut montrer que la liste correspondante des énergies caractéristiques de $P$ est $1,1,0,\dots $, celles de $P'$ étant $1,0,\dots $. Quant aux angles, ce sont $0,\pi $ pour $P$, et $0$ pour $P'$. Alors on montre que la solution au temps $t$ a pour coefficients de Fourier
\[u(t,x)= {\rm e}^{i(x-t)}, \]
dont la suite des coefficients de Fourier est $0,{\rm e}^{-it},0,0,\dots $.
Introduisons maintenant un petit paramètre $\varepsilon >0$, et considérons la nouvelle donnée initiale
\[u_{0,\varepsilon}(x)= {\rm e}^{ix}+\varepsilon ,\]
dont la suite des coefficients de Fourier est $\varepsilon ,1,0,0,\dots $. En d’autres termes, cette donnée correspond au procédé $P_{\epsilon, 1}$ de la première partie. Les énergies caractéristiques sont peu modifiées, mais le procédé devient générique, et les angles sont les mêmes que précédemment. Alors la solution au temps $t$ est
\[u_{\varepsilon }(t,x)=\frac{a(t){\rm e}^{ix}+b(t)}{1-p(t){\rm e}^{ix}},\]
et ses coefficients de Fourier sont
\[b(t), a(t)+b(t)p(t), a(t)p(t)+b(t)p(t)^2, a(t)p(t)^2+b(t)p(t)^3,\dots \]
où le nombre complexe $p(t)$, repéré par un point dans le plan, parcourt la trajectoire suivante dans le disque unité, en partant du centre $p(0)=0$.

On constate que, pour certaines valeurs du temps, de l’ordre de $\frac 1{\varepsilon}$, correspondant précisément aux instants où les deux angles de $P(t)$ sont égaux, le point $p(t)$ se rapproche du cercle unité à une distance très petite, de l’ordre de $\varepsilon ^2$ si $\varepsilon $ est très petit, ce qui crée de fortes oscillations de la solution dans la variable spatiale $x$.
La transition vers les hautes fréquences s’obtient en accumulant une infinité d’exemples de ce type [GG]

[GG]Patrick Gérard et Sandrine Grellier,
The cubic Szegö equation and Hankel operators, arXiv:1508.06814[math.AP], 2015.

[P]V.V. Peller, Hankel operators and their applications, Springer monographs in Mathematics, Springer-Verlag, 2003.

[N]Sergey Nazarenko,Wave turbulence, Lecture Notes in Physics, Springer-Verlag, 2011.

Remerciements :

L’auteur remercie les relecteurs Christophe Bolley et Loren Coquille pour leurs commentaires judicieux. Il remercie également toute l’équipe d’Images des Maths, et tout particulièrement Radu Ignat pour sa relecture
attentive et ses précieux conseils.

Post-scriptum :

À partir de l’ exemple simple de l’équation de Szegö cubique, nous avons montré comment certaines évolutions non linéaires peuvent être décrites en recourant à des transformations apparemment très éloignées du contexte dans lequel ces équations sont postées, et qui jouent le même rôle que celui de la décomposition de Fourier dans le cas des équations linéaires. On dit que de telles évolutions sont intégrables. Il existe un petit nombre d’exemples connus de telles transformations, mais elles permettent d’explorer des phénomènes encore très mystérieux comme la transition vers les hautes fréquences, que l’on peut espérer dans un second temps mettre en évidence pour une plus grande classe d’évolutions.

Article édité par Radu Ignat

Notes

[1en hommage au mathématicien hongrois Gabor Szegö (1895-1985), qui a étudié certaines propriétés de la transformation $\Pi$

Partager cet article

Pour citer cet article :

Patrick Gérard — «Systèmes automatiques et évolutions intégrables» — Images des Mathématiques, CNRS, 2015

Commentaire sur l'article

Laisser un commentaire

Forum sur abonnement

Pour participer à ce forum, vous devez vous enregistrer au préalable. Merci d’indiquer ci-dessous l’identifiant personnel qui vous a été fourni. Si vous n’êtes pas enregistré, vous devez vous inscrire.

Connexions’inscriremot de passe oublié ?

Tags

Suivre IDM