Analyse fréquentielle du signal

Piste noire Le 5 janvier 2019  - Ecrit par  Hajer Bahouri, Francois Vigneron Voir les commentaires

Les signaux sont présents partout autour de nous. L’analyse du signal est au cœur des mathématiques appliquées et permet de décoder l’information. Un des principaux outils est l’analyse des fréquences. Nous présentons ici l’analyse fréquentielle d’abord dans le cas de signaux périodiques avant d’ouvrir quelques perspectives sur des cas plus généraux. L’article contient de nombreuses images et animations pour illustrer les concepts de la façon la plus concrète possible. L’article est auto-contenu et devrait être accessible aux lycéens.

1. Qu’est-ce qu’un signal ?

1.1 — Deux exemples, en guise d’introduction

Animation 1. L’oscillation d’un pendule est associée à de nombreuses fonctions mathématiques, comme la dépendance de l’angle en fonction du temps ou le niveau d’énergie du pendule. Ces fonctions sont des signaux. Cliquez sur l’animation et observez les liens entre les différents signaux.

L’amplitude du signal diminue au cours du temps à cause des frottements qui amortissent les oscillations.

Animation 2. Le mouvement des planètes autour du soleil est aussi associé à de nombreux signaux. Regardez l’animation suivante et observez comment varie la distance entre la Terre et Mercure, Vénus et Mars, en fonction du temps.

À la différence de l’animation avec le pendule, les signaux obtenus se répètent à l’identique à intervalles de temps réguliers ; on dit qu’ils sont périodiques.

1.2 — Signaux et fonctions

Un signal est une quantité qui dépend du temps. Par exemple, le cours d’une action financière, la température moyenne quotidienne à Paris, ou la population d’un pays sont des signaux. Chaque signal varie de façon significative à l’échelle qui lui est propre. Le cours de la bourse varie à la seconde près, la température à quelques heures près, alors que les changements de population d’un pays ne sont sensibles qu’à l’ordre de l’année ou de la décennie.

Mathématiquement, un signal est modélisé par une fonction $t\to f(t)$ qui à chaque instant $t\in\mathbb{R}$ associe une valeur $f(t)$. La grandeur $f(t)$ peut, selon le modèle, représenter des propriétés très variées, comme un prix, une température, un nombre d’individus, etc...

Point d’information.

2. Notion de signal périodique

Parmi tous les signaux possibles, ceux qui nous intéressent dans la suite de cet article sont ceux qui ont la propriété d’être périodiques.

2.1 — Définition

Un signal est périodique lorsqu’on y observe un motif qui se répète à l’identique, à intervalles de temps réguliers.

Mathématiquement, on dit qu’une fonction $f:\mathbb{R}\to\mathbb{R}$ est périodique de période $T>0$ lorsque la relation $f(t+T)=f(t)$ est satisfaite pour tout $t\in\mathbb{R}$.

2.2 — Motif fondamental d’un signal périodique

Le graphe d’une fonction périodique est invariant par la translation horizontale de vecteur $T \overrightarrow{i}$ où $\overrightarrow{i}$ désigne le vecteur unité porté par l’axe des temps (en abscisse). La portion du graphe correspondant à $t\in [0,T]$ s’appelle le motif fondamental. Ce motif est répété à l’identique sur chaque intervalle de la forme $[kT,(k+1)T]$ avec $k\in\mathbb{Z}$.

Par exemple, la fonction de la figure précédente est périodique et son motif fondamental est dessiné en rouge.

Une fonction périodique de période $T$ possède d’autres périodes : $2T, 3T,...$ En général, parmi toutes les périodes possibles, on choisit la plus petite, mais ce n’est pas obligatoire.

Une fonction périodique n’est pas nécessairement régulière. Par exemple, la fonction suivante est périodique, de période $T$, mais elle n’est pas continue.

2.3 — Signaux non périodiques

Les fonctions suivantes ne sont pas périodiques. Certes, on a l’impression qu’un certain motif se répète, mais le motif n’est pas répété à l’identique.

Par exemple, pour la première, on observe que l’oscillation n’a pas lieu à intervalles de temps réguliers ; pour la seconde, les intervalles de temps sont réguliers, mais l’amplitude diminue au cours du temps.

2.4 — Fréquence fondamentale d’un signal périodique

Considérons à nouveau une fonction périodique de période $T$. Le signal $f(t)$ se répète toutes les $T$ secondes. Dans un intervalle de temps de durée $\Delta T$, le signal est donc répété $\Delta T/T$ fois. Si $\Delta T/T$ n’est pas un entier, on observe $k$ répétitions du motif fondamental (où $k$ est la partie entière de $\Delta T/T$), suivies d’une fraction du motif fondamental qui correspond à la partie décimale (les chiffres après la virgule) de $\Delta T/T$.

Animation 3. Dans l’animation suivante, comparez la valeur de $\Delta T/T$ au nombre de répétitions du motif fondamental.

Une façon de reproduire un signal périodique $f(t)$ consiste à dessiner le motif fondamental autour d’un cercle de rayon 1. On fait alors tourner une aiguille à vitesse angulaire constante de façon à réaliser un tour complet en $T$ secondes. L’aiguille parcourt le motif fondamental du signal à chaque tour, toutes les $T$ secondes. Cette construction permet d’identifier une fonction périodique à une fonction définie sur le cercle unité.

Animation 4. Visionnez l’animation suivante et observez comment l’aiguille rouge parcourt le motif fondamental du signal à chaque tour. Les graduations des deux graphiques se correspondent.

L’aiguille tourne de $2\pi$ radians (360 degrés) pendant la durée $T$ d’une période du signal. La vitesse angulaire de l’aiguille est donc de $2\pi/T$ radians par unité de temps : à chaque unité de temps, l’aiguille avance de $2\pi/T$ radians.

La fréquence fondamentale d’une fonction périodique de période $T$ est le nombre \[\begin{equation}\omega=\frac{2\pi}{T}\cdotp\end{equation}\]

Insistons sur le fait que la fréquence fondamentale ne dépend pas des détails du signal dans l’intervalle $[0,T]$. La fréquence fondamentale reflète seulement le fait que le signal est périodique de période $T$.

Pour les lecteurs avancés : comment représenter les valeurs négatives du signal ?

Le graphique à gauche est une courbe paramétrée en coordonnées polaires $(r,\theta)$. Son équation est $r=\exp\left(f\left(\frac{T\theta}{2\pi}\right)\right)$. Les valeurs positives de $f$ sont représentées à l’extérieur du disque unité tandis que les valeurs négatives sont représentées à l’intérieur du disque.

Nous utiliserons plus loin une autre représentation polaire $r=f\left(\frac{T\theta}{2\pi}\right)$, où le signal est enroulé autour de l’origine plutôt qu’autour du disque unité.

3. Exemples élémentaires de signaux périodiques

Les signaux périodiques qui nous ont accompagnés jusqu’à présent sont relativement « complexes » puisque leurs motifs fondamentaux comportent plusieurs oscillations internes d’amplitudes variées. Cherchons dans un premier temps à éliminer cette « texture » pour obtenir un signal périodique de période $T$ qui soit le plus simple possible.

3.1 — Signaux constants

Un signal constant $f(t)=C$ est périodique de période $T$, quelle que soit la valeur de $T$.

Cet exemple est trop simple ! Cherchons un autre exemple plus intéressant.

3.2 — Signaux sinusoïdaux

Le deuxième plus simple exemple d’une fonction périodique de période $T$ est la fonction $f(t)=\sin(\omega t)$ où $\omega=2\pi/T$ désigne la fréquence fondamentale.

Animation 5. Observez l’effet de la valeur de la période $T$ sur le graphe de la fonction $sin(2\pi t/T)$. Ci-dessous, tous les graphes sont représentés dans une fenêtre temporelle fixe $t\in [0,10]$.

Lorsque la période d’un signal sinusoïdal est réduite à l’ordre de quelques millisecondes, le graphe du signal n’est plus vraiment lisible à notre échelle. En effet, à cette fréquence, il y aurait de l’ordre de 1000 oscillations par seconde : il n’y a simplement pas assez de pixels pour représenter fidèlement tous ces détails. Par contre, l’oreille humaine est parfaitement capable de percevoir ce genre de signaux.

Animation 6. Certains sons purs ne contiennent qu’une seule harmonique ; ce sont des signaux sinusoïdaux. Écoutez les deux enregistrements suivants. Le premier est
une gamme de notes pures. Le second balaie continûment une gamme de fréquences (on dit que c’est un chirp).

Le tracé en bleu représente la pression acoustique, c’est-à-dire le volume sonore réel (qui diffère légèrement du volume perçu, car la sensibilité de l’oreille dépend de la fréquence). Le tracé en orange représente la fréquence.

3.3 — Au-delà des signaux sinusoïdaux

La richesse et la complexité des signaux sonores nous invitent à aller au-delà des seuls signaux sinusoïdaux.

Animation 7.
Les sons qui nous entourent sont en général la superposition de plusieurs fréquences émises simultanément.
Écoutez ces deux enregistrements : quelques notes d’un piano réel, et le message de Neil Armstrong depuis la surface lune.

Le tracé en bleu représente la pression acoustique. Le tracé en orange est une représentation du signal dans le plan temps-fréquence : l’énergie du signal est répartie sur différentes fréquences et l’intensité de la couleur croît avec l’énergie. Observez comment la représentation des fréquences illustre la « richesse » du signal. Nous percevons cette richesse comme le timbre sonore. C’est ce qui nous permet de distinguer immédiatement un piano de concert d’une transmission radio.

4. Opérations sur les signaux périodiques ; synthèse harmonique

On souhaite obtenir des signaux périodiques avec plus de « texture » dans leur motif fondamental. Il est possible d’arriver à ce résultat en combinant plusieurs signaux sinusoïdaux. Cette opération met en œuvre deux mécanismes fondamentaux très simples : le déphasage et la superposition. Lorsqu’on crée un signal de cette façon, on dit qu’on synthétise le signal à partir de ses harmoniques. Ce processus est apparenté à celui de la production de sons complexes par un instrument de musique.

Dans la suite de cet article, on fixe la période T à une valeur $T=T_0$. La fréquence fondamentale correspondante est $\omega_0=2\pi/T_0$.

4.1 — Harmoniques associées à une fréquence fondamentale

Pour chaque réel $\omega>0$, la fonction $\sin(\omega t)$ est périodique. Mais la plupart de ces fonctions ne sont pas de période $T_0$ : lorsqu’on trace le graphe sur $[0,T_0]$ on constate que la valeur (et/ou la pente) en $T_0$ ne revient pas à la valeur prise à l’origine sauf pour certaines valeurs particulières de $\omega$.

Quelles sont donc les fréquences $\omega$ pour lesquelles $\sin(\omega t)$ est de période $T_0$ ?

Animation 8. La fréquence $\omega$ varie. Lorsque $\omega$ est à moins de 5% d’une valeur qui donne un signal de période $T_0$, la courbe s’affiche en rouge. Observez alors la valeur de $\omega$ dans la légende.

Parmi les fonctions $\sin(\omega t)$, celles qui sont de période $T_0$ sont exactement celles pour lesquelles $\omega$ est un multiple de $\omega_0$, c’est-à-dire lorsque $\omega=n \omega_0$ avec $n$ entier. Pour $n\in\mathbb{N}$, on dit que les fonctions
\[\begin{equation}\sin(n \omega_0 t)\end{equation}\]
sont des harmoniques associées à la fréquence fondamentale $\omega_0$. Dans le graphe de l’harmonique d’ordre $n$, le motif fondamental est répété $n$ fois sur l’intervalle $[0,T_0]$.

Remarque. On pourrait aussi envisager de prendre $n\in\mathbb{Z}$. Nous verrons dans la section suivante que cela revient à faire un déphasage. On peut donc se limiter aux entiers naturels.

Animation 9.
Observez les premières harmoniques lorsque $n$ varie.

La vidéo suivante (par ToneSpectra.com) illustre la notion d’harmonique avec une corde de longueur fixe.

4.2 — Retard et déphasage

Dans la section précédente, nous avons trouvé une infinité de fonctions sinusoïdales de période $T_0$ : les fonctions $\sin(n \omega_0 t)$ avec $n\in\mathbb{N}$. Or, toutes ces fonctions ont la propriété de s’annuler en 0. Est-il possible d’obtenir des fonctions périodiques prenant une valeur différente à l’origine ?

Étant donnée une fonction périodique $f$ de période $T_0$, la fonction $f(t+R)$ est aussi une fonction périodique, de même période $T_0$. La valeur à l’origine de $f(t+R)$ est $f(R)$. En choisissant convenablement la valeur de $R$, on peut donc obtenir comme valeur initiale n’importe quelle valeur prise par $f$ au cours d’une période. On dit que la fonction $f(t+R)$ est obtenue à partir de $f(t)$ par retard.

Exemple. Pour la fonction $f(t)=\sin(n \omega_0 t)$, le retard peut s’exprimer de deux façons selon que $n \omega_0$ est mis
en facteur ou pas :
\[f(R+t)=\sin \left(n \omega _0(R+t)\right)=\sin \left(n \omega _0 t+\phi \right)\]
avec $\phi =n \omega_0 R =\frac{2 n \pi R}{T_0}$. On dit que $\phi$ est le déphasage. Contrairement au retard $R$ qui s’exprime en unités de temps, le déphasage $\phi$ est mesuré en radians.

Animation 10.
Observez comment le motif fondamental se décale lorsqu’on applique un déphasage. En particulier, observez l’évolution de la valeur à l’origine.

On illustre ainsi les propriétés suivantes :

  1. Lorsque $\phi$ est multiple de $2\pi$, on retrouve la fonction initiale.
  2. Tous les déphasages peuvent être obtenus avec $\phi\in(-\pi,+\pi]$.

Exemple. Lorsque le déphasage appliqué à $f(t)=\sin(n \omega_0 t)$ est $\phi =(2 k+1)\pi $ avec $k\in \mathbb{Z}$, on obtient la fonction
\[\sin \left(n \omega _0 t+\phi \right)=-\sin \left(n \omega _0 t \right) =\sin \left(-n \omega _0 t\right).\]

Exemple. Observons aussi que lorsqu’on applique un déphasage d’un quart de période de retard à la fonction sinus, on obtient la fonction cosinus :

La formule correspondante est
\[\sin\left(x+\frac{\pi }{2}\right) =\cos x.\]

4.3 — Superposition

Étant données deux fonctions $f$ et $g$ périodiques de période $T_0$, leur somme est aussi une fonction périodique de période $T_0$. Lorsqu’on calcule la somme, on dit qu’on superpose les signaux $f$ et $g$.

Si on superpose un signal à lui-même, on peut modifier son amplitude.
Plus généralement, on peut multiplier l’amplitude par un réel $\alpha$ quelconque : $\alpha \cdot f(t)$ est une fonction périodique de période $T_0$.

Lorsqu’on combine la multiplication par un réel et la superposition de deux signaux, on dit qu’on réalise une combinaison linéaire des signaux $f$ et $g$.

Animation 11.
Observez que la combinaison linéaire de deux signaux engendre des motifs plus complexe que ceux des signaux initiaux.

Dans cette animation, la phase des signaux n’est pas modifiée.

Animation 12.
L’animation suivante illustre la superposition des 3 premières harmoniques associées à la fréquence fondamentale $\omega_0$. Dans cette animation, la phase des signaux n’est pas modifiée ; ils s’annulent donc tous simultanément en $t=0$.

4.4 — Synthèse d’un signal à partir d’un nombre fini d’harmoniques

Dans les sections précédentes, nous avons vu que le signal constant $g_0(t)=1$ ainsi que les signaux $g_n(t)=\sin(n \omega_0t+\phi)$ sont tous périodiques de période $T_0=2\pi/\omega_0$, pour tout entier $n\in\mathbb{N}$ et tout nombre réel $\phi\in(-\pi,+\pi]$. Ces signaux correspondent aux harmoniques d’ordre $n$, déphasées d’un angle $\phi$.

Superposons le signal constant et la première harmonique. On obtient :
\[f_1(t) = \alpha _0+\alpha _1 \sin (\omega _0 t+\phi _1).\]

Si on ajoute à ce nouveau signal une modulation de la deuxième harmonique, on obtient :
\[f_2(t) = \alpha _0+\alpha _1 \sin (\omega _0 t+\phi _1) +\alpha _2 \sin (2\omega _0 t+\phi _2).\]

On peut continuer ainsi en ajoutant de plus en plus d’harmoniques.
\[\begin{equation} f_N(t) = \alpha _0+\alpha _1 \sin (\omega _0 t+\phi _1) +\alpha _2 \sin (2\omega _0 t+\phi _2)+\ldots +\alpha _N \sin (N\omega _0 t+\phi _N). \end{equation}\]
Cette formule s’écrit de façon plus compacte :
\[\begin{equation} f_N(t) = \alpha_0 + \sum_{j=1}^N \alpha _j \sin (j\omega _0 t+\phi _j). \end{equation}\]
Pour générer ce signal, on a besoin de spécifier les $N+1$ modulations d’amplitude $\alpha_0$, ..., $\alpha_N$ et les $N$ déphasages $\phi_1$, ..., $\phi_N$, c’est-à-dire $2N+1$ paramètres. Les coefficients $\alpha_j$, $\phi_j$ sont appelés les coefficients de Fourier du signal $f$.

Animation 13.
L’animation suivante illustre la synthèse à partir du signal constant et des 3 premières harmoniques de fréquence fondamentale $\omega_0$. À la différence de l’animation précédente, on fait varier non seulement les amplitudes, mais aussi les phases.

Les changements d’amplitudes et de déphasages engendrent une grande diversité de motifs fondamentaux de période $T_0$.

4.5 — Peut-on obtenir un déphasage par superposition ?

La formule suivante permet d’obtenir un déphasage quelconque en superposant les fonctions $\sin(\omega t)$ et $\cos(\omega t)$.
\[\sin (\omega t +\phi )=\cos (\phi ) \sin (\omega t) +\sin (\phi )\cos (\omega t).\]

Preuve.

La preuve se ramène à démontrer une formule pour un sinus d’une somme. En utilisant les notations de la figure ci-dessous, le calcul est :
\[\begin{align*} \sin (\alpha +\beta ) &= \text{HC}+\text{KB}\\ &= \text{OC} \sin\alpha + \text{BC} \cos\alpha\\ &=\text{OB} \cos\beta \sin \alpha + \text{OB} \sin\beta \cos\alpha\\ &=\cos\beta \sin \alpha+\sin\beta \cos\alpha. \end{align*}\]
On applique alors cette formule avec $\alpha=\omega t$ et $\beta=\phi$ ; on obtient ainsi la formule reliant déphasage et superposition.

Voici une vidéo de Khan Academy (en anglais) qui détaille la preuve de la formule précédente.

Pour les lecteurs avancés : interprétation avec les nombres complexes.

La formule pour $\sin(\alpha+\beta)$ exprime aussi l’opération suivante parmi les nombres complexes : $e^{i (\alpha +\beta )}=e^{i\alpha } e^{i\beta}$.

Une conséquence importante est la suivante. La formule
\[f_N(t) = \alpha_0 + \sum_{j=1}^N \alpha _j \sin (j\omega _0 t+\phi _j)\]
pour la synthèse d’un signal à partir d’un nombre fini d’harmoniques peut se réécrire de la façon suivante :
\[\begin{equation} f_N(t) = a_0 + \sum_{j=1}^N a_j \cos(j\omega_0 t) + b_j \sin(j\omega_0 t). \end{equation}\]
Les $2N+1$ coefficients $a_j$, $b_j$ sont aussi appelés les coefficients de Fourier du signal $f$.

Pour les lecteurs avancés : ces coefficients sont-ils uniques ?

Les coefficients $a_j$, $b_j$ sont uniques.
Par contre, pour $\alpha_j$, $\phi_j$,
on peut changer $\alpha_j$ en $-\alpha_j$ tout en modifiant la phase $\phi_j$ en $\phi_j+\pi$, pour $j\geq1$ ; on peut aussi ajouter un multiple entier quelconque de $2\pi$
à $\phi_j$. On peut éliminer ces ambiguïtés en supposant que
$\alpha_j\geq 0$ et $\phi_j\in(-\pi,+\pi]$, pour tout $j\neq0$.
On peut enfin vérifier les formules suivantes :
\[a_0=\alpha _0 \quad\text{et}\quad a_j=\alpha _j \sin \left(\phi _j\right), \quad b_j=\alpha _j \cos \left(\phi _j\right) \quad\text{pour } j=1,\ldots, N.\]

4.6 — Peut-on avoir un nombre infini d’harmoniques ?

Mathématiquement, il est possible de superposer une infinité d’harmoniques. Cependant, il faut alors prendre certaines précautions pour que l’opération ait un sens. Par exemple, si la famille des amplitudes $(\alpha_j)_{j\in\mathbb{N}}$ est d’énergie finie, c’est-à-dire si la limite
\[E=\lim_{N\to+\infty}\left(\sum_{j=0}^N |\alpha_j|^2\right)\]
existe dans $\mathbb{R}$, alors on peut donner un sens mathématique précis à la superposition infinie suivante :
\[f(t) = \alpha_0 + \sum_{j=1}^\infty \alpha _j \sin (j\omega _0 t+\phi _j).\]

Pour les lecteurs avancés : lectures.

La définition précise de la convergence d’une série infinie d’harmoniques nécessite des notions de topologie et d’analyse fonctionnelle, ce qui dépasse le cadre de cet article.

5. Analyse fréquentielle d’un signal n’ayant qu’un nombre fini d’harmoniques

L’analyse fréquentielle est le mécanisme inverse de la synthèse harmonique. Il s’agit d’identifier les différentes harmoniques qui constituent le signal.

5.1 — Définition de l’objectif de l’analyse fréquentielle

Considérons, dans ce paragraphe, un signal $f(t)$ que nous allons supposer
constitué d’un nombre fini d’harmoniques, c’est-à-dire qu’il est de la forme :
\[\begin{equation} f(t) = \alpha_0 + \sum_{j=1}^N \alpha _j \sin (j\omega _0 t+\phi _j)= \alpha _0+\alpha _1 \sin (\omega _0 t+\phi _1) +\alpha _2 \sin (2\omega _0 t+\phi _2)+\ldots +\alpha _N \sin (N\omega _0 t+\phi _N) \end{equation}\]
où N est un nombre fini. On suppose qu’on dispose seulement du signal $f(t)$ : pour chaque $t$, on a accès à la valeur $f(t)$ mais à rien d’autre. En particulier, les valeurs des amplitudes et des phases sont inconnues ; même le nombre $N$ est inconnu.

Est-il possible de retrouver les valeurs de $N$, les amplitudes $\alpha_j$ et les phases $\phi_j$ à partir de la seule connaissance du signal $f(t)$ ?
Ce problème s’appelle réaliser l’analyse fréquentielle de $f$.

Remarque. Dans la section « Peut-on obtenir un déphasage par superposition ? » nous avons vu que le signal $f(t)$ peut aussi s’écrire :
\[\begin{equation} f(t) = a_0 + \sum_{j=1}^N a_j \cos(j\omega_0 t) + b_j \sin(j\omega_0 t). \end{equation}\]
Déterminer les coefficients $a_j$ et $b_j$ est une variante du problème de l’analyse fréquentielle de $f$.

5.2 — Deux petits jeux pour comprendre ce qu’est l’analyse fréquentielle

Jeu 1.
On considère un signal périodique $f(t)$ de la forme $f(t)=\alpha_0+\alpha_1 \sin(\omega_0 t+\phi_1)$.
Ce signal est représenté dans l’animation suivante (courbe rouge). L’objectif du jeu est de réaliser l’analyse fréquentielle de ce signal. Pour cela, on change les valeurs des amplitudes et des phases pour générer un nouveau signal (courbe bleue). Les courbes se superposent lorsque les trois paramètres sont identifiés.

Jeu 2.
Ici, on considère un signal périodique $f(t)$ (courbe rouge) de la forme
\[f(t)=\alpha_0+\alpha_1 \sin(\omega_0 t+\phi_1)+\alpha_2 \sin(2\omega_0 t+\phi_1).\]
En changeant les valeurs des amplitudes et des phases, on génère un nouveau signal (courbe bleue). Les courbes se superposent lorsque les trois paramètres sont identifiés.

Remarque. Les jeux sont plus amusants dans la version interactive de l’article : téléchargez CDF Player pour ouvrir le document interactif.

5.3 — Stratégie (hilbertienne) pour analyser un signal

L’idée fondamentale pour analyser un signal $f(t)$ est de calculer des moyennes pondérées. Plus précisément, étant donnée une fonction continue arbitraire $g(t)$, une approximation de la moyenne pondérée de $f$ à l’ordre $N$ est :
\[\frac{1}{N}\sum _{k=1}^N f\left(\frac{kT}{N}\right) g\left(\frac{kT}{N}\right) = \frac{f(T/N)g(T/N)+f(2T/N)g(2T/N)+\ldots + f((N-1)T/N)g((N-1)T/N) + f(T)g(T) }{N} \cdotp\]
À la limite, lorsque le nombre $N$ de points tend vers l’infini,
on obtient une intégrale :
\[\frac{1}{T}\int_0^T f(t) g(t) dt.\]
Cette formule permet de calculer la valeur de l’aire sous le graphe de $f(t)g(t)$, normalisée par $T$ ; si $f g$ change de signe, la contribution à l’aire totale de chaque zone est comptée avec son signe.

Animation 14.
Vérifiez sur l’exemple suivant que l’intégrale est bien la valeur limite de la moyenne pondérée.

On dit que la fonction $g(t)$ joue le rôle de fonction test. Son rôle est d’isoler une partie du signal $f(t)$.
Le calcul précédent s’interprète comme suit.

En pratique, la fonction test $g$ modélise un capteur physique. Lorsque le signal $f$ traverse ce capteur, il interagit avec lui et produit la réponse $\frac{1}{T}\int_0^T f(t) g(t) dt$. Cette réponse correspond à l’excitation moyenne du capteur. Mathématiquement, on peut choisir arbitrairement la fonction $g$ (parmi les fonctions continues).

En collectant suffisamment d’observations, on peut raisonnablement espérer (et on peut même démontrer) qu’il est possible de retrouver les valeurs des coefficients de Fourier.

Pour les lecteurs avancés : notion de produit scalaire.

La formule $\frac{1}{T}\int_0^T f(t) g(t) dt$ constitue ce qu’on appelle un produit scalaire des fonctions $f$ et $g$. Cette notion généralise, dans le cadre des espaces de fonctions, la notion usuelle de produit scalaire dans $\mathbb{R}^2$ ou $\mathbb{R}^3$. C’est le point de départ de l’analyse hilbertienne.

5.4 — Formules permettant d’analyser un signal

En appliquant la stratégie présentée à la section précédente avec
les fonctions test $g_j(t)=\sin(j\omega_0 t)$ et $h_j(t)=\cos(j\omega_0 t)$,
on peut calculer les coefficients de Fourier $a_j$ et $b_j$
puis en déduire les valeurs $\alpha_j$ et $\phi_j$.

A. Calcul des coefficients de Fourier $a_j$ et $b_j$ (associés aux fonctions cosinus et sinus)

L’objectif est de déterminer les coefficients $a_j$ et $b_j$ du signal $f(t)$ représenté comme suit :
\[f(t) = a_0 + \sum_{j=1}^N a_j \cos(j\omega_0 t) + b_j \sin(j\omega_0 t).\]

En utilisant les fonctions test $g_j(t)=\sin(j\omega_0 t)$ et $h_j(t)=\cos(j\omega_0 t)$, on obtient (voir justification ci-dessous) :
\[\begin{align} a_0 &= \frac{1}{T}\int_0^T f(t) dt,\\ a_j &= \frac{2}{T}\int_0^T f(t) \cos(j\omega_0 t) dt \qquad (j\geq1),\\ b_j &= \frac{2}{T}\int_0^T f(t) \sin(j\omega_0 t) dt \qquad (j\geq1). \end{align}\]

Pour déterminer la valeur de $N$, il suffit de chercher le plus petit entier $N$ à partir duquel tous les coefficients de Fourier sont nuls, c’est-à-dire
\[a_{N+1}=b_{N+1}=a_{N+2}=b_{N+2}=\ldots =0.\]

B. Calcul des coefficients de Fourier $\alpha_j$ et $\phi_j$ (amplitude et phase)

Rappelons que les coefficients $\alpha_j$ et $\phi_j$
de notre première représentation du signal $f(t)$ sont définis par :
\[f(t) = \alpha_0 + \sum_{j=1}^N \alpha _j \sin (j\omega _0 t+\phi _j).\]

Par identification, on obtient les relations suivantes :
\[\begin{align} a_0 &= \alpha_0\\ a_j &= \alpha_j \sin(\phi_j) \qquad (j\geq1)\\ b_j &= \alpha_j \cos(\phi_j) \qquad (j\geq1). \end{align}\]
Ces relations peuvent également être justifiées graphiquement, à l’aide de la figure suivante.

C. Justification des formules pour les coefficients de Fourier

La formule pour les coefficients de Fourier résulte de l’orthogonalité de sinus et cosinus : lorsqu’on regarde l’espace des fonctions comme un espace géométrique, ces fonctions se comportent comme deux droites orthogonales. Le calcul des coefficients de Fourier
s’apparente donc à celui de trouver les coordonnées d’un point dans une base orthonormée (mais ici, le signal tout entier joue le rôle du point du plan ou de l’espace).

Pour les lecteurs avancés : exemple de calcul.

Calculons par exemple l’intégrale
\[\frac{2}{T}\int_0^T \sin(j\omega_0 t+\phi_j)\cos(k\omega_0 t).\]
En utilisant la formule suivante
\[\sin(a)\cos(b)=\frac{1}{2} \left(\sin(a+b)+\sin(a-b)\right)\]
on obtient :
\[\frac{2}{T}\int_0^T \sin(j\omega_0 t+\phi_j)\cos(k\omega_0 t)= \frac{1}{T}\int_0^T \sin\left((j+k)\omega_0 t +\phi_j\right) +\frac{1}{T}\int_0^T \sin\left((j-k)\omega_0 t +\phi_j\right).\]
Pour $j$, $k$ entiers positifs, on a $(j+k) \omega _0 T=2 \pi (j+k)$ donc
la première intégrale est identiquement nulle. Pour une raison similaire,
la deuxième intégrale est aussi nulle lorsque $j\neq k$. Par contre, lorsque $j=k\geq1$, on obtient :
\[\frac{2}{T}\int_0^T \sin(j\omega_0 t+\phi_j)\cos(j\omega_0 t)=\sin(\phi_j).\]
En calculant les intégrales associées aux autres harmoniques
de façon similaire, on obtient :
\[\frac{2}{T}\int_0^T f(t) \cos(j\omega_0 t)=\alpha_j\sin(\phi_j).\]

5.5 — Solutions des jeux

Au début de cette section, nous avons proposé deux jeux. Voici leurs solutions. Vous pouvez vérifier que les valeurs des coefficients de Fourier
obtenues par le calcul correspondent aux valeurs trouvées empiriquement dans les animations précédentes.

Jeu 1

Pour le 1er jeu, on obtient les valeurs numériques suivantes :
\[a_0 = \frac{1}{T}\int_0^T f(t) dt\approx 1.43\]
et
\[ a_1 = \frac{2}{T}\int_0^T f(t) \cos(\omega_0 t) dt\approx -2.04721, \qquad b_1 = \frac{2}{T}\int_0^T f(t) \sin(\omega_0 t) dt\approx -1.91022.\]
Donc
\[ \alpha_0\approx 1.43, \qquad \alpha_1\approx 2.8, \qquad \phi_1\approx -2.32 \text{rad}.\]

Jeu 2

Pour le 2ème jeu, on obtient de même les valeurs numériques suivantes :
\[ \begin{array}{c|cccc} j & a_j & b_j & \alpha _j & \phi _j \text{(rad)} \\\hline 0 & 1.430 & & 1.43 & \\ 1 & -0.804 & -0.75 & 1.10 & -2.32 \\ 2 & -1.451 & 0.72 & 1.62 & -1.11 \\\hline 3 & 0. & 0. & 0. & 0. \\ 4 & 0. & 0. & 0. & 0. \\ \end{array} \]
Comme les coefficients sont nuls à partir de $j=3$, on retrouve ainsi que le signal comporte $N=2$ harmoniques.

6. Analyse et synthèse d’un signal périodique général

Jusqu’à présent nous avons considéré des signaux qui résultent de la superposition d’un nombre fini d’harmoniques. Que se passe-t-il si on analyse un signal périodique général ? Cette question est en fait très vaste et difficile. Nous nous contenterons donc ici de quelques exemples.

6.1 — Exemples avec des fonctions périodiques régulières

La fonction $f(t)=e^{-8\cos^2(t-1)/2}$ est périodique de période $T_0=2\pi$.

On peut calculer ses coefficients de Fourier en utilisant les formules de la section précédente. Ils deviennent de plus en plus petits, mais ils ne sont pas tous nuls à partir d’un certain rang. Cette fonction n’est donc pas la superposition d’un nombre fini d’harmoniques.

On peut néanmoins essayer de reconstruire (partiellement) la fonction $f$ en superposant seulement les $N$ premières harmoniques. On cherche donc une fonction $f_N$ de la forme
\[f_N(t) = \alpha_0 + \sum_{j=1}^N \alpha _j \sin (j\omega _0 t+\phi _j)\]
qui est une « bonne » approximation de $f$, c’est-à-dire que les graphes de $f$ et $f_N$ soient proches.

L’animation suivante illustre cette propriété d’approximation. Noter cependant que même si les graphes semblent se superposer à cause du nombre limité de pixels dans l’image, les fonctions $f$ et $f_N$ sont différentes pour tout $N$.

Animation 15.
Observez comment le graphe de la fonction $f_N$ (en pointillés) s’approche très rapidement de celui de la fonction $f$ lorsque le nombre d’harmoniques $N$ augmente. À partir de $N=6$, ils sont presque indiscernables.

Les valeurs des coefficients de Fourier de $f$ sont visibles dans la table. Notez en particulier la décroissance du module $\alpha_j$ en fonction
de $j$. Cette décroissance est liée à la régularité du signal (voir l’exemple de la fonction discontinue).

Voici un autre exemple avec la fonction périodique de période $T_0=2\pi$ :
\[f(t)=e^{\frac{1}{5} \sin(7 t)} \left( \frac{1}{3} \cos(3 t)-\sin(1-t) \right)^2\]
qui n’est pas la somme d’un nombre fini d’harmoniques.

Animation 16.
La convergence de $f_N$ vers $f$ demeure très rapide. Mais comme le graphe de $f$ contient plus de « texture » que celui de l’exemple précédent, il faut attendre $N=12$ harmoniques pour que les graphes de $f$ et de $f_N$ soient presque indiscernables.

Pour les lecteurs avancés : la compression du signal.

L’idée de remplacer un signal continu $f$ par un signal approché $f_N$ est le principe de la compression du signal. Plus $N$ est petit, plus la représentation est dite parcimonieuse : on peut stocker ou transférer l’essentiel de l’information en utilisant très peu de ressources.

Dans les exemples précédents, il est possible d’obtenir une représentation très fidèle du signal $f$ en utilisant seulement une dizaine de coefficients de Fourier (amplitude + phase). On dit qu’on a compressé le signal $f$.

La description en clair de ce signal nécessiterait d’expliciter toutes les paires de valeurs $(t,f(t))$, c’est-à-dire de faire la liste de tous les pixels à colorer. Mais nous pouvons stocker ou transmettre une information de qualité comparable en utilisant seulement les 20 nombres réels qui sont les coefficients de Fourier. Certes, pour ces exemples, la meilleure représentation (à la fois parcimonieuse et exacte) reste la formule mathématique reliant $t$ à $f(t)$ mais pour les signaux du monde réel, on ne dispose en général pas d’une formule exacte ; une représentation
compressée est alors un bon compromis.

6.2 — Exemple avec une fonction périodique discontinue

On considère la fonction périodique de période $T_0=1$ définie par la formule suivante :
\[f (t)= \begin{cases} +1 & \text{si }t\in[0,1/2),\\ -1 & \text{si }t\in[1/2,1). \end{cases}\]
C’est une fonction discontinue. Comme précédemment, cette fonction n’est pas la superposition d’une nombre fini d’harmoniques. Pour cette fonction, on dispose même d’une formule explicite pour les coefficients de Fourier :
\[a_j =0 \qquad\text{et}\qquad b_j=\frac{2\left(1-(-1)^j\right)}{j\pi} \cdotp\]
Lorsqu’on considère la superposition des N premières harmoniques on obtient ainsi la fonction :
\[f_N(t) = 2\sum_{j=1}^N \frac{1-(-1)^j}{j\pi} \sin(2\pi j t).\]
La fonction $f_N$ est une approximation de $f$, mais elle est beaucoup moins bonne que dans l’exemple précédent.

Animation 17.
Observez les coefficients de Fourier de cette fonction discontinue. Même si beaucoup d’entre eux sont identiquement nuls, l’amplitude de ceux qui ne sont pas nuls décroît très lentement en comparaison avec les exemples précédents. Lorsqu’on fait varier le nombre d’harmoniques utilisées pour reconstruire un signal approché, la qualité de la reconstruction laisse à désirer.

Une première explication du fait que $f_N(t)$ n’est pas une bonne approximation de $f(t)$ est que les fonctions $f_N$ sont des superpositions d’un nombre fini d’harmoniques donc en particulier ce sont des fonctions continues (et même de classe $C^\infty$, c’est-à-dire que toutes leurs dérivées successives sont continues) alors que $f$ est discontinue et n’admet pas de dérivée aux points $0$, $1/2$, $1$,...
Dans la section suivante, nous verrons que cet exemple est un cas particulier du phénomène de Gibbs.

Pour les lecteurs avancés : comment effectuer le calcul des coefficients de Fourier non nuls ?

\[\begin{align*} \int_0^1 f(t) \sin(2j\pi t)t &=\left[ - \frac{\cos(2j\pi t)}{2j\pi} \right]_0^{1/2} + \left[ \frac{\cos(2j\pi t)}{2j\pi} \right]_{1/2}^1 \\ &= -\frac{\cos(j\pi)-1}{2j\pi} + \frac{\cos(2j\pi)-\cos(j\pi)}{2j\pi} \\ &= \begin{cases} \frac{2}{j\pi} & \text{si }j\text{ est impair},\\ 0 & \text{si }j\text{ est pair}. \end{cases} \end{align*}\]

6.3 — Le phénomène de Gibbs

A. Présentation générale

Lorsque le signal $f(t)$ est continu, on peut démontrer que les approximations $f_N(t)$ avec $N$ harmoniques convergent vers $f$ lorsque $N\to\infty$, c’est-à-dire que l’approximation est d’autant meilleure que le nombre d’harmoniques utilisées est élevé. On dit que $f_N$ est la représentation du signal $f$ en série de Fourier.

Lorsque le signal $f(t)$ présente une discontinuité en un point $t_0$, la convergence est moins bonne. Par exemple, les approximations en séries de Fourier convergent vers la valeur moyenne de $f$ (la moyenne entre la limite avant et après la discontinuité). Le défaut de convergence des approximations $f_N(t)$ vers $f(t)$ s’appelle le phénomène de Gibbs. Lorsqu’on augmente le nombre d’harmoniques, le défaut d’approximation se concentre autour de la discontinuité, mais il ne disparaît jamais.

Le phénomène de Gibbs est systématiquement associé à des oscillations autour des points de discontinuité. On peut même démontrer que l’amplitude de l’erreur ne disparaît jamais. Lorsque le nombre $N$ d’harmoniques est suffisamment grand, l’amplitude de la première oscillation après la discontinuité excède de $8.95\%$ l’amplitude de la discontinuité ; celle de la seconde est de l’ordre de $3.3\%$. On démontre aussi que la fréquence des oscillations de Gibbs est du même ordre de grandeur que le nombre d’harmoniques utilisées pour approcher la discontinuité.

Pour les lecteurs avancés : convergence des séries de Fourier.

Comme l’amplitude des oscillations de Gibbs est asymptotiquement indépendante du nombre d’harmoniques utilisées, la convergence de la série de Fourier vers le signal original n’est pas uniforme au voisinage des points de discontinuité. Par contre, comme leur localisation se resserre autour de la discontinuité lorsque le nombre d’harmoniques augmente, la contribution des oscillations diminue dans la topologie qui mesure l’énergie du signal.

Pour plus de détails, voir l’article sur la convergence des séries de Fourier (en anglais).

B. Le phénomène de Gibbs en traitement d’images

En traitement d’images, les discontinuités font naturellement partie du signal. Les discontinuités correspondent aux bords des objets, aux changements de couleur, de texture, de profondeur, etc. Les discontinuités sont les éléments caractéristiques de l’image. Ce sont les premiers éléments qu’on identifie dans un dessin.

Lorsqu’on cherche à compresser une image, on utilise (d’une façon ou d’une autre) une approximation du signal original par un signal ne contenant qu’un nombre fini d’harmoniques. Le phénomène de Gibbs apparaît alors comme un défaut systématique au niveau des discontinuités.

Ce défaut n’est pas dû au nombre limité de pixels mais au nombre limité d’harmoniques. Il se traduit par l’apparition de taches à proximité des discontinuités.

Animation 18.
Dans l’animation suivante, on fait varier le nombre d’harmoniques utilisées. Moins il y a d’harmoniques, plus l’image se dégrade.

Le phénomène de Gibbs est aussi visible (en particulier dans le zoom) : même avec beaucoup d’harmoniques, on observe une « ombre » sur le mur clair, autour des bords sombres de l’horloge ; cette ombre n’est pas associée à l’éclairage de la scène.

En anglais, le phénomène de Gibbs s’appelle« ringing artifact » à cause des oscillations caractéristiques auxquelles il est associé. Pour plus de détails
sur l’importance du phénomène de Gibbs, voir par exemple cet article sur le site Images des Maths ou celui-ci (en anglais).

C. Le phénomène de Gibbs en électronique

En électronique, on rencontre souvent un proche parent du phénomène de Gibbs. Dans la capture d’écran suivante, on a observé un signal en créneau de 5MHz, c’est-à-dire un signal qui alterne entre 0V et 1V cinq millions de fois par seconde. Sur le premier canal (en jaune), on a utilisé un câble blindé et le signal est à peine déformé. Sur le second canal (en bleu), on a utilisé des câbles courants et le signal est très déformé. À chaque discontinuité du signal, on observe une succession d’oscillations amorties.

L’action des câbles de mesure sur le signal est comparable à une approximation par un nombre fini d’harmoniques car les harmoniques d’ordre élevé sont atténuées. On dit que c’est un filtre passe-bas, car il laisse les basses fréquences relativement intactes.

Au niveau physique, les câbles non blindés agissent comme un circuit RLC plus ou moins complexe selon les cas. Pour plus de détails sur la modélisation des câbles électriques, nous renvoyons à un article très complet de Jim Brown, ou à l’article Wikipedia correspondant. La notion de filtre électronique est présentée dans cet autre article, et les articles connexes (en anglais).

Cependant, notons qu’il y a deux différences majeures entre l’observation précédente et le phénomène de Gibbs.

  • D’une part, le filtre électronique n’est pas idéal : il atténue les hautes fréquences, mais il ne les supprime jamais complètement et, contrairement au cadre mathématique précédent, le filtre altère aussi les phases du signal.
  • D’autre part, le circuit réagit « en temps réel » : juste avant une discontinuité, le système n’a aucun moyen de savoir qu’une discontinuité est imminente (on dit que le circuit est causal). En particulier, on observe les oscillations seulement après chaque discontinuité, mais jamais avant. Dans le phénomène de Gibbs associé à la troncature d’harmoniques, l’ensemble du signal (passé et futur) est supposé connu et les oscillations de Gibbs apparaissent de part et d’autre de chaque discontinuité.

Les oscillations associées aux discontinuités constituent un problème sérieux en électronique à cause des sur-tensions (ou sur-intensités) passagères qui leur sont associées. Pour un aperçu des techniques employées pour les atténuer, voir par exemple cet article (en anglais).

6.4 — Au-delà du cadre périodique...

L’analyse de Fourier ne se limite pas aux fonctions périodiques. Il existe une transformation générale, appelée transformée de Fourier, qui à toute fonction $f:\mathbb{R}\to\mathbb{R}$ « convenable » associe une autre fonction $\widehat{f}:\mathbb{R}\to\mathbb{C}$. L’idée de cette transformation est que le signal $f$ peut s’obtenir en superposant une infinité d’harmoniques oscillant à toutes les fréquences $\xi\in\mathbb{R}$ possibles. L’harmonique de fréquence $\xi$ est modulée par une amplitude $\widehat{f}(\xi)$. Dans ce cadre, l’utilisation des nombres complexes permet de simplifier la gestion des phases entre les sinus et les cosinus.

À la fin du chapitre suivant, nous verrons plusieurs façons de matérialiser la transformation de Fourier d’un signal quelconque.

Pour les lecteurs avancés : quelques précisions sur la transformée de Fourier.

En toute rigueur, il existe des restrictions techniques sur la classe des fonctions pour lesquelles la transformée de Fourier existe. La plus simple est celle où $f$ est une fonction intégrable (ce qui signifie grossièrement que l’aire sous la courbe $|f(x)|$ est finie). La plus utile pour les applications (bien qu’un peu plus subtile à définir) est celle où $f$ est supposée d’énergie finie. Si on s’autorise une excursion hors du cadre des fonctions, on peut même construire une théorie de Fourier encore plus générale (voir cet article sur les distributions tempérées).

Pour une fonction $f$ intégrable sur $\mathbb{R}^d$, la transformée de Fourier est définie par la formule :
\[\widehat{f}(\xi) = \int_{\mathbb{R}^d} f(x) e^{-ix\cdot\xi} \, dx.\]
Sous des conditions convenables, la fonction $\hat{f}$ permet la synthèse de $f$ par la formule d’inversion :
\[f(x) = \frac{1}{(2\pi)^d}\int_{\mathbb{R}^d} \widehat{f}(\xi) e^{+ix\cdot\xi} \, d\xi.\]
La donnée de $\widehat{f}$ est (sous certaines conditions) exactement équivalente à celle de $f$ et cette dualité entre analyse en amplitude (dans l’espace physique décrit par $x$) et analyse en fréquence (dans l’espace des fréquences décrit par $\xi$) est d’une grande importance en physique comme en mathématiques.

7. Un peu d’histoire et d’ingénierie

Dans cette section, nous allons brièvement présenter l’origine de l’analyse fréquentielle du signal dans les travaux de Joseph Fourier, ainsi que quelques représentations originales de l’analyse et de la synthèse harmonique, inspirées de l’ingénierie.

7.1 — Joseph Fourier (1768 - 1830)

L’idée de représenter un signal comme une superposition d’harmoniques, correctement déphasées et modulées, remonte à Joseph Fourier (1768 - 1830), dans un livre qu’il publie en 1822, dédié à la théorie de la chaleur.

L’objectif de Joseph Fourier était d’étudier comment la température évolue dans un objet de forme quelconque. Sa motivation était, comme il le dit dans son introduction, de fournir une théorie mathématique qui soit à la fois suffisamment générale et suffisamment calculatoire pour pouvoir être appliquée et contribuer aux progrès de l’industrie naissante.

Par exemple, une barre de fer placée dans une forge va se réchauffer. En comprenant comment la chaleur est diffusée dans la barre et donc comment la température évolue en chaque point, on peut espérer pouvoir en déduire le moyen optimal de chauffer la barre pour l’amener à la température idéale pour le travail du forgeron.

Au détour de ce problème, Joseph Fourier introduit les bases de l’analyse fréquentielle du signal, en particulier l’idée révolutionnaire qu’un signal quelconque peut être modélisé par une superposition d’harmoniques.

Pour les lecteurs avancés : quelques précisions sur le livre de Joseph Fourier.

Dans son livre, Joseph Fourier établit que la température $T(t,x,y,z)$ d’un corps solide, mesurée en un point $(x,y,z)$ et à l’instant $t$, doit être reliée à toutes les autres valeurs de la température par une certaine équation universelle. Plus précisément, cette équation relie la dérivée temporelle de la température à ses dérivées secondes spatiales :
\[\frac{\partial T}{\partial t} = K \left( \frac{\partial^2 T}{\partial x^2} + \frac{\partial^2 T}{\partial y^2} +\frac{\partial^2 T}{\partial z^2} \right)\]
La constante $K$ est propre au matériau dont le corps est constitué ; c’est la constante de diffusivité thermique du matériau. Joseph Fourier s’intéresse en particulier au cas d’une barre, dont la température peut être déterminée de façon approchée en supposant que $T(t,x,y,z)=T(t,x)$ ne dépend que de $t$ et de $x$. Fourier propose alors de calculer la solution en la recherchant sous la forme
\[T(t,x)=a_1(t)\sin(x) + b_1(t) \cos(x) +a_2(t)\sin(2x) + b_2(t) \cos(2x) +a_3(t)\sin(3x) + b_3(t) \cos(3x)+\ldots\]
Il obtient ainsi un système dont les inconnues sont les fonctions $a_j(t)$ et $b_j(t)$. On s’attendrait à ce que le système soit énorme et inutilisable. Mais il observe en fait que ce système est très simple à résoudre et il en calcule la solution :
\[\begin{array}{ccc} a_1(t) = a_1(0) e^{-Kt} & a_2(t) = a_2(0) e^{-2Kt} & a_3(t) = a_3(0) e^{-3Kt}\\ b_1(t) = b_1(0) e^{-Kt} & b_2(t) = b_2(0) e^{-2Kt} & b_3(t) = b_3(0) e^{-3Kt}\\ \end{array}\]

Pour une analyse plus détaillée du livre de Joseph Fourier, consulter le lien suivant.

7.2 — L’analyseur fréquentiel de Michelson

L’analyseur de Albert A. Michelson (1852 - 1931) est une merveille d’ingénierie. Un exemplaire a été restauré et il est visible à l’Université d’Illinois, à Chicago.

En ajustant 20 leviers, on peut préciser 20 valeurs prises par un signal périodique quelconque (en termes modernes, on dit qu’on discrétise le signal). En tournant une manivelle, une série d’engrenages va alors calculer et dessiner sur une bande de papier la transformée de Fourier de ce signal périodique. En observant la bande à des abscisses précises, on peut alors lire directement la valeur des coefficients de Fourier des 20 premières harmoniques.

Vidéo. Cette vidéo de Bill Hammack présente l’histoire, le fonctionnement et la restauration d’un analyseur de Michelson (aller à t=7:28 pour le voir en fonctionnement ; explications en anglais) :

Cette vidéo étant longue (40min), voici quelques points de repère :

  • Avant 3:00 : Introduction, histoire de l’analyseur.
  • 3:00 à 7:00 : Panorama des éléments mécaniques.
  • 7:28 à 8:00 : Analyseur en fonctionnement.
  • 8:30 à 11:30 : Justification mathématique et utilisation de l’analyseur.
  • 11:45 à 22:50 : Explication très détaillée du fonctionnement de l’analyseur.
  • 23:00 à la fin : Lecture commentée du livre compagnon.

Le livre de Bill Hammack complémente cette vidéo ; on peut acheter le livre sur son site, mais une version électronique est téléchargeable gratuitement (et légalement), aussi sur son site.

7.3 — Interprétation géométrique et mécanique de la transformée de Fourier

La transformée de Fourier possède plusieurs descriptions géométriques.

A. Interprétation de la transformée de Fourier d’une fonction comme centre de gravité de son graphe

Un signal périodique $y=f(t)$ peut-être représenté autour du cercle unité.
Ici, on choisit d’associer l’intervalle de temps $[0,2\pi/\alpha]$ à un tour, où $\alpha$ est un paramètre arbitraire (strictement positif). Comme $2\pi/\alpha$ n’est pas une période, on fait plusieurs tours pour avoir une courbe suffisamment longue.
On suppose que l’encre utilisée pour tracer ce dessin a une certaine masse par unité de longueur et on calcule le centre de gravité du dessin obtenu.

En général, on observe que pour un choix arbitraire de $\alpha$, le centre de gravité reste au voisinage de l’origine et ceci quelque soit le nombre de tours que l’on fait. Mais pour certaines valeurs particulières de $\alpha$, le centre de gravité se déplace dans le plan et s’éloigne franchement de l’origine. Ces valeurs de $\alpha$ correspondent aux fréquences effectivement présentes dans le signal. Le nombre complexe associé représente la valeur $\widehat{f}(\alpha)$ de la transformée de Fourier du signal $f$ à la fréquence $\alpha$.

Animation 19.
Sur la figure suivante, on a représenté le signal $f(t)=\sin(2t)+2\cos(5t)$. Le signal est « enroulé » autour de l’origine ; pour chaque valeur de $\tau>0$, l’intervalle de temps $[0,2\pi/\alpha]$ est associé à un tour. On s’arrête après 3 tours. On obtient ainsi la courbe bleue. Le point rouge est le centre de gravité de la courbe bleue. Observez que la courbe bleue change énormément en fonction de $\alpha$, mais que son centre de gravité reste au voisinage du centre de la figure. La trajectoire décrite par le centre de gravité est dessinée en orange.

Observez que la courbe orange présente deux « lobes » correspondant à deux excursions du centre de gravité : une excursion pour $\tau=2$ et une autre pour $\tau=5$. Ces valeurs sont les fréquences constituant le signal $f$. La position de ces excursions dans le plan complexe reflète le module et la phase des coefficients de Fourier : l’amplitude associée à la fréquence $\tau=5$ est deux fois plus grande que celle associée à $\tau=2$, et elle est atteinte un quart de tour plus tôt. Ces propriétés sont conformes avec les valeurs des amplitudes relatives et du déphasage entre les coefficients de Fourier de $f$.

Vidéo.
La vidéo suivante de Grant Sanderson, alias 3Blue1Brown, présente ce point de vue sur la transformée de Fourier avec beaucoup de détails et d’animations remarquables (21min, en anglais).

Pour les lecteurs avancés : une ébauche de justification.

L’enroulement de l’intervalle de temps $[0,2\pi/\tau]$ sur un tour correspond à la courbe paramétrée $t\mapsto e^{i t \tau} f(t)\in\mathbb{C}$. Pour $t=2\pi/\tau$, on retrouve bien un multiple réel de $e^{2i \pi}=1$, donc on a parcouru un tour dans le plan complexe.

Le centre de gravité d’un nombre croissant d’enroulement est égal, asymptotiquement, à
\[\lim_{n\to\infty} \frac{1}{n} \int_0^n e^{i t\tau} \, f(t) dt.\]
On peut démontrer que, si $f$ est de période $T_0$, cette limite est en général nulle, sauf lorsque $\tau = j\omega_0$ avec $\omega_0=2\pi/T_0$ et $j\in\mathbb{Z}$. Dans ce seul cas, la limite est égale au coefficient de Fourier complexe $\frac{1}{2}(a_j+i b_j)$ où $a_j$ et $b_j$ sont les coefficients de Fourier.

Pour une fonction non-périodique, on peut (sous certaines conditions) mener ce calcul à bien, ce qui permet d’associer à chaque réel $\tau$ un coefficient de Fourier complexe $\widehat{f}(\tau)$.

B. Interprétation de la synthèse harmonique comme un système planétaire : l’épicycloïde

Une autre interprétation de l’analyse de Fourier est celle de l’épicycloïde, plus communément connue sous le nom de spirographe. Dans le jeu du spirographe, des engrenages roulent les uns dans les autres.
On place un stylo dans un petit trou de l’un des engrenages et le déplacement du stylo construit une figure géométrique.

Animation 20. Observez comment l’ordonnée du point qui parcourt le cercle est associée à celle du point parcourant le graphe.

La superposition de plusieurs harmoniques consiste simplement à superposer plusieurs figures, mais en positionnant le centre de la deuxième au niveau du point mobile de la première. On obtient ainsi un « système planétaire » ; la première harmonique est le soleil, la deuxième joue le rôle de la Terre tournant autour du soleil, la troisième est la lune tournant autour de la Terre, la quatrième un satellite tournant autour de la lune, la cinquième un débris tournant autour du satellite, etc.

Animation 21. Observez comment le graphe de
\[f(t)=\sin\left(t+\frac{5\pi}{6}\right)+\frac{1}{2}\sin(3t)\]
peut être généré en superposant une trajectoire circulaire de rayon $1$ et une trajectoire circulaire de rayon $1/2$, parcourue à une vitesse angulaire triple.

Cette vidéo remarquable de Burkard Polster, alias Mathologer, illustre très bien ce point de vue original sur la transformée de Fourier (25min, en anglais) :

Voir aussi la page Wikipedia (anglophone) sur les séries de Fourier, ou
cette animation Javascript de Pierre Guilleminot.

Pour aller plus loin : la géométrie des épicycloïdes.

Cette discussion sur le web explique comment dessiner une figure (presque) arbitraire du plan. Par exemple, on y apprend comment dessiner cet éléphant avec 101 niveaux de cercles superposés.

Un autre exemple étonnant de cette technique est le dessin de Homer Simpson obtenu par Ramiro Serra, Cristián Carman et Santiago Ginnobili :

La thèse de P. Andrew sur l’épicycloïde permettra au lecteur intéressé d’aller encore plus loin.

8. Exemples d’applications de l’analyse de Fourier

Dans cette section, nous présentons quelques applications modernes de l’analyse fréquentielle, et un bref panorama de l’héritage scientifique de Joseph Fourier. Cette section est un peu plus difficile d’accès que le reste de l’article, mais si le lecteur accepte d’admettre quelques calculs intermédiaires, les idées devraient être accessibles à tous.

8.1 — Résolution de certaines équations différentielles

L’analyse fréquentielle est particulièrement adaptée pour résoudre les équations différentielles. Dans une équation différentielle, l’inconnue est une fonction, et l’équation exprime une relation entre les valeurs de la fonction et les valeurs de ses dérivées. Il existe de nombreuses classes d’équations différentielles. Voici un exemple d’équation linéaire, à coefficients constants.

Exemple de résolution d’une équation différentielle

Étant donnée une fonction périodique $g$, on souhaite trouver une fonction $f$ (l’inconnue) telle que
\[\begin{equation} -f''+f=g.\end{equation}\]
Pour simplifier la discussion, on suppose que la fonction $g$ ne comporte qu’un nombre fini d’harmoniques c’est-à-dire qu’on peut l’écrire sous la forme suivante :
\[\begin{equation} g(t)=\alpha_0 + \sum_{j=1}^N \alpha_j \sin(j\omega_0 t+\phi_j). \end{equation}\]
On va chercher une solution particulière du problème, sous la même forme :
\[f(t)=\beta_0 + \sum_{j=1}^N \beta_j \sin(j\omega_0 t+\phi_j).\]
Les coefficients $\beta_0,\beta_1,\ldots$ sont inconnus. On calcule les dérivées successives de $f$ :
\[f'(t)=\sum_{j=1}^N j\omega_0\beta_j \cos(j\omega_0 t+\phi_j), \qquad f''(t)=-\sum_{j=1}^N (j\omega_0)^2\beta_j \sin(j\omega_0 t+\phi_j).\]
Par identification, l’équation $-f''+f=g$ devient une famille d’équations particulièrement simples. Chaque équation peut-être résolue indépendamment des autres ; on dit que le problème a été diagonalisé. On obtient :
\[\begin{cases} \beta_0=\alpha_0\\ \beta_j = \frac{\alpha_j}{1+j^2 \omega_0^2} \quad (j\geq1). \end{cases}\]
La fonction
\[\begin{equation} f_0(t)=\alpha_0 + \sum_{j=1}^N \frac{\alpha_j}{1+j^2 \omega_0^2} \sin(j\omega_0 t+\phi_j)\end{equation}\]
est donc une solution particulière de l’équation différentielle $-f_0’’+f_0=g$.

On souhaite maintenant prescrire le point de départ de la fonction $f$
solution de (14) :
\[\begin{equation} f(0)=c \quad\text{ et }\quad f'(0)=d \end{equation}\]
où $c,d\in\mathbb{R}$ sont des nombres arbitraires donnés.

La valeur $\displaystyle f_0(0)=\alpha_0 + \sum_{j=1}^N \frac{\alpha_j}{1+j^2 \omega_0^2} \sin(\phi_j)$
n’a aucune raison d’être égale à la constante $c$,
et la dérivée $f_0’(0)$ n’a aucune raison de valoir $d$. Ce n’est donc pas la solution $f$ qu’on cherche. Mais on peut réutiliser $f_0$ pour trouver $f$ !
En effet, la différence entre les équations $-f''+f=g$ et $-f_0’’+f_0=g$
donne
\[-(f-f_0)’’+(f-f_0)=0.\]
Autrement dit, la fonction $y=f-f_0$ est une solution de l’équation différentielle $-y''+y=0$. On peut démontrer que les seules solutions de cette équation sont les combinaisons linéaires des fonctions $e^t$ et $e^{-t}$. Il existe donc deux constantes $A,B$ telles que :
\[f(t) - f_0(t) = A e^t + B e^{-t}.\]
Pour déterminer $f$ on doit trouver $A$ et $B$ de sorte que $f(0)=c$ et $f'(0)=d$, ce qui, après substitution, nous donne les valeurs :
\[A=\frac{c+d-f_0(0)-f_0'(0)}{2}, \qquad B=\frac{c-d-f_0(0)+f_0'(0)}{2}\cdotp\]
Nous avons donc obtenu une formule exacte pour la solution de l’équation différentielle :
\[\begin{equation} f(t) = \alpha_0 + \sum_{j=1}^N \frac{\alpha_j}{1+j^2 \omega_0^2} \sin(j\omega_0 t+\phi_j) + A e^t + B e^{-t}. \end{equation}\]

Sur cet exemple, il est intéressant d’observer que la solution $f$ n’est, en général, pas périodique bien que $g$ le soit (sauf si $A=B=0$).

Illustration.
En utilisant la méthode précédente, on peut calculer la solution de l’équation
\[-f’’(t)+f(t)=\sin(t) \quad\text{avec}\quad \begin{cases} f(0)=a+\frac{1}{2},\\ f’(0)=-a+\varepsilon e^{-T} \end{cases}\]
où $a\in\mathbb{R}$, $\varepsilon\in\{-1,0,+1\}$
et $T>0$ sont des paramètres arbitraires.
La solution est la fonction
\[f(t) = \frac{1}{2}\sin(t) +\left(a+\frac{1}{2}\right)e^{-t} + \frac{\varepsilon}{2}\left( e^t-e^{-t} \right) e^{-T}.\]

Dans l’animation suivante, on fait varier les paramètres $a$ et $T$.
Observez leurs effets sur la solution de l’équation. En rouge, la solution
pour $\varepsilon=0$ ; en tiretés, les solutions pour $\varepsilon=+1$ (orange) et $\varepsilon=-1$ (gris).

Cette équation différentielle est particulièrement instable. Si $\varepsilon\neq0$, alors
\[\lim_{t\to+\infty} f(t) = \pm\infty\]
tandis que si $\varepsilon=0$, alors la solution reste bornée.
Une petite erreur sur la valeur de la pente initiale se traduit donc par un changement radical du comportement asymptotique de la solution. Cependant, si $\varepsilon=\pm1$, alors la solution reste bornée sur l’intervalle $[0,T]$, avant de diverger violemment. Dans cet intervalle, l’influence de la donnée initiale sur le profil de la solution est d’ailleurs assez limitée.
Si l’instabilité de la solution de cette équation différentielle rappelle l’effet papillon, elle n’est pas, à proprement parler, un exemple de système chaotique.

8.2 — Un pas vers l’ingénierie des systèmes électroniques

En électronique, les composants passifs sont ceux qui ne peuvent pas augmenter la puissance du signal comme les résistances, condensateurs, bobines et certains capteurs. La plupart de ces composants sont utilisés dans leur régime linéaire. Dans ces conditions, le lien entre le signal d’entrée et le signal de sortie de ces composants est une équation différentielle linéaire à coefficients constants.

Par exemple, la tension aux bornes d’un condensateur est proportionnelle à la charge qu’il contient. Cette charge est modifiée par le courant qui entre (ou sort) du condensateur. L’équation différentielle associée est donc $I=C \frac{dU}{dt}$ où $I$ est l’intensité du courant reçu, $U$ la tension aux bornes et $C$ la capacité électrique.

Différents types de condensateurs

Les composants sont en général associés pour constituer un circuit électronique complexe. Chaque composant linéaire est associé à une équation différentielle. Si le circuit ne contient que des composants linéaires, l’ensemble du circuit est donc aussi associé à une équation différentielle, mais dont l’étude directe peut s’avérer complexe.

Traditionnellement, l’étude des systèmes électroniques utilise la transformée de Laplace plutôt que la transformée de Fourier, mais le principe reste le même. Chaque système est associé à une fonction de transfert (qui n’est rien d’autre que sa représentation fréquentielle), et des règles simples permettent de calculer la fonction de transfert d’une association de composants, en série ou en parallèle. La réponse complète du système est représentée sur un diagramme de Bode : ce diagramme exprime la réponse du système en termes d’amplitude et de phase, en fonction de la fréquence d’entrée.

8.3 — Un pas vers l’analyse hilbertienne

L’analyse de Fourier ne se contente pas de s’appliquer aux problèmes d’ingénierie ou d’approximation numérique. C’est aussi un outil remarquable sur le plan théorique pour les mathématiques.

A. Résolution et étude qualitative de certaines équations aux dérivées partielles

La transformation de Fourier permet la résolution explicite des équations aux dérivées partielles linéaires à coefficients constants ainsi que l’étude qualitative de leurs solutions. Dans ces équations, l’inconnue est une fonction de plusieurs variables et l’équation précise la relation entre les différentes dérivées. Voici quelques exemples fondamentaux.

L’équation de la chaleur
\[\frac{\partial u}{\partial t} - \kappa \left( \frac{\partial^2 u}{\partial x^2} + \frac{\partial^2 u}{\partial y^2} + \frac{\partial^2}{\partial z^2} \right)=0\]
décrit la distribution de température dans un solide de $\mathbb{R}^3$. La constante $\kappa>0$ représente la diffusivité thermique (qui dépend du matériau). La fonction inconnue $u(t,x,y,z)$ est le champ de température, c’est-à-dire la température qu’il fait au point $(x,y,z)$ du solide, à l’instant $t$.

L’équation de Schrödinger
\[i \frac{\partial u}{\partial t} - \hbar \left( \frac{\partial^2 u}{\partial x^2} + \frac{\partial^2 u}{\partial y^2} + \frac{\partial^2}{\partial z^2} \right) = V(t,x,y,z) u.\]
est le modèle fondamental de la mécanique quantique. La fonction inconnue $u(t,x,y,z)$ représente la « fonction d’onde », qui est une fonction abstraite associée à tout système à l’échelle quantique (par exemple un électron, un proton, une molécule...). Elle est à valeurs dans les nombres complexes $\mathbb{C}$. L’interprétation physique est que la (densité de) probabilité que la particule se trouve à l’instant $t$ au point $(x,y,z)$ est proportionnelle au module $|u(t,x,y,z)|^2$ . La fonction $V(t,x,y,z)$ s’appelle le potentiel ; elle représente l’influence du milieu ambiant sur le système quantique. Par exemple, la fonction $V=\frac{1}{2} m\omega^2 x^2$ modélise un oscillateur harmonique quantique, qui est un modèle simple de dynamique moléculaire ($m$ et $\omega$ sont des constantes physiques).

La transformée de Fourier permet également d’analyser les phénomènes de dispersion et fournit un cadre redoutablement efficace pour la résolution des équations aux dérivées partielles non linéaires dispersives, comme
\[i \frac{\partial u}{\partial t} - \hbar \left( \frac{\partial^2 u}{\partial x^2} + \frac{\partial^2 u}{\partial y^2} + \frac{\partial^2}{\partial z^2} \right) = F(u)\]
où $F:\mathbb{C}\to\mathbb{C}$ modélise une auto-interaction du système.
La dispersion est un phénomène central en mécanique ondulatoire, qui contient la clé de la résolution et de l’étude qualitative de nombreuses équations aux dérivées partielles non linéaires.

B. Les ondelettes

Les ondelettes ont été à l’origine de nombreuses avancées dans divers domaines appliqués tels que le traitement du signal et de l’image. On peut illustrer simplement la théorie des ondelettes avec le système de Haar introduit au début du XXème siècle par Alfred Haar dans sa thèse. Ce système est défini par les fonctions
\[\Psi_{j,k}(x)=2^{j/2} \psi(2^j x-k) \qquad j,k\in\mathbb{Z}\]
où $\psi=\mathbf{1}_{[0,1/2]}-\mathbf{1}_{[1/2,1]}$.

Toute fonction $f:\mathbb{R}\to\mathbb{R}$ se décompose (sous certaines conditions) comme suit :
\[f(x)=\sum_{j,k\in\mathbb{Z}} \langle f \vert \Psi_{j,k}\rangle \Psi_{j,k}(x)\]
avec des coefficients (appelés coefficients d’ondelettes) :
\[\langle f \vert \Psi_{j,k}\rangle= \int_{\mathbb{R}} f(x) \Psi_{j,k}(x) dx.\]

Cette décomposition est une généralisation de la notion de série de Fourier que nous avons présentée ci-dessus. Plus généralement, les notions de série de Fourier d’une fonction périodique, de transformée de Fourier d’une fonction non périodique, et de transformée en ondelettes d’un signal d’énergie finie sont trois instances d’une théorie générale, appelée l’analyse hilbertienne. Cette théorie permet un traitement géométrique de nombreux problèmes d’analyse.

Les ondelettes sont aussi le point de départ de l’analyse multi-fractale pour laquelle nous renvoyons à l’article d’Alain Arneodo et Stéphane Jaffard.

C. Littlewood-Paley et l’analyse microlocale

La transformation de Fourier est au cœur de la théorie de Littlewood-Paley qui fut introduite par John Edensor Littlewood et Raymond Paley dans les années trente. L’idée principale de cette théorie consiste à échantillonner l’ensemble des fréquences à l’aide d’un découpage en couronnes de taille $2^j$.

L’analyse de Littlewood-Paley joue un rôle central dans l’étude des inégalités fonctionnelles et dans l’analyse des équations aux dérivées partielles non linéaires, comme le système de Navier-Stokes. Pour un éventail plus large de champs d’applications, on renvoie le lecteur à cet article d’Isabelle Gallagher, ou à l’ouvrage de Pierre-Gilles Lemarié.

8.4 — Conclusion : l’héritage de Joseph Fourier

L’analyse de Fourier a eu un impact colossal sur le développement de la physique et des mathématiques. Son importance s’est renforcée au cours du XXème siècle. Elle intervient aujourd’hui notamment en analyse mathématique et dans des domaines appliqués tels que la simulation numérique ou encore le traitement du signal et de l’image ainsi que dans la plupart des branches de la physique.

L’une des motivations à l’origine de cette théorie est d’analyser, reconstruire et représenter des fonctions quelconques à l’aide de fonctions élémentaires. Cette démarche, qui a créé une véritable révolution dans la manière de penser une fonction, s’est beaucoup intensifiée avec l’apparition des ordinateurs et le développement du calcul numérique : la possibilité (sous certaines conditions) d’approcher fidèlement une fonction $f$ par une somme finie d’harmoniques est d’un grand intérêt pratique pour les applications et le calcul numérique.

L’analyse de Fourier s’est aussi imposée comme un outil puissant dans l’étude des équations aux dérivées partielles, et plus particulièrement les équations d’évolution, lesquelles décrivent le comportement d’un phénomène physique dépendant du temps. La théorie de Fourier permet non seulement la résolution explicite des équations linéaires à coefficients constants, mais également l’analyse d’équations non-linéaires. Les applications de cette théorie dans le domaine des mathématiques fondamentales sont très nombreuses et nous ne pouvons toutes les énumérer ici. Pour un éventail plus large des champs d’applications, on renvoie le lecteur au livre de H. Bahouri, J.-Y. Chemin et R. Danchin et les références qui s’y trouvent.

L’analyse de Fourier a inspiré les ondelettes qui ont été à l’origine de nombreuses avancées dans divers domaines appliqués tels que le traitement du signal et de l’image. L’enjeu est toujours de représenter des fonctions quelconques à l’aide de fonctions élémentaires. Ces fonctions élémentaires, appelées bases d’ondelettes, apportent un niveau supplémentaire de discrétisation par rapport à la reconstruction par l’analyse de Fourier où seules les fréquences rentrent en jeu. Pour la théorie des ondelettes, deux paramètres interviennent : la fréquence et la localisation spatiale. Un des résultats phare de cette théorie consiste à représenter un élément par ses $N$ coefficients les plus significatifs, ce qui joue un rôle crucial dans le traitement du signal et en particulier de l’image. Le succès de la théorie des ondelettes n’est plus à démontrer ni dans le traitement du signal et de l’image, ni dans le domaine de la simulation numérique des équations aux dérivées partielles. Pour un aperçu général des applications de cette théorie, on peut consulter cet article et la vidéo d’Yves Meyer.

L’année 2018 a été déclarée Année Joseph Fourier par la Société Mathématique de France. L’article de Martin Koppe présente de manière très accessible des éléments de la vie de Joseph Fourier ainsi que l’importance de la théorie de Fourier pour le traitement du signal, les ondelettes, la compression d’images et la recherche actuelle en physique.

Bibliographie

[1] Anderstood. How can I draw a Homer with epicycloids ?.
Mathematica stackexchange, 2018.

[2] P. Andrew. The mathematics of the epicycloid : a historical journey with a modern perspective.
2009.

[3] A. Arneodo, S. Jaffard. L’analyse multifractale des signaux.
Images des Maths, 2004.

[4] H. Bahouri, J.-Y. Chemin, R. Danchin. Fourier Analysis and Nonlinear Partial Differential Equations. Springer, 2011.

[5] J. Brown. Cables, Transmission Lines, and Shielding for Audio and Video Systems.

[6] I. Gallagher. Autour des équations de Navier-Stokes Images des Maths, 2010.

[7] S. Ginnobili. Ptolemy and Homer Simpson. YouTube, 2008.

[8] P.A. Guihéneuf. Le phénomène de Gibbs.
Images des Maths, 2017.

[9] P. Guilleminot. Fourier series visualisation with d3.js.

[10] B. Hammack. An Old Mechanical Computer : The Harmonic Analyzer.
YouTube, 2016.

[11] B. Hammack. Albert Michelson’s Hamonic Analyser.
Articulate Noise Books, PDF, 2014.

[12] A. Juhel (alias www.mathouriste.eu). Dans la chaleur des séries... une promenade Fouriériste !.

[13] Khan Academy. Proof of angle addition formula for sine. YouTube, 2014.

[14] M. Koppe. Joseph Fourier transforme toujours la Science. Journal du CNRS, 2018.

[15] P.G. Lemarié. The Navier-Stokes Problem in the 21st Century. Chapman and Hall/CRC, 2016.

[16] Y. Meyer. Les ondelettes et la révolution numérique. Article et vidéo sur culturemath.ens.fr, 2000.

[17] B. Polster (alias Mathologer). Epicycles, complex Fourier and Homer Simpson’s orbit. YouTube, 2018.

[18] G. Sanderson (alias 3Blue1Brown). But what is the Fourier Transform ? A visual introduction. YouTube, 2018.

[19] Société Mathématique de France. 2018 - Année Fourier.

[20] ToneSpectra.com. Standing Waves Generated by String Vibration. YouTube, 2011.

[21] F. Vigneron. Signal Analysis playlist. YouTube, 2018.

[22] Wikipédia. Analyse fonctionnelle.

[23] Wikipédia. Analyse numérique.

[24] Wikipédia. Composant électronique.

[25] Wikipédia. Convergence of Fourier series.

[26] Wikipédia. Diagramme de Bode.

[27] Wikipédia. Differential equation.

[28] Wikipédia. Diffusivité thermique.

[29] Wikipédia. Dispersion relation.

[30] Wikipedia. Effet papillon.

[31] Wikipédia. Electronic filter.

[32] Wikipédia. Épicyloïde.

[33] Wikipédia. Espace de Hilbert.

[34] Wikipédia. Fonction de transfert.

[35] Wikipédia. Fourier series.

[36] Wikipédia. Mécanique quantique.

[37] Wikipédia. Ringing artifacts.

[38] Wikipédia. Série de Fourier.

[39] Wikipédia. Spirograph.

[40] Wikipédia. Topologie.

[41] Wikipédia. Transformation de Laplace.

[42] Wikipédia. Transmission line.

Post-scriptum :

Nous tenons à remercier chaleureusement les relecteurs, Olivier Reboux et Sébastien Peronno, pour leurs remarques et leurs conseils. Nous remercions aussi Bill Hammack qui nous a autorisés à utiliser sa photo de l’analyseur de Michelson.

Article édité par Stéphane Labbé

Partager cet article

Pour citer cet article :

Francois Vigneron, Hajer Bahouri — «Analyse fréquentielle du signal» — Images des Mathématiques, CNRS, 2019

Crédits image :

img_18665 - Bill Hammack, 2016.
img_18666 - Michael Frey (Wikipedia)
Différents types de condensateurs - Eric Schrader

Commentaire sur l'article

Laisser un commentaire

Forum sur abonnement

Pour participer à ce forum, vous devez vous enregistrer au préalable. Merci d’indiquer ci-dessous l’identifiant personnel qui vous a été fourni. Si vous n’êtes pas enregistré, vous devez vous inscrire.

Connexions’inscriremot de passe oublié ?

Suivre IDM