Meditationes Algebraicae

Tribune libre
Écrit par Joël Merker
Publié le 7 avril 2009

Prologue

En 1782, le mathématicien anglais Edward Waring publie la troisième édition de ses Meditationes Algebricae. Waring était l’un des mathématiciens les plus profonds du 18ième siècle, et ses travaux précurseurs en combinatoire anticipent largement la théorie moderne des partitions et des fonctions symétriques (Young, Serret, Ferrers, Schur, Mac Mahon, Kostka, Littlewood). Il a surtout travaillé sur la résolution des équations algébriques, la théorie des nombres, l’approximation des racines, les dénombrements, l’interpolation, les sections coniques et la cinématique.

On peut éprouver une certaine « attirance d’algébriste amateur » pour les travaux de Waring, car il s’y déploie des calculs libres, systématiques et foisonnants. En aventurier des arborescences algébriques et des arabesques combinatoires, Waring poursuit ses inspirations inductives ; il s’arme pour cela d’un flair tout particulier qui lui permet de soulever certains problèmes gratuits et originaux, et de les résoudre pour le seul plaisir d’exprimer sa virtuosité de calculateur distingué.

Trois objectifs

Dans ce billet à durée de vie éphémère et qui n’est consacré ni à la dynamique polychromo-symbolique ni à la géométrie vidéo-animée, mon objectif sera de susciter des images mentales et des « meditationes », en dégageant trois axes d’exposition :

  • motiver, exposer et expliquer dans un langage moderne la formule combinatoire close dite de Waring qui exprime explicitement les sommes dites de Newton (voir ci-dessous) au moyen des fonctions symétriques dites élémentaires (ce premier axe se voudra accessible à un élève du secondaire) ;
  • formuler des commentaires philosophiques généraux sur la nature du calcul formel en mathématiques et sur le rapport complexe que nous entretenons avec celui-ci (paragraphes intercalaires) ;
  • retranscrire, analyser, et commenter la démarche même de Waring et la manière dont il pense le théorème combinatoire qu’il a découvert (ce ne sera pas de l’histoire des mathématiques).
  • Contribuer sans figures, sans diagrammes et sans illustrations au site Image des mathématiques, c’est peut-être une gageure. Peu de thématiques algébriques se prêtent en effet à la vulgarisation, et il est bien malaisé de transmettre à l’écrit toutes les intuitions fantastiques qui naissent dans le giron multicolore des manuscrits secrets des grands calculateurs.

Pour rédiger ce texte, je me suis servi de la traduction anglaise [war1991] par Dennis Weeks de la troisième édition latine des Meditationes Algebricae.

Guide de lecture

L’amateur de textes de vulgarisation qui ne connaît pas les formules de Waring (ou qui ne s’en souvient plus) abordera ce texte d’une manière linéaire. Le curieux-pressé lira seulement les commentaires intercalaires, ou se reportera directement à la fin du billet, partie la plus originale. Le philosophe des mathématiques méditera, dialoguera, et rêvera peut-être. L’historien enfin pardonnera à l’auteur — il l’espère — ses insuffisances en matière documentaire.

Polynômes invariants par permutation des variables

Soit \(\mathbb{K}\) un corps commutatif de caractéristique nulle, que l’on peut supposer être le corps des nombres rationnels \(\mathbb{Q}\) pour fixer (concrètement) les idées. Soient \((x_1, x_2, \dots, x_n)\) des variables formelles commutatives, que l’on peut supposer appartenir à \(\mathbb{R}\) ou à \(\mathbb{C}\) pour fixer les idées.

On considère l’algèbre, notée \(\mathbb{K} [ x_1, \dots, x_n]\), de tous les polynômes:
\[
P(x)
=
\sum_{\rm finie}\,
P_{\alpha_1,\dots,\alpha_n}
\cdot
(x_1)^{\alpha_1}\cdots (x_n)^{\alpha_n},
\]
à coefficients \(P_{ \alpha_1, \dots, \alpha_n} \in \mathbb{ K}\), qui sont sommes finies arbitraires de monômes \((x_1)^{ \alpha_1} \cdots (x_n)^{\alpha_n}\) dont tous les exposants \(\alpha_1, \dots, \alpha_n\) sont bien sûr supposés positifs.

Une permutation de l’ensemble \(\{ 1, 2, \dots, n\}\) des \(n\) premiers entiers naturels est une bijection quelconque:
\[
\sigma
:
\{1,2,\dots,n\}
\longrightarrow
\{1,2,\dots,n\},
\]
de cet ensemble; ainsi l’ensemble \(\{ \sigma ( 1), \sigma( 2), \dots, \sigma ( n)\}\) est le même que \(\{ 1, 2, \dots, n\}\), à ceci près que ses termes, intervertis par \(\sigma\), sont écrits dans un ordre différent. C’est le changement d’ordre qui constitue l’essence de la permutation.

Une double liste à deux lignes représente fidèlement l’action d’une permutation: l’image d’un élément est tout simplement située à sa verticale:
\[
\begin{array}{cc}
1\ \ 2\ \ 3\ \ 4\ \ 5
\\
4\ \ 5\ \ 2\ \ 3\ \ 1.
\end{array}
\]

La collection, notée \(\mathcal{ S}_n\), de toutes ces permutations \(\sigma\), forme un groupe pour la composition entre applications de \(\{ 1, \dots, n\}\):
\[
\tau\circ\sigma\in\mathcal{S}_n
\ \ \ \ \
{\rm pour\,\,tous}
\ \
\sigma,\ \tau\in\mathcal{S}_n \ ;
\]
la permutation identité appartient évidemment à \(\mathcal{ S}_n\) et l’inverse (en tant qu’application) \(\sigma^{ -1}\) d’une permutation \(\sigma\) est aussi clairement une permutation.

Le cardinal de \(\mathcal{ S}_n\), à savoir le nombre de permutations \(\sigma\) distinctes de \(\{ 1, 2, \dots, n\}\), est égal au nombre, appelé factorielle de \(n\):
\[
n!
:=
n\cdot(n-1)\cdots
2\cdot 1,
\]
qui est le produit de tous les entiers de \(1\) allant jusqu’à \(n\). En
effet, par une permutation \(\sigma\) quelconque, l’élément \(1\) peut prendre \(n\) valeurs distinctes dans \(\{ 1, 2, \dots, n\}\), et ensuite l’élément \(2\) peut prendre les \((n-1)\) valeurs restantes, puis il reste \((n-2)\) valeurs pour l’élément \(3\), etc.

Le groupe \(\mathcal{ S}_n\) agit alors sur les variables \(x = (x_1, \dots, x_n)\) en permutant leurs indices inférieurs:
\[
x^\sigma
=
(x_1,x_2,\dots,x_n)^\sigma
:=
\big(
x_{\sigma(1)},x_{\sigma(2)},\dots,x_{\sigma(n)}
\big)
\]
et par extension, cette action transforme chaque polynôme \(P ( x)\) en le polynôme:
\[
P^\sigma(x)
:=
\sum_{\rm finie}\,
P_{\alpha_1,\dots,\alpha_n}\,
\big(x_{\sigma(1)}\big)^{\alpha_1}
\cdots
\big(x_{\sigma(n)}\big)^{\alpha_n}.
\]
Ainsi les permutations de \(\mathcal{ S}_n\) agissent-elles aussi sur \(\mathbb{ K} [ x_1, \dots, x_n]\).

Tout polynôme \(P^\sigma ( x)\) sur lequel a agi une permutation \(\sigma \in \mathcal{ S}_n\) peut se réécrire sous la forme:
\[
P^\sigma(x)
=
\sum_{\rm finie}\,
P_{\alpha_{\sigma(1)},\dots,\alpha_{\sigma(n)}}\,
x_1^{\alpha_1}\cdots
x_n^{\alpha_n},
\]
où \(\sigma\) agit maintenant sur les indices inférieurs \(\alpha_1, \dots, \alpha_n\) des coefficients \(P_{ \alpha_1, \dots, \alpha_n}\) de \(P\). En effet:
\[
\begin{array}{cc}
P^\sigma(x)
=
\sum_{\rm finie}\,
P_{\alpha_1,\dots,\alpha_n}\cdot
(x_{\sigma(1)})^{\alpha_1}\cdots
(x_{\sigma(n)})^{\alpha_n}
\\
=
\sum_{\rm finie}\,
P_{\alpha_1,\dots,\alpha_n}\cdot
(x_1)^{\alpha_{\sigma^{-1}(1)}}\cdots
(x_n)^{\alpha_{\sigma^{-1}(n)}}
\ \ \ \ \ \
[{\rm poser}\,\,\,\sigma(k) = k’]
\\
=
\sum_{\rm finie}\,
P_{
\beta_{\sigma(1)},\dots,\beta_{\sigma(n)}}\cdot
(x_1)^{\beta_1}\cdots
(x_n)^{\beta_n}
\ \ \ \ \ \
[{\rm poser}\,\,\,\alpha_{ \sigma^{ -1} (k’)} := \beta_{ k’}].
\end{array}
\]

Maintenant, lorsque deux polynômes:
\[
P(x)
=
\sum_{\rm finie}\,
P_{\alpha_1,\dots,\alpha_n}\,
x_1^{\alpha_1}\cdots x_n^{\alpha_n}
\ \ \ \ \ \
{\rm et}
\ \ \ \ \ \
R(x)
=
\sum_{\rm finie}\,
R_{\alpha_1,\dots,\alpha_n}\,
x_1^{\alpha_1}\cdots x_n^{\alpha_n}
\]
ont tous leurs coefficients égaux, c’est-à-dire \(P_\alpha =R_\alpha\) quel que soit \(\alpha \in \mathbb{ N}^n\), on dit qu’ils sont identiquement égaux, ce que l’on écrit:
\[
P(x)
\equiv
R(x).
\]

Définition. Un polynôme \(P ( x)\) est dit complètement symétrique, ou (terminologie équivalente) \(\mathcal{ S}_n\)-invariant si l’on a
\[
P^\sigma(x)
\equiv
P(x)
\]
pour toute permutation \(\sigma \in \mathcal{ S}_n\). De manière équivalente:
\[
P_{\alpha_{\sigma(1)},\dots,\alpha_{\sigma(n)}}(x)
=
P_{\alpha_1,\dots,\alpha_n}(x)
\ \ \ \ \
{\rm pour\,\,tous}\ \
\alpha_1,\dots,\alpha_n.
\]
Historiquement, les premiers exemples de polynômes complètement symétriques proviennent du très célèbre problème de la résolution des équations algébriques. Évoquons-le en quelques mots.

Fonctions symétriques élémentaires

Lorsqu’un polynôme à une variable de degré \(n\) et à coefficients dans \(\mathbb{ K}\):
\[
p(t)
=
t^n
+
a_1t^{n-1}
+\cdots+
a_{n-1}t
+
a_n
\]
dont le coefficient directeur est égal à \(1\), admet \(n\) racines \(x_1, x_2, \dots, x_n\) dans \(\mathbb{ K}\), on démontre aisément qu’il s’identifie au produit de tous les facteurs \((t – x_i)\) possibles de degré \(1\):
\[
p(t)
\equiv
(t-x_1)(t-x_2)\cdots (t-x_n),
\]
et un tel produit scindé montre alors visiblement que ces \(x_i\) sont les racines de \(p\).

Maintenant, lorsqu’on développe ce produit, certaines fonctions universelles des \(x_i\), connues depuis le quinzième siècle apparaissent naturellement. Par exemple, le coefficient de \(t^{ n-1}\) est égal à:
\[
{-}x_1-x_2-\cdots-x_n,
\]
et c’est clairement un polynôme complètement symétrique en les \(x_i\); ensuite, le coefficient de \(t^{ n-2}\) est égal à:
\[
\begin{array}{r}
x_1x_2
+
x_1x_3+\cdots+x_1x_n
\\
+x_2x_3+\cdots+x_2x_n
\\
\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \
\cdots\cdots\cdots\cdot
\\
\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \
\ \ \ \ \ \
+x_{n-1}x_n,
\end{array}
\]
et il est lui aussi complètement symétrique. En toute généralité, le coefficient de \(t^{ n-k}\) est égal à \(( -1)^k {\rm s}_k\) où la \(k\)-ième fonction symétrique élémentaire:

\[
{\rm s}_k
=
{\rm s}_k(x_1,\dots,x_n)
:=
\sum_{1\leq i_1 < i_2 < \cdots < i_k\leq n}\,
x_{i_1}x_{i_2}\cdots x_{i_k},
\]
est définie en prenant la somme de tous les produits possibles de \(k\) termes \(x_i\) distincts, écrits par ordre croissant d’indices (grâce à la commutativité de la multiplication entre variables). En particulier à la fin pour \(k = n\), on a \({\rm s}_n(x) = x_1 x_2 \cdots x_n\) sans aucune somme, puisque les inégalités \(1 \leq i_1 < \cdots < i_n \leq n\) ne sont satisfaites que pour le seul choix \(i_1 =1, \, \dots, \, i_n = n\). Tous ces polynômes \({\rm s}_k ( x)\) sont complètement symétriques.

En développant donc le produit en question, on obtient ainsi:
\[
p(t)
=
t^n-{\rm s}_1\,t^{n-1}
+
{\rm s}_2\,t^{n-2}-{\rm s}_3\,t^{n-3}
+\cdots+
(-1)^n\,{\rm s}_n\,t^0.
\]

Par exemple, pour \(k = 3\):
\[
{\rm s}_3
=
x_1x_2x_3+x_1x_2x_4+\cdots+x_{n-2}x_{n-1}x_n.
\]
Paradoxe:
étudier les polynômes à une variable nécessite d’élaborer une théorie des polynômes à plusieurs variables, mais là n’est pas notre propos — puisque nous allons  seulement nous concentrer sur un chapitre spécial de la combinatoire des fonctions symétriques.

Fonctions des racines d’un polynôme

Dans son célèbre mémoire [lag1771] intitulé Réflexions sur la résolution algébrique des équations, Lagrange a exposé, repensé et unifié toutes les méthodes de résolution des équations algébriques dues à ses prédécesseurs: Scipione del Ferreo, Tartaglia, Cardan, Tschirnaus, Wallis, Cramer, Ferrari, Descartes, Bézout, Euler. Par la recherche d’une systématicité harmonieuse, le secret espoir de Lagrange était de pouvoir deviner la forme d’une certaine fonction algébrique inconnue
\[
\mathrm{Inc}_L (
x_1, x_2, x_3, x_4, x_5)
\]
des cinq racines complexes d’un polynôme général \(t^5 + a_1 t^4 + a_2 t^3 + a_3 t^2 + a_4 t + a_5\) de degré cinq, afin de pouvoir trouver les formules de résolution que bien des géomètres quêtaient ardemment à cette époque3
À ma connaissance, c’est Charles Hermite qui le premier aurait fait voir en 1840, en faisant abstraction des travaux de Ruffini, d’Abel et de Galois, dans le tout premier article de mathématiques qu’il a publié alors qu’il était encore élève au Lycée Louis-le-Grand, que les recherches de Lagrange ne pouvaient fournir des résolvantes  de degré inférieur à cinq, comme Lagrange lui-même l’avait pressenti.
.

Pour l’exercice de pensée, tentons ici de faire abstraction des travaux de Ruffini, d’Abel et de Galois qui devaient démontrer ultérieurement l’inanité d’une telle entreprise. Tentons donc de nous glisser dans l’esprit d’un mathématicien de la fin du 18ième siècle comme Lagrange ou Euler, pour qui le calcul libre et ambitieux, envisagé comme exploration pure, est la « bonne » manière de faire de la recherche en mathématiques.

D’un point de vue philosophique, c’est toujours de cette manière-là que nous dirigeons notre pensée face à toute question mathématique ouverte.

  • Élaguer, unifier, simplifier.
  • Progresser du connu vers l’inconnu.
  • Réorganiser inlassablement les calculs.
  • Chercher à dévoiler les harmonies sous-jacentes.
  • Rendre visible l’invisible.
  • Et surtout: attendre l’instant crucial où l’œil de la pensée devine en un instant les structures générales.

Toujours est-il que Lagrange est parvenu, pour les équations de degré 2, 3 et 4, à rendre limpides les raisons pour lesquelles elles sont résolubles par radicaux, en toute généralité.

Par exemple, les formules, dites de Cardan, qui produisent les trois racines complexes \(x_1, x_2, x_3\) d’un polynôme \(t^3 + a_1 t^2 + a_2 t + a_3\) dont les coefficients rationnels \(a_1, a_2, a_3\) sont généraux, reposent sur la fameuse  résolvante de Lagrange :
\[
\big(x_1+j\,x_2+j^2\,x_3\big)^3,
\]
où \(j := e^{ 2 \pi i / 3}\) (qui satisfait \(j^3 = 1\)) est racine troisième primitive de l’unité. Lorsqu’on permute de toutes les manières possibles les trois variables \(x_1, x_2, x_3\) que cette résolvante incorpore, elle ne prend que deux valeurs différentes4Ici dans ce résumé seulement, nous court-circuitons les détails et nous sous-entendons quelques arguments. Le lecteur intéressé pourra se reporter aux références choisies qui sont mentionnées à la fin de ce paragraphe.. Lagrange démontre alors qu’elle est nécessairement solution d’une équation du deuxième degré, équation que l’on sait déjà (depuis longtemps) être résoluble par radicaux en toute généralité.

Pour l’équation générale de degré \(4\), Lagrange considère deux types de résolvantes:
\[
x_1x_2+x_3x_4
\ \ \ \ \ \ \ \
{\rm ou}
\ \ \ \ \ \ \ \
(x_1+x_2)(x_3+x_4)
\]
qui ne prennent que trois (\(< 4\)) valeurs lorsqu’on permute de manière arbitraire \(x_1, x_2, x_3, x_4\). Comme  Lagrange l’a mis en lumière, c’est pour cette raison que Ferrari a pu ramener la résolution des équations de degré \(4\) à celles de degré \(3\), elles-mêmes résolubles par radicaux d’après ce qui vient d’être rappelé.

Existe-t-il alors des fonctions algébriques naturelles des cinq racines \(x_1, x_2, x_3, x_4, x_5\) de l’équation générale \(t^5 + a_1 t^4 + a_2 t^3 + a_3 t^2 + a_4 t + a_5 = 0\) qui ne prennent que quatre valeurs distinctes? « Stratégie de la mer qui monte », disait Grothendieck: repenser, englober, unifier, deviner, et enfin: trouver — telle est la méthode universelle. Néanmoins, après des tentatives qui sont restées lettre morte dans ses manuscrits, Lagrange soupçonnait déjà l’impossibilité d’une telle fonction hypothétique — mais nous n’en dirons pas plus.

Sur ce chapitre passionnant de l’histoire et de la philosophie des mathématiques dont nous allons maintenant nous écarter, nous recommandons les références [alf1978], [ay1980], [ed1984], [esc2001], [lag1771], [serr1877], [vui962].

Théorème de Lagrange

Avant d’élaborer sa théorie des résolvantes arbitraires, Lagrange énonçait déjà, au début du Chapitre 4 de son mémoire prolifique, un théorème fondamental concernant les fonctions qui ne prennent qu’une seule valeur différente lorsqu’on permute toutes ses variables \(x_1, x_2, \dots, x_n\). C’est cet énoncé basique que nous prendrons comme point de départ.

Théorème

Soit \(P = P ( x_1, \dots, x_n) \in \mathbb{ K} [ x_1, \dots, x_n]\) un polynôme
complètement symétrique par permutation de ses variables, à savoir qui satisfait:
\[
P
\big(
x_{\sigma(1)},x_{\sigma(2)},\dots,x_{\sigma(n)}
\big)
\equiv
P(x_1,x_2,\dots,x_n)
\]
pour toute permutation \(\sigma\) de l’ensemble \(\{ 1, 2, \dots, n\}\). Alors il existe un unique polynôme \(Q = Q ( s_1, \dots, s_n)\) (dépendant de \(P\)) en \(n\) variables \((s_1, \dots, s_n)\) tel que \(P\) se représente, via la composition à gauche par \(Q\), comme fonction polynomiale des fonctions symétriques élémentaires, i.e. tel que l’égalité:
\[
P(x_1,\dots,x_n)
\equiv
Q
\big(
{\rm s}_1(x_1,\dots,x_n),\dots,{\rm s}_n(x_1,\dots,x_n)
\big)
\]
soit identiquement satisfaite dans \(\mathbb{ K} \big[ x_1, \dots, x_n
\big]\).

De nombreuses références (voir par exemple [alf1978], [stu1993]) offrent des démonstrations concises de cet énoncé. Ici, nous l’admettrons sans le redémontrer, car les démonstrations en question, imparfaites en un certain sens, passent sous silence bien des questions qui ne peuvent être résolues qu’avec la théorie des partitions, des tableaux de Young et des nombres de Kostka.

Analyse a posteriori du théorème de Lagrange

Tout polynôme complètement symétrique s’écrit donc comme une certaine expression rationnelle en les fonctions symétriques élémentaires \({\rm s}_k ( x)\). Cet énoncé transfère ainsi la \(\mathcal{ S}_n\)-invariance du polynôme \(P = \sum\, P_{ \alpha_1, \dots, \alpha_n} \, x_1^{ \alpha_1} \cdots x_n^{ \alpha_n}\), laquelle recouvrait de manière opaque un (très) grand nombre de relations d’égalité entre les coefficients de ses monômes:
\[
P_{\alpha_{\sigma(1)},\dots,\alpha_{\sigma(n)}}
=
P_{\alpha_1,\dots,\alpha_n},
\]
vers une représentation qui met parfaitement en lumière cette invariance: on vérifie en effet immédiatement — après admission du théorème — que l’action sur \(P\) d’une permutation \(\sigma \in \mathcal{ S}_n\) quelconque:
\[
\begin{array}{cc}
\big(P(x_1,\dots,x_n)\big)^\sigma
&
=
\big[Q({\rm s}_1(x),\dots,{\rm s}_n(x)\big)\big]^\sigma
\\
&
=
Q\big(
{\rm s}_1^\sigma(x),\dots,{\rm s}_n^\sigma(x)
\big)
\\
&
\equiv
Q\big(
{\rm s}_1(x),\dots,{\rm s}_n(x)\big)
\\
&
=
P(x_1,\dots,x_n)
\end{array}
\]
laisse visiblement \(P\) invariant pour la seule et simple raison que les fonctions symétriques élémentaires elles-mêmes sont évidemment invariantes:
\[
\big({\rm s}_k(x)\big)^\sigma
\equiv
{\rm s}_k(x).
\]

Commentaire philosophique

La compréhension adéquate de tout énoncé mathématique requiert toujours une «  perception métaphysique » du gain synthétique qu’il produit. En fait, la conclusion d’un théorème fournit à la pensée comme une augmentation de sa propre énergie potentielle, parce qu’une information éclairante se substitue à l’ouverture des définitions initiales. Dans toute théorie, les hésitations de l’intuition, les imprécisions de la perception, et l’opacité des champs d’investigation s’estompent peu à peu grâce aux lemmes, grâce aux propositions et grâce aux théorèmes.

Tout théorème implique un acte de reconnaissance a posteriori de l’évidence qu’il propose.

Ce n’est en effet que dans l’ a posteriori des conclusions véridiques que l’on est autorisé à lire la confirmation indubitable d’une simplicité attendue a priori. Dans ces moments-là, il n’est plus nécessaire de mobiliser la perplexité dialectique, pourtant essentielle à d’autres moments, lorsqu’il s’agit de progresser dans l’Obscur qui résiste.

L’harmonie formelle et la complétude symbolique dont font preuve les fonctions symétriques élémentaires \({\rm s}_k ( x)\) pouvaient en effet laisser présager qu’elles seules sont invariables par rapport à l’action complète du groupe \(\mathcal{ S}_n\) de permutations, et qu’il n’y a « pas d’autres » fonctions complètement symétriques. Le théorème rend raison d’une telle anticipation, même lorsqu’elle est recréée a posteriori pour les besoins de l’analyse. Souvent, l’esprit du conjectural détermine sa position par rapport à l’inconnu en invoquant l’action de certains principes de raison suffisante. Les métaphysiques leibniziennes vivent toujours au cœur de la recherche mathématique contemporaine, telle était l’une des thèses de Heidegger dans son ouvrage Le principe de raison.

Formules de Newton

Considérons maintenant un exemple très classique de fonction complètement symétrique, la somme des puissances \(k\)-ièmes de toutes les variables \(x_i\):
\[
{\rm N}_k
=
{\rm N}_k(x)
:=
x_1^k
+
x_2^k
+\cdots+
x_n^k,
\]
appelées sommes de Newton, où \(k \geq 1\) est un entier quelconque. Par convention, il est naturel de définir aussi \({\rm N}_0 := n\), puisque \(x_1^0 + \cdots + x_n^0 = 1 + \cdots + 1 =
n\). Ainsi pour \(k = 1, 2, 3\), ces sommes s’écrivent:
\[
\begin{array}{cc}
{\rm N}_1
&
=
x_1+x_2+\cdots+x_n
\\
{\rm N}_2
&
=
x_1^2+x_2^2+\cdots+x_n^2
\\
{\rm N}_3
&
=
x_1^3+x_2^3+\cdots+x_n^3.
\end{array}
\]
Visiblement, ces \({\rm N}_k ( x)\) sont complètement symétriques:
\[
x_{\sigma(1)}^k+x_{\sigma(2)}^k
+\cdots+
x_{\sigma(n)}^k
\equiv
x_1^k+x_2^k+\cdots+x_n^k,
\]
parce qu’une permutation quelconque \(\sigma\) des indices inférieurs change seulement l’ordre d’apparition des \(x_i^k\), et parce que l’addition de plusieurs termes peut s’effectuer dans n’importe quel ordre.

Question. Que donne le théorème de Lagrange pour les sommes de Newton ? Autrement dit : Comment exprimer explicitement les sommes de Newton au moyen des fonctions symétriques élémentaires ?

Commentaire spéculatif

À cette question, on serait tenté de répondre : inspectons tout simplement la démonstration du théorème de Lagrange, telle qu’on la trouve dans les références citées, regardons comment elle fonctionne, analysons ce qu’elle donne, et avec un peu de chance, nous constaterons qu’elle répond complètement à la question posée.

Pour répondre à la question, une recherche spécifique est en fait nécessaire. En mathématiques, nombreux sont les « théorèmes » séduisants qui semblent répondre de manière satisfaisante à tout un ordre de questions, et qui néanmoins travaillent furtivement à des niveaux partiels et incomplets. La première aptitude que doivent posséder aussi bien l’amateur que le professionnel, c’est ce flair absolu de l’ouverture.

Deux exemples très élémentaires

Tout d’abord, il est évident que:
\[
{\rm N}_1
=
{\rm s}_1
=
x_1+\cdots+x_n.
\]
Ensuite, pour réduire \({\rm N}_2\) en fonction de \({\rm s}_1\) et \({\rm s}_2\), il suffit de remobiliser l’astuce connue qui consiste à faire apparaître un carré:
\[
\begin{array}{cc}
x_1^2+\cdots+x_n^2
&
=
\big(x_1+\cdots+x_n\big)^2-2\big(
x_1x_2+\cdots+x_{n-1}x_n
\big)
\\
&
=
({\rm s}_1)^2-2\,{\rm s}_2,
\end{array}
\]
et le tour est joué. Pour \({\rm N}_3\), une telle approche fonctionne aussi (exercice). Mais nous allons envisager le problème d’une manière beaucoup plus systématique.

Récurrences ouvertes

Newton lui-même a écrit des formules de récurrence qui permettent de calculer pas à pas les \({\rm N}_k\) en fonction des \({\rm s}_l\). On doit distinguer les cas, suivant que l’ordre \(k\) de l’exponentiation dans \({\rm N}_k\) est plus petit, ou plus grand que le nombre \(n\) des variables.

Proposition.

Lorsque \(k \leq n\), la \(k\)-ième somme de Newton \({\rm N}_k\) s’exprime comme suit en fonction des \({\rm N}_{ k’}\) d’ordre \(k ‘ \leq k – 1\) et des fonctions symétriques élémentaires:
\[
{\rm N}_k
=
{\rm s}_1\,{\rm N}_{k-1}-{\rm s}_2\,{\rm N}_{k-2}
+\cdots+
(-1)^{k-2}\,{\rm s}_{k-1}\,{\rm N}_1
+
(-1)^{k-1}\,{\rm s}_k\cdot k
\]
(noter que le dernier terme est \(k\), et non pas \({\rm N}_0 = n\) comme on pourrait le supputer).

Lorsque \(k \geq n\), la \(k\)-ième somme de Newton \({\rm N}_k\) s’exprime différemment, par une formule tronquée au \(n\)-ième terme:}
\[
{\rm N}_k
=
{\rm s}_1\,{\rm N}_{k-1}-{\rm s}_2\,{\rm N}_{k-2}
+\cdots+
(-1)^{n-2}\,{\rm s}_{n-1}\,{\rm N}_{k-n+1}
+
(-1)^{n-1}\,{\rm s}_n\,{\rm N}_{k-n}.
\]

On notera aussi que pour \(k = n\), les deux formules s’identifient, puisque leurs deux termes ultimes coïncident alors. Tout comme le théorème, cette proposition sera admise (voir [alf1978], p.166). Dans un instant, nous démontrerons complètement un énoncé beaucoup plus significatif.

Ainsi par exemple, lorsque le nombre \(n\) de variables est supposé être \(\geq 4\), on a:
\[
\begin{array}{cc}
{\rm N}_1
&
=
{\rm s}_1
\\
{\rm N}_2
&
=
{\rm s}_1\,{\rm N}_1-{\rm s}_2\cdot 2
\\
{\rm N}_3
&
=
{\rm s}_1\,{\rm N}_2-{\rm s}_2\,{\rm N}_1
+
{\rm s}_3\cdot 3
\\
{\rm N}_4
&
=
{\rm s}_1\,{\rm N}_3-{\rm s}_2\,{\rm N}_2
+
{\rm s}_3\,{\rm N}_1-{\rm s}_4\cdot 4,
\end{array}
\]
et puisque le but est de représenter les sommes de Newton en fonction des \({\rm s}_l\), on est immédiatement incité à insérer pas à pas ces formules les unes dans les autres, ce qui donne, en détaillant toutes les étapes de calcul:
\[
\begin{array}{cc}
&
{\rm N}_2
=
{\rm s}_1\cdot{\rm s}_1-{\rm s}_2\cdot 2
=
\big({\rm s}_1\big)^2-2\,{\rm s}_2
\\
&
{\rm N}_3
=
{\rm s}_1\big[
({\rm s}_1)^2-2\,{\rm s}_2\big]-{\rm s}_2\cdot{\rm s}_1
+
{\rm s}_3\cdot 3
\\
&
=
({\rm s}_1)^3-3\,{\rm s}_1\,{\rm s}_2
+
3{\rm s}_3
\\
&
{\rm N}_4
=
{\rm s}_1\big[
({\rm s}_1)^3-3\,{\rm s}_1\,{\rm s}_2
+
3\,{\rm s}_3
\big]-{\rm s}_2
\big[
({\rm s}_1)^2-2\,{\rm s}_2
\big]
+
{\rm s}_3\cdot{\rm s}_-{\rm s}_4\cdot 4
\\
&
=
({\rm s}_1)^4-4\,({\rm s}_1)^2{\rm s}_2
+
4\,{\rm s}_3\,{\rm s}_1
+
2({\rm s}_2)^2-4\,{\rm s}_4.
\end{array}
\]

Formules de Waring

Théorème.(Waring)

Pour tout entier \(k \geq 1\), la \(k\)-ième somme de Newton s’exprime comme suit au moyen des fonctions symétriques élémentaires:
\[
{\rm N}_k
=
k\cdot
\sum_{i_1+2i_2+\cdots+ni_n=k}\,
\frac{(-1)^{i_2+2i_3+\cdots+(n-1)i_n}}{
i_1+i_2+\cdots+i_n}\,
\frac{(i_1+i_2+\cdots+i_n)!}{i_1!\,i_2!\,\cdots\,i_n!}\,
({\rm s}_1)^{i_1}
({\rm s}_2)^{i_2}
\cdots
({\rm s}_n)^{i_n}
\]

Commentaire mathématico-philosophique

Voilà donc la réponse attendue. Par rapport aux formules de Newton, les formules de Waring présentent en effet un avantage considérable: pour connaître une somme \({\rm N}_k\), il n’est plus nécessaire d’effectuer de très nombreuses substitutions et de lourds calculs à partir des longues formules inductives fournies par la Proposition ci-dessus. Newton obtenait ses formules avec des arguments relativement aisés, et ce faisant, laissait en fait ouvert un problème qui aurait éventuellement pu cacher des difficultés calculatoires insurmontables. La formule de Waring ferme les récurrences ouvertes que Newton avait déc-ouvertes.

Qu’appelle-t-on ici fermer une récurrence? Sans élaborer d’analyse générale, voici seulement un exemple très simple. Il est bien connu que les formules inductives ouvertes:
\[
{\textstyle{C^{n-1}_{p-1}}}
+
{\textstyle{C^{n-1}_{p}}}
=
{\textstyle{C^{n}_{p}}},
\ \ \ \ \ \
{\textstyle{C^{1}_{1}}}
=
1,
\]
qui permettent de calculer pas à pas les nombres binomiaux de Pascal (lesquels s’organisent en un triangle harmonieux) peuvent être remplacées par la formule close:
\[
{\textstyle{C^{n}_{p}}}
=
{\textstyle{\frac{n!}{p!\,(n-p)!}}}
\]
qui donne directement la valeur de ces nombres em>sans avoir à reparcourir tous les calculs intermédiaires, seulement indiqués par les formules de récurrence. La dialectique entre formules ouvertes et formules closes est ubiquitaire en mathématiques: elle manifeste la protension permanente qu’a l’irréversible-synthétique à se réaliser.

C’est Waring qui accomplira réellement le travail qui était laissé en suspens par Newton. Sans utiliser la Proposition ci-dessus et avant de voir comment Waring lui-même l’a utilisée, démontrons le théorème en utilisant un argument élégant qui repose sur la série formelle de la fonction logarithme. Mais juste auparavant, donnons une application.

Exemple

En particulier, pour \(k = 5\) et un nombre \(n \geq 5\) quelconque de variables, il y a exactement 7 solutions entières à l’équation \(i_1 + 2 i_2 + 3 i_3 + \cdots + n i_n = 5\), à savoir, \(i_j=0\) pour \(j>5\) et :
\[
\begin{array}{ccc}
(i_1,i_2,i_3,i_4,i_5)
&
=
&
(5,0,0,0,0),
\
{\rm ou}\
(3,1,0,0,0),
\
{\rm ou}\
(2,0,1,0,0),
\
{\rm ou}\
(1,2,0,0,0),
\\
& &
{\rm ou}\
(1,0,0,1,0),
\
{\rm ou}\
(0,1,1,0,0),
\
{\rm ou}\
(0,0,0,0,1),
\end{array}
\]
et par conséquent, une application directe de la formule de Waring donne \({\rm N}_5\) sans avoir à passer par le calcul de \({\rm N}_4\), \({\rm N}_3\), \({\rm N}_2\), \({\rm N}_1\):
\[
\begin{array}{cc}
{\rm N}_5
&
=
5\Big[
{\textstyle{\frac{1}{5}}}\,{\textstyle{\frac{5!}{5!}}}\,
({\rm s}_1)^5-{\textstyle{\frac{1}{4}}}\,{\textstyle{\frac{4!}{3!\,1!}}}\,
({\rm s}_1)^3\,{\rm s}_2
+
{\textstyle{\frac{1}{3}}}\,{\textstyle{\frac{3!}{2!\,1!}}}\,
({\rm s}_1)^2\,{\rm s}_3
+
{\textstyle{\frac{1}{3}}}\,{\textstyle{\frac{3!}{1!\,2!}}}\,
{\rm s}_1({\rm s}_2)^2
\\
&
\ \ \ \ \ \ \ \ \ \
{-}{\textstyle{\frac{1}{2}}}\,{\textstyle{\frac{2!}{1!\,1!}}}\,
{\rm s}_1\,{\rm s}_4-{\textstyle{\frac{1}{2}}}\,{\textstyle{\frac{2!}{1!\,1!}}}\,
{\rm s}_2\,{\rm s}_3
+
{\textstyle{\frac{1}{1}}}\,{\textstyle{\frac{1!}{1!}}}\,
{\rm s}_5
\Big]
\\
&
=
({\rm s}_1)^5-5\,({\rm s}_1)^3\,{\rm s}_2
+
5\,({\rm s}_1)^2\,{\rm s}_3
+
5\,{\rm s}_1({\rm s}_2)^2-5\,{\rm s}_1\,{\rm s}_4
+
5\,{\rm s}_5.
\end{array}
\]

Démonstration moderne des formules de Waring

Pour la démonstration, partons maintenant du développement formel (standard) d’un polynôme qui est le produit de facteurs du premier degré:
\[
(X-x_1)(X-x_2)\cdots(X-x_n)
=
X^n-{\rm s}_1\,X^{n-1}
+\cdots+
(-1)^{n-1}{\rm s}_{n-1}X
+
(-1)^n{\rm s}_n.
\]
Rappelons à nouveau que le membre de droite fait naturellement apparaître les fonctions symétriques élémentaires, puisque par exemple, lorsque l’on développe ce produit, le coefficient de \(X^{ n-1}\) s’obtient en prenant de toutes les manières possibles le terme constant \(-x_k\) dans un seul facteur, ce qui donne \(-x_1 – \cdots – x_n = {\rm s}_1\); le coefficient de \(X^{ n-2}\) s’obtient en prenant de toutes les manières possible le terme constant dans deux facteurs distincts, etc.; à la fin, le coefficient de \(X^0\) est égal à
\((-x_1)(-x_2) \cdots ( -x_n) = (-1)^n {\rm s}_n\).

Dans cette identité basique, posons maintenant \(X := \frac{ 1}{ Y}\), multiplions-la par \(Y^n\):
\[
\begin{array}{cc}
Y^n
&
\Big(\frac{1}{Y}-x_1\Big)
\Big(\frac{1}{Y}-x_2\Big)
\cdots
\Big(\frac{1}{Y}-x_n\Big)
=
\\
&
=
Y^n
\bigg[
\Big(\frac{1}{Y}\Big)^n-{\rm s}_1
\Big(\frac{1}{Y}\Big)^{n-1}
+\cdots+
(-1)^{n-1}{\rm s}_{n-1}\frac{1}{Y}
+
(-1)^n{\rm s}_n
\bigg],
\end{array}
\]
et distribuons équitablement une simple puissance \(Y^1\) sur chacun des facteurs à gauche pour obtenir une sympathique identité:
\[
(1-x_1Y)(1-x_2Y)\cdots(1-x_nY)
=
1-{\rm s}_1Y
+\cdots+
(-1)^{n-1}{\rm s}_{n-1}Y^{n-1}
+
(-1)^n{\rm s}_nY^n,
\]
qui sera notre point de départ fondamental.

Appliquons pour commencer le logarithme, vu comme série formelle:
\[
\begin{array}{cc}
\log(1-T)
&
=
{-}T-\frac{T^2}{2}-\cdots–\frac{T^k}{k}-\cdots
\\
&
=
{-}\sum_{k\geq 1}\,
\frac{T^k}{k}
\end{array}
\]
à chacun des deux membres de cette sympathique identité, en utilisant bien sûr la propriété magique \(\log \big( a_1 a_2 \cdots a_n \big) = \log a_1 + \log a_2 + \cdots + \log a_n\) qu’a le logarithme de « transsubstantialiser » la multiplication en addition, ce qui nous donne:
\[
\begin{array}{cc}
&
\log(1-x_1Y)
+
\log(1-x_2Y)
+\cdots+
\log(1-x_nY)
=
\\
&
=
{-}\sum_{k\geq 1}\,
\frac{x_1^k\,Y^k}{k}-\sum_{k\geq 1}\,
\frac{x_2^k\,Y^k}{k}-\cdots-\sum_{k\geq 1}\,
\frac{x_n^k\,Y^k}{k}
\\
&
=
{-}\sum_{k\geq 1}\,
\frac{1}{k}
\Big(
x_1^k+x_2^k+\cdots+x_n^k
\Big)\,Y^k
\\
&
=
{-}\sum_{k\geq 1}\,
\frac{1}{k}\,
{\rm N}_k\,Y^k.
\end{array}
\]
Ainsi obtenons-nous presque gratuitement une série formelle indexée par les puissances \(Y^k\) de la variable \(Y\) dont les coefficients sont exactement (au facteur \(- \frac{ 1}{ k}\) près) les sommes de Newton \({\rm N}_k (x)\) que nous cherchons à représenter au moyen des fonctions symétriques élémentaires \({\rm s}_l (x)\).

Or par ailleurs, le membre de droite de l’identité sympathique de départ ne comprend que ces \({\rm s}_l (x)\). Appliquons donc maintenant le logarithme formel aussi à ce membre de droite en utilisant une deuxième fois la formule générale \(\log \big[ 1 – U \big] = – \sum_{ i \geq 1}\, \frac{ U^i}{ i}\) pour obtenir:
\[
\begin{array}{cc}
\log
\Big[
1-{\rm s}_1Y+\cdots+(-1)^n{\rm s}_nY^n
\Big]
&
=
\log
\Big[
1-\big(
{\rm s}_1Y+\cdots+(-1)^{n-1}{\rm s}_nY^n
\big)
\Big]
\\
&
=
{-}\sum_{i\geq 1}\,
\frac{1}{i}\,
\big(
{\rm s}_1Y-{\rm s}_2Y^2
+\cdots+
(-1)^{n-1}{\rm s}_nY^n
\big)^i.
\end{array}
\]
Il est clair maintenant qu’afin d’atteindre la formule de Waring annoncée dans le théorème, il va nous suffire de développer toutes ces puissances \(\big( {\rm s}_1 Y – {\rm s}_2 Y^2 + \cdots\big)^i\) d’ordre \(i\) et de réorganiser tous les termes obtenus en une série \(\sum_{ k \geq 1 }\, {\rm coeff}\cdot Y^k\) dont les termes « \({\rm coeff}\) » seront justement ceux que nous recherchons.

À cette fin, dans la formule classique du multinôme (elle aussi due à Newton):
\[
\big(
Z_1+Z_2
+\cdots+
Z_n
\big)^i
=
\sum_{i_1+i_2+\cdots+i_n=i}\,
\frac{(i_1+i_2+\cdots+i_n)!}{i_1!\,i_2!\,\dots\,i_n!}\,
\big(Z_1\big)^{i_1}
\big(Z_2\big)^{i_2}
\cdots
\big(Z_n\big)^{i_n}
\]
remplaçons tout simplement \(Z_1 := {\rm s}_1 Y\), \(Z_2 := – {\rm s}_2 Y^2\), \( {\dots}\), \(Z_n := (-1)^{ n-1} {\rm s}_n Y^n\), ce qui nous permet de poursuivre comme suit le calcul que nous avons laissé en suspens il y a un instant:
\[
\begin{array}{cc}
&
=
{-}\sum_{i\geq 1}\,
\frac{1}{i}\,
\sum_{i_1+i_2+\cdots+i_n=i}\,
\frac{(i_1+i_2+\cdots+i_n)!}{i_1!\,i_2!\,\cdots\,i_n!}\,\cdot
\\
&
\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \
\cdot
({\rm s}_1)^{i_1}(-{\rm s}_2)^{i_2}
\cdots
\big((-1)^{n-1}{\rm s}_n\big)^{i_n}\cdot
Y^{i_1+2i_2+\cdots+ni_n}
\\
&
=
{-}\sum_{i\geq 1}\,
\sum_{i_1+i_2+\cdots+i_n=i}\,
Y^{i_1+2i_2+\cdots+ni_n}\cdot
\frac{(-1)^{i_2+2i_3+\cdots+(n-1)i_n}}{i_1+i_2+\cdots+i_n}\,\cdot
\\
&
\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \
\cdot
\frac{(i_1+i_2+\cdots+i_n)!}{i_1!\,i_2!\,\cdots\,i_n!}\cdot
({\rm s}_1)^{i_1}
({\rm s}_2)^{i_2}
\cdots
({\rm s}_n)^{i_n};
\end{array}
\]
à la deuxième ligne, nous réorganisons les termes en déplaçant la puissance de \(Y\) au début et en rassemblant toutes les puissances de \(-1\).

Pour terminer, il nous faut encore transformer cette double somme en collectant, pour tout \(Y^k\) qui peut apparaître ici, le coefficient qui lui correspond. Ainsi un tel entier \(k\) doit être égal à:
\[
k
=
i_1+2i_2+\cdots+ni_n;
\]
il est \(\geq 1\), puisque l’un des \(i_j\) au moins est \(\geq
1\), et l’on doit considérer tous les \(n\)-uplets \((i_1, i_2, \dots,
i_n)\) tels que \(i_1 + 2i_2 + \cdots + ni_n = k\). Par conséquent, notre double somme précédente se transforme tout simplement en:
\[
\begin{array}{cc}
&
=
{-}\sum_{k\geq 1}\,
Y^k\,
\sum_{i_1+2i_2+\cdots+ni_n=k}\,
\frac{(-1)^{i_2+2i_3+\cdots+(n-1)i_n}}{i_1+i_2+\cdots+i_n}\cdot
\frac{(i_1+i_2+\cdots+i_n)!}{i_1!\,i_2!\,\cdots\,i_n!}\cdot
({\rm s}_1)^{i_1}
({\rm s}_2)^{i_2}
\cdots
({\rm s}_n)^{i_n},
\end{array}
\]
et pour conclure la démonstration du théorème, il nous suffit juste d’identifier le coefficient de \(Y^k\) dans cette formule au coefficient \(-\frac{ 1}{ k}\, {\rm N_k}\) de \(Y^k\) dans la première formule que nous avons obtenue plus haut (noter la neutralisation des signes « \(-\) »). Voilà, la démonstration « moderne et directe » du théorème de Waring achevée!

L’énoncé du théorème par Waring lui-même : perplexité ?

Le Chapitre 1 des Meditationes Algebricae de Waring qui s’intitule: « Une méthode pour trouver une équation dont les racines sont une fonction algébrique quelconque des racines d’une équation donnée »
commence par un premier problème qu’accompagne sa solution.

Problème 1.
Soient \(\alpha, \beta, \gamma, \delta, \varepsilon,
\dots\) les racines d’une équation donnée:
\[
x^n-p\,x^{n-1}
+
q\,x^{n-2}-r\,x^{n-3}
+
s\,x^{n-4}-t\,x^{n-5}
+
v\,x^{n-6}-w\,x^{n-7}
+
z\,x^{n-8}-\cdots
=
0.
\]
Trouver la somme \(\alpha^m + \beta^m + \gamma^m + \delta^m +\varepsilon^m + \cdots\). }

La somme demandée, écrit Waring, sera égale à:
\[
\begin{array}{cc}
p^m-mq\,p^{m-2}
+
mr\,p^{m-3}
+
\left\{
\begin{array}{cc}
&
+ms
\\
&
+{\textstyle{\frac{m(m-3)}{2}}}\,q^2
\end{array}
\right\}p^{m-4}
+
\end{array}
\]

\[
\begin{array}{cc}
+
\left\{
\begin{array}{cc}
&
+mt
\\
&
{-}m(m-4)\,qr
\end{array}
\right\}p^{m-5}
+
\left\{
\begin{array}{cc}
&
{-}mv
\\
&
+m(m-5)\,qs
\\
&
+{\textstyle{\frac{m(m-5)}{2}}}\,r^2
\\
&
{-}{\textstyle{\frac{m(m-5)(m-4)}{2\cdot 3}}}\,q^3
\end{array}
\right\}p^{m-6}
+
\end{array}
\]

\[
\begin{array}{cc}
+
\left\{
\begin{array}{cc}
&
+mw
\\
&
{-}m(m-6)\,qt
\\
&
{-}m(m-6)\,rs
\\
&
+{\textstyle{\frac{m(m-6)(m-5)}{2}}}\,q^2r
\end{array}
\right\}
p^{m-7}
+
\left\{
\begin{array}{cc}
&
{-}mz
\\
&
+m(m-7)\,qv
\\
&
+m(m-7)\,rt
\\
&
{-}{\textstyle{\frac{m(m-7)(m-6)}{2}}}\,q^2s
\\
&
{-}{\textstyle{\frac{m(m-7)(m-6)}{2\cdot 3}}}\,qr^2
\\
&
+{\textstyle{\frac{m(m-7)(m-6)(m-5)}{2\cdot 3\cdot 4}}}\,q^4
\end{array}
\right\}p^{m-8}
+\cdots.
\end{array}
\]

S’agit-il vraiment du même théorème? Pourquoi tant de lettres? Waring n’utilise-t-il pas des indices? Et ces grandes accolades? Comment expliquer l’apparition chaotique des signes \(-\) et \(+\)?

Lecture multiversale et appropriation intuitive

Cette série obéit à une double règle, écrit Waring, l’une concernant les produits littéraux, et l’autre concernant les unciae, ou coefficients numériques. Le lecteur est alors invité à regarder la formule pour y deviner toutes les structures combinatoires.
Plutôt que de démontrer directement la formule, et plutôt que de la comprimer symboliquement, comme on aurait choisi de le faire pour n’importe quelle présentation moderne, Waring va au contraire déployer et amplifier sa formule, il va l’expliquer en la décrivant sous plusieurs angles afin que ses lecteurs puissent l’embrasser mentalement comme par l’effet d’une géométrie descriptive des structures algébriques.

Pour la partie littérale, dit Waring, la règle est la suivante: les termes entre accolades qui sont associés à une puissance donnée:
\[
p^{m-u}
\]
du premier coefficient \(p\), où l’entier \(u\) est successivement égal à \(1, 2, 3, 4, 5, 6, 7, 8, \dots\), comprennent tous les produits littéraux possibles des autres coefficients (lettres) \(q, r, s, t, v, w, \dots\) du polynôme en question, les produits qui apparaissent devant notamment respecter une certaine règle d’homogénéité qui est spécifiquement définie comme suit.

By the exponents of the coefficients of the given equation, I mean the numbers designating their distance from the first term of the equation, namely, the exponent of the coefficient \(q\) is \(2\); of \(r\), \(3\); of \(s\), \(4\); of \(t\), \(5\); and so on — and in consequence, that the exponent of any power of the coefficient \(q\), such as \(q^\mu\), shall be \(2\mu\); the exponent of any power of \(r\), say \(r^\nu\), shall be \(3\nu\); the exponent of \(s^\pi\) shall be \(4 \pi\); the exponent of \(t^\rho\) shall be \(5 \rho\); and likewise for all the
rest of them.

Every literal product which can be so composed from the sum \(u\) must be adjoined to the power \(p^{ m – u}\). [war1991], p. 2.

Autrement dit, dans les accolades, on doit inscrire tous les produits possibles:
\[
q^\mu r^\nu s^\pi t^\rho v^\sigma w^\tau \cdots
\]
dont l’homogénéité \(2 \mu + 3 \nu + 4 \pi + 5 \rho + 6 \sigma + 7\tau
+ \cdots\) soit égale au défaut \(u\) par rapport à \(m\) de l’exposant
\(m-u\) de \(p\) dans le facteur de liaison \(p^{ m-u}\).

Par exemple, pour l’accolade attachée à \(p^{ m – 6}\), puisqu’on a les quatre seules décompositions:
\[
6=6=2+4=3+3=2+2+2,
\]
quatre monômes exactement doivent apparaître: \(v\), \(qs\), \(r^2\), \(q^3\). Les décompositions possibles de \(u\) en somme de nombres entiers \(\geq 2\) affirment ainsi un principe métaphysique de genèse littérale. En résumé:

For the literal parts the rule is this: to form the product of the exponents of each individual coefficient of the given equation, with their respective powers, joining them symbolically to the quantity \(p\), such that they sum up to \(u\), where \(p^{ m-u}\) is the power of \(p\) to which the products of these letters will be adjoined.

Remarques intercalaires

Dans ses manuscrits de recherche, pour une raison qui tient peut-être aux hasards de son parcours dans les principes organisateurs idéaux des mathématiques, Waring a collecté les résultats en fonction des puissances de \(p\). Un premier moment d’exploration a consisté à appliquer sans réfléchir les formules de Newton jusqu’à un niveau élevé de complexité. Tous ces engagements: la foi décidée en l’induction, la confiance métaphysique à l’égard des principes rationnels, les postulats implicites quant à la préexistence d’harmonies littérales, exigent un tel travail de déploiement symbolique.

Fait symptomatique qui a tout pour nous intéresser, Waring tient, dans la publication de ses travaux, à conserver rigoureusement toute la substance symbolique qu’il a créée et explicitée patiemment à la main. Même si cela peut sembler superflu pour les stricts besoins de l’exposition et de la transmission du savoir, Waring tient en effet à faire embrasser aussi à son lecteur les totalités presque incompressibles de l’induction mathématique. Pas de sécateur pour la sève algébrique.

Détail encore plus symptomatique, même lorsqu’il s’agit de lister des séquences évidentes telles que \(k = 1, 2, \dots\) ou encore \(2 i_2 + 3 i_3 + \cdots\), écritures que l’usage contemporain tronque habituellement dès le deuxième ou le troisième terme, Waring évidera longuement tous ces minces fils d’Ariane qui sont autant d’incitations à entrer dans les labyrinthes indéfinis du calcul. Preuves que les intentions d’écriture sont bien présentes:

\(\bullet\) le polynôme étudié est écrit dans l’énoncé du Problème 1 jusqu’à la profondeur \(-8\) des exposants de \(x\);

\(\bullet\) les monômes qui apparaissent entre accolades sont désignés par \(q^\mu r^\nu s^\pi t^\rho v^\sigma w^\tau \cdots\) jusqu’à une longueur six; à comparer à l’écriture moderne \(x_1^{ \alpha_1} \cdots x_n^{ \alpha_n}\), qui n’est que de longueur deux.

C’est ainsi qu’on mobilise le mieux l’intuition (si imparfaite) de l’infini, en se conformant, par allusions suivies et images amplifiées, à sa générativité propre.

À l’opposé, le logiciel de calcul formel à qui l’on commande en quelques lignes d’effectuer les opérations de substitution, même s’il séduit par la production instantanée du résultat, est totalement incapable (du moins à notre époque) de cette réflexivité mémorielle de la pensée qui nous permet d’embrasser descriptivement toutes les règles de formation combinatoire.

Unciae

Deux mystères restent à éclaircir: quels sont les coefficients des monômes \(\big\{ {\rm coeff} \, q^\mu r^\nu s^\pi t^\rho v^\sigma w^\tau \cdots \big\} \, p^{ m-u}\)? Et quels sont leurs signes?

Of the numerical coefficients, or unciae, the rule is this: for each literal product \(p^{ m-u} \, q^\mu r^\nu s^\pi t^\rho v^\sigma w^\tau \cdots\) the coefficient will be a fraction, whose numerator is
\[
m(m-u+1)(m-u+2)(m-u+3)(m-u+4)(m-u+5)(m-u+6)\cdots
\]
(in which the number of factors is equal to the sum of the indices, i.e. \(\mu + \nu + \rho + \sigma + \tau + \cdots\)), and whose denominator is a product of factorials of the indices \(\mu\), \(\nu\), \(\pi\), \(\rho\) etc. respectively. More explicitly, in our working example the coefficient of the litteral product \(p^{ m-u}\, q^\mu r^\nu s^\pi t^\rho \cdots\) will be
\[
\begin{array}{cc}
\frac{
m(m-u+1)(m-u+2)(m-u+3)(m-u+4)\cdots
(m-u+\mu+\nu+\pi+\rho+\sigma+\cdots-1)
}{
\mu!\,\,\nu!\,\,\pi!\,\,\rho!\,\cdots
}.
\end{array}
\]

To the coefficient of the literal product is affixed a sign which will be positive or negative, when \(u\) is an even number, according as the sum \(\mu + \nu + \pi + \rho + \sigma + \cdots\) is even or odd, and the opposite sign will be affixed when \(u\) is an odd number; more generally, the sign will be positive or negative according as the sum \(u + \mu + \nu + \pi + \rho + \cdots\) is even or odd.

Circulation, généralisation, compréhension

Cette fois-ci, toutes les règles sont dévoilées. On comprend instantanément que la descriptive algébrique offerte par Waring à son lecteur lui permet maintenant de calculer chacune des accolades adjointes à une puissance de \(p\), par exemple (exercice d’application triviale) la prochaine puissance \(p^{ m -9}\) — juste pour le plaisir de faire naître sous sa plume tous les monômes avec leurs coefficients entiers qui ne présentent maintenant plus aucun mystère.

Joie de savoir la réponse, bonheur de connaître les règles, sentiment d’être dans le secret des calculs.

La démonstration qu’en donne Waring, si elle n’était pas agrémentée de son souci de disposer les termes sur de longues lignes tabulaires qui remplissent tout une page, ne serait qu’une triste récurrence sur l’exposant \(m\), en partant des formules (imparfaites) de Newton. Si nous ne nous engageons pas ici plus avant dans l’analyse d’une telle démonstration, mentionnons toutefois que Waring a réellement accompli le travail de fermeture des récurrences newtoniennes et que l’on peut s’imaginer que les trois règles qu’il décrit, ils les a d’abord devinées en creusant ses calculs jusqu’à une certaine profondeur.

Comprendre la formule ici, ce n’est certainement pas (seulement) la démontrer. En mathématique, il existe un niveau multi-transversal de compréhension, comme une espèce de « vision gestaltiste » des équations qui ne se soucierait pas des fondements, des rigorisations arides, et des démonstrations minutieuses. Encadrés dans la dialectique du vrai et du faux par une rigueur spéculative qui est leur secret, Waring, Gauss, Hermite, puis Ramanujan et d’autres ont su se constituer un maillage de visions qui leur permettait de percevoir les noeuds de la réalité mathématique.

Question

Comment l’Algèbre pourrait-elle briser les barreaux de la successivité temporelle ?

Références

[alf1978]

Arnaudiès, J.-M. ; Lelong-Ferrand, J. : Cours de mathématiques. Tome 1. Algèbre. Troisième édition. 1er Cycle Universitaire. Classes Préparatoires. Mathématiques. Dunod, Paris, 1977. x+534 pp. retour

[ay1980]

Ayoub, Paolo Ruffini’s contributions to the quintic, Arch. Hist. Exact Sci. 23 (1980/81), no. 3, 253—277. retour

[ed1984]

Edwards, H. : Galois theory. Graduate Texts in Mathematics, 101. Springer-Verlag, New York, 1984. xiii+152 pp. retour

[esc2001]

Escofier, J.-P. : Galois theory. Graduate Texts in Mathematics, 204. Springer-Verlag, New York, 2001. xiv+280 pp.retour

[lag1771]

Lagrange, J.-L. : Réflexions sur la résolution algébrique des équations, Mémoires de l’Académie de Berlin de 1770—1771. Œuvres, tome III, Section II, pp. 205—424, Gauthier-Villars, Paris, 1867—1912. retour

[mac1995]

Macdonald, I.G. : Symmetric functions and Hall polynomials. Second edition. With contributions by A. Zelevinsky. Oxford Mathematical Monographs. Oxford Science Publications. The Clarendon Press, Oxford University Press, New York, 1995. x+475 pp. retour

[serr1877]

Serret, J.-A. : Cours d’algèbre supérieure, 2 vol., 4ième éd., Gauthier-Villars, Paris, 1877. retour

[stu1993]

Sturmfels, B. : Algorithms in invariant theory, Texts and Monographs in Symbolic Computation, Springer-Verlag, Vienna, 1993, vi+197 pp.retour

[tign1980]

Tignol, J.-P. : Leçons sur la théorie des équations. Monographies de Mathématique, 1. Université Catholique de Louvain, Institut de Mathématique Pure et Appliquée, Louvain-La-Neuve, 1980. 250 pp. retour

[vui962]

Vuillemin, J. : La philosophie de l’algèbre, Presses Universitaires de France, Collection Épiméthée, Paris, 1962. retour

[war1991]

Waring, E. : Meditationes Algebricae, an English translation of the work of Edward Waring by Dennis Weeks, American Math. Soc., Providence, 1991. retour

ÉCRIT PAR

Joël Merker

Professeur - Université Paris-Saclay

Partager

Commentaires

  1. François Sauvageot
    avril 9, 2009
    19h29

    Cher Joël,

    merci pour tes méditations sur les méditations.

    Sur Waring, tu lui prêtes peut-être parfois trop. Le fameux problème de Waring fut par lui formulé ainsi :

    Tout nombre est somme de quatre carrés, de neuf cubes, de dix-neuf bicarrés, et « ainsi de suite ».

    Sa formulation laisse penser que tout nombre peut être écrit comme somme d’un certain nombre (fixé) de puissances, le nombre de puissances dépendant de celle-ci.

    La première démonstration en fut pourtant donnée par Hilbert un siècle plus tard.

    Par ailleurs, à propos du calcul formel, la question est surtout celle du calcul. Les formules fermées que tu évoques sont-elles d’une quelconque utilité pour qui calcule ? Voilà la question ! Du moins pour toi qui t’intéresse aux calculs, non ?

    La complexité d’une formule ouverte est parfois bien moins grande que celle d’une formule fermée. Et que l’on soit humain ou ordinateur, quand il faut effectuer les opérations, on aura intérêt à pencher vers la complexité moindre …