Meditationes Algebraicae

Le 7 avril 2009  - Ecrit par  Joël Merker Voir les commentaires (1)

Prologue

En 1782, le mathématicien anglais Edward Waring publie la troisième
édition de ses Meditationes Algebricae. Waring était l’un
des mathématiciens les plus profonds du 18ième
siècle, et ses travaux précurseurs en combinatoire anticipent
largement la théorie moderne des partitions et des fonctions
symétriques (Young, Serret, Ferrers, Schur, Mac Mahon, Kostka,
Littlewood). Il a surtout travaillé sur la résolution des équations
algébriques, la théorie des nombres, l’approximation des racines, les
dénombrements, l’interpolation, les sections coniques et la
cinématique.

On peut éprouver une certaine « attirance d’algébriste amateur »
pour les travaux de Waring, car il s’y déploie des calculs libres,
systématiques et foisonnants. En aventurier des arborescences
algébriques et des arabesques combinatoires, Waring poursuit ses
inspirations inductives ; il s’arme pour cela d’un flair tout
particulier qui lui permet de soulever certains problèmes gratuits et
originaux, et de les résoudre pour le seul plaisir d’exprimer sa
virtuosité de calculateur distingué.

Trois objectifs

Dans ce billet à durée de vie éphémère et qui n’est consacré ni à la
dynamique polychromo-symbolique ni à la géométrie vidéo-animée, mon
objectif sera de susciter des images mentales et des « meditationes »,
en dégageant trois axes d’exposition :

$\bullet$
motiver, exposer et expliquer dans un langage moderne la formule
combinatoire close dite de Waring qui exprime
explicitement les sommes dites de Newton (voir ci-dessous)
au moyen des fonctions symétriques dites élémentaires (ce
premier axe se voudra accessible à un élève du secondaire) ;

$\bullet$
formuler des commentaires philosophiques généraux sur la nature du
calcul formel en mathématiques et sur le rapport complexe
que nous entretenons avec celui-ci (paragraphes intercalaires) ;

$\bullet$
retranscrire, analyser, et commenter la démarche même de Waring et
la manière dont il pense le théorème combinatoire qu’il a
découvert (ce ne sera pas de l’histoire des mathématiques).

Contribuer sans figures, sans diagrammes et sans illustrations au site
Image des mathématiques, c’est peut-être une gageure. Peu de
thématiques algébriques se prêtent en effet à la vulgarisation,
et il est bien malaisé de transmettre à l’écrit toutes les intuitions
fantastiques qui naissent dans le giron multicolore
des manuscrits secrets des grands calculateurs.

Pour rédiger ce texte, je me suis servi de la traduction anglaise
[war1991] par Dennis Weeks de la troisième édition
latine des Meditationes Algebricae.

Guide de lecture

L’amateur de textes de vulgarisation qui ne connaît pas les formules
de Waring (ou qui ne s’en souvient plus) abordera ce texte d’une
manière linéaire. Le curieux-pressé lira seulement les commentaires
intercalaires, ou se reportera directement à la fin du billet,
partie la plus originale. Le philosophe des mathématiques méditera,
dialoguera, et rêvera peut-être. L’historien enfin pardonnera à
l’auteur — il l’espère — ses insuffisances en
matière documentaire.

Polynômes invariants par permutation des variables

Soit $\mathbb{ K}$ un corps commutatif de caractéristique nulle, que
l’on peut supposer être le corps des nombres rationnels $\mathbb{ Q}$
pour fixer (concrètement) les idées. Soient $(x_1, x_2, \dots, x_n)$ des variables formelles
commutatives, que l’on peut supposer appartenir à
$\mathbb{ R}$ ou à $\mathbb{ C}$ pour fixer les idées.

On considère l’algèbre, notée $\mathbb{ K} [ x_1, \dots, x_n]$,
de tous les polynômes :
[
P(x)
=
\sum_\rm finie\,
P_\alpha_1,\dots,\alpha_n
\cdot
(x_1)^\alpha_1\cdots (x_n)^\alpha_n,
]
à coefficients $P_{ \alpha_1, \dots, \alpha_n} \in \mathbb{ K}$, qui
sont sommes finies arbitraires de monômes $(x_1)^{ \alpha_1} \cdots (x_n)^{\alpha_n}$ dont tous les exposants $\alpha_1, \dots, \alpha_n$
sont bien sûr supposés positifs.

Une permutation de l’ensemble $\{ 1, 2, \dots, n\}$ des $n$
premiers entiers naturels est une bijection quelconque :
[
\sigma
 :
{1,2,\dots,n}
\longrightarrow
{1,2,\dots,n},
]
de cet ensemble ; ainsi l’ensemble $\{ \sigma ( 1), \sigma( 2), \dots, \sigma ( n)\}$ est le même que $\{ 1, 2, \dots, n\}$, à ceci près
que ses termes, intervertis par $\sigma$, sont écrits dans un ordre
différent. C’est le changement d’ordre qui constitue
l’essence de la permutation.

Une double liste à deux lignes représente fidèlement
l’action d’une permutation : l’image d’un élément est tout simplement
située à sa verticale :
[
\beginarraycc
1\ \ 2\ \ 3\ \ 4\ \ 5
\
4\ \ 5\ \ 2\ \ 3\ \ 1.
\endarray
]

La collection, notée $\mathcal{ S}_n$, de toutes ces permutations
$\sigma$, forme un groupe pour la composition
entre applications de $\{ 1, \dots, n\}$ :
[
\tau\circ\sigma\in\mathcalS_n
\ \ \ \ \
\rm pour\,\,tous
\ \
\sigma,\ \tau\in\mathcalS_n \ ;
]
la permutation identité
appartient évidemment à $\mathcal{ S}_n$ et l’inverse (en tant
qu’application) $\sigma^{ -1}$ d’une permutation $\sigma$ est aussi
clairement une permutation.

Le cardinal de
$\mathcal{ S}_n$, à savoir le nombre de permutations $\sigma$
distinctes de $\{ 1, 2, \dots, n\}$, est égal
au nombre, appelé factorielle de $n$ :
[
n !
 :=
n\cdot(n-1)\cdots
2\cdot 1,
]
qui est le produit de tous les entiers de $1$ allant jusqu’à $n$. En
effet, par une permutation $\sigma$ quelconque, l’élément $1$ peut
prendre $n$ valeurs distinctes dans $\{ 1, 2, \dots, n\}$, et ensuite
l’élément $2$ peut prendre les $(n-1)$ valeurs restantes, puis il
reste $(n-2)$ valeurs pour l’élément $3$,  etc.

Le groupe $\mathcal{ S}_n$ agit alors
sur les variables $x = (x_1, \dots, x_n)$ en permutant leurs indices inférieurs :
[
x^\sigma
=
(x_1,x_2,\dots,x_n)^\sigma
 :=
\big(
x_\sigma(1),x_\sigma(2),\dots,x_\sigma(n)
\big)
]
et par extension, cette action transforme chaque polynôme $P ( x)$ en
le polynôme :
[
P^\sigma(x)
 :=
\sum_\rm finie\,
P_\alpha_1,\dots,\alpha_n\,
\big(x_\sigma(1)\big)^\alpha_1
\cdots
\big(x_\sigma(n)\big)^\alpha_n.
]
Ainsi les permutations de $\mathcal{ S}_n$ agissent-elles
aussi sur
$\mathbb{ K} [ x_1, \dots, x_n]$.

Tout polynôme $P^\sigma ( x)$ sur lequel a agi une permutation
$\sigma \in \mathcal{ S}_n$ peut se réécrire sous la forme :
[
P^\sigma(x)
=
\sum_\rm finie\,
P_\alpha_\sigma(1),\dots,\alpha_\sigma(n)\,
x_1^\alpha_1\cdots
x_n^\alpha_n,
]
où $\sigma$ agit maintenant sur les indices inférieurs $\alpha_1, \dots, \alpha_n$ des coefficients $P_{ \alpha_1, \dots, \alpha_n}$ de
$P$. En effet :
[
\beginarraycc
P^\sigma(x)
=
\sum_\rm finie\,
P_\alpha_1,\dots,\alpha_n\cdot
(x_\sigma(1))^\alpha_1\cdots
(x_\sigma(n))^\alpha_n
\
=
\sum_\rm finie\,
P_\alpha_1,\dots,\alpha_n\cdot
(x_1)^\alpha_\sigma^-1(1)\cdots
(x_n)^\alpha_\sigma^-1(n)
\ \ \ \ \ \
[\rm poser\,\,\,\sigma(k) = k’]
\
=
\sum_\rm finie\,
P_
\beta_\sigma(1),\dots,\beta_\sigma(n)\cdot
(x_1)^\beta_1\cdots
(x_n)^\beta_n
\ \ \ \ \ \
[\rm poser\,\,\,\alpha_ \sigma^ -1 (k’) := \beta_ k’].
\endarray
]

Maintenant, lorsque deux polynômes :
[
P(x)
=
\sum_\rm finie\,
P_\alpha_1,\dots,\alpha_n\,
x_1^\alpha_1\cdots x_n^\alpha_n
\ \ \ \ \ \
\rm et
\ \ \ \ \ \
R(x)
=
\sum_\rm finie\,
R_\alpha_1,\dots,\alpha_n\,
x_1^\alpha_1\cdots x_n^\alpha_n
]
ont tous leurs coefficients égaux, c’est-à-dire $P_\alpha = R_\alpha$ quel que soit $\alpha \in \mathbb{ N}^n$, on dit qu’ils sont
identiquement égaux, ce que l’on écrit :
[
P(x)
\equiv
R(x).
]

Définition. Un polynôme $P ( x)$ est dit
complètement symétrique, ou (terminologie équivalente)
$\mathcal{ S}_n$-invariant si l’on a
[
P^\sigma(x)
\equiv
P(x)
]
pour toute permutation $\sigma \in \mathcal{ S}_n$. De manière
équivalente :
[
P_\alpha_\sigma(1),\dots,\alpha_\sigma(n)(x)
=
P_\alpha_1,\dots,\alpha_n(x)
\ \ \ \ \
\rm pour\,\,tous\ \
\alpha_1,\dots,\alpha_n.
]
Historiquement, les premiers exemples de polynômes complètement
symétriques proviennent du très célèbre problème de la résolution des
équations algébriques. Évoquons-le en quelques mots.

Fonctions symétriques élémentaires

Lorsqu’un polynôme à une variable de degré $n$ et à coefficients
dans $\mathbb{ K}$ :
[
p(t)
=
t^n
+
a_1t^n-1
+\cdots+
a_n-1t
+
a_n
]
dont le coefficient directeur est égal à $1$, admet $n$ racines
$x_1, x_2, \dots, x_n$ dans $\mathbb{ K}$, on démontre aisément qu’il
s’identifie au produit de tous les facteurs $(t - x_i)$ possibles de
degré $1$ :
[
p(t)
\equiv
(t-x_1)(t-x_2)\cdots (t-x_n),
]
et un tel produit scindé montre alors visiblement que ces $x_i$ sont
les racines de $p$.

Maintenant, lorsqu’on développe ce produit, certaines fonctions
universelles des $x_i$, connues depuis le quinzième siècle
apparaissent naturellement. Par exemple, le coefficient de $t^{ n-1}$
est égal à :
[
-x_1-x_2-\cdots-x_n,
]
et c’est clairement un polynôme complètement symétrique en les $x_i$ ;
ensuite, le coefficient de $t^{ n-2}$ est égal à :
[
\beginarrayr
x_1x_2
+
x_1x_3+\cdots+x_1x_n
\
+x_2x_3+\cdots+x_2x_n
\
\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \
\cdots\cdots\cdots\cdot
\
\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \
\ \ \ \ \ \
+x_n-1x_n,
\endarray
]
et il est lui
aussi complètement symétrique. En toute généralité,
le coefficient de $t^{ n-k}$ est égal à $( -1)^k {\rm s}_k$ où
la $k$-ième fonction symétrique élémentaire :
[
\rm s_k
=
\rm s_k(x_1,\dots,x_n)
 :=
\sum_1\leq i_1<i_2<\cdots<i_k\leq n\,
x_i_1x_i_2\cdots x_i_k,
]
est définie en prenant la somme de tous les produits possibles de
$k$ termes $x_i$ distincts, écrits par ordre croissant d’indices
(grâce à la commutativité de la multiplication entre variables).
En particulier à la fin pour $k = n$, on a ${\rm s}_n(x) = x_1 x_2 \cdots x_n$ sans aucune somme, puisque les inégalités $1 \leq i_1 < \cdots < i_n \leq n$ ne sont satisfaites que pour le seul choix
$i_1 =1, \, \dots, \, i_n = n$. Tous ces polynômes ${\rm s}_k ( x)$
sont complètement symétriques.

En développant donc le produit en question, on obtient ainsi :
[
p(t)
=
t^n-\rm s_1\,t^n-1
+
\rm s_2\,t^n-2-\rm s_3\,t^n-3
+\cdots+
(-1)^n\,\rm s_n\,t^0.
]
Par exemple, pour $k = 3$ :
[
\rm s_3
=
x_1x_2x_3+x_1x_2x_4+\cdots+x_n-2x_n-1x_n.
]
Paradoxe :
étudier les polynômes à une variable nécessite d’élaborer une
théorie des polynômes à plusieurs variables, mais là n’est pas
notre propos — puisque nous allons
seulement nous concentrer sur un chapitre
spécial de la combinatoire des fonctions symétriques.

Fonctions des racines d’un polynôme

Dans son célèbre mémoire [lag1771] intitulé
Réflexions sur la résolution algébrique des équations
, Lagrange a
exposé, repensé et unifié toutes les méthodes de résolution des
équations algébriques dues à ses prédécesseurs : Scipione del
Ferreo, Tartaglia, Cardan, Tschirnaus, Wallis, Cramer, Ferrari,
Descartes, Bézout, Euler. Par la recherche d’une systématicité
harmonieuse, le secret espoir de Lagrange était de pouvoir deviner la
forme d’une certaine fonction algébrique inconnue
[
\mathrmInc_L (
x_1, x_2, x_3, x_4, x_5)
]
des cinq racines complexes d’un polynôme
général $t^5 + a_1 t^4 + a_2 t^3 + a_3 t^2 + a_4 t + a_5$ de
degré cinq, afin de pouvoir trouver les formules de résolution que
bien des géomètres quêtaient ardemment à cette époque [1].

Pour l’exercice de pensée, tentons ici de faire abstraction des
travaux de Ruffini, d’Abel et de Galois qui devaient démontrer
ultérieurement l’inanité d’une telle entreprise. Tentons donc de
nous glisser dans l’esprit d’un mathématicien de la fin du
18ième siècle comme Lagrange ou Euler, pour qui
le calcul libre et ambitieux, envisagé comme exploration
pure
, est la « bonne » manière de faire de
la recherche en mathématiques.

D’un point de vue philosophique, c’est toujours de
cette manière-là que nous
dirigeons notre pensée face à toute question mathématique ouverte.

$\bullet$
Élaguer, unifier, simplifier.

$\bullet$
Progresser du connu vers l’inconnu.

$\bullet$
Réorganiser inlassablement les calculs.

$\bullet$
Chercher à dévoiler les harmonies sous-jacentes.

$\bullet$
Rendre visible l’invisible.

$\bullet$
Et surtout : attendre l’instant crucial où l’ œil de la pensée
devine en un instant les structures générales.

Toujours est-il que Lagrange est parvenu,
pour les équations de degré
2, 3 et 4, à rendre limpides les raisons pour lesquelles elles sont
résolubles par radicaux, en toute généralité.

Par exemple, les formules, dites de Cardan, qui produisent les
trois racines complexes $x_1, x_2, x_3$ d’un polynôme $t^3 + a_1 t^2 + a_2 t + a_3$ dont les coefficients rationnels $a_1, a_2, a_3$ sont
généraux, reposent sur la fameuse résolvante de Lagrange :
[
\big(x_1+j\,x_2+j^2\,x_3\big)^3,
]
où $j := e^{ 2 \pi i / 3}$ (qui satisfait $j^3 = 1$) est racine
troisième primitive de l’unité. Lorsqu’on permute de toutes
les manières possibles les trois variables $x_1, x_2, x_3$ que cette
résolvante incorpore, elle ne prend que deux valeurs
différentes [2]. Lagrange démontre alors qu’elle est nécessairement
solution d’une équation du deuxième degré, équation que l’on
sait déjà (depuis longtemps) être résoluble par radicaux en toute
généralité.

Pour l’équation générale de degré $4$, Lagrange considère
deux types de résolvantes :
[
x_1x_2+x_3x_4
\ \ \ \ \ \ \ \
\rm ou
\ \ \ \ \ \ \ \
(x_1+x_2)(x_3+x_4)
]
qui ne prennent que trois ($< 4$) valeurs lorsqu’on permute de
manière arbitraire $x_1, x_2, x_3, x_4$. Comme
Lagrange
l’a mis en lumière, c’est pour cette raison que Ferrari a pu ramener la
résolution des équations de degré $4$ à celles de degré $3$,
elles-mêmes résolubles par radicaux d’après ce qui vient d’être
rappelé.

Existe-t-il alors des fonctions algébriques naturelles des cinq
racines $x_1, x_2, x_3, x_4, x_5$ de l’équation générale $t^5 + a_1 t^4 + a_2 t^3 + a_3 t^2 + a_4 t + a_5 = 0$ qui ne prennent que
quatre valeurs distinctes ? « Stratégie de la mer qui monte »,
disait Grothendieck : repenser, englober, unifier, deviner, et enfin :
trouver — telle est la méthode universelle. Néanmoins,
après des tentatives qui sont restées lettre morte dans ses
manuscrits, Lagrange soupçonnait déjà l’impossibilité d’une telle
fonction hypothétique — mais nous n’en dirons pas plus.

Sur ce chapitre passionnant de l’histoire et de la philosophie des
mathématiques dont nous allons maintenant nous écarter, nous
recommandons les références [alf1978],
[ay1980],
[ed1984],
[esc2001],
[lag1771],
[serr1877],
[vui1962].

Théorème de Lagrange

Avant d’élaborer sa théorie des résolvantes arbitraires,
Lagrange énonçait déjà, au début du Chapitre 4 de son mémoire
prolifique, un théorème fondamental concernant les fonctions qui
ne prennent qu’ une seule valeur différente lorsqu’on permute
toutes ses variables $x_1, x_2, \dots, x_n$. C’est cet énoncé basique
que nous prendrons comme point de départ.

Théorème.

Soit $P = P ( x_1, \dots, x_n) \in \mathbb{ K} [ x_1, \dots, x_n]$ un polynôme
complètement symétrique par permutation de ses variables, à
savoir qui satisfait :
[
P
\big(
x_\sigma(1),x_\sigma(2),\dots,x_\sigma(n)
\big)
\equiv
P(x_1,x_2,\dots,x_n)
]
pour toute permutation $\sigma$ de l’ensemble $\{ 1, 2, \dots, n\}$.
Alors il existe un unique polynôme $Q = Q ( s_1, \dots, s_n)$
(dépendant de $P$) en $n$ variables $(s_1, \dots, s_n)$ tel que $P$ se
représente, via la composition à gauche par $Q$, comme
fonction polynomiale des fonctions symétriques élémentaires,
i.e.
tel que l’égalité :
[
P(x_1,\dots,x_n)
\equiv
Q
\big(
\rm s_1(x_1,\dots,x_n),\dots,\rm s_n(x_1,\dots,x_n)
\big)
]
soit identiquement satisfaite dans $\mathbb{ K} \big[ x_1, \dots, x_n \big]$.

De nombreuses références (voir par exemple [alf1978],
[stu1993]) offrent des démonstrations concises de cet énoncé.
Ici, nous l’admettrons sans le redémontrer, car les démonstrations en
question, imparfaites en un certain sens, passent sous silence bien
des questions qui ne peuvent être résolues qu’avec la théorie des
partitions, des tableaux de Young et des nombres de Kostka.

Analyse a posteriori du théorème de Lagrange

Tout polynôme complètement symétrique s’écrit donc comme une certaine
expression rationnelle en les fonctions symétriques élémentaires ${\rm s}_k ( x)$. Cet énoncé transfère ainsi la $\mathcal{ S}_n$-invariance
du polynôme $P = \sum\, P_{ \alpha_1, \dots, \alpha_n} \, x_1^{ \alpha_1} \cdots x_n^{ \alpha_n}$, laquelle recouvrait de manière
opaque un (très) grand nombre de relations d’égalité entre les
coefficients de ses monômes :
[
P_\alpha_\sigma(1),\dots,\alpha_\sigma(n)
=
P_\alpha_1,\dots,\alpha_n,
]
vers une représentation qui met parfaitement en lumière cette
invariance
 : on vérifie en effet immédiatement — après
admission du théorème — que l’action sur $P$ d’une permutation
$\sigma \in \mathcal{ S}_n$ quelconque :
[
\beginarraycc
\big(P(x_1,\dots,x_n)\big)^\sigma
&
=
\big[Q(\rm s_1(x),\dots,\rm s_n(x)\big)\big]^\sigma
\
&
=
Q\big(
\rm s_1^\sigma(x),\dots,\rm s_n^\sigma(x)
\big)
\
&
\equiv
Q\big(
\rm s_1(x),\dots,\rm s_n(x)\big)
\
&
=
P(x_1,\dots,x_n)
\endarray
]
laisse visiblement $P$ invariant pour la seule et simple raison que
les fonctions symétriques élémentaires elles-mêmes sont évidemment
invariantes :
[
\big(\rm s_k(x)\big)^\sigma
\equiv
\rm s_k(x).
]

Commentaire philosophique

La compréhension adéquate de tout énoncé mathématique requiert
toujours une «  perception métaphysique » du gain synthétique
qu’il produit. En fait, la conclusion d’un théorème fournit à la
pensée comme une augmentation
de sa propre énergie potentielle, parce qu’une
information éclairante se substitue à l’ouverture des définitions
initiales. Dans toute théorie, les
hésitations de l’intuition, les imprécisions
de la perception, et l’opacité
des champs d’investigation s’estompent peu à peu grâce aux
lemmes, grâce aux propositions et grâce aux théorèmes.

Tout
théorème implique un acte de reconnaissance a posteriori de
l’évidence qu’il propose.

Ce n’est en effet que dans l’ a posteriori des conclusions
véridiques que l’on est autorisé à lire la confirmation indubitable
d’une simplicité attendue a priori. Dans ces moments-là, il
n’est plus nécessaire de mobiliser la perplexité dialectique, pourtant
essentielle à d’autres moments, lorsqu’il s’agit de progresser dans
l’Obscur qui résiste.

L’harmonie formelle et la complétude symbolique dont font preuve les
fonctions symétriques élémentaires ${\rm s}_k ( x)$ pouvaient en effet
laisser présager qu’elles seules sont invariables par rapport à
l’action complète du groupe $\mathcal{ S}_n$ de permutations, et
qu’il n’y a « pas d’autres » fonctions complètement
symétriques. Le théorème rend raison d’une telle anticipation, même
lorsqu’elle est recréée a posteriori pour les besoins de
l’analyse. Souvent, l’esprit du conjectural détermine sa position par
rapport à l’inconnu en invoquant l’action de certains principes
de raison suffisante. Les métaphysiques leibniziennes vivent
toujours au cœur de la recherche mathématique contemporaine,
telle était l’une des thèses de Heidegger dans son ouvrage
Le principe de raison.

Formules de Newton

Considérons maintenant un exemple très classique de fonction
complètement symétrique, la somme des puissances $k$-ièmes de
toutes les variables $x_i$ :
[
\rm N_k
=
\rm N_k(x)
 :=
x_1^k
+
x_2^k
+\cdots+
x_n^k,
]
appelées sommes de Newton, où $k \geq 1$ est un entier
quelconque. Par convention, il est naturel de définir aussi ${\rm N}_0 := n$, puisque $x_1^0 + \cdots + x_n^0 = 1 + \cdots + 1 = n$. Ainsi pour $k = 1, 2, 3$, ces sommes s’écrivent :
[
\beginarraycc
\rm N_1
&
=
x_1+x_2+\cdots+x_n
\
\rm N_2
&
=
x_1^2+x_2^2+\cdots+x_n^2
\
\rm N_3
&
=
x_1^3+x_2^3+\cdots+x_n^3.
\endarray
]
Visiblement, ces ${\rm N}_k ( x)$ sont complètement symétriques :
[
x_\sigma(1)^k+x_\sigma(2)^k
+\cdots+
x_\sigma(n)^k
\equiv
x_1^k+x_2^k+\cdots+x_n^k,
]
parce qu’une permutation quelconque $\sigma$ des indices inférieurs
change seulement l’ordre d’apparition des $x_i^k$, et parce que
l’addition de plusieurs termes peut s’effectuer dans n’importe quel
ordre.

Question.
Que donne le théorème de Lagrange pour les sommes de Newton ?
Autrement dit : Comment exprimer explicitement
les sommes de Newton au moyen des
fonctions symétriques élémentaires
 ?

Commentaire spéculatif

À cette question, on serait tenté de répondre : inspectons tout
simplement la démonstration du théorème de Lagrange, telle qu’on la
trouve dans les références citées, regardons comment elle fonctionne,
analysons ce qu’elle donne, et avec un peu de chance, nous constaterons
qu’elle répond complètement à la question posée.

Malheureusement, les démonstrations citées ne descendent pas assez
profondément dans la réalité mathématique pour être en mesure
d’expliciter la dépendance précise des ${\rm N}_k$ en fonction des
${\rm s}_l$. Pour répondre à la question, une recherche spécifique
est en fait nécessaire. En mathématiques, nombreux sont les
« théorèmes » séduisants qui semblent répondre de manière
satisfaisante à tout un ordre de questions, et qui néanmoins
travaillent furtivement à des niveaux partiels et incomplets. La
première aptitude que doivent posséder aussi bien l’amateur que le
professionnel, c’est ce flair absolu de l’ouverture.

Deux exemples très élémentaires

Tout d’abord, il est évident que :
[
\rm N_1
=
\rm s_1
=
x_1+\cdots+x_n.
]
Ensuite, pour réduire ${\rm N}_2$ en fonction de ${\rm s}_1$ et ${\rm s}_2$, il suffit de remobiliser l’astuce connue qui consiste à faire
apparaître un carré :
[
\beginarraycc
x_1^2+\cdots+x_n^2
&
=
\big(x_1+\cdots+x_n\big)^2-2\big(
x_1x_2+\cdots+x_n-1x_n
\big)
\
&
=
(\rm s_1)^2-2\,\rm s_2,
\endarray
]
et le tour est joué. Pour ${\rm N}_3$, une telle approche fonctionne
aussi (exercice). Mais nous allons envisager le problème d’une manière
beaucoup plus systématique.

Récurrences ouvertes

Newton lui-même a écrit des formules de récurrence qui permettent de
calculer pas à pas les ${\rm N}_k$ en fonction des ${\rm s}_l$.
On doit distinguer les cas, suivant que
l’ordre $k$ de l’exponentiation dans ${\rm N}_k$ est
plus petit, ou plus grand que le nombre
$n$ des variables.

Proposition.

Lorsque $k \leq n$, la $k$-ième somme de Newton ${\rm N}_k$
s’exprime comme suit en fonction des ${\rm N}_{ k'}$ d’ordre $k ' \leq k - 1$ et des fonctions symétriques élémentaires :
[
\rm N_k
=
\rm s_1\,\rm N_k-1-\rm s_2\,\rm N_k-2
+\cdots+
(-1)^k-2\,\rm s_k-1\,\rm N_1
+
(-1)^k-1\,\rm s_k\cdot k
]
(noter que le dernier terme est $k$, et non pas ${\rm N}_0 = n$ comme
on pourrait le supputer).

Lorsque $k \geq n$, la $k$-ième somme de Newton ${\rm N}_k$
s’exprime différemment, par une formule tronquée au $n$-ième terme :

[
\rm N_k
=
\rm s_1\,\rm N_k-1-\rm s_2\,\rm N_k-2
+\cdots+
(-1)^n-2\,\rm s_n-1\,\rm N_k-n+1
+
(-1)^n-1\,\rm s_n\,\rm N_k-n.
]

On notera aussi que pour $k = n$, les deux formules s’identifient,
puisque leurs deux termes ultimes coïncident alors. Tout comme le
théorème, cette proposition sera admise (voir [alf1978],
p. 166). Dans un instant, nous démontrerons
complètement un énoncé beaucoup plus significatif.

Ainsi par exemple, lorsque le nombre $n$ de variables est supposé être
$\geq 4$, on a :
[
\beginarraycc
\rm N_1
&
=
\rm s_1
\
\rm N_2
&
=
\rm s_1\,\rm N_1-\rm s_2\cdot 2
\
\rm N_3
&
=
\rm s_1\,\rm N_2-\rm s_2\,\rm N_1
+
\rm s_3\cdot 3
\
\rm N_4
&
=
\rm s_1\,\rm N_3-\rm s_2\,\rm N_2
+
\rm s_3\,\rm N_1-\rm s_4\cdot 4,
\endarray
]
et puisque le but est de représenter les sommes de Newton en fonction
des ${\rm s}_l$, on est immédiatement incité à insérer pas à pas ces
formules les unes dans les autres, ce qui donne, en détaillant toutes
les étapes de calcul :
[
\beginarraycc
&
\rm N_2
=
\rm s_1\cdot\rm s_1-\rm s_2\cdot 2
=
\big(\rm s_1\big)^2-2\,\rm s_2
\
&
\rm N_3
=
\rm s_1\big[
(\rm s_1)^2-2\,\rm s_2\big]-\rm s_2\cdot\rm s_1
+
\rm s_3\cdot 3
\
&
=
(\rm s_1)^3-3\,\rm s_1\,\rm s_2
+
3\rm s_3
\
&
\rm N_4
=
\rm s_1\big[
(\rm s_1)^3-3\,\rm s_1\,\rm s_2
+
3\,\rm s_3
\big]-\rm s_2
\big[
(\rm s_1)^2-2\,\rm s_2
\big]
+
\rm s_3\cdot\rm s_-\rm s_4\cdot 4
\
&
=
(\rm s_1)^4-4\,(\rm s_1)^2\rm s_2
+
4\,\rm s_3\,\rm s_1
+
2(\rm s_2)^2-4\,\rm s_4.
\endarray
]

Formules de Waring

Théorème.
(Waring)

Pour tout entier $k \geq 1$, la $k$-ième somme de Newton
s’exprime comme suit au moyen des fonctions symétriques
élémentaires :

[
\rm N_k
=
k\cdot
\sum_i_1+2i_2+\cdots+ni_n=k\,
\frac(-1)^i_2+2i_3+\cdots+(n-1)i_n
i_1+i_2+\cdots+i_n
\,
\frac(i_1+i_2+\cdots+i_n) !i_1 !\,i_2 !\,\cdots\,i_n !\,
(\rm s_1)^i_1
(\rm s_2)^i_2
\cdots
(\rm s_n)^i_n
]

Commentaire mathématico-philosophique

Voilà donc la réponse attendue. Par rapport aux formules de Newton,
les formules de Waring présentent en effet un avantage
considérable : pour connaître une somme ${\rm N}_k$, il n’est plus
nécessaire d’effectuer de très nombreuses substitutions et de lourds
calculs à partir des longues formules inductives fournies par la
Proposition ci-dessus. Newton obtenait ses formules avec des
arguments relativement aisés, et ce faisant, laissait en fait ouvert
un problème qui aurait éventuellement pu cacher des difficultés
calculatoires insurmontables. La formule de Waring ferme les
récurrences ouvertes que Newton avait déc-ouvertes.

Qu’appelle-t-on ici fermer une récurrence ? Sans élaborer
d’analyse générale, voici seulement un exemple très simple. Il
est bien connu que les formules inductives ouvertes :
[
\textstyleC^n-1_p-1

+
\textstyleC^n-1_p

=
\textstyleC^n_p

,
\ \ \ \ \ \
\textstyleC^1_1

=
1,
]
qui permettent de calculer pas à pas les nombres binomiaux de Pascal
(lesquels s’organisent en un triangle harmonieux) peuvent être
remplacées par la formule close :
[
\textstyleC^n_p

=
\textstyle\fracn !p !\,(n-p) !

]
qui donne directement la valeur de ces nombres sans avoir à
reparcourir tous les calculs intermédiaires
, seulement indiqués par
les formules de récurrence. La dialectique entre formules
ouvertes et formules closes est ubiquitaire en mathématiques : elle
manifeste la protension permanente qu’a l’irréversible-synthétique à
se réaliser.

C’est Waring qui accomplira réellement le travail qui était
laissé en suspens par Newton. Sans utiliser la Proposition ci-dessus et
avant de voir comment Waring lui-même l’a utilisée, démontrons le
théorème en utilisant un argument élégant qui repose sur la série
formelle de la fonction logarithme. Mais juste auparavant, donnons une
application.

Exemple

En particulier, pour $k = 5$ et un nombre $n \geq 5$ quelconque
de variables, il y a exactement 7 solutions entières à l’équation $i_1 + 2 i_2 + 3 i_3 + \cdots + n i_n = 5$, à savoir, $i_j=0$ pour $j>5$ et :
[
\beginarrayccc
(i_1,i_2,i_3,i_4,i_5)
&
=
&
(5,0,0,0,0),
\ \ \ \ \
\rm ou\ \
(3,1,0,0,0),
\ \ \ \ \
\rm ou\ \
(2,0,1,0,0),
\ \ \ \ \
\rm ou\ \
(1,2,0,0,0),
\
& &
\rm ou\ \
(1,0,0,1,0),
\ \ \ \ \
\rm ou\ \
(0,1,1,0,0),
\ \ \ \ \
\rm ou\ \
(0,0,0,0,1),
\endarray
]
et par conséquent, une application directe de la formule
de Waring
donne ${\rm N}_5$ sans avoir à passer par le calcul de ${\rm N}_4$, ${\rm N}_3$, ${\rm N}_2$, ${\rm N}_1$ :
[
\beginarraycc
\rm N_5
&
=
5\Big[
\textstyle\frac15

\,\textstyle\frac5 !5 !

\,
(\rm s_1)^5-\textstyle\frac14

\,\textstyle\frac4 !3 !\,1 !

\,
(\rm s_1)^3\,\rm s_2
+
\textstyle\frac13

\,\textstyle\frac3 !2 !\,1 !

\,
(\rm s_1)^2\,\rm s_3
+
\textstyle\frac13

\,\textstyle\frac3 !1 !\,2 !

\,
\rm s_1(\rm s_2)^2
\
&
\ \ \ \ \ \ \ \ \ \
-\textstyle\frac12

\,\textstyle\frac2 !1 !\,1 !

\,
\rm s_1\,\rm s_4-\textstyle\frac12

\,\textstyle\frac2 !1 !\,1 !

\,
\rm s_2\,\rm s_3
+
\textstyle\frac11

\,\textstyle\frac1 !1 !

\,
\rm s_5
\Big]
\
&
=
(\rm s_1)^5-5\,(\rm s_1)^3\,\rm s_2
+
5\,(\rm s_1)^2\,\rm s_3
+
5\,\rm s_1(\rm s_2)^2-5\,\rm s_1\,\rm s_4
+
5\,\rm s_5.
\endarray
]

Démonstration moderne des formules de Waring

Pour la démonstration, partons maintenant du développement formel
(standard) d’un polynôme qui est le produit de facteurs du premier
degré :
[
(X-x_1)(X-x_2)\cdots(X-x_n)
=
X^n-\rm s_1\,X^n-1
+\cdots+
(-1)^n-1\rm s_n-1X
+
(-1)^n\rm s_n.
]
Rappelons à nouveau que le membre de droite
fait naturellement apparaître
les fonctions symétriques élémentaires, puisque par exemple,
lorsque l’on développe ce produit, le coefficient de $X^{ n-1}$
s’obtient en prenant de toutes les manières possibles le terme
constant $-x_k$ dans un seul facteur, ce qui donne $-x_1 - \cdots - x_n = {\rm s}_1$ ; le coefficient de $X^{ n-2}$ s’obtient en prenant de
toutes les manières possible le terme constant dans deux
facteurs distincts, etc. ; à la fin,
le coefficient de $X^0$ est égal à
$(-x_1)(-x_2) \cdots ( -x_n) = (-1)^n {\rm s}_n$.

Dans cette identité basique, posons maintenant $X := \frac{ 1}{ Y}$,
multiplions-la par $Y^n$ :
[
\beginarraycc
Y^n
&
\Big(\frac1Y-x_1\Big)
\Big(\frac1Y-x_2\Big)
\cdots
\Big(\frac1Y-x_n\Big)
=
\
&
=
Y^n
\bigg[
\Big(\frac1Y\Big)^n-\rm s_1
\Big(\frac1Y\Big)^n-1
+\cdots+
(-1)^n-1\rm s_n-1\frac1Y
+
(-1)^n\rm s_n
\bigg],
\endarray
]
et distribuons équitablement une
simple puissance $Y^1$ sur chacun des
facteurs à gauche pour obtenir une sympathique identité :
[
(1-x_1Y)(1-x_2Y)\cdots(1-x_nY)
=
1-\rm s_1Y
+\cdots+
(-1)^n-1\rm s_n-1Y^n-1
+
(-1)^n\rm s_nY^n,
]
qui sera notre point de départ fondamental.

Appliquons pour commencer le logarithme, vu comme série formelle :
[
\beginarraycc
\log(1-T)
&
=
-T-\fracT^22-\cdots—\fracT^kk-\cdots
\
&
=
-\sum_k\geq 1\,
\fracT^kk
\endarray
]
à chacun des deux membres de cette
sympathique identité, en
utilisant bien sûr la propriété magique $\log \big( a_1 a_2 \cdots a_n \big) = \log a_1 + \log a_2 + \cdots + \log a_n$ qu’a le
logarithme de « transsubstantialiser »
la multiplication en addition, ce qui
nous donne :
[
\beginarraycc
&
\log(1-x_1Y)
+
\log(1-x_2Y)
+\cdots+
\log(1-x_nY)
=
\
&
=
-\sum_k\geq 1\,
\fracx_1^k\,Y^kk-\sum_k\geq 1\,
\fracx_2^k\,Y^kk-\cdots-\sum_k\geq 1\,
\fracx_n^k\,Y^kk
\
&
=
-\sum_k\geq 1\,
\frac1k
\Big(
x_1^k+x_2^k+\cdots+x_n^k
\Big)\,Y^k
\
&
=
-\sum_k\geq 1\,
\frac1k\,
\rm N_k\,Y^k.
\endarray
]
Ainsi obtenons-nous presque gratuitement une série formelle
indexée par les puissances $Y^k$ de la variable $Y$ dont les
coefficients sont exactement (au facteur $- \frac{ 1}{ k}$ près) les
sommes de Newton ${\rm N}_k (x)$ que nous cherchons à représenter
au moyen des fonctions symétriques élémentaires ${\rm s}_l (x)$.

Or par ailleurs, le membre de droite de l’identité
sympathique de départ ne comprend que ces ${\rm s}_l (x)$. Appliquons
donc maintenant le logarithme formel aussi à ce membre de droite en
utilisant une deuxième fois la formule générale $\log \big[ 1 - U \big] = - \sum_{ i \geq 1}\, \frac{ U^i}{ i}$ pour obtenir :
[
\beginarraycc
\log
\Big[
1-\rm s_1Y+\cdots+(-1)^n\rm s_nY^n
\Big]
&
=
\log
\Big[
1-\big(
\rm s_1Y+\cdots+(-1)^n-1\rm s_nY^n
\big)
\Big]
\
&
=
-\sum_i\geq 1\,
\frac1i\,
\big(
\rm s_1Y-\rm s_2Y^2
+\cdots+
(-1)^n-1\rm s_nY^n
\big)^i.
\endarray
]
Il est clair maintenant qu’afin d’atteindre la formule de Waring
annoncée dans le théorème, il va nous suffire de développer
toutes ces puissances $\big( {\rm s}_1 Y - {\rm s}_2 Y^2 + \cdots\big)^i$ d’ordre $i$
et de réorganiser tous les termes obtenus en une série $\sum_{ k \geq 1 }\, {\rm coeff}\cdot Y^k$ dont les termes « ${\rm coeff}$ » seront justement ceux que nous recherchons.

À cette fin, dans la formule classique du multinôme (elle aussi due
à Newton) :
[
\big(
Z_1+Z_2
+\cdots+
Z_n
\big)^i
=
\sum_i_1+i_2+\cdots+i_n=i\,
\frac(i_1+i_2+\cdots+i_n) !i_1 !\,i_2 !\,\dots\,i_n !\,
\big(Z_1\big)^i_1
\big(Z_2\big)^i_2
\cdots
\big(Z_n\big)^i_n
]
remplaçons tout simplement $Z_1 := {\rm s}_1 Y$, $Z_2 := - {\rm s}_2 Y^2$, $ {\dots}$, $Z_n := (-1)^{ n-1} {\rm s}_n Y^n$, ce qui nous permet de
poursuivre comme suit le calcul que nous avons laissé
en suspens il y a un instant :
[
\beginarraycc
&
=
-\sum_i\geq 1\,
\frac1i\,
\sum_i_1+i_2+\cdots+i_n=i\,
\frac(i_1+i_2+\cdots+i_n) !i_1 !\,i_2 !\,\cdots\,i_n !\,\cdot
\
&
\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \
\cdot
(\rm s_1)^i_1(-\rm s_2)^i_2
\cdots
\big((-1)^n-1\rm s_n\big)^i_n\cdot
Y^i_1+2i_2+\cdots+ni_n
\
&
=
-\sum_i\geq 1\,
\sum_i_1+i_2+\cdots+i_n=i\,
Y^i_1+2i_2+\cdots+ni_n\cdot
\frac(-1)^i_2+2i_3+\cdots+(n-1)i_ni_1+i_2+\cdots+i_n\,\cdot
\
&
\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \
\cdot
\frac(i_1+i_2+\cdots+i_n) !i_1 !\,i_2 !\,\cdots\,i_n !\cdot
(\rm s_1)^i_1
(\rm s_2)^i_2
\cdots
(\rm s_n)^i_n ;
\endarray
]
à la deuxième ligne, nous réorganisons les termes en déplaçant
la puissance de $Y$ au début et en rassemblant toutes les puissances
de $-1$.

Pour terminer, il nous faut encore transformer cette double somme en
collectant, pour tout $Y^k$ qui peut apparaître ici, le coefficient
qui lui correspond. Ainsi un tel entier $k$ doit être égal à :
[
k
=
i_1+2i_2+\cdots+ni_n ;
]
il est $\geq 1$, puisque l’un des $i_j$ au moins est $\geq 1$, et l’on doit considérer tous les $n$-uplets $(i_1, i_2, \dots, i_n)$ tels que $i_1 + 2i_2 + \cdots + ni_n = k$. Par conséquent,
notre double somme précédente se transforme tout simplement en :
[
\beginarraycc
&
=
-\sum_k\geq 1\,
Y^k\,
\sum_i_1+2i_2+\cdots+ni_n=k\,
\frac(-1)^i_2+2i_3+\cdots+(n-1)i_ni_1+i_2+\cdots+i_n\cdot
\frac(i_1+i_2+\cdots+i_n) !i_1 !\,i_2 !\,\cdots\,i_n !\cdot
(\rm s_1)^i_1
(\rm s_2)^i_2
\cdots
(\rm s_n)^i_n,
\endarray
]
et pour conclure la démonstration du théorème, il nous suffit
juste d’identifier le coefficient de $Y^k$ dans cette formule au
coefficient $-\frac{ 1}{ k}\, {\rm N}_k$ de $Y^k$ dans la première
formule que nous avons obtenue plus haut (noter la neutralisation des
signes « $-$ »). Voilà, la démonstration "moderne et
directe" du théorème de Waring achevée !

L’énoncé du théorème par Waring lui-même : perplexité ?

Le Chapitre 1 des Meditationes Algebricae de Waring qui
s’intitule : " Une méthode pour trouver une équation dont les
racines sont une fonction algébrique quelconque des racines d’une
équation donnée
"
commence par un premier problème qu’accompagne sa solution.

Problème 1.
Soient $\alpha, \beta, \gamma, \delta, \varepsilon, \dots$ les racines d’une équation donnée :
[
x^n-p\,x^n-1
+
q\,x^n-2-r\,x^n-3
+
s\,x^n-4-t\,x^n-5
+
v\,x^n-6-w\,x^n-7
+
z\,x^n-8-\cdots
=
0.
]
Trouver la somme $\alpha^m + \beta^m + \gamma^m + \delta^m + \varepsilon^m + \cdots$.

La somme demandée, écrit Waring, sera égale à :
[
\beginarraycc
p^m-mq\,p^m-2
+
mr\,p^m-3
+
\left{
\beginarraycc
&
+ms
\
&
+\textstyle\fracm(m-3)2

\,q^2
\endarray
\right}p^m-4
+
\endarray
]
[
\beginarraycc
+
\left{
\beginarraycc
&
+mt
\
&
-m(m-4)\,qr
\endarray
\right}p^m-5
+
\left{
\beginarraycc
&
-mv
\
&
+m(m-5)\,qs
\
&
+\textstyle\fracm(m-5)2

\,r^2
\
&
-\textstyle\fracm(m-5)(m-4)2\cdot 3

\,q^3
\endarray
\right}p^m-6
+
\endarray
]
[
\beginarraycc
+
\left{
\beginarraycc
&
+mw
\
&
-m(m-6)\,qt
\
&
-m(m-6)\,rs
\
&
+\textstyle\fracm(m-6)(m-5)2

\,q^2r
\endarray
\right}
p^m-7
+
\left{
\beginarraycc
&
-mz
\
&
+m(m-7)\,qv
\
&
+m(m-7)\,rt
\
&
-\textstyle\fracm(m-7)(m-6)2

\,q^2s
\
&
-\textstyle\fracm(m-7)(m-6)2\cdot 3

\,qr^2
\
&
+\textstyle\fracm(m-7)(m-6)(m-5)2\cdot 3\cdot 4

\,q^4
\endarray
\right}p^m-8
+\cdots.
\endarray
]

S’agit-il vraiment du même théorème ? Pourquoi tant de lettres ? Waring
n’utilise-t-il pas des indices ? Et ces grandes accolades ? Comment
expliquer l’apparition
chaotique des signes $-$ et $+$ ?

Lecture multiversale et appropriation intuitive

Cette série obéit à une double règle, écrit Waring, l’une concernant
les produits littéraux, et l’autre concernant les unciae, ou
coefficients numériques. Le lecteur est alors invité à regarder
la formule
pour y deviner toutes les structures combinatoires.
Plutôt que de démontrer directement la formule, et plutôt que de la
comprimer symboliquement, comme on aurait choisi de le faire pour
n’importe quelle présentation moderne, Waring va au contraire
déployer et amplifier sa formule
, il va l’expliquer en la
décrivant sous plusieurs angles
afin que ses lecteurs puissent l’
embrasser mentalement
comme par l’effet d’une géométrie
descriptive
des structures algébriques.

Pour la partie littérale, dit Waring, la règle est la suivante : les
termes entre accolades qui sont associés à une puissance donnée :
[
p^m-u
]
du premier coefficient $p$, où l’entier $u$ est successivement égal à
$1, 2, 3, 4, 5, 6, 7, 8, \dots$, comprennent tous les produits
littéraux possibles des autres coefficients (lettres) $q, r, s, t, v, w, \dots$ du polynôme en question, les produits qui apparaissent
devant notamment respecter une certaine règle d’homogénéité qui est
spécifiquement définie comme suit.


By the exponents of the coefficients of the given equation, I mean the
numbers designating their distance from the first term of the
equation, namely, the exponent of the coefficient $q$ is $2$ ; of $r$,
$3$ ; of $s$, $4$ ; of $t$, $5$ ; and so on — and in consequence,
that the exponent of any power of the coefficient $q$, such as
$q^\mu$, shall be $2\mu$ ; the exponent of any power of $r$, say
$r^\nu$, shall be $3\nu$ ; the exponent of $s^\pi$ shall be $4 \pi$ ;
the exponent of $t^\rho$ shall be $5 \rho$ ; and likewise for all the
rest of them.

Every literal product which can be so composed from the sum $u$ must
be adjoined to the power $p^{ m - u}$.

[war1991], p. 2.

Autrement dit, dans les accolades, on doit inscrire tous les
produits possibles :
[
q^\mu r^\nu s^\pi t^\rho v^\sigma w^\tau \cdots
]
dont l’homogénéité $2 \mu + 3 \nu + 4 \pi + 5 \rho + 6 \sigma + 7\tau + \cdots$ soit égale au défaut $u$ par rapport à $m$ de l’exposant
$m-u$ de $p$ dans le facteur de liaison $p^{ m-u}$.

Par exemple, pour l’accolade attachée à $p^{ m - 6}$, puisqu’on a les
quatre seules décompositions :
[
6=6=2+4=3+3=2+2+2,
]
quatre monômes exactement doivent apparaître : $v$, $qs$, $r^2$,
$q^3$. Les décompositions possibles de $u$ en somme de nombres entiers
$\geq 2$ affirment ainsi un principe métaphysique de genèse
littérale
. En résumé :


For the literal parts the rule is this : to form the product of the
exponents of each individual coefficient of the given equation, with
their respective powers, joining them symbolically to the quantity
$p$, such that they sum up to $u$, where $p^{ m-u}$ is the power of
$p$ to which the products of these letters will be adjoined.

Remarques intercalaires

Dans ses manuscrits de recherche, pour une raison qui tient peut-être
aux hasards de son parcours dans les principes organisateurs idéaux
des mathématiques, Waring a collecté les résultats en fonction des
puissances de $p$. Un premier moment d’exploration a consisté à
appliquer sans réfléchir les formules de Newton jusqu’à un niveau
élevé de complexité. Tous ces engagements : la foi décidée en
l’induction, la confiance métaphysique à l’égard des principes
rationnels, les postulats implicites quant à la préexistence
d’harmonies littérales, exigent un tel travail de déploiement
symbolique.

Fait symptomatique qui a tout pour nous intéresser, Waring tient, dans la
publication de ses travaux, à conserver rigoureusement toute la
substance symbolique qu’il a créée et explicitée patiemment à la
main. Même si cela peut sembler superflu pour les stricts besoins
de l’exposition et de la transmission du savoir, Waring tient en effet
à faire embrasser aussi à son lecteur les totalités presque
incompressibles de l’induction mathématique. Pas de sécateur pour la
sève algébrique.

Détail encore plus symptomatique, même lorsqu’il s’agit de lister
des séquences évidentes telles que $k = 1, 2, \dots$ ou encore $2 i_2 + 3 i_3 + \cdots$, écritures que l’usage contemporain tronque
habituellement dès le deuxième ou le troisième terme, Waring
dévidera longuement tous ces minces fils d’Ariane qui sont autant
d’incitations à entrer dans les labyrinthes indéfinis du
calcul. Preuves que les intentions d’écriture sont bien présentes :

$\bullet$
le polynôme étudié est écrit dans
l’énoncé du Problème 1 jusqu’à la profondeur
$-8$ des exposants de $x$ ;

$\bullet$
les monômes qui apparaissent entre accolades sont désignés par $q^\mu r^\nu s^\pi t^\rho v^\sigma w^\tau \cdots$ jusqu’à une longueur six ; à
comparer à l’écriture moderne $x_1^{ \alpha_1} \cdots x_n^{ \alpha_n}$, qui n’est que de longueur deux.

C’est ainsi qu’on mobilise le mieux l’intuition (si imparfaite) de
l’infini, en se conformant, par allusions suivies et images
amplifiées, à sa générativité propre.

À l’opposé, le logiciel de calcul formel à qui l’on commande en
quelques lignes d’effectuer les opérations de substitution, même s’il
séduit par la production instantanée du résultat, est totalement
incapable (du moins à notre époque) de cette
réflexivité mémorielle de la
pensée qui nous permet d’embrasser descriptivement toutes les règles
de formation combinatoire.

Unciae

Deux mystères restent à éclaircir : quels sont les coefficients des
monômes $\big\{ {\rm coeff} \, q^\mu r^\nu s^\pi t^\rho v^\sigma w^\tau \cdots \big\} \, p^{ m-u}$ ? Et quels sont leurs signes ?


Of the numerical coefficients, or unciae, the rule
is this : for each literal product $p^{ m-u} \, q^\mu r^\nu s^\pi t^\rho v^\sigma w^\tau \cdots$ the
coefficient will be a fraction, whose numerator is
[
m(m-u+1)(m-u+2)(m-u+3)(m-u+4)(m-u+5)(m-u+6)\cdots
]
(in which the number of factors is equal to the sum of the indices,
i.e. $\mu + \nu + \rho + \sigma + \tau + \cdots$), and whose
denominator is a product of factorials of the indices $\mu$, $\nu$,
$\pi$, $\rho$ etc. respectively. More explicitly, in our
working example the coefficient of the litteral product $p^{ m-u}\, q^\mu r^\nu s^\pi t^\rho \cdots$ will be
[
\beginarraycc
\frac
m(m-u+1)(m-u+2)(m-u+3)(m-u+4)\cdots
(m-u+\mu+\nu+\pi+\rho+\sigma+\cdots-1)

\mu !\,\,\nu !\,\,\pi !\,\,\rho !\,\cdots
.
\endarray
]

To the coefficient of the literal product is affixed a sign which will
be positive or negative, when $u$ is an even number, according as the
sum $\mu + \nu + \pi + \rho + \sigma + \cdots$ is even or odd, and the
opposite sign will be affixed when $u$ is an odd number ; more
generally, the sign will be positive or negative according as the sum
$u + \mu + \nu + \pi + \rho + \cdots$ is even or odd.

Circulation, généralisation, compréhension

Cette fois-ci, toutes les règles sont dévoilées. On comprend
instantanément que la descriptive algébrique offerte par Waring
à son lecteur lui permet maintenant de calculer
chacune
des accolades adjointes à une puissance de $p$, par exemple (exercice
d’application triviale) la prochaine puissance $p^{ m - 9}$ — juste pour le plaisir de faire naître sous sa plume tous
les monômes avec leurs coefficients entiers qui ne
présentent maintenant
plus aucun mystère.

Joie de savoir la réponse, bonheur de connaître les règles, sentiment
d’être dans le secret des calculs.

La démonstration qu’en donne Waring, si elle n’était pas agrémentée de
son souci de disposer les termes sur de longues lignes tabulaires qui
remplissent tout une page, ne serait qu’une triste récurrence sur
l’exposant $m$, en partant des formules (imparfaites) de Newton. Si
nous ne nous engageons pas ici plus avant dans l’analyse d’une telle
démonstration, mentionnons toutefois que Waring a réellement accompli
le travail de fermeture des récurrences newtoniennes et que l’on peut
s’imaginer que les trois règles qu’il décrit, ils les a d’abord
devinées
en creusant ses calculs jusqu’à une certaine profondeur.

Comprendre la formule ici, ce n’est certainement pas (seulement) la
démontrer. En mathématique, il existe un niveau multi-transversal de
compréhension, comme une espèce de « vision gestaltiste » des
équations qui ne se soucierait pas des fondements, des rigorisations
arides, et des démonstrations minutieuses. Encadrés dans la
dialectique du vrai et du faux par une rigueur spéculative qui est
leur secret, Waring, Gauss, Hermite, puis Ramanujan et d’autres ont su
se constituer un maillage de visions qui leur permettait de
percevoir les noeuds de la réalité mathématique.

Question

Comment l’Algèbre pourrait-elle briser les barreaux de
la successivité temporelle ?


[alf1978]
Arnaudiès, J.-M. ; Lelong-Ferrand, J. :
Cours de mathématiques. Tome 1.
Algèbre
. Troisième édition.
1er Cycle Universitaire. Classes Préparatoires.
Mathématiques. Dunod, Paris, 1977. x+534 pp.

[ay1980]
Ayoub,
Paolo Ruffini’s contributions to the quintic,
Arch. Hist. Exact Sci. 23 (1980/81), no. 3,
253—277.

[ed1984]
Edwards, H. :
Galois theory.
Graduate Texts in Mathematics, 101.
Springer-Verlag, New York, 1984. xiii+152 pp.

[esc2001]
Escofier, J.-P. :
Galois theory.
Graduate Texts in Mathematics, 204.
Springer-Verlag, New York, 2001. xiv+280 pp.

[lag1771]
Lagrange, J.-L. :
Réflexions sur la résolution algébrique des équations, Mémoires
de l’Académie de Berlin de 1770—1771. Œuvres, tome III,
Section II, pp. 205—424, Gauthier-Villars, Paris, 1867—1912.

[mac1995]
Macdonald, I.G. :
Symmetric functions and Hall polynomials.
Second edition. With contributions by A. Zelevinsky.
Oxford Mathematical Monographs. Oxford Science Publications.
The Clarendon Press, Oxford University Press, New York, 1995. x+475 pp.

[serr1877]
Serret, J.-A. :
Cours d’algèbre supérieure, 2 vol.,
4ième éd., Gauthier-Villars, Paris, 1877.

[stu1993]
Sturmfels, B. :
Algorithms in invariant theory, Texts and Monographs in
Symbolic Computation, Springer-Verlag, Vienna, 1993, vi+197 pp.

[tign1980]
Tignol, J.-P. :

Leçons sur la théorie des équations.

Monographies de Mathématique, 1. Université Catholique de Louvain,
Institut de Mathématique Pure et Appliquée,
Louvain-La-Neuve, 1980. 250 pp.

[vui962]
Vuillemin, J. :
La philosophie de l’algèbre, Presses
Universitaires de France, Collection Épiméthée, Paris, 1962.
[war1991]

[war1991]
Waring, E. :
Meditationes Algebricae,
an English translation of the
work of Edward Waring by Dennis
Weeks, American Math. Soc.,
Providence, 1991.

Notes

[1À ma connaissance, c’est Charles Hermite qui le premier
aurait fait voir en 1840, en faisant abstraction des
travaux de Ruffini, d’Abel et de Galois,
dans le tout premier article de mathématiques
qu’il a publié alors qu’il était
encore élève au Lycée Louis-le-Grand, que les
recherches de Lagrange ne pouvaient fournir des résolvantes
de degré inférieur à cinq, comme Lagrange lui-même
l’avait pressenti.

[2Ici dans ce résumé seulement, nous
court-circuitons les détails et nous sous-entendons quelques
arguments. Le lecteur intéressé pourra se reporter aux
références choisies qui sont mentionnées à la fin de ce
paragraphe.

Partager cet article

Pour citer cet article :

Joël Merker — «Meditationes Algebraicae » — Images des Mathématiques, CNRS, 2009

Commentaire sur l'article

  • Meditationes Algebraicae

    le 9 avril 2009 à 19:29, par François Sauvageot

    Cher Joël,

    merci pour tes méditations sur les méditations.

    Sur Waring, tu lui prêtes peut-être parfois trop. Le fameux problème de Waring fut par lui formulé ainsi :

    Tout nombre est somme de quatre carrés, de neuf cubes, de dix-neuf bicarrés, et « ainsi de suite ».

    Sa formulation laisse penser que tout nombre peut être écrit comme somme d’un certain nombre (fixé) de puissances, le nombre de puissances dépendant de celle-ci.

    La première démonstration en fut pourtant donnée par Hilbert un siècle plus tard.

    Par ailleurs, à propos du calcul formel, la question est surtout celle du calcul. Les formules fermées que tu évoques sont-elles d’une quelconque utilité pour qui calcule ? Voilà la question ! Du moins pour toi qui t’intéresse aux calculs, non ?

    La complexité d’une formule ouverte est parfois bien moins grande que celle d’une formule fermée. Et que l’on soit humain ou ordinateur, quand il faut effectuer les opérations, on aura intérêt à pencher vers la complexité moindre ...

    Répondre à ce message

Laisser un commentaire

Forum sur abonnement

Pour participer à ce forum, vous devez vous enregistrer au préalable. Merci d’indiquer ci-dessous l’identifiant personnel qui vous a été fourni. Si vous n’êtes pas enregistré, vous devez vous inscrire.

Connexions’inscriremot de passe oublié ?

Suivre IDM