13 octobre 2010

4 commentaires — commenter cet article

Sommes de séries de nombres réels

Jean-Paul Allouche

Directeur de Recherche au CNRS, Université Paris 6 (page web)

Les séries de nombres réels m’ont toujours fasciné. Qu’est-ce qu’une série ? C’est un peu comme une somme, mais où, au lieu d’ajouter deux termes ou un nombre fini de termes, on veut ajouter une infinité de termes ! Les problèmes les plus divers, du calcul de certaines aires par Archimède [1] à l’étude de certaines fonctions par Euler [2] ont donné lieu à de telles expressions (et les sources ne sont pas taries aujourd’hui - comme nous essaierons de le montrer avec quelques exemples récents à la fin de cet article).

Ecrivons quelques séries pour nous mettre en appétit.
\[\begin{array}{|l|l|} A = \frac{1}{1} + \frac{1}{4} + \frac{1}{16} + \frac{1}{64} + \cdots + \frac{1}{4^n} + \cdots \ \ \ \ \ % &B = \frac{1}{2} + \frac{1}{4} + \frac{1}{8} + \frac{1}{16} + \cdots + \frac{1}{2^n} + \cdots \\ % C = \frac{1}{1} + \frac{1}{2} + \frac{1}{3} + \frac{1}{4} + \cdots + \frac{1}{n} + \cdots % &D = \frac{1}{1} - \frac{1}{2} + \frac{1}{3} - \frac{1}{4} + \cdots + \frac{(-1)^{n+1}}{n} + \cdots \\ % E = \frac{1}{1} + \frac{1}{4} + \frac{1}{9} + \frac{1}{16} + \cdots + \frac{1}{n^2} + \cdots &F = {\small 1 - 1.2 + 1.2.3 - 1.2.3.4 + \cdots + (-1)^{n+1} n! + \cdots} \end{array}\]

On peut admirer l’esthétique formelle de ces expressions, voire leur aspect ésotérique. Les séries sont surtout l’un des procédés dont dispose l’analyse pour définir et calculer de nouveaux nombres, parfois mystérieux comme $\pi$ (pi) ou la constante d’Euler $\gamma$ (gamma) que nous verrons plus loin. Tout cela seulement à partir des entiers, des quatre opérations et... de l’infini.


Comment donner un sens à une « somme infinie » ?

On sait ajouter deux nombres ; en répétant cette opération on peut calculer la somme d’un nombre fini de nombres. Mais comment pourrait-on ajouter entre eux une infinité de nombres ? Si vous ne voyez pas, vous avez raison : il faut choisir (intelligemment) le sens que l’on souhaite donner à ces expressions, comme l’avait compris Euler et comme l’ont clarifié Cauchy et Bolzano au dix-neuvième siècle.

Considérons la série $A$ ci-dessus. On peut tenter d’ajouter entre eux des termes en nombre de plus en plus grand, mais fini : on obtient ce qu’on appelle les sommes partielles de la série (où le $n$ième terme est appelé le terme général de la série). Pour le premier exemple ci-dessus, les sommes partielles avec $1,2,3,6$ et $10$ termes sont (à $10^{-4}$ près, c’est-à-dire avec une précision de quatre chiffres après la virgule) :
\[ A_1=1,\quad A_2=1+\frac14=1,25,\quad A_3=1+\frac14+\frac1{16}=1,3125,\quad A_6=1,3330...,\quad A_{10}=1,3333... \]

En continuant les calculs, les valeurs obtenues semblent se stabiliser autour de $4/3=1,333333333...$ On dit que la série converge vers la valeur $4/3$ qui est appelée la somme de la série. (Pour les lecteurs plus avertis signalons que nous avons écrit « stabilisation » pour existence d’une limite.) C’est en calculant cette somme qu’Archimède a montré que l’aire entre la parabole d’équation $y=x^2$ et la courbe $y=1$ vaut $4/3$.

(De la géométrie à la série d’Archimède)

Ces sommes partielles correspondent au raisonnement géométrique d’Archimède qui « approche » la surface entre la droite et la parabole par une collection infinie de triangles.

Archimède part du triangle central d’aire $8$, puis construit deux triangles « fils » d’aire $1/8$ de l’aire du premier appuyés sur chacun des deux côtés non-horizontaux, puis quatre triangles « petits-fils » sur chacun des côtés des triangles « fils » n’appartenant pas au triangle central, etc. La $n$ième génération comprend $2^{n-1}$ triangles chacun d’aire $1/8^{n-1}$, donc l’aire totale est bien représentée par la série $A$. La figure ci-dessous représente les premières générations de triangles (source : wikimedia).
PNG

Archimède terminait son raisonnement en remarquant que chaque somme partielle $A_n$ minore l’aire recherchée (qui ne peut donc être inférieure à $4/3$) puis en établissant de façon similaire une majoration par $4/3$.


Comme Monsieur Jourdain faisait de la prose sans le savoir, nous manipulions certaines séries sans le savoir quand nous écrivions à l’école $4/3=1,33333...$ En effet, l’écriture de $4/3$ sous la forme « $1$ », une virgule, puis une infinité de « $3$ », signifie précisément :
\[ \frac{4}{3} = 1 + \frac{3}{10} + \frac{3}{100} + \frac{3}{1000}+ \dots + \frac{3}{10^n} + \dots \]
Les sommes partielles sont $1$ puis $1+3/10=1,3$ puis $1+3/10+3/100=1,33$ etc., et elles s’approchent de plus en plus de $4/3$.

Cette définition de la somme d’une série ne permet pas de donner un sens à toutes les séries. En effet, la « stabilisation » que nous évoquions n’a pas toujours lieu. Dans le cas de la série $F$ par exemple :
\[ F_1=1,\quad F_2=-1, \quad F_3 = 5,\quad F_4=-19,\quad F_5=101,\ldots \]
Les sommes partielles ne se stabilisent pas. On dit que la série $F$ diverge .

(Faire converger les séries divergentes)

La façon de donner un sens aux séries que nous venons d’esquisser est raisonnable et, surtout, est souvent la plus utile. Elle n’est pas la seule possible. Par exemple, Euler a été amené à interpréter la série divergente $F$ ci-dessus comme ayant pour « valeur » $0,596347362123\ldots$

L’étude des séries divergentes s’est avérée fructueuse jusqu’à aujourd’hui, que ce soit en physique des particules ou dans l’étude des équations différentielles. Nous citerons les Leçons sur les séries divergentes de Borel au début du vingtième siècle ou un ouvrage de Ramis beaucoup plus récent librement consultable ici : destiné à des professeurs de mathématiques en classe préparatoire, il pourra intéresser nos lecteurs les plus avancés ou les plus aventureux.



Un galop d’essai

Commençons par ce qui est peut-être la plus simple des séries, la série
\[ B = \frac{1}{2} + \frac{1}{4} + \frac{1}{8} + \frac{1}{16} + \cdots +\frac{1}{2^n}+\dots \]
Même sans connaître la valeur de la somme des $n$ premiers termes d’une progression géométrique, on « voit » que cette série converge et que sa somme est $1$ : imaginer un seau de volume $1$ qu’on remplit à moitié, puis on remplit la moitié de cette moitié, puis la moitié de cette dernière quantité etc. : on voit qu’on va « finir » par remplir entièrement le seau :

PNG - 9.1 ko

On voit en particulier qu’à chaque étape le reste à remplir est égal à la dernière quantité versée : ce reste devient arbitrairement petit et le volume d’eau dans le seau tend vers le volume du seau. Ce raisonnement intuitif peut être transformé en une démonstration rigoureuse.

(Démonstration de la convergence)

Il s’agit de démontrer que la différence $R_n=1-B_n$ entre $1$ et la $n$ième somme partielle $B_n$ devient plus petite que n’importe quelle borne dès que l’indice $n$ est assez grand.

On a $R_1=1-B_1=1-1/2=1/2$. On constate donc que $R_1=1/2^1$. Si l’on suppose que $R_n=1/2^n$, on obtient sans peine $R_{n+1} = 1 - B_{n+1} = 1 - (B_n + 1/2^{n+1}) = (1 - B_n) - 1/2^{n+1} = 1/2^n - 1/ 2^{n+1} = 1/2^{n+1}$ : comme $R_1=1/2^1$, on a $R_2=1/2^2$, donc $R_3=1/2^3$..., bref $R_n=1/2^n$ pour tout $n$ (raisonnement par récurrence).

Quelle que soit une borne donnée, il existe une puissance de $10$, $10^{-k}$, plus petite que cette borne. Pour tout indice $n \geq 4k$, on a $R_n\leq R_{4k} = 1/2^{4k}= 1/(2^4)^k=1/16^k<1/10^k$, ce qu’il fallait démontrer.

(Paradoxe d’Achille et de la tortue)

Cette facilité ne doit pas faire oublier les paradoxes classiques de Zénon d’Élée (comme Achille et la tortue) : si on verse dans un seau de contenance $1$ litre, $1/2$, puis $1/4$, $1/8$, ... de litre, on voit qu’il faut une infinité d’étapes pour remplir exactement le seau ; on pourrait en conclure que le seau n’est jamais complètement rempli. Mais il faut tenir compte du temps mis pour accomplir chacune des étapes : si on remplit le seau avec un débit constant, chaque étape prend deux fois moins de temps que la précédente, et le temps total est donc (en utilisant le concept de série) :
\[ T\times(1+\frac{1}{2} +\frac{1}{4}+\frac{1}{8}+\frac{1}{16}+\cdots)= 2T \]
où $T$ est le temps nécessaire au versement d’un demi-litre : la somme de tous ces temps en nombre infini est finie...

Van der Poorten rappelle dans un article avec Dekking et Mendès France
intitulé « Folds ! » [DMFP-82] (où il en donne la référence originale) une manière humoristique d’aborder ce paradoxe : Suppose all the young men in this class were to line up on one side of the room, and all the young ladies on the other. At a given signal, the two lines move toward each other, halving the distance between them. At a second signal, they move forward again, halving the remaining distance ; and so on at each succeeding
signal. Theoretically, the boys would never reach the girls ; but actually, after a relatively small number of moves, they would be close enough for all practical purposes.


Un exemple un peu étonnant (?)

L’exemple suivant m’a beaucoup interloqué lorsque je le vis pour la première fois. Il s’agit de la série
\[ C = \frac{1}{1} + \frac{1}{2} + \frac{1}{3} + \frac{1}{4} + \cdots + \frac1{n} + \dots \]
appelée série harmonique. L’écriture ci-dessus signifie que le $n$ième terme vaut $1/n$.

Si on utilise une calculatrice pour calculer cette somme (ce que je ne me suis pas privé de faire il y a de nombreuses années — y compris sur les calculatrices programmables qui faisaient alors juste leur apparition), on a l’impression que la série converge, mais très lentement
et que, de plus, sa somme... dépend de la calculatrice, ce qui fait un peu désordre.

(Un calcul naïf)

Voici un programme rédigé dans le language informatique « C ». Il calcule la valeur de la série harmonique en ajoutant les termes successifs jusqu’à ce que la somme partielle ne change plus. Ceci finit par se produire du fait de la précision finie des procédés de calcul usuels en informatique.



main() [

float s,s0,i ;

s=0.0 ;

s0=-1.0 ;

i=1.0 ;

while (s0 !=s) [s0=s ; s=s+1.0/i ; i=i+1] ;

printf(« Somme expérimentale de la serie harmonique %f\n »,s) ;

return ;

] ;

Note : les accolades ont été remplacées par des crochets.

Plus précisément, ce programme utilise (sur cet ordinateur et avec cette version de C) une représentation informatique très répandue : la simple précision de la norme IEEE754). La précision relative est d’environ $2^{-23}=1/8,38...\cdot 10^{6}$.
Le programme s’arrète donc assez rapidemment après avoir sommé quelques millions de termes, ce qui ne pose aucun problème à l’ordinateur : il affiche rapidement (et triomphalement ?) que la série harmonique a pour « somme expérimentale » 15,403683.

Les lecteurs sont invités à faire ce calcul sur des machines variées, avec des méthodes variées et des précisions tout aussi variées. Ils obtiendront sans doute d’autres valeurs (ainsi que certains calculs interminables, par exemple en « double précision »).

En fait, tous ces résultats sont absurdes, ce qui explique qu’ils dépendent des détails de la mise en place du calcul. Mathématiquement, la quantité $\frac{1}{1} + \frac{1}{2} + \frac{1}{3} + \frac{1}{4} + \cdots$ devient arbitrairement grande (on dit qu’elle « tend vers l’infini ») et donc la série ne converge vers aucun nombre : elle diverge.

(une brève démonstration se cache ici)

Pour donner une idée de démonstration que cette série ne converge pas (ce calcul remonte au moins à Oreste au 14$^e$ siècle comme expliqué dans un article de Coppo), écrivons
\[ \frac{1}{1} + \frac{1}{2} + \frac{1}{3} + \frac{1}{4} + \cdots = \left(\frac{1}{1}\right) + \left(\frac{1}{2}\right) + \left(\frac{1}{3} + \frac{1}{4}\right) + \left(\frac{1}{5} + \frac{1}{6} + \frac{1}{7} + \frac{1}{8}\right) + \cdots \geq \left(\frac{1}{1}\right) + \left(\frac{1}{2}\right) + 2\left(\frac{1}{4}\right) + 4\left(\frac{1}{8}\right) + \cdots \]
autrement dit
\[ \frac{1}{1} + \frac{1}{2} + \frac{1}{3} + \frac{1}{4} + \cdots \geq 1 + \frac{1}{2} + \frac{1}{2} + \frac{1}{2} + \cdots \]
qui devient arbitrairement grand quand le nombre de termes augmente.


Le lecteur astucieux pourra peut-être démontrer que cette « pseudo-convergence expérimentale » se produit pour toutes les séries divergentes dont le terme général tend vers zéro (la stabilisation expérimentale est d’autant moins rapide que la précision est grande et la décroissance des termes lente).


Un exemple « magique » ?

La série qui m’a le plus « passionné » ensuite
est la série
\[ E = \frac{1}{1^2} + \frac{1}{2^2} + \frac{1}{3^2} + \frac{1}{4^2} + \cdots \]

Démontrer que cette série converge est relativement aisé. Il suffit de comparer cette série à la série
\[ \frac{1}{1.2} + \frac{1}{2.3} + \frac{1}{3.4} + \frac{1}{4.5} + \cdots \]
comme expliqué dans l’onglet ci-dessous. Ceci compris, Pietro Mangoli pose en 1644 le problème de la détermination de la valeur de cette série. Comme souvent en mathématiques, construire quelque chose est plus difficile que d’en prouver l’existence et le problème de Mangoli résiste aux efforts des mathématiciens pendant... 93 ans.

(un mot sur la convergence)

On peut montrer sans peine que la série converge, à
condition d’utiliser le théorème qui stipule qu’une
suite croissante majorée admet une limite.
Comme suite croissante on considère alors la suite
\[ A_n := \frac{1}{1^2} + \frac{1}{2^2} + \cdots + \frac{1}{n^2} \]
et pour majorer $A_n$ on remarque que, quel que soit $k \geq 1$,
on a $k(k+1) \leq 2k^2$, donc
\[ \frac{1}{2} A_n = \frac{1}{2.1^2} + \frac{1}{2.2^2} + \cdots + \frac{1}{2.n^2} \leq \frac{1}{1.2} + \frac{1}{2.3} + \cdots + \frac{1}{n(n+1)} = (\frac{1}{1} - \frac{1}{2}) + (\frac{1}{2} - \frac{1}{3}) + \cdots + (\frac{1}{n} - \frac{1}{n+1}) = \frac{1}{1} - \frac{1}{n+1} \leq 1. \]

(une digression sur la constante d’Euler-Mascheroni $\gamma$)

Cette méthode de comparaison (de majoration) peut aussi être curieusement utilisée pour montrer que la série harmonique correctement « corrigée » donne une quantité qui admet une limite : lorsque $n$ tend vers l’infini, la quantité
\[ \frac{1}{1} + \frac{1}{2} + \frac{1}{3} + \cdots + \frac{1}{n} - \log n \]
tend vers une limite notée $\gamma$ et appelée constante d’Euler ou constante d’Euler-Mascheroni.

On remarque d’abord que les quantités
\[ \frac{1}{1} + \frac{1}{2} + \frac{1}{3} + \cdots + \frac{1}{n} - \log n \]
et
\[ \frac{1}{1} + \frac{1}{2} + \frac{1}{3} + \cdots + \frac{1}{n} - \log(n+1) \]
diffèrent de $\log(n+1)-\log n=\log(1+1/n)$ qui tend vers $0$ quand $n$ tend vers l’infini. Ces deux suites ont donc la même limite et il suffit de considérer la seconde de ces quantités.

Considérons alors la série $u_1 + u_2 + \cdots$ définie par $u_k := \frac{1}{k} - \log \frac{k+1}{k}=\frac1k+\log k-\log(k+1)$.

On montre (par exemple en étudiant les fonctions $x \to \frac{1}{x} - \log \frac{x+1}{x}$ et $x \to \frac{1}{x} - \log \frac{x+1}{x} - \frac{1}{x^2}$ pour $x \geq 1$) que, pour $k \geq 1$, l’on a $0 < \frac{1}{k} - \log \frac{k+1}{k} < \frac{1}{k^2}$.

Il en résulte que la suite $u_1 + u_2 + \cdots + u_n$ est croissante et majorée pour tout $n$ par $\frac{1}{1^2} + \frac{1}{2^2} + \frac{1}{3^2} + \cdots = \frac{\pi^2}{6}$, donc la suite $u_1 + u_2 + \cdots + u_n$ a une limite, autrement dit la série de terme général $u_k$ converge vers une limite notée $\gamma$.

Mais la somme $u_1 + u_2 + \cdots + u_n$ se simplifie (somme dite télescopique) et l’on trouve sans peine que $U_n := u_1 + u_2 + \cdots + u_n = \frac{1}{1} + \frac{1}{2} + \cdots + \frac{1}{n} - \log(n+1)$, c’est-à-dire la quantité dont on voulait montrer la convergence.

On peut aussi remarquer au passage que, puisque cette somme tend vers $\gamma$, on a $\frac{1}{1} + \frac{1}{2} + \cdots + \frac{1}{n} = U_n + \log(n+1) \to +\infty$, ce qui est une autre démonstration de la divergence de la série harmonique.


Le calcul approché de la valeur de la série $E = \frac{1}{1^2} + \frac{1}{2^2} + \frac{1}{3^2} + \frac{1}{4^2} + \cdots$ est infaisable à la main. Il est certes aujourd’hui facile de sommer plus de dix mille termes pour avoir quatre malheureux chiffres après la virgule : $E = 1,6449\pm 10^{-4}$.
En 1731, l’astuce ne manque pas et on [3] obtient la valeur approchée :
\[ E=1,64493406684822643\pm 10^{-18} \]
Quel est donc ce nombre mystère ?

Ce n’est qu’en 1735 qu’un jeune prodige de 28 ans, Léonard Euler étonne le monde scientifique en déterminant enfin la valeur, remarquable, de cette série :
\[ E = \frac{1}{1^2} + \frac{1}{2^2} + \frac{1}{3^2} + \frac{1}{4^2} + \cdots = \frac{\pi^2}{6}\cdot \]

Pour démontrer cette égalité on dispose depuis le dix-neuvième siècle d’une méthode générale utilisant des « séries de Fourier » [4]. On peut également utiliser, comme Euler, des méthodes plus élémentaires, par exemple s’appuyant sur des inégalités trigonométriques : du coup l’apparition de $\pi$ est (peut-être) moins étonnante que lorsque l’on contemple la somme des inverses des carrés des entiers.

Un peu de théorie des nombres

Quelle est la nature de la valeur de la série précédente $E=\pi^2/6$ ? c’est une question de théorie des nombres.

La série, $E$ définie en multipliant, en divisant et en additionnant des nombres entiers, a pour somme $\pi^2/6$. Or on peut montrer que $\pi^2/6$, comme $\pi$, n’est pas un nombre rationnel (on dit que c’est un nombre irrationnel) : ceci signifie qu’il ne peut s’obtenir comme le rapport de deux entiers, ni donc à partir des entiers par un nombre fini d’additions, de multiplications ou de divisions. Son apparition dans la valeur de $E$ est une illustration de la puissance créatrice du passage à la limite.

On a même davantage, $\pi^2/6$, comme $\pi$, est un nombre transcendant : on ne peut pas l’obtenir à partir des entiers même en rajoutant aux additions, multiplications et divisions, la recherche de racines de polynômes à coefficients entiers (par exemple, $\pi$ n’est la racine carré d’aucun nombre rationnel). Démontrer que $\pi$ (ou $\pi^2/6$)
est irrationnel, et même transcendant, dépasse de beaucoup ce qu’on peut expliquer dans un article comme celui-ci.

Le résultat d’Euler se généralise aux puissances entières paires supérieures à $2$ :
\[ \frac{1}{1^4} + \frac{1}{2^4} + \frac{1}{3^4} + \cdots = \frac{\pi^4}{90} \]
\[ \frac{1}{1^6} + \frac{1}{2^6} + \frac{1}{3^6} + \cdots = \frac{\pi^6}{945} \]
\[ \frac{1}{1^8} + \frac{1}{2^8} + \frac{1}{3^8} + \cdots = \frac{\pi^8}{9450} \]
\[ \frac{1}{1^{10}} + \frac{1}{2^{10}} + \frac{1}{3^{10}} + \cdots = \frac{\pi^{10}}{93555} \]
\[ \ldots \]
Ces valeurs sont encore des puissances de $\pi$ divisées par des rationnels (et même par des entiers dans les exemples ci-dessus) et elles sont, comme $\pi^2/6$, transcendantes (a fortiori irrationnelles).

On ne peut finir ce paragraphe sans signaler qu’on ne sait que peu de choses sur les sommes des séries analogues où les exposants $2, 4, 6, 8, 10...$ sont remplacés par $3, 5, 7, 9, 11...$. Citons au moins un résultat d’Apéry qui date de 1978 et qui stipule que $\frac{1}{1^3} + \frac{1}{2^3} + \frac{1}{3^3} + \cdots$ est irrationnel : nos lecteurs les plus téméraires en trouveront une belle exposition dans l’article de van der Poorten [vdP-79].

On suppose, sans savoir le démontrer, que les sommes des séries avec les exposants $5, 7, 9, 11, 13...$ sont irrationnelles (et même transcendantes). Mais, on n’a que des résultats partiels :

  • d’après un résultat de Ball et Rivoal (voir [BR-01], voir aussi [T-00] et sa version prétirage librement consultable) une infinité de ces valeurs sont irrationnelles.
  • d’après un résultat de Zudilin [Z-04], au moins l’une des quatre sommes avec les exposants $5, 7, 9, 11$ est irrationnelle.

On ne sait pas démontrer cette irrationalité pour tous les exposants impairs, ce qui fait de la supposition ci-dessus ce que les mathématiciens appellent une conjecture : une assertion importante, dont on soupçonne la véracité au vu de ce qu’on a déjà analysé mais dont on cherche encore la preuve...

(la fonction zêta de Riemann)

Pour tout réel $s > 1$ fixé la série
$\frac{1}{1^s} + \frac{1}{2^s} + \frac{1}{3^s} + \cdots$ converge vers une
valeur que l’on note $\zeta(s)$. On peut prolonger $\zeta$ en une fonction définie pour tous les nombres $s$ complexes différents de $1$ et que l’on appelle la fonction zêta de Riemann . Les séries ci-dessus sont donc d’une part $\zeta(2), \zeta(4), \zeta(6)$ etc., d’autre part $\zeta(3), \zeta(5), \zeta(7)$ etc. Signalons au passage que la fonction $\zeta$ est très liée à la répartition des nombres premiers et qu’une conjecture célèbre (et toujours ouverte) connue sous le nom d’hypothèse de Riemann affirme que (le prolongement de) $\zeta$ ne s’annule qu’aux entiers strictement négatifs et en certains points complexes dont la partie réelle est égale à $1/2$.


Utiliser la série $E=1+1/4+1/9+\dots$ pour calculer $\pi$ serait une très mauvaise idée : comme on l’a souligné, il faut énormément de termes pour approcher $\pi$ avec une grande précision. D’autres séries ne souffrent pas de ce défaut. Donnons-en un exemple dû à Ramanujan, l’un des mathématiciens les plus célèbres du vingtième siècle. C’est l’une des (nombreuses) séries « magiques » qu’il a découvertes :
\[ \begin{array}{lll} \displaystyle R &=& \frac{2 \sqrt 2}{9801} \left(\frac{0!(1103+(26390 \times 0))}{0!^4 \times 396^{4\times 0}} + \frac{4!(1103+(26390 \times 1))}{1!^4 \times 396^{4\times 1}} + \frac{8!(1103+(26390 \times 2))}{2!^4 \times 396^{4\times 2}} +\cdots\right) \\ &=& \frac{2 \sqrt 2}{9801} \sum_{k=0}^\infty \frac{(4k)!(1103+26390k)}{(k!)^4 396^{4k}} \end{array} \]
où $\displaystyle\sum_{k=0}^\infty z_k$ signifie $z_0 + z_1 + z_2 + \cdots$ et $m!$ désigne la factorielle $m$, c’est-à-dire le produit $1.2.3\cdots m$.

La rapidité de la convergence de $R$ est stupéfiante : $1/R_1$ ne diffère de $\pi$ que de moins de $10^{-7}$ et chaque terme supplémentaire fait gagner huit ordres de grandeur à la précision ! ($1/R_2$ est indistinguable de $\pi$ pour les procédés de calculs ordinaires en « simple précision »).


Des séries avec la somme des chiffres des entiers

On peut trouver de nombreuses séries convergentes dont on sait
exprimer de manière « simple » et parfois inattendue
la somme. Voici encore deux exemples classiques :
\[ D = 1 - \frac{1}{2} + \frac{1}{3} - \frac{1}{4} + \cdots = \log 2 \]
(ce dernier nombre est le logarithme naturel de $2$ et vaut $0,693147\ldots$) et, maintenant en se restreignant aux entiers impairs, surprise :
\[ 1 - \frac{1}{3} + \frac{1}{5} - \frac{1}{7} + \cdots = \frac{\pi}{4}\cdot \]
Ce sont deux nombres transcendants dont le rapprochement peut paraître insolite. L’analyse complexe permettrait d’expliquer leur cousinage mais cela nous entraînerait un peu trop loin.

Nous donnons maintenant un exemple peut-être non conventionnel.

Notons $s(k)$ la somme des chiffres du développement décimal
de l’entier $k$ (par exemple si $k = 23$, on a $s(k) = 5$).
Alors la série de terme général $\frac{s(k)}{k(k+1)}$
converge et sa somme est $\frac{10}{9} \log 10$. Autrement dit
\[ \frac{s(1)}{1.2} + \frac{s(2)}{2.3} + \frac{s(3)}{3.4} + \frac{s(4)}{4.5} + \cdots = \frac{1}{1.2} + \frac{1}{2.3} + \frac{2}{3.4} + + \frac{1}{4.5} + \cdots = \frac{10}{9} \log 10. \]
Les lecteurs trouveront des séries du même genre dans l’article [ASS-07] (voir aussi la version prétirage de cet article). Nous ne résisterons pas au plaisir de citer deux autres de ces séries que l’on trouvera dans un article de Sondow :
soit $N_1(n)$ (respectivement $N_0(n)$) le nombre de $1$ (respectivement de $0$) dans le développement binaire de l’entier $n$. Alors la constante d’Euler $\gamma$ (que nous avons déjà vue ici) et ce que Sondow appelle la constante d’Euler « alternée » $\gamma^-$ que l’on peut définir respectivement par
\[ \gamma := \sum_{n \geq 1} \left( \frac{1}{n}-\ln\frac{n+1}{n} \right) \]
(comme vu plus haut) et
\[ \gamma^- := \sum_{n \geq 1} (-1)^{n-1} \left( \frac{1}{n}-\ln\frac{n+1}{n} \right) = \log \left ( \frac{4}{\pi} \right ) \]
permettent de donner la somme des deux séries ci-dessous :
\[ \sum_{n \geq 1} \frac{N_1(n) + N_0(n)}{2n(2n+1)} = \gamma \]
et
\[ \sum_{n \geq 1} \frac{N_1(n) - N_0(n)}{2n(2n+1)} = \gamma^- \]
d’où l’on tire aussi
\[ \sum_{n \geq 1} \frac{s_2(n)}{2n(2n+1)} = \frac{\gamma + \log \frac{4}{\pi}}{2} \]
où $s_2(n)$ est la somme des chiffres binaires de l’entier $n$.
On conjecture qu’aussi bien $\gamma$ que $\gamma^-$ sont irrationnels (et même que $\gamma$ et $\gamma^-$ sont transcendants) mais cette conjecture est toujours ouverte.


Un mot sur les produits infinis

De même qu’on s’est intéressé ci-dessus à
des expressions du genre $u_1 + u_2 + u_3 + \cdots$, de même on peut s’intéresser à des produits infinis du genre $u_1 \times u_2 \times u_3 \times \cdots$. Si l’on suppose que tous les facteurs du produit sont strictement positifs, prendre le logarithme permet de se ramener à l’étude de séries :
en effet il suffit d’écrire $\log(u_1 \times u_2 \times \cdots \times u_n) = \log u_1 + \log u_2 + \cdots + \log u_n$. Et pourtant, comme pour les séries par rapport aux suites, les produits infinis ont un intérêt propre.

Nous nous contenterons d’allécher (peut-être) nos lecteurs avec deux exemples. Le premier est dû à Viète (1540-1603, il est considéré de nos jours comme le premier ou l’un des tout premiers algébristes modernes), et c’est semble-t-il l’un des premiers exemples historiques de produits infinis
\[ \frac{\sqrt{2}}{2} \cdot \frac{\sqrt{2+\sqrt{2}}}{2} \cdot \frac{\sqrt{2+\sqrt{2+\sqrt{2}}}}{2} \cdots = \frac{2}{\pi}\cdot \]

(démonstration)

En itérant la relation $\sin 2\theta = 2 \sin \theta \cos \theta$,
on obtient
\[ \sin 2^n\theta = 2^n sin \theta \cos \theta \cos 2 \theta \cdots \cos 2^{n-1} \theta \]
qui peut encore s’écrire, en remplaçant $\theta$ par
$\theta /2^n$,
\[ \sin \theta = 2^n \sin \frac{\theta}{2^n} \left(\cos \frac{\theta}{2^n} \cos \frac{\theta}{2^{n-1}} \cdots \cos \frac{\theta}{2}\right). \]
autrement dit
\[ \frac{\sin \theta} {\theta} = \frac{\sin(\theta/2^n)}{(\theta/2^n)} \prod_{k=1}^n \cos(\theta/2^k). \]
En faisant tendre $n$ vers l’infini, on a donc
\[ \frac{\sin \theta} {\theta} = \prod_{k=1}^{\infty} \cos(\theta/2^k). \]
Il ne reste plus pour conclure qu’à prendre $\theta = \pi/2$, et à se souvenir que $\cos\theta = \sqrt{(1+\cos 2\theta)/2}$.

Pour des extensions de l’identité de Viète on pourra lire par exemple
[S-80].


Le second exemple que nous donnerons ici est peut-être peu connu. Définissons la suite $(a(n))$ par

  • $a(n) = 1$ si la somme des chiffres de l’entier $n$ en base $2$ est paire,
  • $a(n) = -1$ si cette somme est impaire.

(Par exemple si $n$ = treize, treize s’écrit $1101$ en base $2$,
donc $a(13) = -1$, et si $n$ = quinze, quinze s’écrit $1111$ en
base $2$, donc $a(15) = +1$.) On conviendra aussi que $a(0) := 1$.
Alors
\[ \left(\frac{1}{2}\right)^{a(0)} \times \left(\frac{3}{4}\right)^{a(1)} \times \left(\frac{5}{6}\right)^{a(2)} \times \cdots = \frac{\sqrt{2}}{2}\cdot \]
Les lecteurs pourront s’amuser à vérifier que les produits
partiels sont respectivement
\[ 1/2 \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \frac{1/2}{3/4} \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \frac{\frac{1/2}{3/4}}{\frac{5/6}{7/8}} \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ldots \]

(une démonstration simple)

Le produit infini ci-dessus, disons $P$, peut s’écrire
\[ P := \prod_{n \geq 0} \left(\frac{2n+1}{2n+2}\right)^{a(n)}. \]
Or, un autre produit, assez ressemblant, peut être trouvé dans la littérature, il s’agit du produit $Q$ défini par :
\[ Q := \prod_{n \geq 1}\left(\frac{2n}{2n+1}\right)^{a(n)}. \]
En 1987, l’auteur, dans une tentative de calculer $Q$, eut l’idée naïve
de considérer le produit $PQ$ (pour la démonstration — facile — de la convergence des produits infinis en jeu, nous dirons juste qu’il suffit de grouper les facteurs deux par deux) :
\[ PQ = \frac{1}{2} \prod_{n \geq 1}\left(\frac{n}{n+1}\right)^{a(n)} = \frac{1}{2} \prod_{n \geq 1}\left(\frac{2n}{2n+1}\right)^{a(2n)} \prod_{n \geq 0}\left(\frac{2n+1}{2n+2}\right)^{a(2n+1)}. \]
On utilise alors une propriété simple de la suite $(a(n))_n$, à savoir $a(2n) = a(n)$ et $a(2n+1) = -a(n)$ : remarquer que le développement binaire de $2n$ (respectivement de $2n+1$) s’obtient en collant un $0$ (respectivement un $1$) à droite du développement binaire de $n$, ce qui permet d’écrire
\[ PQ = \frac{1}{2} \prod_{n \geq 1}\left(\frac{2n}{2n+1}\right)^{a(n)} \left(\prod_{n \geq 0} \left(\frac{2n+1}{2n+2}\right)^{a(n)}\right)^{-1} = \frac{1}{2} \frac{Q}{P}\cdot \]
Comme $Q$ n’est pas nul, ceci donne $P^2=1/2$, ce qui, à défaut de dire quoi que ce soit sur $Q$, donna une (nouvelle) démonstration de l’égalité $P = 2^{-1/2}$ (car $P$ est positif).


Conclusion

Je ne sais pas si (mais j’espère que) des lecteurs auront été « fascinés », intéressés ou même amusés par ces exemples. Je signalerai seulement pour finir comme référence sur la Toile pour des séries ou produits infinis non conventionnels la page de J. Sondow.



Remerciement
 : L’auteur tient à remercier toutes les personnes qui ont relu le texte initial, avec une mention particulière pour G. Jouve et F. Le Roux qui ont suggéré plusieurs améliorations, et une mention spéciale pour J. Buzzi, qui a considérablement enrichi cet article.

Courte bibliographie

[ASS-07] J.-P. Allouche, J. Shallit, J. Sondow, Summation of series defined by counting blocks of digits, Journal of Number Theory 123 (2007), 133-143.

[BR-01] K. Ball, T. Rivoal, Irrationalité d’une infinité de valeurs de la fonction zêta aux entiers impairs, Inventiones Mathematica 146 (2001), 193-207.

[Coppo] M. A. Coppo, Une histoire des séries infinies d’Oresme à Euler, Gazette des Mathématiciens 120 (2009), 39-52.

[DMFP-82] F. M. Dekking, M. Mendès France, A. van der Poorten, Folds${\rm !}$, The Mathematical Intelligencer 4 (1982), 130-138, 173-181, 190-195.

[T-00] T. Rivoal, La fonction zêta de Riemann prend une infinité de valeurs irrationnelles aux entiers impairs, Comptes Rendus de l’Académie des Sciences, Paris, Série I, Mathématiques 331 (2000), 267-270.

[S-80] K. B. Stolarsky, Mapping properties, growth, and uniqueness of Vieta (infinite cosine) products, Pacific J. Math. 89 (1980), 209-227.

[vdP-79] A. van der Poorten, A proof that Euler missed... Apéry’s proof of the irrationality of zeta(3), The Mathematical Intelligencer 1 (1979), 195-203.

[Z-04] W. Zudilin, Arithmetic of linear forms involving odd zeta values, Journal de Théorie des Nombres de Bordeaux 16 (2004), 251-291.

P.S. :

La rédaction d’Images des maths, ainsi que l’auteur, remercient pour leur relecture attentive,
les relecteurs dont le pseudonyme est le suivant : Frédéric Le Roux, Guillaume Jouve, chuy .

Notes

[1Archimède (287 avant J.C. - 212 avant J.C.).

[2Leonard Euler (1707-1783).

[3Cette estimation est également due à Euler.

[4Joseph Fourier, mathématicien et préfet (1768-1830). La théorie des séries de Fourier permet d’écrire une fonction comme une série de fonctions sinus et cosinus multipliées par des constantes. Ces fonctions trigonométriques font intervenir le nombre $\pi$.

Affiliation de l'auteur

Commentaires sur l'article

Pour citer cet article : Jean-Paul Allouche, « Sommes de séries de nombres réels »Images des Mathématiques, CNRS, 2010.

En ligne, URL : http://images.math.cnrs.fr/Sommes-de-series-de-nombres-reels.html

Si vous avez aimé cet article, voici quelques suggestions automatiques qui pourraient vous intéresser :