Abonnez-vous

La genèse des expansions de fonctions


Bertrand Hauchecorne

Les premières expansions de fonctions en séries entières ont été concomitantes du développement du calcul différentiel et intégral à la fin du XVIIe siècle. En les tronquant, on obtenait en fait des développements limités !

Les fonctions trigonométriques développées au XVIe siècle, tout comme les logarithmes introduits en 1614 par John Neper, ont permis des progrès spectaculaires en astronomie… et donc en navigation, puisqu’à l’époque l’observation des astres permettait aux marins de se diriger. Entre deux valeurs connues de ces fonctions, on opérait par interpolation linéaire, c’est-à-dire que l’on considérait la fonction comme étant linéaire (un segment de droite) entre ces deux valeurs. Ce n’est évidemment pas le cas.

 

John Neper (1550‒1617).

 

 

À gauche : Isaac Newton (1643‒1727). À droite René Descartes (1596‒1650).

 

 

Avant le calcul différentiel

Les mathématiciens ont vite compris que l’introduction du calcul différentiel par Isaac Newton et René Descartes dans le dernier tiers du XVIIe siècle offrait des nouvelles possibilités pour améliorer ces approximations linéaires pour des fonctions plus générales. Mais revenons un peu en arrière.

En 1647, dans son ouvrage de plus de mille pages Opus geometricum, le mathématicien flamand Grégoire de Saint-Vincent effectue une étude des suites géométriques et donne la première définition connue de limite. Il étudie en particulier la fonction qui, à x > 0, associe y = 1 / x et montre que, si l’on fait croître les abscisses x1, x2, x3… de telle sorte qu’ils découpent des aires égales sous l’hyperbole, alors les valeurs xi sont en série géométrique. C’est son élève Alfonso Antonio de Sarasa (1618‒1667) qui se rend compte que les aires peuvent être considérées comme les logarithmes des abscisses. Cette propriété s’interprète en termes modernes de la manière suivante :  

 

 

C’est grâce à cette propriété que Newton (en 1666) et Mercator (en 1668), indépendamment, en déduisent le développement suivant :

 

en faisant ce que l’on appelle de nos jours une intégration terme à terme du développement

 

valable pour ‒1 < x < 1.

 

Dans les années 1670, différents mathématiciens comme Isaac Newton, Gottfried Leibniz ou James Gregory obtiennent, par des méthodes analogues, des développements en série des fonctions trigonométriques.

 

  

À gauche : Grégoire de Saint-Vincent (1584‒1667).

À droite : Gottfried Wilhelm Leibniz (1646‒1716).

 

La formule de Taylor

Une nouvelle méthode apparaît avec James Gregory en 1670, reprise par Newton en 1676 : celle des différences finies.

Prenons une fonction f dont la valeur est connue en a, a + c, a + 2ca + nc et posons :

Δ f (a) = f (a + c) ‒ f (a),

Δ f (a + c) = f (a + 2c) ‒ f (a + c),

puis Δ2f (a) = Δ f (a + c) ‒ Δ f (a),

Δ2f (a + c) = Δ f (a + 2c) ‒ Δ f (a + c),

et de même pour Δ3f (a), Δ4f (a)…

On obtient alors une interpolation, connue sous le nom de formule de Gregory‒Newton, pour 0 ≤ hc :

 

Qui, le premier, est parvenu à la formule dite de Taylor ? Ce n’est pas clair, entre Gregory, mort prématurément en 1675, Leibniz ou Jean Bernoulli, d’autant plus que la notion des « dérivées successives », bien qu’étant connue, était fort mal maîtrisée ! Le nom du mathématicien britannique restera à la postérité grâce à sa publication Methodus incrementorum directa et inversa, parue en 1715. Sans justification, il estime que l’on peut assimiler  à hf ′(a)  (c’est en fait sa limite quand c tend vers 0), et de même le terme suivant à  etc., ce qui donne la formule de Taylor… sans la moindre justification de convergence.

 

À gauche : James Gregory (1638‒1675).

À droite : Jean Bernoulli (1667‒1748).

 

Le nom de Colin Maclaurin est connu pour être associé à la formule de Taylor en 0. C’est en effet au voisinage de ce point que le mathématicien écossais étudie l’approximation d’une fonction par un polynôme. Plus précisément, dans son Treatise of fluxions publié en 1742, il suppose qu’une fonction f peut s’écrire sous la forme
f (x) = A + Bx + Cx2 + Dx3 +… Alors, il dérive terme à terme et obtient f ′ (x) = B + 2Cx + 3Dx2 +…, puis f ′′ (x) = 2C + 6Dx +…, et ainsi de suite. Il ne lui reste plus qu’à poser x = 0 dans chacune de ces expressions pour obtenir, par identification, A = (0), B = f ′ (0), C = f ′′ (0) / 2, etc.

Comme on le voit, il n’y a aucune rigueur de raisonnement : Maclaurin suppose que la fonction est la somme d’une série entière, sans aucune justification de convergence, et il « montre » alors que le nième coefficient de la fonction f en 0 est donné par la valeur de la dérivée nième de f en 0 divisée par n!. Il retrouve ainsi la formule de Taylor. Sur les traces de ces pionniers, de nombreux développements en série entière voient le jour sous la plume des plus prestigieux mathématiciens, en particulier le génial Leonhard Euler.

 

Colin Maclaurin (1698‒1746). 

 

Leonhard Euler (1707‒1783).

 

 

Les développements limités, enfin !

Pourtant, jusqu’ici, on ne parle pas de « développements limités ». Pour ce faire, il faudrait s’arrêter à un ordre n donné et justifier que le reste est « négligeable », dans un sens évidemment à définir.

Ce n’est que bien plus tard, à la toute fin du XVIIIe siècle, que Joseph Lagrange se pose le problème dans son ouvrage Théorie des fonctions analytiques, contenant les principes du calcul différentiel, publié en 1797. 

 

Joseph-Louis Lagrange (1736‒1813).

 

Il explique que, pour lui, « la théorie du développement des fonctions en série contient les vrais principes du calcul différentiel ». Il considère une fonction  f de la variable x, il note d’ailleurs  f x en lieu et place de notre  f (x), et s’intéresse à l’expression
f (x + i) = f x + i P, avec 

 

Il décompose ensuite P = p + i Q, puis Q = q + iR.

Il obtient alors f (x + i) = f x + ip + i 2q + i 3R. 

 

De proche en proche, il obtient une série (il ne se préoccupe pas de la convergence).

Il « montre » qu’il s’agit de la formule de Taylor, qu’il écrit ainsi, en notant, comme il le fait,  f pour f (0) et  f x pour f (x), et de même pour les dérivées :

 

Pour le degré 1, il considère M et N, respectivement la plus grande et la plus petite valeur de la dérivée sur l’intervalle [0, x], et affirme que toute valeur intermédiaire entre M et N pourra être exprimée par fu, en donnant à u une valeur intermédiaire entre 0 et x. Le lecteur averti reconnaît le théorème des accroissements finis. Lagrange s’émerveille alors en ces termes : « D’où il résulte un théorème nouveau et remarquable par sa simplicité et sa généralité, qu’en désignant par u une quantité inconnue, mais renfermée entre les limites 0 et x, on peut développer successivement toute fonction de x et d’autres quantités quelconques suivant les puissances de x de cette manière :

 

 

&c. »

La première égalité s’écrirait de nos jours f (x) = (0) + xf ’ (u) ; en d’autres termes, cette relation exprime le fait qu’il existe un nombre réel u, compris entre 0 et x, tel que  

Les deux égalités suivantes sont la formule de Taylor‒Lagrange à l’ordre 1, 2, puis quelconque grâce au « &c. ». On obtient cette fois-ci un développement limité avec une estimation du reste exprimé, par exemple à l’ordre 2, par    qu’il est facile de majorer par K x 3 où K majore la dérivée troisième de f sur un voisinage de 0. Ce terme est bien ce que l’on nomme de nos jours un « petit o de x2 ».

Certes, il manque quelques hypothèses à notre goût, mais le résultat est là. On devine que Lagrange est conscient de son importance lorsqu’il ajoute, à la page suivante : « La perfection des méthodes d’approximation dans lesquelles on emploie les séries dépend non seulement de la convergence des séries, mais encore de ce qu’on puisse estimer l’erreur qui résulte des termes qu’on néglige, et à cet égard on peut dire que presque toutes les méthodes d’approximation dont on fait usage dans la solution des problèmes géométriques et mécaniques sont encore très imparfaites. Le théorème précédent pourra servir dans beaucoup d’occasions à donner à ces méthodes la perfection qui leur manque, et sans laquelle il est souvent dangereux de les employer. »