You are on page 1of 45

1 2

Université AbdelMalek Essaadi


Faculté Des Sciences Et Techniques Tanger
Département Des Sciences Mathématiques Préface

Ce polycopié s’adresse aux étudiants de la deuxième année du DEUG scientifique MP et PC. Il


Introduction à l’analyse Numérique constitue le programme des modules M124, M118 & M144 enseigné en parallèle avec une initiation
à l’informatique. Des exemples d’illustration et des exercices d’application y sont proposés.

Première Partie Le polycopié contient cinq chapitres dont le premier introduit une tentative de définition de
l’analyse numérique ainsi que la terminologie utilisée par la suite. Le chapitre deux est consacré à
la recherche numérique des zéros d’équations non linéaires, diverses méthodes y sont proposées.
Le chapitre trois traite les équations aux différences, une application à la recherche des zéros
d’un polynôme est donnée. Au chapitre quatre, nous introduisons la notion d’approximation et
d’interpolation polynômiale. Le chapitre cinq est consacré au principe général de l’intégration
et dérivation numérique que nous appliquons dans le cas de la méthode des rectangles celle des
trapèzes, de Simpson et de Gauss. Nous présentons également, la théorie des formules de quadra-
ture.

Une série d’exercices est presentée à la fin de chaque chapitre. Cette série d’exercice contient
également des examens proposés à la FSTT depuis 1996.
Il est fortement recommandé aux étudiants de programmer toutes les méthodes étudiées soit en
Pascal, Fortran, Maple ou Mathematica.

Nous vous remercions par avance pour toute remarque ou critique et/ou suggestion constructive
et nous vous souhaitons bon courage.

Tanger le 10 Octobre 2004.

Abdesslam ARHRIB
e–mail: arhrib@fstt.ac.ma

Modules M124, M118 & M144


A l’usage des étudiants du DEUG MP & PC

Abdesslam ARHRIB
0

Table des matières

1 Introduction et définitions 5
1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Prologue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2 Définition de l’Analyse numérique (A.N). . . . . . . . . . . . . . . . . . . . . 5
1.2 Les nombres en A.N . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.1 Connaissance numérique d’un nombre. . . . . . . . . . . . . . . . . . . . . . . 7
1.2.2 Connaissance implicite d’un nombre . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Les fonctions en A.N . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.1 Connaissance numérique d’une fonction . . . . . . . . . . . . . . . . . . . . . 8
1.3.2 Connaissance implicite d’une fonction . . . . . . . . . . . . . . . . . . . . . . 8
1.4 Les erreurs en A.N . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.1 Erreurs de méthode. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.2 Erreurs d’arrondi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.3 Précision machine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.4 Stabilité et perte de précision . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

2 Résolution des équations à une variable: f (x) = 0 11


2.1 Position du problème et définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Méthode de dichotomie ou des bissectrices . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3 Méthodes des approximations successives. . . . . . . . . . . . . . . . . . . . . . . . . 13
2.3.1 Point fixe. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.3.2 Conditions d’existence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.4 La méthode de Lagrange ( ou de la sécante ) (1736–1813) . . . . . . . . . . . . . . . 19
2.5 Accélération de la convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5.1 δ2 d’Aitken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5.2 Ordre d’une méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.5.3 Méthode de Steffensen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.6 Méthode de Newton–Raphson élementaire (1642–1727) . . . . . . . . . . . . . . . . . 23
2.6.1 Convergence globale de la méthode de Newton-Raphson . . . . . . . . . . . . 24
2.7 La méthode combinée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.8 Execices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

3 Equations aux différences 35


3.1 Equations aux différences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.1.1 Introduction et motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.1.2 Equations aux différences du premier ordre . . . . . . . . . . . . . . . . . . . 35
3.1.3 Equations aux différences d’ordres N . . . . . . . . . . . . . . . . . . . . . . . 36
3.2 Résolution des équations aux différences . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2.1 Equation du premier ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2.2 Equations aux différences du second ordre . . . . . . . . . . . . . . . . . . . . 37
3.3 Schéma de Horner . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

1
2 3

3.3.1 Algorithme 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 5.4.3 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74


3.3.2 Nombre d’opérations: d’additions et multiplications: . . . . . . . . . . . . . . 38 5.4.4 Estimation de l’erreur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
3.3.3 Application du schéma d’Horner à l’évaluation de la dérivée d’un polynôme . 39 5.4.5 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
3.3.4 Algorithme 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 5.5 La méthode de Gauss ( à deux points ) . . . . . . . . . . . . . . . . . . . . . . . . . 74
3.4 Application à la recherche des zéros d’un polynôme . . . . . . . . . . . . . . . . . . . 41 5.5.1 Principe de la méthode de Gauss à deux points . . . . . . . . . . . . . . . . . 74
3.4.1 Méthode de Newton–Raphson . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 5.5.2 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3.4.2 Méthode de Bernoulli (1654–1705) . . . . . . . . . . . . . . . . . . . . . . . . 41 5.6 Formule de quadrature . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3.4.3 Théorème genéral: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 5.6.1 Préliminaire et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 5.6.2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
5.6.3 Ordre de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4 Interpolation et approximation polynômiale 47 5.7 Dérivation numérique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 5.7.1 Approximation polynômiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.1.1 Objectif de l’interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 5.7.2 Approximation de la dérivée première . . . . . . . . . . . . . . . . . . . . . . 79
4.1.2 Un exemple constructif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 5.7.3 Approximation de la dérivée seconde . . . . . . . . . . . . . . . . . . . . . . . 81
4.2 Approximation polynômiale de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . 49 5.7.4 Approximation des dérivées partielles . . . . . . . . . . . . . . . . . . . . . . 81
4.2.1 Exemple d’estimation de l’erreur . . . . . . . . . . . . . . . . . . . . . . . . . 50 5.8 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.2.2 A propos de l’erreur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.3 Interpolation polynômiale de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.3.1 Existance et unicité du polynôme de Lagrange . . . . . . . . . . . . . . . . . 51
4.3.2 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.3.3 Autre écriture du Polynôme de Lagrange . . . . . . . . . . . . . . . . . . . . 53
4.3.4 Estimation de l’erreur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.4 Interpolation polynômiale de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.4.1 Polynôme de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.4.2 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.4.3 Interpolation polynômiale de Newton . . . . . . . . . . . . . . . . . . . . . . 56
4.5 Polynôme de Chebyshev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.5.1 Polynôme de Chebyshev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

5 Intégration et dérivation numérique 65


5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.1.1 Objectif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.1.2 Rappels: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.1.3 Intérpretation géomètrique de l’intégrale . . . . . . . . . . . . . . . . . . . . . 65
5.1.4 Principe du calcul approché: . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.2 Formule des réctangles ( avec point milieu ): . . . . . . . . . . . . . . . . . . . . . . . 67
5.2.1 Formule élémentaire: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.2.2 Formule composée: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.2.3 Propriétés. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.2.4 Estimation de l’erreur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
5.2.5 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
5.3 La méthode des trapèzes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
5.3.1 La formule élémentaire: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
5.3.2 Formule composée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.3.3 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.3.4 Estimation de l’erreur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.3.5 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.4 Accélération de la convergence : Méthode de Simpson (1710-1761). . . . . . . . . . . 72
5.4.1 Formule élémentaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.4.2 Formule composée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4

Chapitre 1

Introduction et définitions

1.1 Définitions
1.1.1 Prologue
Les mathématiques ont été et sont appliquées, utilisées pour contrôler les relations des hommes
avec son environnement. Parmi les travaux qui ont marqué l’histoire, nous citons:

• Archimede (-285, -215 AJC): loi de la statique.

• J. Kepler (1571, 1630): mouvement des planetes et sections coniques.

• I. Newton (1643, 1727): loi de la dynamique et satellites artificiels.

• L. Euler (1707, 1783): travail sur les mâts des bateaux.

• Gauss (1777, 1852): méthodes des moindres carrés.

• B.Riemann (1826, 1866): physique mathématique.

• H. Poincarré (1854, 1912): mécanique celestre.

Depuis la deuxième guèrre mondiale, les applications des mathématiques s’étendent à tous les
secteurs d’activité et ceci grâce aux ordinateurs et leur rapidité de calcul: on peut citer les prévisions
météologiques, les techniques d’exploration de la terre en géophysique comme la sismique, les
techniques de recherche opérationnelle en gestion, etc...
Un cours de “Mathématiques Appliquées” qui exige de faire des mathématiques avec un ordi-
nateur, se trouve alors justifié. Si les autres disciplines de mathématiques comme (Algèbre linéare,
Analyse vectorielle... ) sont connues depuis très longtemps, le terme analyse numérique n’a com-
mencé à être utilisé qu’après la fondation en 1947 de “Institute of Numerical Analysis” à l’Université
de California de Los Angelos.

1.1.2 Définition de l’Analyse numérique (A.N).


Il sera difficile de donner une définition précise de ce qu’est l’A.N, et ce pour la simple raison que
toute tentative de définition utilisera des termes techniques que nous verrons au cours des chapitres
qui vont suivre.

Essai de définition:
L’A.N est l’étude des méthodes constructives permettant d’évaluer numériquement un nombre, une
fonction ou en genéral une solution d’un problème donné.

5
6 1. Introduction et définitions 1. 2 Les nombres en A.N 7

Par méthode constructives nous entendons les procédures permettant d’obtenir une solution a var x,y,r: Integer;
un problème mathématique avec une précision arbitraire en un certain nombre d’étapes. C’est ce begin writln (’donner x et y (entiers > 0) ’);
qu’on appelle Algorithme. repeat Readln(x, y) Until (x > 0) and (y > 0);
write(’PGCD(’,x,‘,’,y,‘)=’);
Le mot “méthodes” qui apparait dans la définition dépend généralement du problème considéré. repeat r := x mod y
x := y;
Définition d’algorithme y := r;
Until r = 0;
C’est la description précise des opérations successives permettant d’obtenir un certain résultat à writln(x)
un problème donné. End.
En A.N on s’intéresse à l’étude des conditions d’existence et d’unicité de la solution d’un problème
ainsi qu’aux performances de l’algorithme telles que la convergence, la stabilité et la précision.
1.2 Les nombres en A.N
Exemples.
Fréquemment les problèmes d’A.N sont fondés sur des concepts de continûm spatial et temporel. Les
a. Soit à 
multiplier 19 par 17 variables prennent leurs valeurs dans l’ensemble des nombres réels(mécanique, thermodynamique)
 19 ou des nombres complexes (electricité, electronique, ...). Notez à cet égard qu’un nombre complexe




 17 du point de vue numérique est la collection de deux nombres réels.


 −−−


Algorithme: 133 1.2.1 Connaissance numérique d’un nombre.

 19



 On considerera un réel comme connu numériquement si on connait un certain nombre de chiffres
 −−−



 323 de son développement décimal et la précision avec laquelle ce développement approché est donné.
b. Soit à effectuer le calcul du P.G.C.D=d de deux entiers relatifs x et y. L’algorithme d’Euclide, Exemple.
qui consiste à faire des divisions euclidiennes successives jusqu’à ce que le reste devienne nul donne √
2 = 1.414213 ± 10−6
immédiatement le P.G.C.D de x et y. Cet algorithme nous permet aussi de vérifier l’identité de π = 3.14159 ± 10−5
Bezout c.à.d qu’il existe u et v de ZZ tels que d = xu + yv.
1.2.2 Connaissance implicite d’un nombre
Algorithme d’Euclide
Fréquemment la solution d’un problème est un nombre réel ou complexe comme l’illustrent les
x = yq0 + r0 , 0 ≤ r0 < y
exemples suivants.
y = r 0 q 1 + r1 , 0 ≤ r1 < r0
r0 = r1 q 2 + r 2 , 0 ≤ r2 < r1 a. Limite d’une suite ou d’une série.
r1 = r2 q 3 + r 3 , 0 ≤ r3 < r2
.. .. √ un + 2
.= . i. 2 = lim un tel que un+1 = , ∀n ∈ IN, u0 ≥ 0
n→+∞ un + 1
rn−2 = rn−1 qn + rn , 0 ≤ rn < rn−1 1 1 1
ii. γE = lim (1 + + + . . . + − log(n)) (γE est la constante d’Euler )
rn−1 = rn qn+1 + rn+1 , 0 ≤ rn+1 < rn n→+∞ 2 3 n
+∞
On arrive forcément à un reste rn+1 = 0, et on conclut que le P.G.C.D de x et y est le dernier reste π2 1
X
iii. = 2
non nul: P.G.C.D(x, y) = rn . A partir des ces égalités on peut trouver u et v tels que rn = xu + yv 6 n=1
n
Programme de calcul du P.G.C.D
b. Racine d’une équation ou d’un système d’équations.
L’algorithme en langage ordinaire s’écrit:
répéter r := x mod y ; l tel que il existe un X ∈ lRn : AX = λX et X 6= 0.
• Recherche d’une valeur propre λ ∈ C
x := y;
y := r ; • Recherche d’une solution d’un système: X ∈ lRn tel que AX = b A une matrice carrée d’ordre
jusqu’à ce que r = 0 n et b ∈ lRn
(le résultat est le dernier reste non nul)
c. Valeur d’intégrale. Z 1
program PGCD π dt
{ calcul du P.G.C.D de deux entiers strictement positifs } =
4 0 1 + t2
8 1. Introduction et définitions 1. 4 Les erreurs en A.N 9

1.4.2 Erreurs d’arrondi


d. Optimisation d’une fonction.
Les opérations de l’algorithme ne sont jamais effectuées exactement. Il y a erreur d’arrondi ou de
Il s’agit de trouver l’extremum d’une fonction.
troncature.

1.3 Les fonctions en A.N Exemple.


1 1
3 = 0.3333 en simple précision, 3 = 0.33333333 en double précision.
1.3.1 Connaissance numérique d’une fonction
Une fonction est connue numériquement si l’on peut calculer “au sens de la connaissance d’un 1.4.3 Précision machine
nombre réel” sa valeur en tout point de son ensemble de définition. On considérera une fonction On appelle précision de la machine le réel défini par:
comme connue numériquement si on peut en calculer une valeur approchée en tout point avec
indication de la précision de cette valeur. ε = min{ε′ : ε′ > 0 , 1 + ε′ > 1}
Pour les fonctions usuelles “log, sin, cos ... ”les algorithmes qui les calculent sont généralement
fournis par le constructeur de la machine. avec cette définition on remarque que dans l’ensemble des réels représentés sur une machine
l’addition n’est pas associative.
1.3.2 Connaissance implicite d’une fonction En effet:
[(1 + ε/2) + ε/2]machine = 1 alors que
a. Développement limité au voisinage d’un point. [1 + (ε/2 + ε/2)]machine = 1 + ε > 1

∞ 1.4.4 Stabilité et perte de précision


X xn
i. Log(1 − x) =
n=1
n a. Notion de stabilité

x
X xn
ii. e = On dira de manière vague qu’un algorithme est numériquement instable si le résultat fi-
n=0
n!
nal est fortement influencé par les erreurs d’arrondi. Le résultat change de la simple à la double
b. Solution d’équations différentielles. précision.
• Trouver y tel que y ′ (x) = f (x, y(x)), pour tout x ∈]a, b[ avec la condition initiale y(a) = α, α On appelle problème bien conditionné un problème pour lequel on peut trouver un algorithme
donnée. stable pour le résoudre.

• Trouver y tel que y ′′ (x) = f (x, y(x), y ′ (x)), pour tout x ∈]a, b[ avec les conditions au bord Exemple:
y(a) = α, y(b) = β, α etβ données. Le calcul des zéros des polynômes n’est pas toujours bien conditionné.

1.4 Les erreurs en A.N b. Perte de précision.

Soit x un nombre réel. Soit x̄ une approximation de x. Nous étudions ce phénomène sur l’exemple suivant: étant donnés deux réels x et y, x̄ et ȳ leurs
On appelle erreur absolue: ∆x = x̄ − x. valeurs approchées.
On appelle erreur relative: ε = ∆x x̄−x x̄ = x + ∆x , ȳ = y + ∆y =⇒ x̄ + ȳ = x + y + ∆x + ∆y
x = x

∆(x + y) = ∆x + ∆y
1.4.1 Erreurs de méthode.
Rb
Soit à calculer l’intégrale: I = a f (t)dt; f est une fonction continue sur [a, b]. La méthode des Si on note ⊕ la somme numérique, ε l’erreur relative de méthode commise sur x + y
trapèzes (voir figure) donne pour I la valeur approximative suivante: x ⊕ y = x + y + ∆(x + y) = (x + y)(1 + ε)
n−1
X 1 l’erreur relative de la méthode numérique est donc donnée par:
Tk = k (f (xi+1 ) + f (xi ))
i=0
2
x̄ ⊕ ȳ − (x + y) (x + ∆x + y + ∆y)(1 + ε) − (x + y)
=
avec k = b−an , xi = a + ik; i = 0, 1, . . . n. x+y x+y
l’erreur commise en approximant I par Tk est: | Tk − I |. On peut montrer que (voir chapitre ∆x + ∆y ∆x + ∆y
V): = ε+ (1 + ε) ≈ ε +
x+y x+y
| Tk − I |= o(k2 ) ordre de l′ erreur où nous avons négligé les erreurs du second ordre dans la dernière équation.
1 On peut donc avoir une augmentation significative de l’erreur relative sur la somme de deux réels
| Tk − I |≤ Hk2 . majoration de l′ erreur avec H = (b − a)(max | f ′′ (x) |)x∈[a,b]
12 lorsque:
10 1. Introduction et définitions

• (x + y) est très petit devant x et y.


∆y
• y est grand et y ≪ x

Exemple.
Chapitre 2
Etudions la somme x + y + z en supposant que les nombres considérés ont une representation
exacte en machine.
On a x ⊕ y = (x + y)(1 + ε1 ).
Etudions: x ⊕ y ⊕ z: Résolution des équations à une
(x ⊕ y) ⊕ z = ((x ⊕ y) + z)(1 + ε2 ) = x + y + z + ε1 (x + y) + ε2 (x + y + z) + ε1 ε2 variable: f (x) = 0
x+y
L’erreur relative sur cette somme est: ε1 x+y+z + ε2 .
On remarque que si x + y + z ≈ 0 (z ≈ −(x + y) ) on a une amplification de l’erreur relative. Dans
un tel cas, on peut améliorer la précision du résultat en considérant l’un des calculs (x ⊕ z) ⊕ y ou
(y ⊕ z) ⊕ x. 2.1 Position du problème et définitions

Numériquement. Soit f une fonction réelle et Df son domaine de définition (Df ⊂ lR). Nôtre problème a la formu-
lation suivante :
Si x = 1.0000002, y = 1.4999999.10−7 et z = −1.0000001 donc x + y + z = 2.4999999.10−7 . trouver x ∈ Df tel que f (x) = 0
Considérons à présent les sommes S1 et S2 :
Montrer l’existence d’une racine, déterminer le nombre des racines éventuelles de l’équation f (x) =
S1 = (x ⊕ y) ⊕ z = (1.0000003) ⊕ z = 2.10−7 , S2 = (x ⊕ z) ⊕ y = (0.0000001) ⊕ y = 2.4999999.10−7 0 et le calcul approché de ces racines posent des problèmes qui ne sont pas résolus par une méthode
générale.
Les erreurs relatives sur S1 et S2 sont définies par: Nous introduisons pour la résolution de ce problème plusieurs algorithmes dont on étudiera les
caractéristiques (dichotomie, méthodes d’approximations successives,
(x ⊕ y) ⊕ z − (x + y + z) 0.4999999 Newton–Raphson, . . .).
εS1 = = .
x+y+z 2.4999999
εS2 = 0. Définition. Si s est une racine, de f alors f (s) = 0. Si f est p fois différentiable et telle que:
f (s) = 0, f ′ (s) = 0, f (p−1) (s) = 0 et f p (s) 6= 0
alors s est dite une racine de multiplicité p.

Localisation d’une racine


Il faut commencer par localiser la racine, c’est à dire trouver un encadrement de cette racine.
a. Méthode graphique
En étudiant le tableau de variation et les proprietés de la fonction (continuité, monotonie, . . . ,
graphe) essayer de localiser ainsi tous les intervalles qui contiennent une solution de f (x) = 0
b. Par application du théorème des Valeurs Intermédiaires
Si f est continue sur [a, b] ⊂ lR, et si f (a)f (b) < 0 alors il existe au moins un point s ∈]a, b[ telle
que f (s) = 0.
Si de plus f est strictement monotonne sur [a, b], alors cette racine est unique.

2.2 Méthode de dichotomie ou des bissectrices


Soit f une fonction continue sur l’intervalle fermé [a, b] telle que f (a)f (b) < 0, il existe au moins
une racine s dans l’intervalle [a, b] telle que f (s) = 0. Si de plus f est strictement monotone dans
l’intervalle [a, b], alors s est unique. Notons que la mesure de [a, b] est b − a
Dès qu’on a déterminé a = a0 et b = b0 tels que f (a)f (b) < 0, la méthode de dichotomie consiste
à considèrer le point c0 = a+b2 et à calculer f (c0 ) (voir figure).

11
12 1. Résolution des équations à une variable: f (x) = 0 1. 3 Méthodes des approximations successives. 13

• si f (c0 )f (a) < 0 alors s ∈ [a, c0 ], on pose a1 = a0 = a et b1 = c0 On en conclut donc que la suite (cn ) ainsi formée converge vers la racine s de f (x) = 0. cn est une
approximation de s, l’erreur en au bout de la nième opération est donnée par en = |cn − s|. On a
• si f (c0 )f (b) < 0 alors s ∈ [c0 , b], on pose a1 = c0 et b1 = b0 = b
la majoration de l’erreur suivante:
b−a b−a
la mesure de [a, c0 ] est égale à 2 et c’est aussi égale à la mesure de [c0 , b].
|cn − s| < n+1
• Si s ∈ [a0 , c0 ] on considère c1 = a1 +b 1
= a0 +c 0
et on étudie le signe de f (a0 )f (c1 ) et celui de 2
2 2
f (c0 )f (c1 ). Si f (a0 )f (c1 ) < 0 alors s ∈ [a0 , c1 ] sinon s ∈ [c1 , c0 ] Pour avoir une approximation de s par cn avec une précision ǫ, il suffit qu’on ait:
b−a
• Si s ∈ [c0 , b0 ] on considère c1 = a1 +b 2
1
= c0 +b2
0
et on étudie le signe de f (b0 )f (c1 ) et celui de |cn − s| < <ǫ
2n+1
f (c0 )f (c1 ). Si f (b0 )f (c1 ) < 0 alors s ∈ [b0 , c1 ] sinon s ∈ [c1 , c0 ]
et donc
b−a
• Dans tout les cas de figure on a: mesure [a0 , c1 ] = [c1 , c0 ] = [b0 , c1 ] = 22 ln( b−a
ǫ )
n> −1
Par récurrence, on construit deux suites (an ) et (bn ). La suite (cn ) est définie par cn = an +bn ln2
On 2 .
remarque qu’à chaque opération on diminue de moitié la longueur de l’intervalle contenant la racine
Exemple
s. Au bout de n opérations la longueur de l’intervalle devient b−a 2n . Le coefficient de réduction de
l’erreur est au moins 12 . On a donc l’algorithme suivant: Soit à résoudre par la méthode de dichotomie f (x) = e−x − x = 0. f est une fonction continue sur
lR en particulier sur [0, 1], de plus f (0)f (1) < 0 et f est strictement décroissante sur [0, 1] donc f
Algorithme de dichotomie. admet une racine unique s ∈]0, 1[. D’après l’algorithme de dichotomie, on a le tableau suivant:
On définit deux suites (an ) et (bn ) de la manière suivante: n an bn cn |cn+1 − cn |
a0 + b0 a+b 0 0 1 0.5 0.5
a0 = a, b0 = b c0 = = 1 0.5 1 0.75 0.25
2 2
a0 + c0 a1 + b1 2 0.5 0.75 0.625 0.125
si f (a0 )f (c0 ) < 0 a1 = a0 , b1 = c0 c1 = = 3 0.5 0.625 0.5625 0.0625
2 2
b0 + c0 a1 + b1 4 0.5625 0.625 0.59375 0.03125
si f (b0 )f (c0 ) < 0 a1 = c0 , b1 = b0 c1 = =
2 2 5 0.5625 0.59375 0.578125 0.015625
Si an , bn sont connus alors an+1 , bn+1 sont définis comme suit: 6 0.5625 0.578125 0.5703125 0.0078125
7 0.5625 0.5703125 0.5664062 0.0039063
on pose: cn = an +b2
n
alors; 8 0.5703125 0.5664062 0.5683593 0.0019531
si f (cn ) = 0 on pose an+1 = bn+1 = cn+1 9 0.5664062 0.5683593 0.5673828 0.0009765
sinon : 10 0.5664062 0.5673828 0.5668945 0.0004883
si f (cn ) > 0 on pose an+1 = an , bn+1 = cn 11 0.5668945 0.5673828 0.5671386 0.0002441
si f (cn ) < 0 on pose an+1 = cn , bn+1 = bn 12 0.5671386 0.5673828 0.5672607 0.0001221
Cela étant schématisé dans la figure suivante:
L’erreur au bout de la 12ème opération est inférieure à 1
213 = 0.000122. La valeur approchée de s
(a,f(a)) à 10−15 près est donnée par 0.5671432904097811.
f(a)f(b) < 0
Remarques
a.) L’erreur e12 = |c12 − s| au bout de la 12ème opération est inférieure à 2b−a
12+1 = 0.000122
a=a0 c1 c0 b=b0 b.) cn est une approximation de s, |cn+1 − cn | donne aussi une information sur l’ordre de grandeur
de l’erreur. Pour n = 11 on a: |c12 − c11 | ≈ 0.0001221.
c2
Cf (b,f(b)) 2.3 Méthodes des approximations successives.
2.3.1 Point fixe.
Figure 2.1: Principe de la méthode de dichotomie. Soit g une fonction de lR dans lR et x0 ∈ lR, on engendre la suite:

D’après le graphe on remarque que: x1 = g(x0 )


|bn − an | b−a x2 = g(x1 )
|cn − s| < , bn − an = n .. .
2 2
. = ..
b−a
< xn = g(xn−1 )
2n+1
14 1. Résolution des équations à une variable: f (x) = 0 1. 3 Méthodes des approximations successives. 15

y=g(x) y=x y=g(x) y=x y= g(x)


y=x
b
11111111
00000000
g(s) 00000000
11111111
Cg
C Rg Dg et il n’y a pas de
00000000
11111111
g
00000000
11111111 point fixe.
00000000
11111111
x x 00000000
11111111
s x2 x1 x0 x0 x1 x2 00000000
11111111
Cg C
Escalier convergent Escalier divergent
a 00000000
11111111
g

x
a b
y=g(x) y=x
y=g(x) y=x

g(s) Figure 2.4: g discontinue en α, g(Dg ) ⊂ Dg n’est pas suffisante

Donc comme seconde condition pour qu’un point fixe existe il faut que:
x x b. g soit une fonction continue.
x1 x3 s x2 x0 x1 x0 x2 questions.
Escargot convergent Escargot divergent
1. Est-ce que g a un point fixe ?

Figure 2.2: Principe de la méthode itérative. 2. Ce point fixe est-il unique ?

3. La suite (xn )n∈IN > 0 converge-t-elle pour tout x0 ∈ Dg ?


graphiquement cela donne:
Dans les cas convergents ( avec g continue ) on voit qu’à la limite x = g(x) Des éléments de réponse (conditions d’existence, d’unicité et de convergence) sont formulés dans
les théorèmes qui suivent.
Définition: on appelle point fixe de la fonction g de lR dans lR un réel x qui vérifie g(x) = x
Théorème 1: Soit g une fonction réelle de variable réelle dont le domaine Dg est un intervalle
fermé borné [a, b] et dont l’image g(Dg ) vérifie g(Dg ) ⊂ [a, b] = Dg .
2.3.2 Conditions d’existence On suppose que g est continue sur [a, b]. Alors g a un point fixe sur [a, b] c’est à dire qu’il existe
un point s ∈ [a, b] tel que s = g(s)
Pour qu’un point fixe existe il faut que :
a.) l’ensemble de définition de g (Dg ) et l’ensemble image de g (g(Dg )) vérifient :
Preuve: Soit f une fonction définie à partir de g par: f (x) = x − g(x).
g(Dg ) ⊂ Dg
f (a) = a − g(a) < 0 car g(Dg ) ⊂ [a, b] ( g(x) > a pour tout x ∈ [a, b]).
y= g(x) y = g(x)
f (b) = b − g(b) > 0 car ( g(Dg ) ⊂ [a, b], g(x) < b pour tout x ∈ Dg ).
y=x y=x Or f est une fonction continue ( comme différence de deux fonctions continues) d’après le théorème
b 11111111
00000000
00000000
11111111 b 11111111
00000000
00000000
11111111 des valeurs intermediaires il existe s ∈ [a, b] tel que f (s) = 0 =⇒ g(s) = s.
00000000
11111111 00000000
11111111
00000000
11111111 La courbe C g devra ^etre 00000000
11111111
00000000
11111111 00000000
11111111
00000000
11111111
00000000
11111111 dans la partie hachuree 00000000
11111111
00000000
11111111
Cg Remarques.
00000000
11111111
Cg
00000000
11111111
a 00000000
11111111 a 00000000
11111111 • Si Dg est non borné ca ne marche plus. Prenons par exemple la fonction g(x) = x + 1
x x définie sur Dg = lR qui n’est pas borné et qui vérifie néamoins g(Dg ) ⊂ Dg mais pour tout
a b a b x ∈ Dg , x 6= x + 1.

• Les conditions imposées ci dessus n’interdisent pas l’existance de plusieurs points fixes. Si on
Figure 2.3: Condition nécessaire d’existence de point fixe g(Dg ) ⊂ Dg souhaiterait avoir une seule solution on doit supposer que g ne varie pas trop rapidement.

La condition “a.” à elle seule est insuffisante car on peut avoir une fonction qui vérifie bien Une façon d’imposer que l’intersection du graphe de g et de y = x soit non vide est de supposer
g(Dg ) ⊂ Dg et qui ne posséde pas de point fixe comme le montre le graphe de la fonction suivante: | g′ |≤ L avec L < 1. On arrive ainsi à la notion d’application contractante mais la dérivabilité
n’est pas nécéssaire. Dans ce cas on n’a plus besoin de supposer que Dg borné et ceci est contenu
g est discontinue en α dans le théorème suivant:
16 1. Résolution des équations à une variable: f (x) = 0 1. 3 Méthodes des approximations successives. 17

(iii) g(a) < a, on a


Théorème 2: soit g une fonction d’une variable réelle dont le domaine de définintion Dg est
un intervalle fermé ( pas forcèment borné). Donc Dg = [a, b] ou [a, +∞[ ou ] − ∞, a] ou lR. On −|g(x)| < |g(x)|
suppose: −|g(a) + g(x) − g(a)| < |g(x)|
1. que l’image de Dg par g vérifie: g(Dg ) ⊂ Dg −|g(a)| − |g(x) − g(a)| < |g(x)|
2. et qu’il existe une constante L telle que 0 < L < 1
−L|x − a| − |g(a)| < |g(x)|
pour tous x, y ∈ Dg : | g(x) − g(y) |< L | x − y | −L|x| − L|a| − |g(a)| < |g(x)| =⇒ −(L|x| + |c|) ≤ g(x)
−c
Soit x̃ < 1−L =⇒ x̃ < a et −(L|x̃| + |c|) ≤ g(x̃)g(x̃) ≥ −L|x̃| − |c| ≥ x̃ d’où l’existence d’un
Alors: point fixe entre a et x̃.
a. g a un point fixe UNIQUE s, Dans les 3 cas on a montré l’existence d’un point fixe, reste à prouver son unicité:
Unicité du point fixe:
b. La suite xn définie par x0 ∈ Dg : xn+1 = g(xn ) converge vers s quel que soit x0 ∈ Dg En effet: soient s1 et s2 deux points fixes, |g(s1 ) − g(s2 )| ≤ L|s1 − s2 | =⇒ |s1 − s2 | ≤ L|s1 − s2 |
Ln
c. pour n = 1, 2, . . . on a en = |xn − s| ≤ 1−L | x1 − x0 |. Si s1 6= s2 ,|s1 − s2 | =
6 0 =⇒ L ≥ 1 ce qui est absurde.
en définie l’erreur à l’itération n.
Montrons b.) Pour montrer la convergence de (xn )n∈IN vers s, considérons :
Preuve:
|xn − s| = |g(xn−1 ) − g(s)| ≤ L|xn−1 − s| ≤ L2 |xn−2 − s| ≤ . . . ≤ Ln |x0 − s|
Existence du point fixe:
Si Dg = [a, b]; dèja vu Théorème 1. 0 ≤ L ≤ 1 ; limn→+∞ Ln = 0; ceci montre que limn→+∞ xn = s
Supposons que Dg = [a, +∞[. Si g(a) = a, a est un point fixe, il n’y a plus rien à montrer, sinon
g(a) > a (g(Dg ) ⊂ Dg ). c.) donne un encadrement de l’erreur |xn − s| après n itérations. Pour prouver (c) on doit montrer
que
g(x) ≤ |g(x)| = |g(a) + g(x) − g(a)| ≤ |g(a)| + |g(x) − g(a)| |xk+1 − xk | ≤ Lk |x1 − x0 |
≤ |g(a)| + L|x − a| En effet
≤ |g(a)| + L|x| + L|a|
≤ c + L|x| ; c = |g(a)| + L|a| |xk+1 − xk | = |f (xk ) − f (xk−1 )| ≤ L|xk − xk−1 | ≤ L2 |xk−1 − xk−2 | ≤ Lk |x1 − x0 |

maintenant soient m, n tels que m > n; considérons


donc
g(x) ≤ c + L|x| |xm − xn | = |xm − xm−1 + xm−1 − xm−2 + xm−2 .... − xn+1 + xn+1 − xn |
c ≤ |xm − xm−1 | + |xm−1 − xm−2 | + ... + |xn+1 − xn |
Soit x̃ > 1−L (comme L < 1, x̃ > 0)
g(x̃) ≤ c + Lx̃ < x̃(1 − L) + Lx̃ = x̃ ≤ Lm−1 |x1 − x0 | + Lm−2 |x1 − x0 | + ... + Ln |x1 − x0 |
≤ (Lm−1 + Lm−2 + ... + Ln )|x1 − x0 |
on a donc g(a) > a et g(x̃) < x̃, g admet donc un point fixe entre a et x̃. ≤ Ln (1 + L + L2 + ... + Lm−n−1 )|x1 − x0 |
Il faut prouver que x̃ > a 1 − Lm−n
En effet: x̃ > |g(a)|+L|a| = |g(a)|+(L−1)|a|+|a| = −|a| + |g(a)|+|a| > −|a| + 2a
=a ≤ Ln |x1 − x0 |
1−L 1−L 1−L 1−L 1−L
L n
Si Dg =] − ∞, a] on prend g̃(y) = g(−y), g̃ est continue (comme composée de fonctions con- ≤ |x1 − x0 |
1−L
tinues ). On est donc ramené au cas précédent.
 Si on fait tendre m → ∞ tout en gardant n fixe, on a l’encadrement de c.).
 (i) g(a) = a

Si Dg = lR, soit a ∈ lR on a les situations suivantes: (ii) g(a) > a Remarque:

 (iii)g(a) < a
1. pour n fixe, l’erreur | xn − s | est d’autant plus petite que L est proche de 0.
(i) g(a) = a plus rien à prouver, le point fixe existe. 2. pour n fixe, l’erreur diminue très lentement si L ≈ 1.
c
(ii) g(a) > a; on a toujours |g(x)| < c + L|x| ou c = |g(a)| + L|a| Soit x̃ ≥ 1−L on a donc
g(x̃) < c + L|x̃| < x̃ g(a) > a et g(x̃) < x̃ x̃ > a; il existe donc un point fixe entre a et x̃. Proposition: Soit g une fonction dérivable dans [a, b], si g′ vérifie : maxx∈[a,b] |g′ (x)| = L < 1 alors
18 1. Résolution des équations à une variable: f (x) = 0 1. 4 La méthode de Lagrange ( ou de la sécante ) 19

g est contractante sur l’intervalle [a, b]. l’erreur lors de la 14ème itération est inférieure à: L14
1−L |x1 − x0 | = e−7
0.393469 0.106531 = 0.000247

Preuve: d’après la formule des accroissements finis: g(x) − g(y) = g′ (ξ)(x − y), ξ ∈]x, y[ donc
|g(x) − g(y)| = |g′ (ξ)||x − y| ≤ L|x − y| avec 0 ≤ L < 1.
2.4 La méthode de Lagrange ( ou de la sécante ) (1736–1813)
Remarque: Il faut que max|g′ (x)| < 1 et non |g′ (x)| < 1 comme le montre le contre exemple Le principe de la méthode est le suivant: on localise deux points A = (a, f (a)) et B = (b, f (b)) tels
suivant: que f (a)f (b) < 0 (voir figure), on trace le segment de droite (AB) joignant A et B. L’équation de
si g(x) = x + x1 pour x ∈ [1, +∞[, g′ (x) = 1 − x12 . On a pour tout x ∈ [1. + ∞[ |g′ (x)| < 1 mais cette droite est donnée par:
max|g′ (x)| = 1 pour x ≥ 1 on a aussi |g(x) − g(y)| = |x − y|g ′ (α) < |x − y| avec α ∈ [1, +∞[ mais f (b) − f (a)
g n’a pas de point fixe. y = f (a) + (x − a)
b−a
soit A1 (x1 , 0) le point d’intersection de la droite AB avec l’axe des abscisses, A1 vérifie l’equation
de la droite AB, donc
Théorème 3: g une fonction définie sur [a, b] = Dg on suppose: b−a
x1 = a − f (a)
• g([a, b]) ⊂ [a, b] f (b) − f (a)

• max|g′ (x)| = L < 1 pour tout x ∈ [a, b].


alors on a la majoration de l’erreur en = |xn − s| suivante: en ≤ Ln e0 . Le nombre minimal y=f(x)
d’itérations qui assure en ≤ ǫ est n ≥ N avec: N = logǫ−loge
logL
0

A(a,f(a))
Preuve: Cf
en = |xn − s| = |g(xn−1 ) − g(s)| ≤ L|xn−1 − s| ≤ Ln |x0 − s| = Ln e0 B1( x1 ,f(x1 ))

Proposition: Soit s une solution de g(x) = x avec g′ continue : B2( x2 ,f(x2 ))


• si |g′ (s)|< 1 alors il existe un intervalle [a, b] contenant s pour lequel la suite définie par
x0 ∈ [a, b] et xn+1 = g(xn ) converge vers s. s x
x1 x2 x3
• si |g′ (s)| > 1, pour tout x0 6= s la suite définie par x0 et xn+1 = g(xn ) ne converge pas vers s.
Exemple:
Soit à résoudre e−x − x = 0 ⇐⇒ e−x = x. B(b,f(b))
pour x ∈ [0, 1] = Dg ; g(x) = e−x : g([0, 1]) = [e−1 , 1] ⊂ [0, 1]. g′ (x) = −e−x , max|g′ (x)| = 1 sur
l’intervalle [0, 1] n’est pas inférieur à 1, donc il faut changer d’intervalle.
Prenons par exemple Dg = [ 21 , log2] on a g([ 12 , log2]) = [ 12 , e−2 ] ⊂ [ 12 , log2], max|g′ (x)] sur [ 21 , log2]
1
qui vaut L = e− 2 qui est bien inférieur à 1. Figure 2.5: Principe de la méthode de Lagrange.
Partant de x0 = 0.5 on a le tableau des itérations suivantes: Considérons le point B1 (x1 , f (x1 ) et traçons le morceau de droite (B1 B) joignant B1 et B.
n xn g(xn ) |xn+1 − xn | x′n L’équation de la droite (B1 B) est donnée par:
0 0.50000 0.606531 0.567624 f (b) − f (x1 )
1 0.606531 0.545239 0.106531 0.567299 y = f (x1 ) + (x − x1 )
b − x1
2 0.545239 0.579703 0.061292 0.567193
3 0.579703 0.560065 0.034464 0.567159 soit A2 (x2 , 0) le point d’intersection de la droite (B1 B) avec l’axe des abscisses, A2 vérifie l’équation
4 0.560065 0.571172 0.019638 0.567148 de la droite (B1 B), donc
5 0.571172 0.564863 0.011107 0.567145
b − x1
6 0.564863 0.568438 0.006309 0.567144 x2 = x1 − f (x1 )
f (b) − f (x1 )
7 0.568738 0.566410 0.003875 0.567144
8 0.566410 0.567560 0.002328 la même opération répetée plusieurs fois permet d’obtenir une suite (xn ) telle que
9 0.567560 0.566907 0.00115 b − xn f (xn )
10 0.566907 0.567278 0.000653 xn+1 = g(xn ) = xn − f (xn ) = xn − f (b)−f (xn )
f (b) − f (xn )
11 0.567278 0.567067 0.000371 b−xn

12 0.567067 0.567187 0.000211 La suite (xn ) ainsi obtenue est convergente. Dans le cas où la dérivée seconde f ′′ a un signe
13 0.567187 0.567199 0.00012 constant: la suite (xn ) est, soit croissante majorée, soit décroissante minorée.
14 0.567119 En effet, deux cas se présentent:
20 1. Résolution des équations à une variable: f (x) = 0 1. 5 Accélération de la convergence 21

y=f(x)
a b B(b,f(b)) Preuve: Soit ǫn = xn − s alors
A(a,f(a))

(xn+1 − s − (xn − s))2


x′n − s = xn − s −
x0
(xn+2 − s) − 2(xn+1 − s) + (xn − s)
x3 x2 x1 x0 x x1 x2 x3 x
s s (ǫn+1 − ǫn )2
= ǫn −
ǫn+2 − 2ǫn+1 + ǫn
B2 B2
xn+1 −s ǫn+1
B1 B1 soit θn = xn −s = ǫn d’après cette définition on a donc ǫn+2 = θn+1 ǫn+1 = θn+1 θn ǫn , d’où:
Cf
B(b,f(b)) A(a,f(a)) ǫ2n (θn − 1)2 x′ − s (θn − 1)2
x′n − s = ǫn − ⇒ n =1−
ǫn (θn+1 θn − 2θn + 1) ǫn (θn+1 θn − 2θn + 1)
(θn −1)2
Figure 2.6: Méthode de Lagrange avec f ′′ (x) > 0 et f (a) > 0 figure (a), f (a) < 0 figure (b). or limn→+∞ (θn+1 θn −2θn +1) = 1 donc

x′n − s
lim =0
a.) f ′′ > 0 et f (a) > 0: Dans ce cas l’extremité a est fixe et les approximations successives n→+∞ ǫn
sont: ( La méthode du δ2 d’Aitken est appliquée pour résoudre e−x − x = 0, les résultats sont donnés
x0 = b
dans le tableau précédent. On remarque que l’on a atteint une précision de 10−4 au bout de la
xn+1 = xn − f (xn ) f (xxnn)−f
−a
(a)
2ème itération, alors que la même précision n’est atteinte qu’au bout de la 13ème itération par la
d’après la figure on remarque que: méthode itérative.

a < s < . . . < xn+1 < xn < . . . < x1 < x0 2.5.2 Ordre d’une méthode
Ln
Dans ce cas la suite (xn ) est décroissante minorée par a et est donc convergente. On a donné précédement une majoration de l’erreur en < 1−L |x1 − x0 |. On donne maintenant une
évaluation asymptotique de l’erreur:
b.) f ′′ > 0 et f (a) < 0: Dans ce cas l’extremité b est fixe et les approximations successives
sont: (
x0 = a Théorème 5: Soit g une application de [a, b] dans [a, b] on suppose que :
b−xn
xn+1 = xn − f (xn ) f (b)−f (xn ) • g est contractante, 0 ≤ L < 1
d’après la figure on remarque que: • g′ est continue sur [a, b] ( g de classe C 1 )

x0 < x1 < . . . < xn < xn+1 < . . . < s < b • g′ de signe constant sur [a, b]
alors si e0 6= 0 on a: ∀n ∈ IN∗ en 6= 0 et limn→+∞ en +1
en = |g′ (s)|
Dans ce cas de figure la suite (xn ) est croissante majorée par b et est donc convergente.
Remarque: Si f ′′ < 0, on se ramène au cas précédent en considérant −f (x) = 0. Preuve:
e0 6= 0 ⇔ x0 6= s
2.5 Accélération de la convergence ⇔ g(x0 ) 6= g(s) = s (g strictement montotone)
2 ⇔ x1 6= s
2.5.1 δ d’Aitken
⇔ e1 6= 0
Quelques fois la suite (xn ) converge vers s très lentement mais la suite xxn+1 −s
n −s
converge vers une . ..
constante θ (avec |θ| < 1). Alors on peut considèrer la suite (x′n ) définie par: ⇔ .. .
⇔ en 6= 0
(xn+1 − xn )2
x′n = xn − pour tout n ≥ 0 d’après la formule des accroissements finis on a:
xn+2 − 2xn+1 + xn
en+1 = xn+1 − s = g(xn ) − g(s) = g′ (ξn )(xn − s) = g′ (ξn )en
(x′n ) converge plus rapidement que (xn ) , c’est ce qui est exprimé dans le théorème suivant:
avec ξn ∈]xn , s[, donc à la limite on a:
xn+1 −s
Théorème 4: Si xn → s (avec xn 6= s, ∀n ∈ IN) et si xn −s → θ 6= 0 (|θ| ≤ 1) alors la en + 1
suite (x′n ) converge vers s et on a: limn→+∞ x′n −s
=0 lim = |g′ (s)|
xn −s n→+∞ en
22 1. Résolution des équations à une variable: f (x) = 0 1. 6 Méthode de Newton–Raphson élementaire 23

Théorème 6: Soit g ∈ C 1 ([a, b]), on suppose qu’il existe s ∈ [a, b] tel que g(s) = s et g ′ (s) = 0. avec d(x) = (g(g(x)) − 2g(x) + x) et d′ (x) = [g′ (g(x))g′ (x) − 2g′ (x) + 1]
Alors il existe un ǫ > 0 tel que ∀x0 ∈]s − ǫ, s + ǫ[ l’itération xn+1 = g(xn ) commençant par x0 le théorème des accroissements finis implique :
converge vers s .
De plus, si g est C 2 (]s − ǫ, s + ǫ[) et si en 6= 0 pour tout n ∈ IN on a g(g(x)) = g(x) + g′ (ηn )(g(x) − x) ηx ∈ [x, g(x)]

en+1 1 donc
lim = g′′ (s) (2.1)
n→+∞ e2n 2 d(x) = g(g(x)) − 2g(x) + x = g(x) + g ′ (ηx )(g(x) − x) − 2g(x) + x
Preuve: Soit 0 < L < 1, la fonction g′ est continue et est nulle en s, il existe un intervalle (g′ (ηx ) − 1)(g(x) − x)
I =]s − ǫ, s + ǫ[ telle que |g′ (x)| < L pour tout x ∈ I donc g est contractante. De plus |g(x) − s| < en utilisant ce développement on a:
L|x − s| ≤ Lǫ < ǫ ceci implique que f (I) ⊂ I et donc limn→+∞ xn = s.
2(g′ (ηx ) − 1)(g′ (ηx ) − 1) − (g′ (g(x))g′ (x) − 2g′ (x) + 1)
1 G′ (x) = 1 −
en+1 = g(xn ) − g(s) = (xn − s)g (s) + (xn − s)2 g′′ (ξn )
′ (g′ (ηx ) − 1)2
2
1 si x → s, comme ηx ∈ [x, g(x)] alors ηx → s, il est donc facile de voir que G′ (s) = 0 si g′ (s) 6= 1.
= (xn − s)2 g′′ (ξn ) avec ξn ∈]xn , s[
2 La formule de Taylor à l’ordre deux permet d’obtenir:
de la dernière égalité on tire: en+1 1 ′′ 1
e2n = 2 g (ξn ) et à la limite lorsque n tend vers +∞: ξn tend vers en+1 = xn+1 − s = G(xn ) − G(s) = G′ (s)(xn − s) + (xn − s)2 G′′ (ξn )
s, on a finalement le résultat (2.1). 2
où ξn ∈]xn , s[; comme G′ (s) = 0 on obtient alors:
Définition: Quand on a une évaluation asymptotique comme au théorème 5 (respectivement
en+1 1
6) on dit que la convergence est linéaire (respectivement quadratique). lim = G′′ (s)
n→+∞ e2n 2

2.5.3 Méthode de Steffensen ce qui montre que Steffenson est d’ordre deux.

Le δ2 d’Aitken appliqué à (xn ) permet d’engendrer une suite (x′n ) qui converge plus rapidement
que (xn ); il est donc naturel de poursuivre les itérations en remplaçant (xn ) par (x′n ), puis calculer 2.6 Méthode de Newton–Raphson élementaire (1642–1727)
g(x′n ). On procède donc comme suit:
Soit à résoudre f (x) = 0 où f : lR → lR est continûment dérivable. On peut essayer de se ramener
yn = x′n au cas de la méthode itérative en remarquant que si s est solution de f (x) = 0 alors s est aussi
yn+1 = g(yn ) solution de x = x + kf (x) quel que soit k ∈ lR, d’où l’algorithme : x̃n+1 = x̃n + kf (x̃n ). Si k est
judicieusement choisi ça peut marcher ( il faut que |1 + kf ′ (x)| < 1); dans ce cas la convergence
yn+2 = g(yn+1 )
sera linéaire.
.. .
. = ..
Question: Peut–on détérminer une fonction h(x) tel que: la suite engendrée par la
ce qui permet d’engendrer la suite: fonction g(x) = x + h(x)f (x) converge quadratiquement vers s. (c–à–d f (s) = 0 )?
(yn+1 − yn )2
x′n+1 = yn − Réponse: pour avoir une convergence quadratique il faut que: g′ (s) = 0. Or g′ (s) = 1+h′ (s)f (s)+
yn+2 − 2yn+1 + yn h(s)f ′ (s) du fait que f (s) = 0, pour avoir g′ (s) = 0 il suffit de prendre h(x) = − f ′1(x)
(g(x′n ) − x′n )2
= x′n −
g(g(x′n )) − 2g(x′n ) + x′n Algorithme de Newton–Raphson:
Choisir un x0 et déterminer la suite (x̃n )n∈IN définie par:
d’où le schéma suivant connu sous le nom du schéma de Steffensen:
( f (x̃n )
x0 donné x̃n+1 = x̃n −
xn+1 = G(xn ) f ′ (x̃n )

avec: (
Remarque: g(x) = x − ff′(x) ′
(x) ⇒ g (s) = 0; si f
(2) existe et est continue alors Newton–Raphson

x si g(g(x)) − 2g(x) + x = 0 est quadratique. En effet, écrivons le développement limité de f à l’ordre 2:


G(x) = (g(x)−x)2
x − g(g(x))−2g(x)+x
f (s) = 0 = f (x̃n ) + f ′ (x̃n )(s − x̃n ) + 1/2f (2) (ξn )(s − x̃n )2
Théorème7: La méthode de Steffensen est quadratique.
1 f (2) (ξn ) 2
de ce développement on tire: en+1 = x̃n+1 − s = 2 f ′ (x̃n ) en et par passage à la limite on a:
Preuve:
2d(x)(g(x) − x)(g′ (x) − 1) − (g(x) − x)2 [d′ (x)] en+1 1 f ′′ (s)
G′ (x) = 1 − lim =
(g(g(x)) − 2g(x) + x)2 n→+∞ e2n 2 f ′ (s)
24 1. Résolution des équations à une variable: f (x) = 0 1. 6 Méthode de Newton–Raphson élementaire 25

y=f(x)
a b
s b a s
1 2

s x 3 4
a s s b
a=~
x0 ~
x1 ~
x b a
2

Cf
Figure 2.8: Méthode Newton–Raphson: les divers cas possible
T0 T1
1 f (a) < 0, f (b) > 0 f ′′ (x) ≤ 0 sur [a, b]

2 f (a) > 0, f (b) < 0 f ′′ (x) ≤ 0 sur [a, b]


Figure 2.7: Principe de la méthode Newton–Raphson
3 f (a) < 0, f (b) > 0 f ′′ (x) ≥ 0 sur [a, b]
Interprétation géométrique de la méthode de N–R
4 f (a) > 0, f (b) < 0 f ′′ (x) ≥ 0 sur [a, b]
Soit x0 un point de l’intervalle [a, b] sur lequel f possède un zéro, l’équation de la tangente T0 en
ce point est donnée par: en changeant f en −f on voit que 2) et 4) deviennent 3) et 1). Il suffit donc de considèrer 1) et 3).
y − f (x̃0 ) En changeant f en −f et x en −x le cas 3) se ramène à 1). Il suffit donc de faire la démonstration
= f ′ (x̃0 )
x − x̃0 pour le cas 1.
l’intersection de T0 avec l’axe (ox) est le point x̃1 d’ordonnée y = 0, donc x̃1 = x̃0 − ff′(x̃ 0)
(x̃0 ) . L’équation 1.) Dans ce cas, f (a) < 0, f (b) > 0 f ′′ (x) ≤ 0 sur [a, b]: alors f (a) < f (b) et l’on a f ′ 6= 0
de la tangente T1 au point x̃1 est donnée par:
sur [a, b] donc f ′ (x) > 0 pour tout x ∈ [a, b], f est donc strictement croissante.
y − f (x̃1 ) D’après le théorème de Bolzano (f (a) < 0, f (b) > 0 et f continue sur [a, b] ) il existe une unique
= f ′ (x̃1 ) racine s dans [a, b] (car f ′ > 0)
x − x̃1
f (x̃1 ) Pour montrer que la suite (x̃n ) est convergente, on montrera qu’elle est croissante majorée. En
l’intersection de T1 avec l’axe (ox) est le point x̃2 (d’ordonnée y = 0), donc x̃2 = x̃1 − f ′ (x̃1 ) .
On refait la même opération plusieurs fois, on engendre la suite (x̃n )n∈IN définie par: effet, montrons que:
( ∀n ≥ 0 si x̃n ≤ s alors x̃n ≤ x̃n+1 ≤ s
x̃0 donné
x̃n+1 = x̃n − f (x̃n ) Si x̃n ≤ s alors f (x̃n ) ≤ f (s) = 0 donc − ff′(x̃ n)
> 0 d’où x̃n+1 = x̃n −
(x̃n )
f (x̃n )
f ′ (x̃n ) ≥ x̃n (vu que
f ′ (x̃n )
f ′ (x̃n ) ≥ 0).
Par application de la formule de Taylor à l’ordre 2 on a:
2.6.1 Convergence globale de la méthode de Newton-Raphson
Théorème 8: soit f ∈ C 2 [a, b] on suppose que: 1
f (x̃n+1 ) = f (x̃n ) + f ′ (x̃n )(x̃n+1 − x̃n ) + f ′′ (ξn )(x̃n+1 − x̃n )2 , ξn ∈ [x̃n , x̃n+1 ]
2
(i) f (a)f (b) < 0 f (x̃n ) 1
= f (x̃n ) + f ′ (x̃n )(− ′ ) + f ′′ (ξn )(x̃n+1 − x̃n )2
f (x̃n ) 2
(ii) pour tout x ∈ [a, b] f ′ (x) 6= 0 (f est monotone sur [a, b] ) 1 ′′
= f (ξn )(x̃n+1 − x̃n )2 < 0 (f ′′ < 0) (2.2)
(iii) pour tout x ∈ [a, b] f ′′ (x) > 0 ou f ′′ (x) < 0 (f ′′ est de signe constant sur [a, b]). 2
f (x̃n+1 )
(iv) On choisit x̃0 ∈ [a, b] tel que f (x̃0 )f ′′ (x̃0 ) > 0 Finalement on a: f (x̃n+1 ) ≤ 0, x̃n+2 = x̃n+1 − f ′ (x̃n+1 ) > x̃n+1 et donc x̃n+2 > x̃n+1 .

alors ∀x̃0 ∈ [a, b], satisfaisant (iv), la méthode de Newton–Raphson converge vers l’unique solution D’autre part, on appliquons la formule de Taylor au second ordre, on a:
s de f (x) = 0 dans [a, b].
(s − x̃n )2 ′′
Preuve: Il ne peut y avoir que quatre cas de figure: 0 = f (s) = f (x̃n ) + (s − x̃n )f ′ (x̃n ) + f (ξn ) , ξn ∈ [x̃n , s]
2
26 1. Résolution des équations à une variable: f (x) = 0 1. 7 La méthode combinée 27

Comme f ′′ < 0, alors:


A(a,f(a))
B(b,f(b))
f (x̃n )
−f (x̃n ) < (s − x̃n )f ′ (x̃n ) ⇒ − < s − x̃n
f ′ (x̃n )
f (x̃n ) a=~x0 x~1 s~ s~ x~1 ~x0=b
x̃n+1 = x̃n − ⇒ x̃n+1 < x̃n + s − x̃n = s x2 x1 b= x0 a= x0 x1 x2
f ′ (x̃n )
⇒ x̃n+1 < s
B(b,f(b))
Conclusion: La suite (x̃n ) est croissante majorée et est donc convergente.

Choix de x̃0 : Dans le cas que nous considérons (f ′′ < 0), d’après (iv) la convergence est as-
A(a,f(a))
surée pour x̃0 tel que: x̃0 ∈ [a, b] et f (x̃0 ) < 0. Dans ce cas de figure on a x̃0 < s. D’après ce qui B(b,f(b))

précéde on a:
x̃0 < x̃1 < x̃2 < . . . < x̃n < s a= x0 x1 x2 x2 x1 x0=b

f (s) s~ x~1 b= ~x0 a=~x0 x~1 s~


la suite converge donc vers un point s tel que s = s − f ′ (s) ⇒ f (s) = 0

Remarque: On se place toujours dans le cas 1 de la démonstration précédente. B(b,f(b))


A(a,f(a))
• Si f (x̃0 ) < 0: d’après ce qui précéde, la suite est convergente vers s.
f (x̃0 )
• Si f (x̃0 ) > 0 c.à.d x̃0 > s. x̃1 = x̃0 − f ′ (x̃0 ) < x̃0 , en appliquant la formule de Taylor, on a: Figure 2.9: Méthode combinée.
1
f (x̃1 ) = f (x̃0 ) + (x̃1 − x̃0 )f ′ (x̃0 ) + (x̃1 − x̃0 )2 f ′′ (c) , c ∈ [x̃1 , x̃0 ] A chaque étape la méthode de Lagrange est appliquée au segment [xn , x̃n ]. Dans ce cas de figure,
2
f (x̃0 ) ′ 1 f (x̃0 ) 2 ′′ 1 f (x̃0 ) 2 ′′ on a l’encadrement suivant:
= f (x̃0 ) − ′ f (x̃0 ) + ( ′ ) f (c) = ( ′ ) f (c) < 0
f (x̃0 ) 2 f (x̃0 ) 2 f (x̃0 )
xn < s < x̃n et 0 < s − xn < x̃n − xn
ainsi, on a trouvé un autre point d’initialisation x̃1 tel que f (x̃1 )f ′′ (x̃1 ) > 0
Si on souhaite avoir l’approximation de s par xn à une précision ǫ près, on arrête les itérations dès
que: x̃n − xn < ǫ. A la fin des itérations, le mieux est de prendre comme approximation s̃ de la
2.7 La méthode combinée racine la moyenne arithmétique de xn et x̃n c’est-à-dire:

Soit f une fonction telle que f (a)f (b) < 0, si f ′ et f ′′ gardent des signes constants sur le segment 1
s̃ = (xn + x̃n )
[a, b]. En combinant la méthode de Lagrange (xn ) et la méthode de Newton-Raphson (x̃n ) on 2
obtient une méthode dont chaque étape permet de déterminer les valeurs par défaut et par excès
de la racine s de l’équation f (x) = 0. Quatre cas se présentent (voir figure):

1. f ′ (x) > 0 et f ′′ (x) < 0 pour tout x ∈ [a, b]

2. f ′ (x) < 0 et f ′′ (x) < 0 pour tout x ∈ [a, b]

3. f ′ (x) > 0 et f ′′ (x) > 0 pour tout x ∈ [a, b]

4. f ′ (x) < 0 et f ′′ (x) > 0 pour tout x ∈ [a, b]

Nous traitons le troisème cas seulement. Les autres cas se déduisent du premier par changement
de f en −f ou x en −x ou les deux en meme temps.

Soit f ′ (x) > 0 et f ′′ (x) > 0 pour tout x ∈ [a, b], posons x0 = a (initialisation de Lagrange) et
x̃0 = b (initialisation de Newton-Raphson), d’après ce qui prècede on a:

 xn+1 = xn − f (xn )(x̃n −xn )
f (x̃n )−f (xn )
 x̃n+1 = x̃n − f′(x̃n ) ; n = 0, 1, 2, . . .
f (x̃n )
28 1. Résolution des équations à une variable: f (x) = 0 1. 8 Exercices 29

2.8 Execices a.) Montrer que l’équation (LP) admet une seule solution contenue dans [1, 2]. (En réalité cette
solution est très proche de 1.36)
Exercice 1. Résoudre dans lR l’équation suivante: 1.110−4 x2 + 2x − 1.4 = 0. b.) Considerons les trois méthodes d’approximations successives suivantes:
Distinguer le cas de la simple précision du cas de la double précision, conclure.
1
m1 : xn+1 = (−x3n − 2x2n + 20) , x0 ∈ [1, 2]
Exercice 2. Soit f une fonction continue sur [a, b] vérifiant f (a)f (b) < 0. 10
a.) Démontrer que l’algorithme de dichotomie engendre une suite {cn , n ∈ IN} telle que : m2 : xn+1 = x3n + 2x2n + 11xn − 20 , x0 ∈ [1, 2]
20
b−a m3 : xn+1 = 2 , x0 ∈ [1, 2]
| cn − s |≤ n+1 , n≥1 xn + 2xn + 10
2
où s est une solution de f (x) = 0. Etudier la convergence et la limite de chacune de ces méthodes. Dans le cas où la méthode est
b.) Déterminer approximativement le nombre d’itérations pour résoudre f (x) = x3 + 4x2 − 10 = 0 convergente, préciser l’ordre.
avec une précision de ε = 10−5 pour a = 1 et b = 2. c.) Pourriez-vous proposer une autre méthode itérative? (On n’étudiera pas sa convergence)
c.) Etendre le résultat de b.) pour résoudre f (x) = 0 dans [a, b] quelconque. d.) Appliquer la méthode de Newton–Raphson à l’équation (LP) tout en précisant la valeur initiale
x0 , et donner les trois premières itérations: x1 , x2 et x3 .
Exercice 3. Montrer que les fonctions suivantes vérifient les conditions de Lipschitz avec 0 < L < 1:
Exercice 10. D’après l’algorithme d’Aitken si (xn ) converge vers s tel que s − xn 6= 0 pour tout
• f (x) = 2 + 21 |x| x ∈ [−1, 1] n ≥ 0 et s’il existe un réel |θ| < 1 tel que limn→∞ s−x n+1 ′
s−xn = θ alors la suite (xn ) définie par:
1
• f (x) = x x ∈ [2, 3]
(xn+1 − xn )2
1 x′n = xn −
• f (x) = 5 − cos(3x)
4 x ∈ [0, 2π
3 ] xn+1 − 2xn+1 + xn

converge plus rapidement vers s dans le sens que: limn→∞ s−x s−xn = 0
n
Exercice 4. Soit m un nombre réel et soit ε ∈ lR tel que: |ε| < 1. Montrer que l’équation
a.) Si xn = 21n , montrer que x′n = 0 pour tout n > 0.
x = m − ε sin x 1
b.) Si xn = n1 , montrer que x′n = (2n+2) pour tout n > 0 . Y–a–t–il accéleration de convergence
dans ce cas?
(dite de Kepler) a une solution dans l’intervalle [m − π, m + π]. Cette solution est elle unique?
c.) Si xn = (2n1−1) , montrer que x′n = (4n+11 −1) .
Exercice 5. Quelle est la valeur de: 1
r Exercice 11. Soit à résoudre l’équation: x − e( x ) = 0 (E). a.) Montrer que l’équation (E)
q √ 1 admet une seule racine s dans l’intervalle I = [ 23 , 2].
s= 2+ 2+ 2 + ... et s= 1 b.) Déterminer approximativement le nombre d’itérations qu’il faut faire pour résoudre (E) par la
a+ a+ 1
1
a+ a+... méthode de dichotomie sur l’intervalle I avec une pécision de ε = 10−6 .
√ c.) On désire appliquer la méthode des approximations successives à (E) définie par: xn+1 =
1
Exercice 6. Tracer la courbe y = g(x) = 6 + x et la droite d’equation y = x. determiner les g(xn ) = e( xn ) .
points fixes de g. Soit la suite recurrente définie par xn+1 = g(xn ), avec le choix de x0 = 7 calculer c1.) Cette méthode est-elle convergente sur I?
x1 , x2 . La suite est-elle convergente? c2.) Si oui, déterminer le nombre d’itérations qui permet d’assurer que
|xn − s| < ε = 10−6 .
Exercice 7. Résoudre l’équation 5x = ex par: d. Dans ce cas de figure, quelle est la meilleure méthode: la dichotomie ou l’itérative?
a.) la méthode des approximations successives.
b.) la méthode de Newton. Exercice 12.
On se propose de résoudre f (x) = x2 − ex = 0, x ∈ [−1, 0].
Exercice 8. Montrer que l’équation x3
+ 2x − 2 n’a qu’une solution réelle, laquelle est très proche
de 0.77. Appliquer la méthode des approximations successives à:
1.) Montrer que f admet une solution unique s ∈ [−1, 0].
a.) xn+1 = 1 − x3n /2 ;
2 2.) En appliquant la méthode de dichotomie déterminer le nombre n tel que:
b.) xn+1 = 2 ;
xn + 2
3 |cn − s| ≤ 10−4
c.) xn+1 = xn + 3xn − 2;
et calculer c0 , c1 et c2 .
Exercice 9. (Leonard de Pise.) On se propose de résoudre l’ équation de Leonard de Pise (vers 3.) Soit la méthode itérative définie par:
1225) donnée par:
f (x) = x3 + 2x2 + 10x − 20 = 0 (LP ) xn+1 = g(xn ) = −e(x/2)
30 1. Résolution des équations à une variable: f (x) = 0 1. 8 Exercices 31

a.) Cette méthode est elle convergente sur [−1, 0]? avec:
b.) Si oui déterminer le nombre d’itérations à faire pour avoir une précision de 10−4 sur s
(on prend x0 = −0.5) a. g(x) = 1 + xe−x
c.) Calculer x1 , x2 et x3 x
b. g(x) = log( )
x−1
4.) Quelle est la meilleure méthode, dichotomie ou itérative? c. g(x) = (x − 1)ex

5.) Proposer une autre méthode itérative et étudier sa convergence. On étudiera la convergence vers des solutions du problème f (x) = 0 en précisant le choix de
x0 et l’ordre de convergence.

Exercice 13. On se propose de résoudre f (x) = 3x2 − ex = 0, x ∈ [−1, 0]. 3. Ecrire la méthode de Newton-Raphson associée à l’équation f (x) = 0, choisir x0 pour que
cette méthode converge vers la plus grande des racines.
1.) Montrer que f admet une solution unique s ∈ [−1, 0].
Exercice 16. Soit g une fonction définie sur [a, b] telle que:
2.) En appliquant la méthode de dichotomie, déterminer le nombre n tel que: |cn − s| ≤ 10−6 et • g est dérivable sur [a, b]
calculer c0 , c1 et c2 . • g([a, b]) ⊂ [a, b]
a.) Montrer que si max|g′ (x)|x∈[a,b] < 1 alors g est contractante dans [a, b].
3.) Soit la méthode itérative définie par: b.) Dans ce qui suit, on suppose que: 0 ≤ L = max|g′ (x)|x∈[a,b] < 1, montrer que la suite (xn )n∈IN
définie par: xn+1 = g(xn ) converge vers un point s que l’on précisera.
xn+1 = gα (xn ) = αe(xn /2) c.) Montrer que cette limite s est unique.
d.) Montrer que pour tout n ∈ IN |xn+1 − xn | ≤ Ln |x1 − x0 |.
a.) Pour quelle valeur de α la fonction g admet comme point fixe la solution s de f (x) = 0? Ln
e.) Conclure que |xn − s| ≤ 1−L |x1 − x0 |.
On note α0 cette valeur.
b.) La méthode itérative définie par gα0 , est-elle convergente sur [−1, 0]?
Exercice 17. Soit g une fonction définie sur [a, b] telle que:
c.) Si oui, déterminer le nombre d’itérations à faire pour avoir une précision de 10−6 sur s
• g est dérivable sur [a, b] et pour tout x ∈ [a, b], g′ (x) < 0
(on prend x0 = −0.4)
• g est contractante dans [a, b] (0 ≤ L < 1 la constante de contraction.)
d.) Quelle est l’ordre de cette méthode?
• g([a, b]) ⊂ [a, b]
e.) Calculer x1 , x2 et x3
a.) Montrer que la suite (xn ) définie par: xn+1 = g(xn ) , x0 ∈ [a, b], converge vers un point s que
4.) Quelle est la meilleure méthode, dichotomie ou itérative? l’on précisera.
b.) Si x0 < s, montrer que pour tout n ∈ IN on a:
5.) Proposer une autre méthode itérative et étudier sa convergence.
x0 < x2 < x4 < . . . < . . . < x2n < . . . < s < . . . < x2n+1 < . . . < x5 < x3 < x1
6.) Ecrire l’algorithme de Newton–Raphson pour résoudre f (x) = 0 et étudier sa convergence
sur [−1, 0].
Exercice 18. On veut appliquer la méthode de Newton–Raphson (N.R) pour calculer la racine
2
Exercice 14. Soit à résoudre l’équation f (x) = x − e−x = 0 (E). carrée d’un nombre réel strictement positif α.
a.) Montrer que f admet une seule solution qu’on localisera entre deux entiers successifs p , p + 1 a.) Montrer alors que pour résoudre f (x) = x2 − α = 0 par la méthode de (N.R), on genère la
b.) Montrer que la méthode itérative définie par: xn+1 = g(xn ) converge sur I = [p, p + 1]. suite (xn ) définie par: (
c.) Montrer que la méthode de Newton–Raphson est convergente sur I. Pour votre choix de x0 , x0 donnée
donner x1 , x2 et x3 . Au bout de ces trois itérations quelle est la précision que vous avez atteinte xn+1 = 21 (xn + xαn )
sur l’évaluation de la racine de (E)?
b.) Montrer la convergence de la suite (xn ) si on initialise convenablement.
∗ c.) Montrer que la suite (xn ) définie dans b. satisfait:
Exercice 15. Soit f : lR → lR définie par:
√ √
xn − α  x0 − α 2n
x−1 √ = √ , pour tout n ∈ N
f (x) = − e−x xn + α x0 + α
x

1.) Etudier la fonction f et représenter graphiquement Γf . En déduire le nombre de racines de d.) Montrer en utilisant c. que xn converge vers α pour n’importe quel choix de x0 .

f (x) = 0. Chacune des racines sera localisée entre deux entiers consécutifs. e.) Montrer que la convergence de xn vers α est quadratique.

2.) Etudier les méthodes itératives suivantes: Exercice 19. Pour (
évaluer a connaissant a(a > 0), on propose
( les deux méthodes suivantes:
x0 donnée y0 donnée
( M1 M2
x0 donne xn+1 = x2ax n
2 +a yn+1 = y2an (3a − yn2 )
n
xn+1 = g(xn ) Pour chacune de ces méthodes:
32 1. Résolution des équations à une variable: f (x) = 0 1. 8 Exercices 33


1. Montrer la convergence vers a si on initialise convenablement;
Aide:
2. Donner un intervalle d’initialisation; 2x(bc − d)(−3d + cx4 )
g′′ (x) =
(d + cx2 )3
3. Déterminer l’ordre de convergence;
.
4. Choisisser un x0 et un y0 dans le cas a = 3. Exercice 23. Soit f ∈ C r ([a, b]), s une racine simple de f , on pose h(x) = [f (x)]r , r ≥ 2.
a. Soit g(x) = x − hh(x) ′
′ (x) , calculer g (x) et déterminer la limite de g(x) lorsque x → s

b. Soit (xn ) la suite engendrée par l’algorithme de Newton-Raphson pour résoudre h(x) = 0. Quel
Exercice 20. Soit f une fonction de calsses C 2 sur [a, b], on s’interesse à la résolution de f (x) = 0
est l’ordre de convergence de cette méthode?.
par la méthode de Newton–Raphson (N–R). On distinguera deux cas: le cas où la racine est simple
c. Pour quelle valeur de m la suite xn+1 = xn − m hh(x n)
′ (x ) converge quadratiquement vers s?
et celui où cette racine est multiple. n

I–Racine simple: Soit s ∈ [a, b] une racine simple de f (x) = 0. La méthode de N–R appliquée à
Exercice 24. La méthode de Newton–Raphson pour résoudre f (x) = 0 permet de genérer une
f (x) = 0 engendre la suite (xn ) définie par: xn+1 = g(xn ) avec g(x) = x − f (x)/f ′ (x).
suite (xn ) définie par:
a.) Calculer g′ (x), g′′ (x) et en déduire g′ (s) et g′′ (s). f (xn )
b.) Quel est l’ordre de cette méthode? xn+1 = xn − ′
f (xn )
c.) On pose en = xn − s l’erreur associée à la méthode de N–R, démontrer qu’asymptotiquement
et au second ordre en en on a: Regula–Falsi propose, qu’au lieu d’évaluer f ′ (xn ) à chaque itération, d’utiliser une approximation
en+1 1 f ′′ (s) de f ′ (xn ) par:
lim = f (xn ) − f (xn−1 )
n→+∞ e2 2 f ′ (s)
n f ′ (xn ) =
xn − xn−1
II–Racine multiple: Dans cette partie, on suppose que s est une racine multiple, soit M son ordre a.) Montrer que dans le cas de l’approximation de Regula–Falsi on a:
de multiplicité (c.à.d que f (x) = (x − s)M h(x), avec h(s) 6= 0 ). La méthode de N–R appliquée à
f (x) = 0 engendre la suite (xn ) définie par: xn+1 = g(xn ) avec g(x) = x − f (x)/f ′ (x). xn−1 f (xn ) − xn f (xn−1 )
xn+1 =
a) Calculer g′ (x) pour tout x ∈ [a, b] et en déduire que limx→s g′ (x) = (M − 1)/M . f (xn ) − f (xn−1
b) Démontrer qu’asymptotiquement et au premier ordre en en on a:
b.) Si on applique la méthode de Regula Falsi pour résoudre x2 − 1 = 0, on supposons que
en+1 M −1 en = xn − 1 → 0, montrer qu’on a:
lim =
n→+∞ en M en+1 1
lim =
n→+∞ en en−1 2
f (x)
c) Montrer que s est racine simple de t(x) = f ′ (x)
t(x) Exercice 25. On veut appliquer la méthode de Newton–Raphson (N.R) pour calculer l’inverse
d) En déduire de I que la suite xn+1 = xn − t′ (x) converge quadratiquement vers s
d’un nombre réel α 6= 0.
e) La méthode de Newton–Raphson modifiée est définie par: xn+1 = xn − M ff′(x)
(x) ,
où M est l’ordre
a.) Montrer alors que la résolution de f (x) = x1 − α = 0 par la méthode de (N.R), on genère la
de multiplicité de la racine s de f . Montrer que la méthode de Newton–raphson modifiée est d’ordre
suite (xn )n∈N définie par:
deux.
(
x0 donnée
Exercice 21. Soit f une fonction définie et dérivable sur [0, 1] telle que f (0) < 0 < f (1) et (2.3)
xn+1 = xn (2 − αxn )
0 < a ≤ f ′ (x) ≤ b ou a et b sont deux constantes.
a.) Montrer qu’il existe s ∈ [0, 1] unique tel que f (s) = 0. b.) Montrer la convergence de la suite (xn )n∈IN si on initialise par un x0 vérifiant: 0 < x0 < 2α−1 .
b.) Montrer qu’il existe une constante M telle que la méthode iterative définie par xn+1 = g(xn ) c.) Si la suite (xn ) définie par 2.3 est initialisée par x0 = 1, montrer que:
où g(x) = x + M f (x) converge vers s. n
c.) Pour quelle valeur de M la suite (xn )n∈IN définie ci-dessus converge quadratiqument vers s? 1 − (1 − α)2
xn =
α
Exercice 22. Soit g une fonction possèdant une dérivée troisième g(3) et telle que s = g(s),
g′ (s) = g′′ (s) = 0. Montrer que dans ce cas la limite de en+1
e3n existe pour x0 au voisinage de s, où d.) En déduire que la suite ainsi génerer converge pour 0 < α < 2 et que la convergence est
en = xn − s. quadratique.
(cette convergence est appelée convergence cubique).
Exercice 26. 1.) Montrer que la fonction f (x) = 1 − 3e−x a une racine unique s sur lR.
Application: Soit 2.) Par un procédé de dichotomie, trouver un intervalle de longueur 1 contenant cette racine s.
x3 + bx Pour l’approcher, on propose les schémas suivants:
g(x) =
cx2 + d 3.) x0 ∈ [1, 2], xn+1 = xn + f (xn ).
déterminer les relations que doivent vérifier b, c, d et s de telle sorte que xn+1 = g(xn ) converge Cette suite converge-t-elle vers s? pourquoi?
cubiquement vers s 6= 0 4.) Trouver une valeur de λ ∈ lR qui assure la convergence de la suite xn+1 = xn + λf (xn ).
34 1. Résolution des équations à une variable: f (x) = 0

5.) Appliquer à f (x) la méthode de Newton-Raphson pour trouver s.


Sur quelle fonction définit-on les itérations de point fixe?
Dans quel intervalle doit-on choisir la valeur de départ pour que la convergence soit assurée.

Exercice 27. Soit f une fonction de classe C 4 [a, b]. On suppose que f admet une racine s unique
sur [a, b] tel que pour tout x ∈ [a, b]: f ′ (x) > 0 et f ′′ (x) > 0.
1.) Donner l’interprétation géométrique de la méthode de Newton–Raphson et montrer que l’on
Chapitre 3
génére une suite xn définie par:

xn+1 = xn −
f (xn )
f ′ (xn )
= gN (xn ) (2.4) Equations aux différences
2.) Montrer qu’il existe ξn entre xn et s tel que:

(s − xn )2 ′′ (s − xn )3 (3) 3.1 Equations aux différences


f (xn ) + (s − xn )f ′ (xn ) + f (xn ) + f (ξn ) = 0 (2.5)
2! 3!
3.) En négligeant les termes du second et du troisième ordre dans (2.5) et en supposant que 3.1.1 Introduction et motivations
s ≈ xn+1 retrouver (4.8). Plusieurs algorithmes d’analyse numérique (résolution numérique d’équations différentielles) nécessitent
4.) En négligeant le terme d’ordre 3 dans (2.5) et en résolvant l’équation du second degré en de trouver les solutions d’équations aux différences. De plus, les équations aux différences jouent un
Y = (s − xn ), montrer que l’on obtient les racines suivantes: rôle important dans d’autres branches de mathématiques pures et appliquées telles que: recherche
p des zéros des polynômes, théorie des probabilité et les mathématiques économiques.
f ′ (xn ) ∓ (f ′ (xn ))2 − 2f (xn )f ′′ (xn )
Y1,2 = s − xn = − (2.6)
f ′′ (xn )
3.1.2 Equations aux différences du premier ordre
5.) Montrer qu’à partir de la solution Y1 et en supposant que s ≈ xn+1 , on obtient la formule de
Cauchy suivante: Définition:

2f (xn ) Soit (fn (y, z))n∈IN une suite de fonctions. y, z ∈ S ⊂ lR. Le problème est de trouver une suite (xn )
xn+1 = xn − r = gC (xn ) (2.7) telle que:
2f (xn )f ′′ (xn )
f ′ (x n )[1 + 1− (f ′ (xn ))2 ]
(i) xn ∈ S , xn−1 ∈ S
r
2f (xn )f ′′ (xn) f (xn )f ′′ (xn) (ii) fn (xn , xn−1 ) = 0 équation aux différences
6.) En remplacant 1− (f ′ (xn ))2 par 1 − (f ′ (xn ))2 dans la formule de Cauchy, montrer que
l’on retrouve la formule Halley: Une suite satisfaisant (i) et (ii) est appelée solution de l’équation aux différences (ii).
f (xn )
xn+1 = xn − f (xn )f ′′ (xn )
= gH (xn ) (2.8) Exemples:
f ′ (xn )[1 − 2(f ′ (xn ))2 ]
a. La suite fn (y, z) = y − z − 1 donne l’équation aux différences xn − xn−1 = 1. La solution de
7.) Montrer qu’à partir de la formule de Halley on obtient la formule de Tchebychev suivante: cette équation s’obtient en écrivant:
f (xn ) f (xn )f ′′ (xn )
xn+1 = xn − {1 + } = gT (xn ) (2.9) xn − xn−1 = 1
f ′ (xn ) 2(f ′ (xn ))2
xn−1 − xn−2 = 1
... = ...
′ ′′
8.) Calculer gT (s) et gT (s), quel est l’ordre de la méthode de Tchebychev?
9.) Ecrire un programme en Pascal permettant de résoudre f (x) = 0 par la méthode de Tchebyshev.
x1 − x0 = 1

en faisant donc la somme on trouve: xn = n + x0 .

b. La suite fn (y, z) = y − z − n, donne l’équation aux différences xn − xn−1 = n. La même


technique que celle utilisée en a.) donne:

n(n + 1)
xn = + x0
2

35
36 2. Equations aux différences 2. 2 Résolution des équations aux différences 37

3.1.3 Equations aux différences d’ordres N en écrivant cette équation pour n, n − 1, . . . , 1, on obtient:
Définition bn
cn = cn−1 +
Πn
L’équation aux différences d’ordre N (N ∈ IN∗ ) est définie de façon similaire. Soit (fn (y0 , y1 , . . . , yN ))
bn−1
une suite de fonctions avec y0 , y1 , . . . , yN ∈ S ⊂ lR. Le problème est de trouver (xn ) telle que: cn−1 = cn−2 +
Πn−1
(i) xn ∈ S , xn−1 ∈ S , . . . , xn−N ∈ S .. .
. = ..
(ii) fn (xn , xn−1 , . . . , xn−N ) = 0 équations aux différences b1
c1 = c0 + .
Π1
Une suite satisfaisant (i) et (ii) est appelée solution de l’équation aux différences d’ordre N .
En faisant la somme on trouve:
Exemple b1 bn−1 bn
cn = c0 + + ... + +
La suite de fonctions définie par: fn (y, z, t) = y − z − yt donne l’équation aux différences suivante: Π1 Πn−1 Πn
xn − xn−1 − xn−1 xn−2 = 0. C’est une équation aux différences non linéaire. la solution générale est donc:
b1 bn−1 bn
3.2 Résolution des équations aux différences xn = Πn (x0 + + ... + + )
Π1 Πn−1 Πn
On se limite au cas linéaire.
Théorème: Soit an 6= 0, n = 1, 2, . . .La solution de l’équation aux différences xn = an xn−1 + bn
telle que x0 = c est donnée par:
3.2.1 Equation du premier ordre
b1 bn−1 bn
Soit à résoudre xn = an xn−1 + bn avec x0 = c0 = c. xn = Πn (c + + ... + + )
Π1 Πn−1 Πn
• première étape: équation sans second membre: xn = an xn−1 . où Π0 = 1 , Πn = a1 a2 . . . an

En écrivant cette équation pour n, n − 1 . . . , 1 on obtient: 3.2.2 Equations aux différences du second ordre
xn = an xn−1 Les équations aux différences du second ordre sont de la forme:
xn−1 = an−1 xn−1 xn + bn xn−1 + cn xn−2 = dn , bn , cn , dn ∈ C
l
.. .
. = .. nous donnons la solution générale de cette équation aux différences dans le cas où dn = 0, bn = b 6= 0
x1 = a1 x0 , et cn = c 6= 0.
Soit E l’ensemble des suites de nombres réels vérifiant:
en multipliant terme à terme on obtient:
xn + bxn−1 + cxn−2 = 0 . (3.1)
xn = a1 a2 . . . an−1 an x0 = Πn x0
| {z }
Πn On montre facilement que E est un sous espace vectoriel de l’ensemble des suites réels de dimension
2 sur lR.
On pose xn = cΠn , Π0 = 1
On se propose de chercher les solutions de la forme xn = r n où r est un réel. Si xn = r n est
• deuxième étape: équation avec second membre.
solution de 3.1 alors r vérifie:
On utilisera pour celle-là la méthode de la variation de la constante: r 2 + br + c = 0 (3.2)

xn = cn Πn , où cn est à déterminer Trois cas se présentent:


• ∆ = b2 − 4c > 0, dans ce cas 3.2 admet deux racines réelles distinctes r1 et r2 . La famille (r1n , r2n )
En injectant xn = cn Πn dans l’équation aux différences avec second membre xn = an xn−1 + bn on est une base de E. La solution générale de 3.1 est donnée par:
trouve:
cn Πn = an cn−1 Πn−1 + bn = cn−1 Πn + bn xn = αr1n + βr2n
On suppose que an 6= 0 (n = 1, 2, . . . ), donc Πn 6= 0, la suite (cn ) vérifie donc l’équation aux α et β peuvent être calculés facilement en fonction de x0 et x1 et sont donnés par:
différences suivante:
bn x1 − x0 r2 x0 r1 − x1
cn = cn−1 + α= , β=
Πn r1 − r2 r1 − r2
38 2. Equations aux différences 2. 3 Schéma de Horner 39

finalement on trouve: A l’aide de cette relation on remarque que si z n−1 est connu, alors z n nécessite 2 opérations de
x1 − x0 r2 n x0 r1 − x1 n multiplications. En écrivant:
xn = r + r
r1 − r 2 1 r1 − r2 2
Pn (z) = bn + bn−1 z + bn−2 zz + bn−3 z 2 z + . . . + b1 z n−2 z + b0 z n−1 z
• ∆ = 0, l’équation 3.2 admet une racine double rd . Dans ce cas les deux suites rdn et nrdn forment
une base de E. La solution générale de 3.1 est donc: L’évaluation de Pn (z) nécessite donc 2n−1 opérations de multiplications et n opérations d’additions.
Soit au total 3n − 1 opérations.
xn = x0 rdn + (x1 − x0 rd )nrdn−1
• évaluation en utilisant le schéma d’Horner
• ∆ < 0, dans ce cas 3.2 admet deux racines complexes λ1 = ρeiθ et λ̄1 = ρe−iθ . On montre L’évaluation de Pn (z) à l’aide du schéma d’Horner est donnée par l’algorithme suivant:
également que les suites ρn cos(nθ) et ρn sin(nθ) forment une base de E. La solution générale est
donnée par: x0 = b0
x1 − x0 ρ cos θ n x1 = b1 + zx0
xn = x0 ρn cos(nθ) + ρ sin(nθ)
ρ sin θ x2 = b2 + zx1
.. ..
.=.
3.3 Schéma de Horner
xn = bn + zxn−1
3.3.1 Algorithme 1 ceci est équivalent à:
Soit à calculer x0 , x1 , . . . xN de façon récursive à partir de: pn (z) = bn + z(bn−1 + z(bn−2 + . . . + z(b1 + zb0 )))

x0 = b0 , xn = zxn−1 + bn , n = 1, 2, . . . , N chose que l’on peut schématiser comme suit:


b0 b1 b2 ... bN −1 bN
c’est une équation aux différences du premier ordre dans un cas spécial: an = z et donc Πn =
↓ ↓ ↓ ↓ ↓ ↓
z n , n = 1, 2, ...N . Sa solution est donc donnée par:
x0 7→ x1 7→ x2 7→ ... 7→ xN −1 7→ xN
b1 bn
xn = Πn (b0 + + ... + ) le triangle
Π1 Πn
n n−1 bi
= b0 z + b1 z + . . . + bn , n = 0, 1, . . . n

Théorème xi−1 7→ xi
Les nombres produits par l’algorithme précédent sont égaux à la valeur du polynôme Pn défini par: signifie que xi = bi + zxi−1 . Il est facile de se convaincre que xN = PN (z).

Pn (X) = b0 X n + b1 X n−1 + . . . + bn , n = 0, 1, . . . , N D’après l’algorithme, on remarque qu’il faut n additions et n multiplications pour évaluer Pn (z),
soit au total 2n opérations.
pris à X = z.
L’algorithme précédent est appelé schéma d’Horner. Conclusion: 2n < 3n − 1 < n(n + 1)/2 + n donc le schéma le plus rapide est le schéma d’Horner.

3.3.2 Nombre d’opérations: d’additions et multiplications: Exemple

Soit Pn un polynôme de degré n. Soit à calculer P (X) = 7X 4 + 5X 3 − 2X 2 + 8 en x0 = 1/2.


Quelle est le nombre d’additions et de multiplications nécessaires à éffectuer pour évaluer Pn (z)? On a b0 = 7 , b1 = 5 , b2 = −2 , b3 = 0 , b4 = 8 et donc:
x1 = 8.5 , x2 = 2.25 , x3 = 1.125 , x4 = 8.5625
Pn (z) = b0 z n + b1 z n−1 + . . . + bn−1 z + bn
3.3.3 Application du schéma d’Horner à l’évaluation de la dérivée d’un polynôme
• évaluation directe: Soit P (X) = b0 X N + b1 X N −1 + . . . + bi X N −i + . . . + bN un polynôme de degré N . Le développement
Chaque terme bz i nécessite i opérations de multiplications, Pn (z) nécessite n opérations d’additions. de Taylor de P au voisinage de X = z s’écrit comme:
Le nombre total est donc:
i=n
X n(n + 1) P (X) = P (z + h) = c0 hN + c1 hN −1 + . . . + ci hN −i + . . . + cN
( i) + n = +n
i=1
2 avec h = X − z et
1 (k)
cN −k = P (z) ; k = 0, 1, . . . , N
• évaluation en utilisant zn = z n−1 z k!
40 2. Equations aux différences 2. 4 Application à la recherche des zéros d’un polynôme 41

3.3.4 Algorithme 2 Preuve: par récurrence sur k (très technique et est laissée à titre d’exercice pour les étudiants
(0) (k) ambitieux [Exercice 8]).
Soit (xn )
la suite genérée par l’algorithme 1 pour k = 1, 2, . . . , N . Nous définissons la suite (xn
récursivement par:
Exemple
(k) (k−1) (k)
x0 = x0 , x(k) (k−1)
n = zxn−1 + xn , n = 0, 1, 2, . . . , N − k
Ecrire le développement de Taylor de P (X) = 7X 4 + 5X 3 − 2X 2 + 0X + 8 au point x0 = 4: on a
k=0 , n = 0, 1, 2, . . . . . . . . . . . . . . . , N b0 = 7 b1 = 5 b2 = −2 b3 = 0 b4 = 8
k=0 , n = 0, 1, 2, . . . . . . , N − 1 7 5 −2 0 8
.. ..
. . ↓ ↓ ↓ ↓ ↓
k =N −1 , n = 0, 1 7 7→ 8.5 7→ 2.25 7→ 1.25 7→ 8.5625
k=N , n=0 ↓ ↓ ↓ ↓
7 7→ 12 7→ 8.25 7→ 5.25
Exemple ↓ ↓ ↓
N=4 7 7→ 15.5 7→ 16
(0) (0) (0) (0) (0) ↓ ↓
x0 x1 x2 x3 x4
↓ ↓ ↓ ↓ 7 7→ 19
x0
(1)
7→ x1
(1)
7→ x2
(1)
7→ x3
(1) 7
↓ ↓ ↓
x0
(2)
7→ x1
(2)
7→ x2
(2) 3.4 Application à la recherche des zéros d’un polynôme
↓ ↓ 3.4.1 Méthode de Newton–Raphson
(3) (3)
x0 7→ x1
Nous allons exposer cela à travers l’exemple suivant: Soit P (x) = x3 − x2 + 2x + 5 un polynôme
(4)
x0 de degré 3. On a P (−1) = 1 et P (−2) = −11, donc le polynôme P admet une racine s ∈ [−2, −1].
avec Nous cherchons une approximation de s en utilisant la méthode de Newton–Raphson:
(0)
x4 = b0 z 4 + b 1 z 3 + b 2 z 2 + b 3 z + b 4 (
x0 donnée
P (xn )
xn+1 = xn − P ′ (xn )
Théorème
à partir de x0 , nous calculons les autres termes de la suites (xn ). P (xn ) et P ′ (xn ) seront évalués
Soit Pn la suite des polynômes:
en utilisant le schéma d’Horner, on a donc le tableau suivant:
Pn (X) = b0 X n + b1 X n−1 + . . . + bn , n = 0, 1 . . . , N
n xn P (xn ) P ′ (xn )
(k)
Les suites (xn )
de l’algorithme 2 vérifient: 0 -1.5 -3.625 11.75
1 (k) 1 -1.191489 -0.4941198 8.641919
x(k)
n = P , n = 1, 2, . . . , N , k = 0, 1, . . . , N
k! n+k 2 -1.1343122 -0.01476801 8.12861753
Si P (X) = P (z + h) = c0 hN + c1 hN −1 + . . . + cN les coefficients cN −k sont les éléments diagonaux 3 -1.13249547 -0.00001452 8.1126289
du schéma suivant: 4 -1.1324936884781 -1.41 10−11 8.112613
(0) (0) (0) (0) (0) (0) 5 -1.1324936884764
x0 x1 x2 x3 x4 ... ... xN
↓ ↓ ↓ ↓ ↓ ↓ 3.4.2 Méthode de Bernoulli (1654–1705)
(1) (1) (1) (1) (1)
x0 7→ x1 7→ x2 7→ x3 7→ . . . xN −1
La méthode de Bernoulli permet d’obtenir la racine de plus grand module d’un polynôme. Pour
.. .. .. .. .. cela, on associe à l’équation polynômiale une équation aux différences. Le rapport de deux ter-
. . . . .
mes successifs d’une suite, solution particulière de l’équation aux différences, tend vers la racine
↓ ↓ ↓
(N −2) (N −2) (N −2)
cherchée. Avant d’ennoncer le théorème général, nous étudions l’exemple suivant:
x0 7→ x1 7→ x2
↓ ↓ Exemple: Soit l’équation x2 − 5x + 6 = 0 dont les racines sont 2 et 3. Considérons l’équation aux
(N −1)
x0 7→ x1
(N −1) différences associée:
(N )
x0 xn+2 − 5xn+1 + 6xn = 0 . (3.3)
42 2. Equations aux différences 2. 4 Application à la recherche des zéros d’un polynôme 43

Comme nous l’avons montré à la section 2.2.2, les suites un = 2n et vn = 3n sont solutions iii) Soit P (x) = a0 xm + a1 xm−1 + . . . + am un polynôme à coefficients complexes. Supposons que
particulières de 3.3. La solution générale est donnée par: toutes les racines (ri )i=1,...,m sont distinctes et qu’il existe une racine r1 telle que |r1 | > |ri |
i = 2, 3, . . . , m. Alors si nous fixons x0 , x1 , . . . , xm−1 de manière a ce que α1 6= 0, la suite
xn = α2n + β3n , α, β ∈ lR (3.4) (xn ) solution de 3.6 vérifie:
xn+1
lim = r1
On peut toujours choisir x0 et x1 de telle sorte que β 6= 0. n→+∞ xn
Considérons le rapport xxn+1
n
, d’après 3.4 ce rapport s’écrit comme suit:
iv) La méthode de Bernoulli, dans le cas de racine dominante, est d’ordre 1.
xn+1 α2n+1 + β3n+1 β3n+1 ( αβ ( 23 )n+1 + 1)
= = Preuve:
xn n
α2 + β3 n β3n ( αβ ( 23 )n + 1)
( αβ ( 23 )n+1 + 1) i. Soient (xn ) et (yn ) deux solutions de 3.6, et soient α et β deux nombres complexes, alors la
= 3 (3.5) suite (zn ) définie par: zn = αxn + βyn est aussi solution de 3.6. Comme nous l’avons vu dans
( αβ ( 23 )n + 1)
les exemples précédents, la solution (xn ) d’une équation aux différences du premier ordre (resp du
On remarque que: second ordre) est complétement déterminée par la donnée de x0 (resp x0 et x1 ). De même, une
xn+1 solution particulière de 3.6 est entièrement déterminée par la donnée de x0 , x1 , . . . , xn−1 .
lim =3
n→+∞ xn
ii. De façon similaire à l’équation aux différences du second ordre, on cherche des solutions de
Application numérique: 3.6 de la forme (r n ). Si c’est ainsi, alors r vérifie l’équation suivante:

Si nous choisissons comme conditions initiales: x0 = 0, x1 = 1 alors: a0 r n+m + a1 r n+m−1 + a2 r n+m−2 + . . . + am r n = 0 (3.7)
x2 a0 (r n )m + a1 (r n )m−1 + a2 (r n )m−2 + . . . + am r n = 0 (3.8)
x2 =5 , =5
x1
x3 comme le montre l’équation 3.8, les solutions non nulles (de la forme r n ) sont les racines de l’équation
x3 = 19 , = 3.8
x2 polynômiale:
x4
x4 = 65 , = 3.42105
x3 a0 xm + a1 xm−1 + . . . + am = 0 (3.9)
x5
x5 = 211 , = 3.24615
x4 Si les racines de 3.9 sont simples, alors, et du fait que l’ensemble des solution de l’équation 3.6 est
x6 un espace vectoriel, la solution générale de 3.6 s’écrit:
x6 = 665 , = 3.15165
x5
x7 xn = α1 r1n + α2 r2n + α3 r3n + . . . + αm rm
n
x7 = 2059 , = 3.09624
x6
x8 avec αi ∈ C
l
x8 = 6305 , = 3.062166
x7
xn+1 iii. A l’équation polynômiale P (x) = 0, nous associons l’équation aux différences:
On constate sur cet exemple que le rapport xn tend vers 3 lorsque n tend vers l’infini.
a0 xn+m + a1 xn+m−1 + a2 xn+m−2 + . . . + am xn = 0
3.4.3 Théorème genéral:
comme nous l’avons signalé dans i, la donnée de x0 , x1 , . . . , xm−1 permet de déterminer entièrement
Soient m un entier positif donné et (ai )i=0,...,m m + 1 nombres complexes donnés. On considère la solution (xn ) de l’équation aux différences précédente. On peut toujours choisir x0 , x1 , . . . , xm−1
l’équation aux différences: de manière à ce que la solution xn = α1 r1n +α2 r2n +α3 r3n +. . .+αm rm
n soit telle que α 6= 0. Calculons
1
le rapport xxn+1 :
a0 xn+m + a1 xn+m−1 + a2 xn+m−2 + . . . + am xn = 0 (3.6) n

xn+1 α1 r1n+1 + α2 r2n+1 + α3 r3n+1 + . . . + αm rm n+1


i) L’ensemble des solutions de l’équation 3.6 forme un espace vectoriel de dimension m =
xn α1 r1n + α2 r2n + α3 r3n + . . . + αm rm n
α r n+1
ii) Si les racines r1 , r2 , . . . rm de l’équation α1 r1n+1 1 + α12 ( r12 ) + αα31 ( rr13 )n+1 + . . . + ααm1 ( rrm1 )n+1
= α2 r2 n α3 r3 n αm rm n (3.10)
α1 r1n 1+ α1 ( r1 ) + α1 ( r1 ) + ... + α1 ( r1 )
a0 xm + a1 xm−1 + . . . + am = 0
d’après les hypothèses émises, pour i 6= 1 on a : | rr1i | < 1 et limn→+∞ | rr1i |n = 0, on conclut donc,
sont simples, alors la solution générale de l’équation aux différences 3.6 est de la forme:
d’après l’égalité 3.10, que:
xn+1
xn = α1 r1n + α2 r2n + α3 r3n + . . . + αm rm
n lim = r1
n→+∞ xn
44 2. Equations aux différences 2. 5 Exercices 45

3.5 Exercices
xn+1
iv. on se place dans les notations de iii, calculons l’erreur en = xn − r1 . En utilisant la même
technique que celle exposée précédement on trouve: Exercice 1. Soit −1 < a < 1. Résoudre l’équation aux différences:

α2 (r2 − r1 )r2n + α3 (r3 − r1 )r3n + . . . + αm (rm − r1 )rm


n x0 = 1 , xn = axn−1 + 1
en =
α1 r1n + α2 r2n + α3 r3n + . . . + αm rmn
Déterminer la limite de la suite xn lorsque n → +∞.
β2 r2 n 1 + ββ23 ( rr32 )n + . . . + ββm2 ( rrm2 )n
= ( )
α1 r1 1 + αα12 ( rr21 )n + αα13 ( rr13 )n + . . . + ααm1 ( rrm1 )n Exercice 2. Soit z un nombre réel non nul. Résoudre l’équation aux différences
β2 r2 n 1 + ϕn n
= ( ) (3.11) x0 = 1 , xn = xn−1 + 1
α1 r1 1 + ψn z
avec βi = αi (ri − r1 ) i = 2, . . . , m et Montrer que:
zn
β3 r3 βm rm n lim xn = ez
ϕn = ( )n + . . . + ( )
n→∞ n!
β2 r2 β2 r2
α2 r2 n α3 r3 n αm rm n Exercice 3. Soit la suite aux différences du premier ordre définie par:
ψn = ( ) + ( ) + ... + ( ) .
α1 r1 α1 r1 α1 r1
√ (−1)n
Supposons que l’on a: |r1 | > |r2 | > . . . > |rm | alors limn→+∞ ϕn = limn→+∞ ψn = 0. On a donc: x0 = 1 , xn = ( n)Z −2 xn−1 + avec Z ∈ lR
(2n)!
en+1 r2  (1 + ϕ
n+1 )(1 + ψn )

a. Résoudre cette équation aux différences.
lim | | = lim 2n
n→+∞ en r1 n→+∞ (1 + ψn+1 )(1 + ϕn ) b. Quelle est la limite l(Z) de Z
√ xn lorsque n → +∞. Donner une valeur approchée de l(1)
n!
r2
= 6= 0
r1 Exercice 4. Soit l’équation aux différences du premier ordre définie par:
donc la méthode de Bernoulli est d’ordre 1. 1 1
x0 = 1 , xn = xn−1 + avec z ∈ lR
z n!
a. Résoudre cette équation aux différences.
b. Quelle est la limite l(z) de z n xn lorsque n → +∞?
c. Donner une valeur approchée de l(1) à 10−2 .
P
Exercice 5. Supposons que la série ∞ n=0 bn est convergente, et soit s sa limite. Montrer que
s = limn→∞ xn ou (xn ) est la solution de l’équation aux différences suivante:

x0 = b0 , xn = xn−1 + bn

Exercice 6. En utilisant le schéma d’Horner, trouver le développement de Taylor de P (x) =


4x3 − 5x + 1

Exercice 7. Soit P un polynôme de degrés n ≥ 1:

P (z) = a0 z n + a1 z n−1 + . . . + . . . + an−1 z + an

Soit z1 une racine de P , on a donc la décomposition suivante:

P (z) = (z − z1 )P1 (z)

Montrer que P1 peut se mettre sous la forme:

P1 (z) = b0 z n−1 + b1 z n−2 + . . . + . . . + bn−2 z + bn−1

ou les (bi ) vérifient une équation aux différences que l’on précisera.
Application: P (z) = z 3 − z 2 + 2z + 5 déterminer P1 (z) pour z1 = −1.132494
46 2. Equations aux différences

Exercice 8. Soit P un polynôme de degré n ≥ 1:

P (z) = a0 z n + a1 z n−1 + . . . + . . . + an−1 z + an

a.) Montrer que pour tout k = 0, 1, . . . , n on a:

P (k) (z) = k!(Cnk a0 z n−k + Cn−1


k
a1 z n−k−1 + . . . + . . . + Ck+1
k
an−k−1 z + Ckk an−k )
Chapitre 4
b.) Montrer que :
Ckk + Ck+1
k k+1
+ . . . + Cnk = Cn+1 Interpolation et approximation
(k)
c.) En utilisant a.) et b.) montrer que la suite xn définie par:
(k) (k−1) (k)
polynômiale
x0 = x0 , x(k) (k−1)
n = zxn−1 + xn

(0)
Ou xn est définie par l’algorithme 1, k = 1, 2, . . . N et n = 0, 1, 2, . . . , N − k est donnée par:
1 (k) 4.1 Introduction
x(k)
n = P (z)
k! n+k
Tout au long des deux chapitres précédents, nous nous sommes interessé principalement au problème
Application1: Calculer P (z), P ′ (z) et P ′′ (z) à z = 1.5 pour P (z) = 2z 5 − 7z 4 + 3z 3 − 6z 2 + 4z − 5 de l’approximation d’un nombre (zéro d’un polynôme ou le zéro d’une fonction non linéaire). Nous
Application2: En utlisant l’algorithme de Newton–Raphson déterminer la racine positive du abordons dans ce chapitre un nouveau type de problème faisant intervenir la notion d’approximation
polynôme P (z) = z 3 − z 2 − z − 1 d’une fonction.
La méthode usuelle d’approximation des fonctions est la méthode d’approximation polynômiale.
Parmis les divers types d’approximations polynômiales utilisées, la plus flexible et la plus facile à
construire est l’approximation par interpolation polynômiale.

4.1.1 Objectif de l’interpolation

Etant donnée une fonction f (x) = ex (ou autre expression de f beaucoup plus compliquée) que
nous désirons approcher par un polynôme de degré n = 2 (ou n > 2)) sur l’intervalle [−1, 1]. Nous
allons voir que nous pourrons construire trois polynômes à ce sujet:

• Le polynôme de Taylor pT (x) = 21 x2 + x + 1. L’erreur maximale de cette approximation est


0.21828.

• Le polynôme de Lagrange passant par (−1, e−1 ), (0, 1) et (1, e) est le polynôme de dgré 2
donné par: pL (x) = 0.54308x2 + 1.1752x + 1. L’erreur maximale de cette approximation est
0.174378.

• Le polynôme de Newton passant par (−1, e−1 ), (0, 1) et (1, e) est:

pN (x) = 0.367879 + 0.632121(x + 1) + 0.543081(x + 1)(x − 0).

L’erreur maximale de cette approximation est 0.174378.

Dans tous les calculs portant sur f (tels la dérivée de f ou l’intégrale de f ) on pourra remplacer
f par PT ou PL (ou par un autre polynôme). En fait il y a plusieurs méthodes pour construire un
tel polynôme. Dans un premier temps nous allons nous focaliser sur l’approximation de Taylor,
Lagrange, Newton et celle de Chebyshev.

47
48 3. Interpolation et approximation polynômiale 3.2 Approximation polynômiale de Taylor 49

4.1.2 Un exemple constructif 4.2 Approximation polynômiale de Taylor


Un résultat classique en analyse est le développement en série entière des fonctions usuelles telles Théorème:
que sin, cos, ...
Soient a et b deux nombres réels tels que a < b et f : [a, b] → IR une fonction n fois dérivable sur

X x(2n+1) x3 x5 x7 [a, b]. On suppose que f ∈ C (n+1) [a, b] et x0 ∈ [a, b] (un point fixe). Si x ∈ [a, b], alors il existe un
n
sin x = (−1) =x− + − + ... pour tout x ∈ IR élément c entre x0 et x tel que
n=0
(2n + 1)! 3! 5! 7!
∞ f (x) = Pn (x) + En (x)
X x(2n) x2 x4 x6
cos x = (−1)n =1− + − + ... pour tout x ∈ IR
n=0
(2n)! 2! 4! 6! où:

X xn x2 x3 x4
ex = =1+x+ + + + ... pour tout x ∈ IR f ′ (x0 ) f (n) (x0 )
n=0
n! 2! 3! 4! Pn (x) = f (x0 ) + (x − x0 ) + . . . + (x − x0 )n
1! n!
x2 x3 x4 f (n+1) (c)
ln(1 + x) = x −
2
+
3

4
+ ... pour tout x ∈] − 1, 1] En (x) = (x − x0 )n+1 (4.1)
(n + 1)!

Notre but est de savoir, jusqu’a quel ordre n (fini) nous devons écrire le développement pour avoir Pn est le polynôme qui peut être utilisé comme approximation de f , En (x) est l’erreur commise
une bonne approximation de la somme infinie. lors de cette approximation.
Pour illustration, soit à calculer e = exp(1) à partir de l’écriture de (ex )x=1 en série entière. On
a donc
∞ Preuve:
X 1 1 1 1 1
e= = 1 + + + + ... + + ...
n=0
n! 1! 2! 3! k! On pose:
f ′ (x0 ) f (n) (x0 )
Si nous tronçons la série (infinie) précédente à un certain ordre n > 1, nous obtenons une approxi- Pn (x) = f (x0 ) + (x − x0 ) + . . . + (x − x0 )n
1! n!
mation de la valeur de e par:
Pn est un polynôme de degré n et est indéfiniment dérivable. Considérons la fonction g définie par:
1 1 1 1 g(t) = f (t) − Pn (t) + λ(t − x0 )n+1 , λ est une constante telle que g(x) = 0. On a donc:
Sn = 1 + + + + . . . +
1! 2! 3! n!
Pn (x) − f (x)
g(t) = f (t) − Pn (t) + (t − x0 )(n+1) .
(x − x0 )(n+1)
n Sn
0 1
On vérifie facilement que:
1 2.0
2 2.5
Pn (x0 ) = f (x0 ) , Pn′ (x0 ) = f ′ (x0 ) , Pn′′ (x0 ) = f ′′ (x0 ) , . . . , Pn(n) (x0 ) = f (n) (x0 )
3 2.666666666666
4 2.708333333333 (n+1)
5 2.716666666666 Pn est identiquement nulle, donc g est n-fois dérivable sur [a, b] et g(n) est dérivable sur ]a, b[.
6 2.718055555555 De plus on a:
7 2.718253968254 g(x0 ) = g′ (x0 ) = g′′ (x0 ) = . . . = g(n) (x0 ) = 0
8 2.718278769841
9 2.718281525573 Alors on a g(x0 ) = g(x) = 0 d’après le théorème de Rolle il existe c1 entre x0 et x tel que g′ (c1 ) = 0.
10 2.718281801146 On a alors g′ (x0 ) = g′ (c1 ) = 0, donc il existe un élément c2 entre x0 et c1 tel que g′′ (c2 ) = 0. Par
11 2.718281826199 récurrence on construit donc une suite d’éléments (ci )i=1,2,...,n de ]a, b[ tels que:
12 2.718281828286
13 2.718281828447 a < cn < cn−1 < . . . < c2 < c1 < b , g(i) (ci ) = 0 , si i = 1, 2, . . . , n
14 2.718281828458
15 2.718281828459 On a alors g(n) (x0 ) = g(n) (cn ) = 0 et d’après le théorème de Rolle il existe c entre x0 et cn tel que
g(n+1) (c) = 0. Or
La valeur numérique de e, à une précision de 10−29 , est donnée par e ≈ 2.71828182845904523536028747135. Pn (x) − f (x)
g(n+1) (c) = 0 = f (n+1) (c) + (n + 1)!
On remarque donc, à partir du tableau ci dessus, que plus l’ordre n du développement est élevé (x − x0 )(n+1)
plus l’approximation de e par la série de Taylor est meilleure. S15 donne une approximation de e
f (n+1) (c)
avec une précision de 10−13 . donc: f (x) − Pn (x) = (n+1)! (x − x0 )(n+1) . Ce qui démontre le théorème.
50 3. Interpolation et approximation polynômiale 3.2 Interpolation polynômiale de Lagrange 51

8 8
4.2.1 Exemple d’estimation de l’erreur
7 7 P4(x)
Nous allons montré dans cet exemple pourquoi nous avons eu besoin de prendre n = 15 pour obtenir 6
P3(x)
6
une approximation de e par S15 avec une précision de 10−13 (voir tableau précédent). 5 exp(x) P2(x)
exp(x)
f (x) = ex , f (n) (x) = ex , le développement de Taylor au point x0 = 0 à l’ordre 15 de f est donné 5 P2(x)
4
par f (x) = P15 (x) + E15 (x). 4
3
3
2
x2 x3 x15
P15 (x) = 1 + x + + + ... + 2
1
2! 3! 15!
1 0

P15 (1) = S15 . L’erreur est donnée par: 0


-2 -1.5 -1 -0.5 0 0.5 1 1.5 2
-1
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2

f (16 )(c)x16
E15 (x) = , c ∈]0, 1[ Figure 4.1: Approximation polynômiale de Taylor.
16!

A partir de f (16 )(c) = ec et de 1 < ec < e < 3, on obtient une majoration de l’erreur (pour x=1): 4.3 Interpolation polynômiale de Lagrange
f (16 )(c) ec 3 Connaissant (n + 1) points du plan IR × IR, A0 (x0 , f0 ), A1 (x1 , f1 ), A2 (x2 , f2 ), . . . , An (xn , fn ) tels
E15 (1) = = < = 1.43384310−13 que les xi sont tous distincts. On cherche un polynôme P , de degré au plus n, passant par ces
16! 16! 16!
(n + 1) points c’est à dire:
4.2.2 A propos de l’erreur P (x0 ) = f0 , P (x1 ) = f1 , . . . , P (xn ) = fn

Il est évident que: • Les fi sont souvent les valeurs d’une fonction f au points xi : fi = f (xi ) on dit alors que le
polynôme P coincide avec la fonction f au point (xi )i=0,1,...n . Le polynôme P approche la
i la précision du polynôme de Taylor est d’autant meilleure que n est grand fonction f , dans tous les calculs portant sur f on pourra la remplacer par P .

ii la précision de chaque polynôme de Taylor décroit lorsque x est loin de x0 . • l’approximation de f par P est d’autant meilleure qu’au points (xi ) nous aurons plus d’information
sur f ainsi que sur f ′ .
Un compromis entre (i) et (ii) et de choisir:
4.3.1 Existance et unicité du polynôme de Lagrange
• n assez grand
Théorème Il existe un polynôme et un seul de degré au plus n tel que:
• restreindre le domaine de validiter de l’approximation de f par Pn a un voisinage de x0 P (xi ) = fi , i = 0, 1, . . . , n

Si on choisit x dans un intervalle de centre x0 et de rayon R (c.à.d |x− x0 | ≤ R), on obtient la Preuve: En fait, il y a deux façons pour démontrer ce résultat: une directe et l’autre moyennat
majoration de l’erreur suivante: les polynômes de Lagrange.

M Rn+1 méthode directe: Soit P un polynôme de degré n ( au plus):


|Erreur| = |En (x)| ≤ (4.2)
(n + 1)!
P (x) = an xn + an−1 xn−1 + . . . + a1 x + a0
où Par hypothèse on a: P (xi ) = fi i = 0, 1, . . . , n, ce qui représente un système de n + 1 équations
linéaires et n + 1 variables (les coefficients a0 a1 , . . . , an de P ), c’est un système de Kramer. La
M ≤ max{|f (n+1) (x)| : x0 − R ≤ x ≤ x0 + R} solubilité de ce système d’équation s’établit par l’étude de son déterminant:

On remarque alors que: xn0 x0n−1 . . . x0 1


xn1 x1n−1 . . . x1 1
• Si n est fixé, et |f (n+1) (t)| est bornée sur [x0 − R, x0 + R], le majorant de l’erreur (4.2) est .. .. .. .. ..
. . . . .
donc proportionnelle à Rn+1 /(n + 1)! et décroit lorsque R → 0.
xnn xnn−1 . . . xn 1
• Si R est fixé, le majorant de l’erreur (4.2) est inversement proportionnel à (n + 1)! et tend
vers zéro lorsque n devient suffisament grand. Ceci est schématisé dans la figure suivante: il s’agit du déterminant de Vandermonde qui vaut:
n−1
Sur cette figure on remarque que l’on approche bien ex par P4 (x) sur [−2, 2]. Πi=0,j>i (xi − xj )
52 3. Interpolation et approximation polynômiale 3.2 Interpolation polynômiale de Lagrange 53

et qui est effectivement non nul du fait que les xi sont distincts deux à deux, d’ou l’existance et 4.3.2 Exemple
l’unicité des ai .
Nous allons construire le polynôme de Lagrange passant par les 4 points:
Formulation de Lagrange: A0 (2, 1) , A1 (3, 2) , A2 (−1, 3) , A3 (4, 4)
Unicité:
Si P1 et P2 sont deux polynômes de degré au plus n tels que: on pose: x0 = 2, x1 = 3, x2 = −1 et x3 = 4. f0 = 1, f1 = 2, f2 = 3 et f3 = 4.

P1 (xi ) = P2 (xi ) = fi , i = 0, 1, . . . , n Polynômes de Lagrange élémentaires:

Le polynôme D = P1 − P2 vérifie D(xi ) = P1 (xi ) − P2 (xi ) = 0 pour tout i = 0, 1, 2, . . . , n. On con- (X − 3)(X − (−1))(X − 4) 1
clut que D de degré au plus égale à n s’annule n+1 fois, D est donc le polynôme nulle donc P1 = P2 . L0 (x) = = (X − 3)(X − (−1))(X − 4)
(2 − 3)(2 − (−1))(2 − 4) 6
(X − 2)(X − (−1))(X − 4) −1
Existance: L1 (x) = = (X − 2)(X − (−1))(X − 4)
Nous allons construire le polynôme de Lagrange qui satisfait aux conditions: (3 − 2)(3 − (−1))(3 − 4) 3
(X − 2)(X − 3)(X − 4) −1
L2 (x) = = (X − 2)(X − 3)(X − 4)
P (xi ) = fi , i = 0, 1, . . . , n (−1 − 2)(−1 − 3)(−1 − 4) 60
(X − 2)(X − 3)(X − (−1)) 1
questions préliminaires: L3 (x) = = (X − 2)(X − 3)(X − (−1))
(4 − 2)(4 − 3)(4 − (−1)) 10
• Q1 . Trouver le polynôme Lk de degré au plus n tel que
Le polynôme de Lagrange est don donné par:
Lk (xi ) = 0 ∀ i 6= k (i = 0, 1, . . . , n) Lk (xk ) = 1
P (X) = 1L0 (X) + 2L1 (X) + 3L2 (X) + 4L3 (X)
Lk s’annule n fois donc peut s’écrire comme: 1 3 7 16 8
= X + X2 − X +
60 20 15 5
Lk (X) = C(X − x0 )(X − x1 ) . . . (X − xk−1 )(X − xk+1 ) . . . (X − xn )
4.3.3 Autre écriture du Polynôme de Lagrange
ou C est une constante que l’on peut déterminer à partir de la contrainte Lk (xk ) = 1. On trouve:
1. Soit V (X) = (X − x0 )(X − x1 ) . . . (X − xn ) = Πi=n
i=0 (X − xi ), on montre facilement que:
−1
C = (xk − x0 )(xk − x1 ) . . . (xk − xk−1 )(xk − xk+1 ) . . . (xk − xn ) V ′ (xk ) = (xk − x0 )(xk − x1 ) . . . (xk − xk−1 )(xk − xk+1 ) . . . (xk − xn )
= (Πi=n
i=0 (xk − xi ))i6=k (4.3)
finalement Lk s’écrit comme:
Les polynômes de Lagrange élémentaires peuvent s’écrire comme:
(X − x0 )(X − x1 ) . . . (X − xk−1 )(X − xk+1 ) . . . (X − xn )
Lk (X) =
(xk − x0 )(xk − x1 ) . . . (xk − xk−1 )(xk − xk+1 ) . . . (xk − xn ) V (X)
Lk (X) =
V ′ (X)(X − xk )
• Q2 Les n + 1 polynômes (Lk )k=0,1,...,n sont linéairement independants.
En effet soit α0 , α1 , . . . αn n+1 réels tels que: et par conséquent:
k=n
α0 L0 (X) + α1 L1 (X) + . . . + αn Ln (X) = 0
X fk V (X)
P (X) =
k=0
V ′ (X)(X − xk )
La relation précédente devrait être vraie pour tout x ∈ IR en particulier pour x = (xi )i=0,1,...,n . k=n
X fk
pour X = xi , i = 0, 1, . . . , n on a αi Li (xi ) = 0 donc αi = 0 , i = 0, 1, . . . , n. La famille (Lk )k=0,1,...,n = V (X) (4.4)
V ′ (X)(X − xk )
est une famille de n + 1 él’ements linéairement indépendantes, c’est donc une base de l’espace k=0
vectoriel des polynômes de degré n.
Compte tenu de Q1 et Q2 , P s’écrit de manière unique comme combinaison linéaire des Lk : 2. Variavles réduites

k=n Supposons que les xi sont équidistants:


X
P (X) = βk Lk (X)
xi = x0 + ih , i = 0, 1, . . . , n , h = xi+1 − xi
k=0
On introduit la variable réduite s de la façon suivante:
comme P (xi ) = fi i = 0, 1, . . . , n, on trouve donc que βi = fi .
Conclusion: X = x0 + sh
P (X) = f0 L0 (X) + f1 L1 (X) + . . . + fn Ln (X) si X = x0 s=0
Les Lk sont appelés les polynômes de Lagrange élémentaires et P c’est le polynôme de Lagrange. si X = xn s = n car xn − x0 = nh
54 3. Interpolation et approximation polynômiale 3.3 Interpolation polynômiale de Newton 55

1 1
comme (X − xi ) = x0 + sh − x0 − ih = h(s − i) et (xk − xi ) = x0 + kh − x0 − ih = h(k − i), Lk
0.9
prend la forme suivante: 0.8
(s − i) 0.8
Lk (X) = Lk (x0 + sh) = Πi=n
i=0 0.6
(k − i)i6=k 0.7
P2(x) P4(x)
0.6
Le polynôme d’interpolation de Lagrange devient donc: 0.4
0.5
f(x) 0.2 f(x)
k=n 0.4
X (s − i)
P (s) = fk (Πi=n
i=0 ) 0.3 0
k=0
(k − i)i6=k
0.2
-0.2
0.1
4.3.4 Estimation de l’erreur 0 -0.4
-1 -0.5 0 0.5 1 -1 -0.5 0 0.5 1
Thórème: Soit f une fonction de classe C n+1 [a, b]. Si x0 , x1 , . . . , xn ∈ [a, b], P le polynôme 1 1
d’interpolation de Lagrange au points: (x0 , f (x0 )), (x1 , f (x1 )), . . . , (xn , f (xn )) alors: 0.9
0.8
0.8
∀x ∈ [a, b] 0.7
0.6

(x − x0 )(x − x1 ) . . . (x − xn ) (n+1) 0.6


0.4
f (x) − P (x) = f (θ) (4.5)
(n + 1)! 0.5
P6(x) 0.2
f(x)
où a < min(x, x0 ) < θ < max(x, xn ) < b 0.4
0
0.3
Preuve: Si x = xi , f (x) − P (x) = 0 donc l’équation 4.5 est vérifiée. f(x) -0.2
0.2 P8(x)
Si x 6= xi soit ψ la fonction auxiliaire definie par: 0.1
-0.4

0 -0.6
ψ(t) = f (t) − P (t) − (t − x0 )(t − x1 ) . . . (t − xn )φ(x) xest un paramètre -1 -0.5 0 0.5 1 -1 -0.5 0 0.5 1

f (x) − P (x)
φ(x) = Figure 4.2: Interpolation Polynômiale de Lagrange.
(x − x0 )(x − x1 ) . . . (x − xn )

on remarque que: ψ(x0 ) = ψ(x1 ) = . . . = ψ(xn ) = ψ(x) =, donc ψ est un polynôme ayant n + 2
racines. 4.4 Interpolation polynômiale de Newton

Résultats préliminaires 4.4.1 Polynôme de Newton


Si g [a, b] → IR telle que g′ existe:
L’inconvenient des polynômes de Lagrange c’est qu’il n’y a pas de relation de récurrence entre eux.
Si g possède (n + 2) zéros distincts alors g′ possède au moins (n + 1) zéros distincts.
En d’autres termes, chaque polynône doit être construit individuellement et il n’y a pas moyen
généralisation du théorème de Rolle: Si g ∈ C (n+1) ([a, b]) et si g posséde au moins (n + 2) zéros
de calculer le polynôme de degré n à partir de celui de degré n − 1: les deux polynômes sont
alors g(n+1) a au moins un zéro.
complètement independants. La méthode de Newton nous permettra de déduire Pn à partir de
Pn−1 . Cette méthode est introduite récursivement de la façon suivante:
D’après le théorème de Rolle généralisé, la fonction ψ (n+1) admet au moins un zéro. Soit θ ∈]a, b[
tel que: ψ (n+1) (θ) = 0, On conclut donc que l’erreur est donnée par:
P1 (x) = a0 + a1 (x − x0 ) (4.6)
(x − x0 )(x − x1 ) . . . (x − xn ) (n+1) P2 (x) = a0 + a1 (x − x0 ) + a2 (x − x0 )(x − x1 ) (4.7)
EN (x) = f (θ)
(n + 1)! P3 (x) = a0 + a1 (x − x0 ) + a2 (x − x0 )(x − x1 ) + a3 (x − x0 )(x − x1 )(x − x2 )
De plus si f (n+1) est continue sur [a, b], elle atteint sa borne supérieure, on a la majoration de .. ..
. = .
l’erreur suivante:
PN (x) = a0 + a1 (x − x0 ) + a2 (x − x0 )(x − x1 ) + a3 (x − x0 )(x − x1 )(x − x2 )
|(x − x0 )(x − x1 ) . . . (x − xn )| +a4 (x − x0 )(x − x1 )(x − x2 )(x − x3 ) + . . . +
EN (x) = |f (x) − P (x)| ≤ ( max f (n+1) (x))
(n + 1)! x∈[a,b] aN (x − x0 ) . . . (x − xN −1 ) (4.8)
Exemple: Construire sur [−5, 5], les polynômes d’interpolation de Lagrange de la fonction f définie
par f (x) = 1+x1
2 en prenant des abscisses d’interpolation équidistantes.
On remarque que PN est obtenu à partir de PN −1 en utilisant la relation:
1
On constate que l’on approche bien la courbe 1+x 2 au centre de l’intervalle. Par contre, aux
extrêmites se produisent des oscillations parasites appelées effet de bord. Nous allons voir dans la PN (x) = PN −1 (x) + aN (x − x0 )(x − x1 ) . . . (x − xN −1 )
section 6 que ses effets de bord disparaissent si l’on choisit comme points d’interpolation les points
de Chebyshev. Le polynôme PN (4.8), de degré ≤ N , est appelé polynôme de Newton au points x0 , x1 , . . . xN −1 .
56 3. Interpolation et approximation polynômiale 3.4 Polynômiale de Chebyshev 57

4.4.2 Exemple La formule de récurrence est donc définie par:


Etant donné les points x0 = 1, x1 = 3, x2 = 4 et x3 = 4.5 et les coefficients a0 = 5, a1 = −2, f [xk−i+1 , . . . , xk ] − f [xk−i , . . . , xk−1 ]
f [xk−i , xk−i+1 , . . . , xk ] = (4.13)
a2 = 0.5, a3 = −0.1 et a4 = 0.003. Trouver P1 (x), P2 (x), P3 (x) et P4 (x) et calculer Pi (2.5) pour xk − xk−i
i = 1, 2, 3, 4.
Théorème: Soit f ∈ C n+1 ([a, b]). Si x0 , x1 , . . . , xN sont N + 1 points distincts de [a, b], alors il
En utilisant les formules précédentes on a:
existe un unique polynôme PN , dit polynôme de Newtom, de degré au plus égal à N tel que:
P1 (x) = 5 − 2(x − 1) , P2 (x) = 5 − 2(x − 1) + 0.5(x − 1)(x − 3)
PN (xi ) = f (xi ) pour i = 0, 1, . . . , N
P3 (x) = 5 − 2(x − 1) + 0.5(x − 1)(x − 3) − 0.1(x − 1)(x − 3)(x − 4)
PN (X) = a0 + a1 (X − x0 ) + . . . aN (X − x0 )(X − x1 ) . . . (X − xN −1 )
P4 (x) = P3 (x) + 0.003(x − 1)(x − 3)(x − 4)(x − 4.5)
où ai = f [x0 , x1 , . . . , xi ] pour i = 0, 1, . . . , N
On trouve: P1 (2.5) = 2,
de plus, pour tout x ∈ [a, b] il existe θ ∈ [a, b] tel que:
P2 (2.5) = P1 (2.5) + 0.5(1.5)(−0.5) = 1.625,
P3 (2.5) = P2 (2.5) − 0.1(1.5)(−0.5)(−1.5) = 1.5125 f (x) = PN (x) + EN (x)
et P4 (2.5) = P3 (2.5) + 0.003(1.5)(−0.5)(−1.5)(−2) = 1.50575 (x − x0 )(x − x1 ) . . . (x − xN ) (N +1)
EN (x) = f (θ) (4.14)
(N + 1)!
4.4.3 Interpolation polynômiale de Newton
EN est l’erreur de l’approximation de Newton.
Nous allons déterminer les coefficients ak pour tout les polynômes P1 , P2 ,. . . , PN qui approchent
une fonction f donnée. La détermination des constantes ak se fait à partir du fait que les polynômes Exemple de construction du Polynôme de Newton
de Newton Pj coı̈ ncident avec la fonction f au points x0 , x1 , . . . , xj : f (xi ) = Pj (xi ) i = 0, 1, . . . , j
Soit f (x) = x4 − 2x3 + x2 − x − 1, construisons les différences divisées basées sur les points x0 = 1,
Pour le polynôme P1 , a0 et a1 sont déterminés à partir de x1 = 2, x2 = 3, x3 = 4, x4 = 5 et x5 = 6:
xi f [xi ] f[ , ] f[ , , ] f[ , , , ] f[ , , , , ] f[ , , , , , ]
P1 (x0 ) = f (x0 ) et P1 (x1 ) = f (x1 )
x0 =1 -2 - - - - -
On trouve: x1 =2 1 3 - - - -
x2 =3 32 31 14 - - -
a0 = f (x0 ) (4.9) x3 =4 139 107 38 8 - -
f (x1 ) − a0 f (x1 ) − f (x0 ) x4 =5 394 255 74 12 1 -
a1 = = (4.10)
x1 − x0 x1 − x 0 x5 =6 893 499 122 16 1 0
Les coefficients a0 et a1 de P2 sont les mêmes que ceux qui figurent dans P1 et qu’on vient de Le polynôme de Newton s’écrit donc comme suit:
calculer (4.9,4.10). Le coeficient a2 de P2 est déterminé de la façon suivante:
P4 (x) = −2 + (x − 1)[3 + (x − 2)[14 + (x − 3)[8 + (x − 4)]]]
P2 (x2 ) = f (x2 ) = a0 + a1 (x2 − x0 ) + a2 (x2 − x0 )(x2 − x1 )

a2 est donc donné par: 4.5 Polynôme de Chebyshev


f (x2 ) − a0 − a1 (x2 − x0 )
a2 = = 4.5.1 Polynôme de Chebyshev
(x2 − x0 )(x2 − x1 )
1 f (x2 ) − f (x1 ) f (x1 ) − f (x0 ) La formule (4.14) montre que l’erreur de l’approximation polynômiale de Newton est un produit
= [ − ] (4.11) de la dérivée (n + 1)ème de f , évaluée à un point inconnu, avec l’expression (x − x0 ) . . . (x − xN )
(x2 − x0 ) x2 − x1 x1 − x0
qui ne dépend que de la subdivision (x0 , x1 , . . . , xN ). Il est alors intéressant de chercher, pour un
Cela nous amène a introduire le concept des différences divisées: n donné, la subdivision de [a, b] pour laquelle:
Définition: Les différences divisées d’une fonction f sont définies comme suit:
max |(x − x0 ) . . . (x − xN )| soit minimal (4.15)
f [xk ] = f (xk ) x∈[a,b]

f [xk ] − f [xk−1 ] Le polynôme de Chebyshev apporte un élément de réponse à cette question.


f [xk−1 , xk ] =
xk − xk−1
f [xk−1 , xk ] − f [xk−2 , xk−1 ] Définition
f [xk−2 , xk−1 , xk ] = (4.12)
xk − xk−2
Pour n = 0, 1, 2, . . . et pour tout x ∈ [−1, 1], les polynômes de Chebyshev sont définis par:
f [xk−2 , xk−1 , xk ] − f [xk−3 , xk−2 , xk−1 ]
f [xk−3 , xk−2 , xk−1 , xk ] =
xk − xk−3 Tn (x) = cos(nArccosx).
.. ..
. . Il est facile de se convaincre que: T0 (x) = 1, T1 (x) = x et T2 (x) = 2x2 − 1.
58 3. Interpolation et approximation polynômiale 3.4 Polynômiale de Chebyshev 59

Propriétés des Polynômes de Chebyshev Théorème:


i) Les fonctions Tn (x) satisfont la relation de récurrence suivante: Si En désigne l’ensemble des polynômes de degré n et dont le coefficient de xn est 1, alors pour
tout polynôme p de En on a:
Tn+1 (x) = 2xTn (x) − Tn−1 (x). (4.16)
1
Par conséquent, Tn (x) est un polynôme de degré n dont le coefficient de xn est 2n−1 , c’est à = max T̃n (x) ≤ max |p(x)| (4.19)
2n−1 x∈[−1,1] x∈[−1,1]
dire, Tn (x) = 2n−1 xn . . .
ii) |Tn (x)| ≤ 1 pour x ∈ [−1, 1], T2m (−x) = T2m (x) et T2m+1 (−x) = −T2m+1 (x) Preuve:
1
iii) Tn (cos( kπ
n )) = (−1)k , pour k = 0, 1, . . . , n Supposons qu’il existe un polynôme p de En tel que: max |p(x)| <et considérons le
x∈[−1,1] 2n−1
iv) Tn (cos( (2k+1)π )) = 0, pour k = 0, 1, . . . , n − 1 polynôme d(x) défini par: d(x) = T̃n (x) − p(x). d est un polynôme de degré ≤ n − 1 (le coefficient
2n
de xn est le même pour T̃n (x) et p(x)).
v) Les polynômes Tn (x) sont orthogonaux par rapport à la fonction de poids √ 1 : La fonction polynômiale d(x) s’annulle au moins une fois dans chacun des intervalles fermés:
1−x2

Z 1  π
si n = m = 0
 kπ (k + 1)π
dx π [xk = cos( ), xk+1 = cos( )] , k = 0, 1, . . . , n − 1
√ Tn (x)Tm (x) = 2 si n = m 6= 0 (4.17) n n
−1 1−x 2 
 0 si n 6= m
k k+1
En effet: d’après iii) on a: d(xk ) = (−1) (−1)
2n−1 − p(xk ) et d(xk+1 ) = 2n−1 − p(xk+1 ), il est facile de
Preuve se convaincre que d(xk )d(xk+1 ) < 0. Alors, d(x) possède n zéros dans [−1, 1] et degd ≤ n − 1, par
i) l’équation (4.16) est une conséquence immédiate de la relation: conséquent d(x) est identiquement nul donc:

cos((n + 1)θ) + cos((n − 1)θ) = 2 cos(θ) cos(nθ). d(x) = 0 , T̃n (x) = p(x)
1 1
ii), iii) et iv) sont faciles à établir = max |T̃n (x)| = max |p(x)| < n−1 (4.20)
2n−1 x∈[−1,1] x∈[−1,1] 2
v) Pour montrer l’orthogonalité, on pose cos(θ) = x et donc θ = Arccosx:
Z 1
dx
Z π 1
√ Tn (x)Tm (x) = cos(nθ) cos(mθ)dθ ce qui est en contradiction avec l’hypothèse: max |p(x)| < .
x∈[−1,1] 2n−1
−1 1 − x2 0
Z π
1 Le théorème précédent montre bien que:
= [cos((n + m)θ) + cos((n − m)θ)]dθ
2 0
 max |(x − x0 )(x − x1 ) . . . (x − xn )| est minimal
 π
 si n = m = 0 x∈[−1,1]
π
= 2 si n = m 6= 0 (4.18)

 0 si n 6= m si et seulement si (x − x0 )(x − x1 ) . . . (x − xn ) = T̃n (x), c.à.d, si

A l’aide de la relation (4.16) on montre facilement qu’on a le Tableau suivant: (2k + 1)π
xk = cos( ) , k = 0, 1, . . . , n
2(n + 1)
T0 (x) = 1
T1 (x) = x les xk sont appelés les points de Chebyshev. Pour répondre à la question (4.15), il faut utiliser la
T2 (x) = 2x2 − 1 translation x → a+b b−a
2 + 2 x qui envoie l’intervalle [−1, 1] sur [a, b]. On a donc le théorème suivant:

T3 (x) = 23−1 x3 − 3x
Théorème:
T4 (x) = 24−1 x4 − 8x2 + 1
T5 (x) = 2 5−1 5
x − 20x + 5x 3 L’expression (4.15) est minimale parmi toutes les subdivisions (x0 , x1 , . . . , xn ) si et seulement si:
6−1 6 4 2
T6 (x) = 2 x − 48x + 18x − 1 a+b b−a (2k + 1)π
xk = + cos( ) , k = 0, 1, . . . , n.
T7 (x) = 27−1 x7 − 112x5 + 56x3 − 7x 2 2 2(n + 1)
(b − a)n+1
maxx∈[a,b] |(x − x0 )(x − x1 ) . . . (x − xn )| = .
Remarque: 22n+1
(b − a)n+1
D’après la proprièté i), Tn est un polynôme dont le terme de plus haut degré xn a pour coefficient |f (x) − PC (x)| ≤ max |f (n+1) (x)| (4.21)
2n−1 . On appelle polynôme de Chebyshev normalisé à l’unité de Tn (x) le polynôme T̃n (x) défini (n + 1)!22n+1 x∈[−1,1]
1
par T̃n (x) = 2n−1 Tn (x) et on a: PC est le polynôme d’interpolation de Lagrange basée sur les points de Chebyshev.
1
max T̃n (x) = n−1
x∈[−1,1] 2 Exemple: Contruire sur [−1, 1] les polynômes d’interpolation de Lagrange de la fonction f (x) =
60 3. Interpolation et approximation polynômiale 3.7 Exercices 61

1 1
4.6 Exercices
0.9 0.9
0.8 0.8 Exercice 1. Si f (x) = ex , montrer que n = 9 est le plus petit entier telle que l’erreur |E9 (x)| =
0.7
P10(x)
0.7 |f (x) − P9 (x)| < 0.0000005 pour x ∈ [−1, 1]
0.6 0.6
0.5 0.5 Exercice 2.
1
0.4 0.4 a. En utilisant la série géométrique 1+t2 = 1 − t2 + t4 − t6 + . . . |t| < 1
f(x) 3 5 7
0.3 0.3
après integration montrer que : ArcTan(x) = x − x3 + x5 − x7 + . . .
0.2 0.2
Chebyshev √ −1 −2 −3 −4
b. Montrer que: π = 2 3(1 − 3 3 + 3 5 − 3 7 + 3 9 − . . .)
0.1 f(x) 0.1
c. Utiliser b. pour calculer la valeur approchée de π à 10−8 .
0 0
-1 -0.5 0 0.5 1 -1 -0.5 0 0.5 1

Exercice 3. Soit f (x) = ln(1 + x).


Figure 4.3: Polynôme de Chebyshev. a. Montrer que f (k) = (−1)(k−1) (k − 1)!/(1 + x)k
b. Ecrire le développement de Taylor de f à l’ordre n.
1 c. Calculer P3 (0.5), P6 (0.5) et P9 (0.5). Comparer à f (0.5)
1+12x2 d’une part en prenant des abscisses d’interpolation équidistantes, d’autre part en choisissant
les points de Chebyshev. d. Montrer que pour x ∈ [0, 0.5], la majoration de l’erreur est donnée par: E9 (x) < 0.00009765
Cet exemple est dû a Runge (appelé phénomène de Runge) met bien en évidence les effets
de bord. Par contre, si on utilise les points de Chebyshev, on constate que les effets de bord Exercice 4.
disparaissent. 1. Ecrire le polynôme d’interpolation de Lagrange P de la fonction f (x) = ln x4 pour les 4 abscisses
d’interpolation suivantes: 1, 2, 3, 4.
2. Calculer P (π). Comparer cette valeur à la valeur exacte ln π4 . Donner une majoration de l’erreur.
3. Calculer P ′ (4) et comparer cette valeur à f ′ (4).

Exercice 5. Soit g ∈ C N +1 [a, b], supposons qu’il existe deux points x, x0 ∈ [a, b] tels que:

g(x) = g(x0 ) = g′ (x0 ) = g′′ (x0 ) = . . . = g(N ) (x0 ) = 0

a. Montrer qu’il existe un point c entre x et x0 tel que: g(N +1) (c) = 0
b. Soient f ∈ C (N +1) [a, b], PN le développement de Taylor au voisinage de x0 à l’ordre N de f et
RN le reste du développement tels que:

f (x) = PN (x) + RN (x, x0 , N, θ), θ est compris entre x et x0 .

Ecrire le polynôme PN .
c. Démontrer que
(x − x0 )N +1
RN (x, x0 , N, θ) = f (N +1) (θ)
(N + 1)!
Exercice 6.
L’objet de l’exercice est le calcul approché de l’intégrale d’une fonction continue f de [a, b] dans IR
1. f désigne une fonction de classe C 2 de [a, b] dans IR. On pose pour k = 0, 1, . . . , n: xk = a+k b−a
n .
Soit P le polynôme de degré au plus égal à 1 tel que P (a) = f (a), P (b) = f (b).
a. Donner la valeur de l’intégrale de P sur [a, b]. On note I cette valeur.
b. Par application du théorème de Rolle à une fonction auxiliaire convenablement choisie, prouver
que pour tout x ∈ [a, b], il existe c ∈]a, b[ tel que:

f ”(c)
f (x) − P (x) = − (x − a)(x − b)
2
et en déduire que si M2 est un majorant de |f ”| sur [a, b] alors:
Z b
M2
| f (x)dx − I| ≤ (b − a)3
a 12
62 3. Interpolation et approximation polynômiale 3.7 Exercices 63

2. Par application de cette méthode sur chaque segment [xk−1 , xk ] (1 ≤ k ≤ n) établir la majoration b. Montrer que g(xk ) = 0 pour k = 0, 1, 2
suivante: Z b c. Montrer que g(x) = 0 pour tout x.
M2 d. genéraliser le résultat au cas de n racines x0 , x1 . . . x2 .
| f (x)dx − In | ≤ (b − a)3
a 12n2
b − a f (a) k=n−1
X f (b) Exercice 9. Soient lk (x)(k=0,1,...,n) les polynômes de Lagrange élementaires au points x0 , x1 , ...,
P
avec In = ( + f (xk ) + ) xn . On définit g par g(x) = ni=0 xi Li (x), montrer que pour tout x ∈ IR, g(x) = x.
n 2 k=1
2

Exercice 7. Soient (ai )i=0,1,...,n une subdivision régulière de [a, b] de pas h et f ∈ C n+1 [a, b]. Exercice 10: a. Soit f ∈ C 3 [a, b], x0 , x1 , x2 trois points de [a, b].
Considérons les points Ai (ai , f (ai ))i=0,1,...,n de IR2 , on désire construire un polynôme Pn (X) de Soit P1 (X) = a0 + a1 (X − x0 ) le polynôme d’interpolation de Newton du premier degré passant
degré au plus égal à n passant par les points Ai (ai , f (ai ))i=0,1,...,n . par A0 (x0 , f (x0 )) et A1 (x1 , f (x1 )). Calculer a0 et a1 en fonction de x0 , x1 et f (x0 ), f (x1 ).
a. Démontrer que les polynômes (lj (X))j=0,1,...,n de degré n tels que: lj (ai ) = δij i = 0, 1, . . . , n b. Soit P2 (X) = P1 (X) + a2 (X − x0 )(X − x1 ) le polynôme d’interpolation de Newton du second
sont de la forme: ordre passant par A0 (x0 , f (x0 )), A1 (x1 , f (x1 )) et A2 (x2 , f (x2 )). Montrer que:
Πni=0 (X − ai ) f (x1 ) − f (x0 )
lj (X) = |i6=j j = 0, 1, . . . , n a0 = f (x0 ) , a1 =
Πni=0 (aj − ai ) x1 − x0
1 f (x2 ) − f (x1 ) f (x1 ) − f (x0 )
b. En utilisant le changement X − a0 = th montrer que: a2 = [ − ]
(x2 − x0 ) x2 − x 1 x1 − x 0
Πni=0 (t − i)
lj (t) = |i6=j j = 0, 1, . . . , n c. En utilisant une fonction auxiliaire convenablement choisie, montrer que pour tout x ∈ [a, b] on
Πni=0 (j − i)
a:
Si x ∈ [a, b] quel est le domaine de variation de t? f (3) (c)
f (x) = P2 (x) + (x − x0 )(x − x1 )(x − x2 ) = P2 (x) + E2 (x) c ∈]a, b[
c. Montrer que la famille (l0 (X), l1 (X), . . . , ln (X)) est une base de l’ensemble des polynômes de 6
degrés ≤ n. d. Supposant que x0 , x1 et x2 sont equidistants, Exprimer E2 (x) en terme de la variable réduite s
d. Démontrer que le polynôme de Lagrange Pn est de la forme: (x = x0 + sh) et h = x1 − x0 .
e. Soit M3 un majorant de f (3) sur ]a, b[, montrer que
Pn (X) = Σni=0 f (ai )li (X)
h3 M3
e. En appliquant le théorème de Rolle à une fonction auxiliaire convenablement choisit montrer |E2 (x)| ≤ √
9 3
que:
(X − a0 )(X − a1 ) . . . (X − an ) (n+1) Exercice 11: On rappelle la méthode de Lagrange, qui à partir des 2 valeurs initiales x0 et x1 ,
Pn (X) − f (X) = f (θ) = En (X) , θ ∈]a, b[
(n + 1)! permet de générer une itération afin de résoudre l’équation f (x) = 0, soit:

et en déduire que xn − xn−1


xn+1 = xn − f (xn )
n+1 t(t − 1)(t − 2) . . . (t − n) (n+1) f (xn ) − f (xn−1 )
En (X) = h f (θ)
(n + 1)!
a. Interpréter géométriquement cette méthode en montrant que xn+1 est l’abcisse du point
f. Montrer que si Mn+1 est un majorant de f (n+1) sur [a, b] alors: d’intersection de la droite sécante passant par les points (xn−1 , f (xn−1 )) ∈ Cf et (xn , f (xn )) ∈ Cf
avec l’axe des x. Faire une figure illustrant ce résultat dans un cas partculier. (Cf est la graphe de
t(t − 1)(t − 2) . . . (t − n) f)
|Pn (X) − f (X)| = |En (X)| ≤ hn+1 Mn+1
(n + 1)! b. On peut également interpréter ce résultat en terme d’interpolation inverse. Ecrire le polynôme
Application: Montrer que: d’interpolation de Lagrange Q basé sur les points (f (xn−1 ), xn−1 ) ∈ Cf −1 et
(f (xn ), xn ) ∈ Cf −1 . Calculer Q(0). Que retrouve–t–on? (Cf −1 est le graphe de f −1 ).
h2 M2 c. Proposer une amélioration de la méthode précédente utilisant 3 valeurs successives de l’itération
|E1 (x)| ≤ x ∈ [a0 , a1 ]
8 et donc un polynôme de degré 2. Calculer la valeur obtenue alors pour xn+1 en fonction de xn ,
h3 M3 xn−1 , xn−2 et f (xn ), f (xn−1 ), f (xn−2 ).
|E2 (x)| ≤ √ x ∈ [a0 , a2 ]
9 3
h4 M4 Exercice 12. (Interpolation d’Hermite) Soit f une fonction numérique définie sur [a, bb] et f ′
|E3 (x)| ≤ x ∈ [a0 , a3 ] sa dérivée. (xi )i=0,...,n une subdivision de [a, b]. Soient (fi = f (xi )) une suite de valeurs de f aux
24
points (xi )i=0,...,n et (yi = f ′ (xi )) une suite de valeurs de f ′ aux points (xi )i=0,...,n . On rappelle que
le polynôme de Lagrange d’indice k est donné par:
Exercice 8. Soient lk (x)(k=0,1,2) les polynômes de Lagrange élementaires au points x0 , x1 et x2 .
On définit g par g(x) = l0 (x) + l1 (x) + l2 (x) − 1 (X − x0 )(X − x1 ) . . . (X − xk−1 )(X − xk+1 ) . . . (X − xn )
Lk (X) =
a. Montrer que g est un polynôme de degré ≤ 2. (xk − x0 )(xk − x1 ) . . . (xk − xk−1 )(xk − xk+1 ) . . . (xk − xn )
64 3. Interpolation et approximation polynômiale

2
1.) Calculer le polynôme d’interpolation de Lagrange de f (x) = e−x aux points 0, 1, 2.
2.) On suppose qu’il existe un polynôme P de degré au plus 2n + 1 tel que:

P (xi ) = fi et P ′ (xi ) = fi′ pour i = 0, . . . , n (4.22)

Montrer l’unicité d’un tel polynôme.


3.) Pour k = 0, . . . , n, on considère les polynômes: Chapitre 5
ψk (X) = (X − xk )L2k (X)

φk (X) = [1 − 2(X − xk )
dLk (X)
dX
(xk )]L2k (x) Intégration et dérivation numérique
et n
X
P (X) = {fk φk (X) + yk ψk (X)}
k=0 5.1 Introduction
3a.) Calculer ψk (xi ), ψk′ (xi ), φk (xi ), φ′k (xi ) pour 0 ≤ i ≤ n et en déduire que pour 0 ≤ i ≤ n
5.1.1 Objectif
P (xi ) = fi et P ′ (xi ) = fi′
Le but est l’évaluation numérique de l’intégrale
R
définie d’une fonction. Lorsque l’intégrale de la
2
3b.) Quel est le degré de ψk , φk et P . Le polynôme ainsi construit est appelé le polynôme fonction f n’est pas calculable ( par exemple 01 e−x dx) on verra que l’on peut l’approximer de
d’interpolation d’Hermite de f aux points (xi ). diverses façons. Des fois même, connaissant la primitive F de f il est plus pratique d’utiliser ces
4.) On supose que f ∈ C 2n+2 [a, b], montrer qu’il existe ξ ∈ [a, b] tel que: méthodes d’approximation que de procèder à une évalution directe en fonction de F .
Dans ce chapitre, nous allons présenter la principe général du calcul approché d’intégrale que nous
(X − x0 )2 (X − x1 )2 . . . (X − xn )2 (2n+2) appliquons dans le cas de la méthode des rectangles, trapèzes et Simpson. Nous présentons aussi
f (X) − P (X) = f (ξ) la théorie des formules de quadrature. La dernière partie sera consacrée a la dérivation numérique.
(2n + 2)!
2
5.) Application: Calculer le polynôme d’interpolation d’Hermite de f (x) = e−x aux points 0, 1, 5.1.2 Rappels:
2. Rβ
i. Si f est continue sur [a, b], alors f admet une primitive donc α f (t)dt existe pour tous
α, β ∈ [a, b].
ii. Soient f : ]a, b[ → IR et F : [a, b] → IR : F est une primitive de f sur [a, b] si F est continue
sur [a, b], si F est dérivable sur ]a, b[ alors F ′ (x) = f (x), quelque soit x ∈]a, b[.
iii. Si F est une primitive de f alors G = F + cte est aussi une primitive de f .
vi. α, β ∈ [a, b] , si F et G sont deux primitives de f on a:
I = F (β) − F (α) = G(β) − G(α)
I est indépendant de F et ne dépend que de α, β et f .
vii. - α, β ∈ [a, b], si F et G sont deux primitives de f on a:
Z β
I = F (β) − F (α) = G(β) − G(α) = f (t)dt
α
I est indépendant de F et ne dépend que de α, β et f
Rt
viii. Si t ∈ [a, b], la fonction F de [a, b] dans IR définie par F (t) = α f (x)dx est une primitive de
f : telle que F (α) = 0 et F ′ (t) = f (t) pour tout t ∈ [a, b].

5.1.3 Intérpretation géomètrique de l’intégrale


Soit une fonction numérique f : [a, b] → IR continue,
Rb
a. si f ≥ 0 sur [a, b], a f (t)dt est la surface hachurée de la figure qui suit:
b. Si f change de signe sur [a, b], dans ce cas on considèrera la somme algébrique.

65
66 4. Intégration et dérivation numérique 4.2 Formule des réctangles 67

y=f(x) y=f(x)

000111
111111
000 000111 000111
111000111
000000
11111111
00000000 000111
111 000000
000111000
111 000111
111000111
000111
00000000
11111111
Cf
000
111
000111
111 000
111000
111 000
111000
111111000000
111
00000000
11111111 000
000111
111 000
111 0000
1111
000
111 000
111000
111000
111000111
111000
00000000
11111111 000
000111
111 000
111 0000
1111
000
111 000
111000
111000
111000111
111000
00000000
11111111 000000
111 0000
1111
000111
111000
0000
1111000
111
000
111000
111
000
111
000
111
000
111000111
111000
000
111
00000000
11111111 000
111
000111
111 000
111000
111
0000
1111000
111000
111000
111000
111000
111
00000000
11111111 000
000111
111 000
111000
111
0000
1111000
111000
111000
111000
111000
111
00000000
11111111 x
000
111000000
111000
111
0000
1111000
111000
111000
111000
111000
111 x
a b a0=a a000
111
a000
111 a
000
111
a a =b n
1 2 i n-1

Rb
Figure 5.1: f de signe constant Figure 5.3: Subdivision de [a, b] et approximation de a f (x)dx par la somme des surfaces hachurées.

01y=f(x) cette subdivision est appelée la subdivision régulière de pas h


10
10 111
10 000
10 111 000111111
000000 Cf
5.2 Formule des réctangles ( avec point milieu ):
10 111111 000000
+
000000
111111 000
111
000
111
10 111111 0000000
1111111
10 000000 +
0000000
1111111
10 111111000000
000000
111111 0000000
1111111 5.2.1 Formule élémentaire:
10 111111 0000000
1111111
10 000000 0000000 x
1111111 β+α
10 111111
000000 On remplace le graphe de la fonction f entre [α, β] par une droite y = f (γ), où γ = est le
00000001111111
0000000 2
10 a 000000
111111
1111111
0000000_1111111
0000000b point milieu de [α, β]. (voir figure ci dessous)
1111111
0000000
1111111
0000000
1111111
y=f(x)
Figure 5.2: f change de signe.
f( β) Cf
5.1.4 Principe du calcul approché:
l’interprétation géométrique de l’intégrale suggère de décomposer la surface sous le graphe de la f(γ ) 11111111
00000000
fonction en éléments d’aires simples (réctangles, triangles, trapèzes ...) moyennant certaines ap- 00000000
11111111
proximations au voisinage de la courbe. f(α) 00000000
11111111
00000000
11111111
L’idée est donc de subdiviser le segment [a, b] en plusieurs sous–segments [ai , ai+1 ] (i = 0, . . . , n−
00000000
11111111
1, a0 = a, an = b).
00000000
11111111
Z b n−1
X Z ai+1 00000000
11111111
f (t)dt = f (t)dt 00000000
11111111 x
R
a i=0 ai
α γ β
on est donc ramené à évaluer aaii+1 f (t)dt sur un petit segment [ai , ai+1 ] où f ne varie pas trop.
Ce qui nous amène à proposer la formule approximative suivante sur un petit intervalle [α, β]
de [a, b]:
Z β
Figure 5.4: M]’ethode des réctagles avec point milieu.
f (t)dt = Iα,β (f ) + Rα,β (f ) (5.1)
α
Iα,β (f ) est l’approximation proposée, Rα,β (f ) est un reste: “erreur de méthode” (5.1) est dite Z β
formule simple ou élémentaire. la formule (5.1) appliquée sur chaque segment [ai , ai+1 ] nous donne f (t)dt ≈ hf (γ) + Rα,β (f ), h = β − α
α
la formule approximative Composée:
Estimation du reste Rα,β (f ):
Z b n−1
X n−1
X Supposons que f a une dérivée seconde continue ( F aura donc une dérivée tièrce continue ). La
f (t)dt = Iai ,ai+1 (f ) + Rai ,ai+1 (f ) fomule de Taylor à l’ordre 3 entre γ et β appliquée à F :
a i=0 i=0
1 1
Dans tout ce qui suit nous considèrons la subdivision suivante: F (β) − F (γ) = (β − γ)F ′ (γ) + (β − γ)2 F ′′ (γ) + (β − α)3 F ′′′ (ξ)
2 3!
b−a h h2 h3
ai = a + ih; i = 0, . . . , n, a0 = a, ai = a + ih, an = b avec h = = f (γ) + f ′ (γ) + f ′′ (ξ); ξ ∈ [β, γ] (5.2)
n 2 8 48
68 4. Intégration et dérivation numérique 4.3 la méthode des trapèzes 69

Formule de Taylor entre α, γ:


y=f(x)
h h2 h3
F (α) − F (γ) = − f (γ) + f ′ (γ) − f ′′ (η) η ∈ [α, γ] (5.3) 000
111
2 8 48
111
000 000111
111000
000
111
000
111
000111
111 000
111000
111 000
111000
111
000 000
111 000
111
000111
000
En retranchant (5.2) de (5.3) on obtient la relation:
000111
111 000111
111 000
111 000
111
000
111 111
000000
111000
111000
111000
000
111000
111000
111000
111 000
111
000
111 000
111000
111
h3 f ′′ (η) + f ′′ (ξ) 000111
111
000000
111
000111
111
000000
111
000
111000
111
000111
111000
000
111
000
111 000111
000111
000111
111 111
000
000
000
111
F (β) − F (α) = hf (γ) + 000
111
000111
111 000
111000
111000
111000
111000
111 000
111
000
111 000
111000
111
24 2 000 000
111 000
111 000
111
000111
111
000000
111
000111
111
000000
111
000
111000
111
000111
111000
000
111
000
111
000111
111 000
111
000 000111
111000
000
111
f ′′ est une fonction continue, d’après le théorème des valeurs intermédiaires il existe θ ∈]η, ξ[ telle
000
111000
111000
111000
111000
111000
111000
111 000
111
000
111 000
111000
111 x
que a 0 1 γ2
000
111
111111111111111111111111111111111111
000000000000000000000000000000000000
γ γ γ γ
i n−1 b
1 ′′
(f (η) + f ′′ (ξ)) = f ′′ (θ)
2
La formule d’ élémentaire devient donc: Figure 5.5: Méthode des réctangles avec point milieu
h3
Z β
f (t)dt = hf (γ) + f ′′ (θ); α<θ<β (5.4)
α 24 5.2.4 Estimation de l’erreur.
h2
• si f ” ≤ M sur [a, b] on a une estimation à priori de l’erreur 24 (b − a)M
5.2.2 Formule composée:
Supposons que: f : [a, b] → IR a une dérivée seconde f ′′ continue, considèrons la subdivision • si f ” n’est pas majorée on peut minimiser le nombre d’évaluations de f . On se limite souvent
(ai )i=0,1,...n de pas h = b−a au cas où n est une puissance de 3 ( n: 1,3,9,27,. . . ). |Qn − Q3n | fournit en général une
n , sur chaque intervalle [ai , ai+1 ] on a la formule élèmentaire:
estimation de l’érreur.
h3 ′′
Z ai+1
ai + ai+1
f (t)dt = hf (γi ) + f (θi ) ; ai < θi < ai+1 avec γi =
ai 24 2 5.2.5 Exemple
R
d’ou la formule composée suivante: Log2 = 12 dtt ≈ 0.6931471806

n−1 1 ′ 1 2
h3 n−1 , f (x) = − 2 , f ′′ (x) = 3 , |f ′′ (x)| ≤ 2 = M,
Z b X 1
X f (x) = ∀x ≥ 1
f (t)dt = h f (γi ) + n f ′′ (θi ) x x x
a i=0
24 i=0 n
2−1 a0 +a1 3
• Si n = 1 on a: h = 1 = 1, a0 = 1, a1 = 2 = 1 + 1h donc γ0 = 2 = 2 d’où
Or, f ′′ est continue, d’après le théorème des valeurs intermédiaires, il existe θ ∈ [a, b] tel que:
i=1−1
X 3 2
Q1 = h f (γi ) = hf (γ0 ) = f ( ) =
1 n−1
X 2 3
f ′′ (θi ) = f ′′ (θ) i=0
n i=0
• Si n = 3 on a: h = 2−1 1 1 4 1
3 = 3 , a0 = 1, a1 = 1 + 1 3 = 3 , a2 = 1 + 2 3 =
5
3 et a3 = 1 + 3 31 = 2 donc:
en tenant compte du fait que nh = (b − a), on obtient comme formule composée: γ0 = a0 +a
2
1
= 7
6 , γ1 = a1 +a2
2 = 9
6 , γ2 = a2 +a3
2 = 11
6 d’où
i=n−1 i=3−1
h2
Z b X ai + ai+1 X 1 6 6 6 478
f (t)dt = h f( ) + (b − a)f ′′ (θ) Q3 = h f (γi ) = h(f (γ0 ) + f (γ1 ) + f (γ2 )) = ( + + )= = 0.68975468
a i=0
2 | 24 {z } i=0
3 7 9 11 693
| {z }
Rn (f )
Qn (f ) • Si n = 9 on a: h = 91 , a0 = 1, a1 = 1 + 1 91 = 10 1
9 , a2 = 1 + 2 9 =
11
9 , ai = 1 + i 91 et a9 = 2 donc:
ai +ai+1
graphiquement on a le schéma suivant: γ0 = a0 +a
2
1
= 19
18 , γ1 = a1 +a2
2 = 21
18 , γi = 2 = 19+2i
18 d’où
i=9−1
X 1 18 18 18 18
5.2.3 Propriétés. Q9 = h f (γi ) = h(f (γ0 ) + f (γ1 ) + . . . + f (γ8 )) = ( + + ... + + ... + )
i=0
9 19 21 19 + 2i 35
a. Si f ′′ = 0 sur [a, b] c-à-d f est un polynôme de degré un ou moins, il n’y a pas d’erreur de 14145553414
méthode. = = 0.69276237
20419054425
Rb
b. Si f ′′ ≥ 0 l’approximation de a f (t)dt fournie par Qn (f ) est par défaut. n Qn
2
(b − a) h24M |Qn − Q3n | erreur exacte
c. La méthode est convergente, en effet si M est un majorant de |f ′′ | sur [a, b] on a: 1 0.66666667 8.3 10−2 ——- −2.7 10−2
3 0.68975468 4.6 10−3 2.3 10−2 −3.4 10−3
h2 1 9 0.69276237 5.2 10−3 3.0 10−3 −3.9 10−4
|Rn (f )| ≤ (b − a)M proportionnelle à 2 → 0
24 n
70 4. Intégration et dérivation numérique 4. 3 La méthode des trapèzes 71

5.3 La méthode des trapèzes 5.3.2 Formule composée

5.3.1 La formule élémentaire: On suppose que f : [a, b] vers IR a une dérivée seconde continue f ′′ . On considère la subdivision
régulière de pas h de [a, b]:
Cette méthode consiste à remplacer la courbe de la fonction f entre α et β par une droite passant a0 = a < a1 < a2 < . . . < an = b, sur chaque [ai , ai+1 ] on a par application de la formule
par les deux points (α, f (α)) et (β, f (β). Ceci est schématisé dans la figure suivante: élémentaire:
h3
Z ai+1
h
f (t)dt = (f (ai ) + f (ai+1 )) − f ′′ (ξi ); ai < ξi < ai+1
ai 2 12
y=f(x) sur l’intervalle [a, b] on a donc:
h i=n−1 h3 i=n−1
Z b
f( β) 1111111
0000000
X X
f (t)dt = (f (ai ) + f (ai+1 ) − f ′′ (ξi )
0000000
1111111 a 2 i=0 12 i=0
f(α) 0000000
1111111
0000000
1111111 f (a) i=n−1
X f (b) h2
0000000
1111111 = h( + f (ai ) + ) − (b − a)f ′′ (θ)
0000000
1111111
2 i=1
2 | 12 {z }
0000000
1111111
| {z } Rn (f )

0000000
1111111
Tn (f )

0000000
1111111 Rb
0000000
1111111 x Tn (f ) est la valeur approchée de a f (t)dt. Rn (f ) est l’erreur de méthode lorsqu’on approche
Rb
a f (t)dt par Tn (f ).
α β La figure suivante permet de schématiser cette méthode d’approximation:

y=f(x)
Figure 5.6: Méthode du trapèze
000111
111111
000 000111 000111
111000111
000000
000111
111 000000
000111000
111 000111
111000111
000111
000
111
000111
111 000
111000
111 000
111000
111111000000
111
Z β
000
000111
111 000
111 0000
1111
000
111 000
111000
111000
111000111
111000
h
111000
000111000
111 0000
1111
000
111 000
111000
111000
111000111
111000
000111
000
f (t)dt = (f (α) + f (β)) + Rα,β (f )
2
000000
111 0000
1111
000111
111000 000
111000
111000
111111000
111
α
000
111
000111
111 000
111 0000
1111
000
111 000
111000
111000
111000
111000
111
000000
111 000
111 0000
1111
000
111 000
111000
111000
111000
111000
111
Pour exprimer le reste Rα,β (f ), on suppose que f a une dérivée seconde f ” continue sur [α, β] et
000
111000
111000
111 0000
1111
000
111 000
111000
111000
111000
111000
111
0000
1111000
111 000
111
x
introduisons la fonction auxiliaire ϕ(x) définie par:
a0=a a000
111
a000
111 a
000
111 000
111
a a =b n
1 2 i n-1
α+β
ϕ(x) = F (γ + x) − F (γ − x) − x(f (γ + x) + f (γ − x)) − kx3 , γ = (5.5)
2
Figure 5.7: Méthode des trapèzes
k est une constante choisie telle que ϕ( h2 ) = 0. En exigeant cela on obtient pour k l’expression
suivante:
F (β) − F (α) − h2 (f (β) + f (α))
k= 5.3.3 Propriétés
(h/2)3
• si f ′′ = 0 alors Rn (f ) = 0
ϕ(0) = ϕ(h/2) = 0, d’après le théorème de Rolle il existe ξ ∈]0, h/2[ telle que ϕ′ (ξ) = 0, or
• si f ′′ > 0 l’approximation fournit par Tn (f ) est par excès.
ϕ′ (x) = −x(f ′ (γ + x) − f ′ (γ − x)) − 3kx2 Rb
• si f ′′ ≥ 0 et garde le même signe sur un intervalle [a, b] on peut encadrer l’intégrale a f (t)dt
Le théorème des accroissements finis appliqué à f′ sur l’intervalle ]γ + ξ, γ − ξ[ implique qu’il par:
Z b
existe η ∈]γ + ξ, γ − ξ[ telle que Qn (f ) ≤ f (t)dt ≤ Tn (f )
a
′ ′ ′′
f (γ + ξ) − f (γ − ξ) = 2ξf (η) • la méthode est convergente: la convergence est en 1
n2

comme ϕ′ (ξ) = 0 on obtient k = − 23 f ′′ (η) et comme ϕ( h2 ) = 0 = F (β) − F (α) − h2 (f (β) + f (α)) +


2 ′′ h 3 5.3.4 Estimation de l’erreur
3 f (η)( 2 ) , on en déduit: 2
• si f ′′ est Majorée par M on a: |Rn (f )| ≤ (b − a) h12M
h3
Z β
h
f (t)dt = (f (β) + f (α)) − f ′′ (η); α<η<β • pour limiter le nombre d’évaluations de f , on peut se limiter au cas où n est une puissance
α 2 12
de 2, alors dans ce cas |T2n − Tn | fournit une estimation de l’erreur ainsi qu’un test d’arrêt
c’est la fomule élémentaire pour la méthode des trapèzes. des itérrations.
72 4. Intégration et dérivation numérique 4. 4 Accélération de la convergence : Méthode de Simpson. 73

5.3.5 Exemple y=f(x)


f( β)
R
Log2 = 12 dtt ≈ 0.6931471806
f(γ )
0000
1111
2
11111111
00000000
00001111
0000
n Tn (b − a) h12M |T2n − Tn | erreur exacte
1111
1 0.75 8.310−2 —- 5.710−2
00001111
11110000
2 0.7083333 2.110−2 4.710−2 1.510−2
00001111
11110000
5.210−3 1.110−2 3.410−3 00001111
11110000
00001111
0000
4 0.6970238
f(α) 1111
00001111
0000
8 0.69412183 1.310−3 2.910−3 9.810−4
1111
00001111
11110000
00001111
11110000
00001111
11110000
00001111
0000
5.4 Accélération de la convergence : Méthode de Simpson (1710- x
1761). 1111
α γ β
5.4.1 Formule élémentaire
Pour établir la formule élémentaire des rectangles et des trapèzes, on a en fait interpolé la fonction
f: Figure 5.8: Méthode de Simpson

• par une droite horizentale ( un polynôme de degré 0) dans la méthode des rectangles avec
point milieu. ϕ(2) (ξ2 ) = 0, ϕ(2) (0) = 0; par application du théorème de Rolle de nouveau, il existe ξ3 ∈ [0, ξ2 ]
tellle que ϕ(3) (ξ3 ) = 0.
• par une droite ( un polynôme de degré 1 ) dans la méthode des trapèzes. Le même procedé appliqué à ϕ(3) donne:
On peut espèrer améliorer la précision en approchant le graphe de f par l’arc de parabole d’axe x
vertical, passant par les points A(α, f (α)), B(β, f (β)) et C(γ, f (γ)) (avec γ = α+β ϕ(3) (x) = − (f (3) (x + γ) − f (3) (γ − x)) + 60kx2
2 ). Ce qui revient 3
à interpoler f en ces points par un plynôme de degré 2.
On montre facilement que le poynôme de degré 2 qui passe par A, B et C est de la forme: ϕ(3) (ξ3 ) = 0 implique ξ33 (f (3) (ξ3 + γ) − f (3) (γ − ξ3 )) = 60kξ32
Le théorème des accroissements assure l’existence de η ∈]γ − ξ3 , γ + ξ3 [ tel que f (3) (ξ3 + γ) −
(X − γ)(X − β) (X − α)(X − β) (X − α)(X − γ)
P (X) = f (α) + f (γ) + f (β) f (3) (γ − ξ3 ) = 2ξ3 f (4) (η)
(α − γ)(α − β) (γ − α)(γ − β) (β − α)(β − γ)
On a donc finalement:
2 1
= [(X − γ)(X − β)f (α) − 2(X − α)(X − β)f (γ) + (X − α)(X − γ)f (β)] k = f (4) (η)
h2 90
On a donc

P (X)dX = h6 (f (α) + 4f (γ) + f (β)) on propose donc la formule élémentaire suivante: avec cette valeur de k mise dans l’exprerssion de la fonction auxiliaire ϕ et en demandant que
α
ϕ( h2 ) = 0 on en déduit:
Z β
h
f (t)dt = (f (α) + 4f (γ) + f (β)) + Rα,β Z β
h h5 (4)
α 6 f (t)dt = F (β) − F (α) = (f (β) + f (α) + 4f (γ)) − f (η)
α 6 2880
pour exprimer le reste, en est amené à supposer que f a une dérivé quatrième f (4) continue:
considèrons la fonction auxiliaire: ϕ : [0, h2 ] → IR définie par ceci est la formule élémentaire pour la méthode de Simpson.

x
ϕ(x) = F (γ + x) − F (γ − x) − (f (γ + x) + f (γ − x) + 4f (γ)) + kx5 5.4.2 Formule composée
3
k est une constante choisie telle que: ϕ( h2 ) = 0. On suppose que f : [a, b] vers IR a une dérivée quatrième f (4) continue. On considère une subdivision
régulière de pas h = b−a
n de [a, b]: a0 = a < a1 < a2 < ... < an = b
ϕ(0) = ϕ( h2 ) = 0, d’après le théorème de Rolle, il existe ξ1 ∈ [0, h2 ] telle que ϕ′ (ξ1 ) = 0.
sur chaque intervalle [ai , ai+1 ] on a:
D’après l’expression de ϕ′ (x) donnée ci dessous
h5 (4)
Z ai+1
2 4 x h ai + ai+1
ϕ′ (x) = (f (γ + x) + f (γ − x)) − f (γ) − (f ′ (x + γ) − f ′ (γ − x)) + 5kx4 f (t)dt = F (β) − F (α) =
6
(f (ai ) + f (ai+1 ) + 4f (
2
)) −
2880
f (ηi )
3 3 3 ai

on conclut que ϕ′ (0) = 0, et comme ϕ′ (ξ 1) = 0 on en déduit du théorème de Rolle qu’il existe d’où sur [a, b]:
ξ2 ∈ [0, ξ1 ] tellle que ϕ′′ (ξ2 ) = 0
h i=n−1 h5 i=n−1
Z b X ai + ai+1 X
1 x f (t)dt = (f (ai ) + f (ai+1 ) + 4f ( )) − f (4) (ηi )
ϕ(2) (x) = f (γ + x) − f (γ − x) − (f (2) (x + γ) + f (2) (γ − x)) + 20kx3 a 6 i=0 2 2880 i=0
3 3
74 4. Intégration et dérivation numérique 4. 5 La méthode de Gauss ( à deux points ) 75

En appliquant le théorème des valeurs intermediaire au dernier terme du membre de droite: on comme des inconnues à déterminer en même temps que les coefficients?
trouve: on se limite à 2 abscisses et on propose pour approximation la formule élémentaire suivante:
i=n−1 i=n−1 i=n−1
h4
Z b
h X X ai + ai+1 X Z β
f (t)dt = (f (a) + f (b) + 2 f (ai ) + 4 f( )) − (b − a) f (4) (θ) f (t)dt = λ′ f (γ ′ ) + λ′′ f (γ ′′ )
a 6 i=1 i=0
2 2880 i=0 α
| {z } | {z }
Sn (f ) Rn (f )
où λ′ , λ′′ , γ ′ et γ ′′ sont à déterminer pour que le reste soit nul si f est un polynôme de degré 0,1,
Rb 2 ou 3.
Le reste Rn (f ) représente l’erreur de méthode lorsqu’on remplace a f (t)dt par la somme finie
L’ensemble des polynômes de degré inférieur ou égal à trois est un espace vectoriel sur IR. Il admet
Sn (f ).
comme base la famille B = (1, t, t2 , t3 ). Si on exige que la formule élémentaire précédente soit
vérifiée pour les polynômes de degré inférieur ou égal à trois elle doit être vérifiée pour chaque
5.4.3 Propriétés élément de la base B. En éxigant cela on obtient les relations suivantes:
Rb
• Rn (f ) = a f (t)dt − Sn (f )
β − α = λ′ + λ′′ pour f (t) = 1
• la méthode est convergente, sa convergence est réglée par le terme en h4 1 2
(β − α2 ) = λ′ γ ′ + λ′′ γ ′′ pour f (t) = t
2
• Sn (f ) = 31 (2Qn (f ) + Tn (f )) 1 3
(β − α3 ) = λ′ γ ′2 + λ′′ γ ′′2 pour f (t) = t2
3
5.4.4 Estimation de l’erreur. 1 4
(β − α4 ) = λ′ γ ′3 + λ′′ γ ′′3 pour f (t) = t3
4
• En pratique il est difficile d’obtenir une majoration de la dérivée 4ème . Sinon, si M est un
majorant de f (4) on a: pour simplifier les calculs on va établir le résultat pour α = −1, β = 1 et avec un changement de
h4 M variables approprié on remonte à α et β quelconques. On a donc le système suivant:
|Rn (f )| ≤ (b − a)
2880 
 2 = λ′ + λ′′ (1)
• Pour limiter le nombre d’évaluations de f , on peut se limiter au cas où n est une puissance 

 0 = λ′ γ ′ + λ′′ γ ′′ (2)
de 2. Alors dans ce cas |S2n − Sn | fournit une estimation de l’erreur ainsi qu’un test d’arrêt 2 ′ ′2 ′′ ′′2
des itérations.  3 = λγ +λ γ


(3)
 ′ ′3
0=λγ +λ γ ′′ ′′3 (4)

5.4.5 Exemple La résolution de ce système permet d’obtenir la relation suivante:


R 2 dt ′ 1 ′′ 2 (3) (x) = 6 f (4) (x) = 24 . On remarque
1 t = ln2 ≈ 0.6931471806, f (x) = − x2 , f (x) = x3 f x4 x5 Z 1
1 1
donc que f (4) (x) est majorée par 24. f (t)dt = f (− √ ) + f ( √ )
−1 3 3
2
n nombre de points Sn (b − a) h12M |S2n − Sn | erreur exacte
β+α β−α
1 3 0.69444443 8.3 10−3 —— 1.2 10−3 en effectuant le changement de variables u = 2 − 2 t, la formule precédente devient:
2 5 0.69325393 5.2 10−4 1.2 10−3 1.1 10−4 Z β
4 9 0.69315450 3.3 10−5 1.1 10−4 7.3 10−6 β−α h h
f (t)dt = [f (γ − √ ) + f (γ + √ )]
8 17 0.69314760 2.0 10−6 6.9 10−6 4.2 10−7 α 2 2 3 2 3

on peut alors prouver la formule élèmentaire de Gauss à deux points:


5.5 La méthode de Gauss ( à deux points )
h5 (4)
Z β
β−α h h
f (t)dt = [f (γ − √ ) + f (γ + √ )] + f (θ)
5.5.1 Principe de la méthode de Gauss à deux points α 2 2 3 2 3 4320

En établissant la méthode des trapèzes élémentaires: pour une subdivision régulière de pas h = b−a
de [a, b] si γi est le milieu de [ai , ai+1 ]: on a donc
n
Z β
h 2 h la formule composée:
f (t)dt = f (α) + h f (γ) + f (β)
α 6 3 6
h i=n−1 h5 (4)
Z b X h h
α+β h 2 h f (t)dt = [f (γi − √ ) + f (γi + √ )] + f (θ)
on s’est fixé les abscisses α, β et γ = et on a calculé les poids
2 6, 3h
et de façon à ce que la
6 a 2 i=0 2 3 2 3 4320
formule soit exacte pour les polynômes de degré inférieur ou égal à 2.
Alors on peut se poser la question suivante: pourquoi ne pas considèrer les abscisses elles-même une estimation de l’erreur est fournie par |G2n − Gn |.
76 4. Intégration et dérivation numérique 4. 6 Formule de quadrature 77

5.5.2 Exemple 5.6.2 Définitions


R 2 dt ′ 1 ′′ 2 (3) (x) = 6 f (4) (x) = 24 . On remarque
1 t = ln2 ≈ 0.6931471806, f (x) = − x2 , f (x) = x3 f
Définition de la formule de quadrature: Une formule de quadrature à s étages est donnée
x4 x5
donc que f (4) (x) est majorée par 24. par:
Z 1 s
X
n nombre de points Gn (b − a) h12M
2
|G2n − Gn | erreur exacte g(t)dt ≈ bi g(ci ). (5.6)
0 i=1
1 2 0.69230769 5.6 10−3 —— −8.4 10−4
2 4 0.69307663 3.5 10−4 7.7 10−4 −7.1 10−5 Les ci sont les nœuds de la formule de quadrature et les bi sont les poids.
4 8 0.69314227 2.2 10−5 6.6 10−5 −4.9 10−6
8 16 0.69314681 1.3 10−6 4.6 10−6 −4 10−7 Exemples:
R1
• la formule du rectangle avec point milieu 0 g(t)dt ≈ g( 21 ) est à un seul étage s = 1 le nœud
c1 = 12 et le poids b1 = 1.
5.6 Formule de quadrature R
• la formule du trapèze 01 g(t)dt ≈ 12 g(0) + 21 g(1) est à deux étages s = 2. Les nœuds c1 = 0 et
5.6.1 Préliminaire et exemples c2 = 1, les poids b1 = b2 = 21 .
R
Comme nous l’avons signaler au début, la plupart des algorithmes numériques procèdent comme • la formule de Simpson: 01 g(t)dt ≈ 16 g(0) + 46 g( 21 ) + 16 g(1) est à trois étages s = 3. Les nœuds
suit: on subdivise [a, b] en plusieurs sous-intervalles (a = x0 ¡ x1 ¡ x2 ¡ . . . ¡ xn = b) et on utilise le c1 = 0, c2 = 21 et c3 = 1, les poids b1 = b3 = 16 et b2 = 64 .
fait que:
Z b n−1
X Z xj+1 5.6.3 Ordre de la méthode
f (x)dx = f (x)dx
a j=0 xj Définition de l’ordre de la formule de quadrature: On dit que p est l’ordre de la formule
de quadrature (5.6) s’elle est exacte pour tous les polynômes de degré p − 1, c’est à dire:
De cette manière, on est ramené au calcul de plusieurs intégrales pour lesquelles
R
la longueur de
l’intevalle est relativement petite. Si on s’interesse par exemple à: Ij = xxjj+1 f (x)dx, on posons s
Z 1 X
g(t)dt = bi g(ci ) pour degg ≤ p − 1 (5.7)
x = xj + thj avec hj = xj+1 − xj , l’intégrale Ij devient: 0 i=1
Z xj+1 Z 1
On voit que la formule du rectangle avec point milieu et du trapèze sont d’ordre 2. La formule de
Ij = f (x)dx = hj f (xj + jhj )dt
xj 0 Simpson est d’ordre 4.

Notons enfin que g(t) = f (xj + jhj ). Il reste alors à calculer une approximation de: Théorème: La formule de quadrature (5.6) a un ordre p si et seulement si les p conditions suivantes
sont vérifiées:
Z 1
s
g(t)dt X 1
0 bi cq−1
i = pour q = 1, 2, . . . , p (5.8)
i=1
q
Exemples:
Preuve:
• Dans le cas de la formule du rectangle avec point milieu, on a → la formule (5.7) appliquée successivement à (g(t) = tq−1 )(q=1,2,...,p) donne:
Z 1 s
Z 1
1 1 X
g(t)dt ≈ g( ) q q−1 dq = = bi cq−1
i
0 2 0 q i=1

La réciproque découle du fait qu’un polynôme de degré p − 1 est une combinaison de linéaire de
• Dans le cas de la formule du trapèze: R
1, t, t2 ,. . . , tp−1 c.à.d g(t) = α1 + α2 t + α3 t2 + . . . + αp tp−1 et que l’intégrale 01 g(t)dt ainsi que
Ps
Z 1 l’expression i=1 bi g(ci ) sont linéaire en g. Par application de la formule (5.8) pour q = 1, 2, . . . , p
1
g(t)dt ≈ [g(0) + g(1)] on obtient p équations. En multipliant l’équation q = 1 par α1 , l’équation q = 2 par α2 , . . . . . . ,
0 2
l’équation q = p par αp et en faisant la somme terme par terme on trouve:
Z 1 Z 1 Z 1
• Dans le cas de la formule de Simpson: 1 1
α1 1 + α2 + . . . + αp = α1 1dt + α2 tdt + . . . + αp tp−1 dt =
Z 1 2 p 0 0 0
1 1 Z 1
g(t)dt ≈ [g(0) + 4g( ) + g(1)] = g(t)dt =
0 6 2 0
78 4. Intégration et dérivation numérique 4.7 Dérivation numérique 79

s s s 1 3
X X X ce qui donne b1 = b4 = et b2 = b3 = 8, la formule de quadrature correspondante est la
α1 [ bi c1−1
i ] + α2 [ bi c2−1
i ] + . . . + αp [ bi cip−1 ] = 8
i=1 i=1 i=1
formule de Newton:
s Z 1
X 1 3 1 3 2 1
bi [α1 + α2 ci + . . . + αp cip−1 ] = g(t)dt = g(0) + g( ) + g( ) + g(1)
i=1 0 8 8 3 8 3 8
s
X
= bi g(ci ) On vérifie facilement que la formule de Newton est d’ordre 4.
i=1
• pour s = 5 on a: c1 = 0, c2 = 41 , c3 = 24 , c4 = 34 , c5 = 1, le système 5 × 5 correspondant
7 32
ce qu’il fallait démontrer. admet comme solution: b1 = b5 = 90 , b2 = b4 = 90 et b3 = 12
90 . La formule de quadrature
correspondante est la formule de Boole et est d’ordre 6.
Remarque: Z 1
7 32 1 12 2 32 3 7
g(t)dt = g(0) + g( ) + g( ) + g( ) + g(1)
Détermination des poids bi de la formule de quadrature. 0 90 90 4 90 4 90 4 90
En fixant les nœuds c1 , . . . , cs ∈ [0, 1] (distincts), la condition (5.8) avec p = s représente un .
système linéaire pour b1 , . . . , bs :
    
1 1 ... 1 b1 1

 c1 c2 ... cs   
  b2  
 .  = 
1
2

 5.7 Dérivation numérique

 .. .. .. ..  .   .. 
 (5.9)
 . . . .  .   . 
Dans cette partie nous abordons le problème d’approximation de la dérivée d’ordre k de f en un
cs−1 cs−1 . . . css−1 bs 1
1 2 s point x0 donné: f (k) (x0 ), k = 1, 2 . . .. Nous allons voir que si l’on connais les valeurs prises par f en
un certain nombre de points xi = x0 + ih, i = 1, 2, . . . il est possible de trouver une approximation
La matrice dans (5.9) est une matrice de Vandermonde, les ci sont distincts alors son determinant
de f (k) (x0 ). Dans ce qui suit, nous supposons que f est suffisament dérivable au voisinage de x0 .
est non nul. Le système admet donc une solution unique. Ceci nous donne une formule de quadra-
ture d’ordre p = s.
5.7.1 Approximation polynômiale
Dans le chapitre précedent, nous avons montré que toute fonction f : [a, b] → IR, f ∈ C (n+1) [a, b],
si x0 ∈ [a, b] (un point fixe), alors pour tout x ∈ [a, b], il existe un élément c entre x0 et x tel que
cas ou les ci sont équidistants:
f (x) = Pn (x) + En (x) (5.10)
• s = 2 donc c1 = 0 et c2 = 1 on a alors le système 2 × 2 suivant:
f ′ (x0 ) f (n) (x0 )
! ! ! Pn (x) = f (x0 ) + (x − x0 ) + . . . + (x − x0 )n (5.11)
1 1 b1 1 1! n!
= 1 f (n+1) (c)
0 1 b2 2 En (x) = (x − x0 )n+1 (5.12)
(n + 1)!
1
ce qui donne b1 = b2 = la formule de quadrature correspondante est la formule du trapèze:
2,
R1 1 1 Pn est le polynôme qui peut être utilisé comme approximation de f , En (x) est l’erreur commise
0 g(t)dt = 2 g(0) + 2 g(1). lors de cette approximation. Si on se limite au cas ou n = 1 on aura:
1
• s = 3 on a c1 = 0, c2 = 2 et c3 = 1, alors le système 3 × 3 suivant:
f (2) (c)
     f (x) = f (x0 ) + f ′ (x0 )(x − x0 ) + (x − x0 )2 (5.13)
1 1 1 b1 1 (2)!
1
1   b2  =  21 
    
 0 2 La quantité, f (x0 )+f ′ (x0 )(x−x0 ) n’est rien d’autre que l’équation de la tangente de f au voisinage
0 ( 21 )2 12 b3 1
3 de x0 . Dans ce voisinage, la droite f (x0 ) + f ′ (x0 )(x − x0 ) est une bonne approximation de f (x).
Cette approximation est d’autant meilleure que x est très voisin de x0 , c’est à dire que: ∆x = x−x0
ce qui donne b1 = b3 = 16 et b2 = 46 , la formule de quadrature correspondante est la formule
R est petit et donc l’erreur est d’ordre ∆x2 .
de Simpson: 01 g(t)dt = 61 g(0) + 46 g( 21 ) + 16 g(1).

• s = 4 on a c1 = 0, c2 = 31 , c3 = 2
et c4 = 1, alors le système 4 × 4 suivant: 5.7.2 Approximation de la dérivée première
3
     A partir du développement de Taylor (5.13), on est en mesure de donner une approximation de la
1 1 1 1 b1 1
 0 1 2  b   1  dérivée première de f en x0 :
 3 3 1  2   2 
=
( 13 )2 ( 32 )2 (1)2   b3   13
  
 0  df f (x0 + ∆x) − f (x0 ) ∆x d2 f
0 ( 13 )3 ( 32 )3 (1)3 b4 1 (x0 ) = − (c) (5.14)
4 dx ∆x 2 dx2
80 4. Integration et dérivation numérique 4. 7 Dérivation numérique 81

L’approximation de la dérivée première est donc donnée par: Exemple

′ df f (x0 + ∆x) − f (x0 ) Considèrons la fonction f (x) = log(x), on cherche à approcher f ′ (x0 = 1) en utilisant ∆x = 0.1.
f+ (x0 ) = (x0 ) ≈ (5.15) Le calcul exact de f ′ (1) donne f ′ (1) = 1.
dx ∆x
• A partir de l’approximation différence progressive on a:
cette approximation est appelée différence finie progressive (où avancée). Si on remplace ∆x ′
f+ (x0 = 1) ≈ (f (x0 + ∆x = 1.1) − f (x0 = 1))/(∆x) ≈ 0.953102, l’erreur de cette approximation
par −∆x dans (5.14) on obtient: est de l’ordre:
E2 ≈ | ∆x
2 f
(2) (1)| ≈ 0.05.
df f (x0 − ∆x) − f (x0 ) ∆x d2 f • Dans le cas de différence arrière on a:
(x0 ) = + (c̄) (5.16)
dx −∆x 2 dx2 ′
f− (x0 = 1) ≈ (f (x0 − ∆x = 1.1) − f (x0 = 1))/(−∆x) ≈ 1.053605.
de l’équation (5.16), on obtient l’approximation suivante de la dérivée: • L’approximation de différence centrée donne:

f± (x0 = 1) ≈ (f (x0 + ∆x = 1.1) − f (x0 − ∆x = 0.9))/(2∆x) ≈ 1.00335, l’erreur dans ce cas est de
′ df f (x0 − ∆x) − f (x0 ) l’ordre: 2
f− (x0 ) = (x0 ) ≈ (5.17) E3 ≈ | (∆x) (3) (1)| ≈ 0.00333.
dx −∆x 6 f
Dans cet exemple, on voit clairement que la différence centrée donne une meilleure approximation
cette approximation est appelé différence finie rétrograde (où arrière). avec une erreur de l’ordre de 10−3 .
Dans les deux cas d’approximation (différence finie progressive ou rétrograde), on remarque que
l’erreur est d’ordre O(∆x) et est approximativement la même dans les deux cas. 5.7.3 Approximation de la dérivée seconde
df
Pour obtenir une approximation plus précise de la dérivée dx (x0 ), on peut faire la moyenne des
approximations progressive et rétrograde. En effet, en faisant la somme des équations (5.14) et La somme des équations (5.19) et (5.20) donne:
(5.16) on a:
(∆x)4 (4)
f (x0 + ∆x) + f (x0 − ∆x) = 2f (x0 ) + (∆x)2 f ′′ (x0 ) + 2 f (x0 ) + . . . (5.24)
df f (x0 − ∆x) − f (x0 − ∆x) ∆x d2 f d2 f 4!
2 (x0 ) = + [ (c̄) − 2 (c)] (5.18)
dx ∆x 2 dx2 dx On peut démontrer le résultat suivant (démonstration a titre d’exercice):
puisque x0 < c < x0 + ∆x, x0 − ∆x < c̄ < x0 et ∆x est petit, donc c et proche de c̄ et par
2 2 f (x0 + ∆x) − 2f (x0 ) + f (x0 − ∆x) (∆x)2 (4)
suite la différence ddxf2 (c̄) − ddxf2 (c) tend vers zéro. On conclut que l’erreur dans (5.18) est beaucoup f ′′ (x0 ) = − f (ξ) (5.25)
(∆x)2 12
plus petite que O(∆x). Pour calculer l’erreur dans ce cas on procéde comme suit: On utilise le
développement de Taylor à l’ordre 3 de f (x0 + ∆x) et f (x0 − ∆x): Ceci nous conduit à la formule d’approximation de la dérivée seconde:

(∆x)2 (∆x)3 ′′ f (x0 + ∆x) − 2f (x0 ) + f (x0 − ∆x)


f (x0 + ∆x) = f (x0 ) + ∆xf ′ (x0 ) + f (2) (x0 ) + f (3) (x0 ) + . . . (5.19) f± (x0 ) = f ′′ (x0 ) ≈ (5.26)
2! 3! (∆x)2
(∆x)2 (2) (∆x)3 (3)
f (x0 − ∆x) = f (x0 ) − ∆xf ′ (x0 ) + f (x0 ) − f (x0 ) + . . . (5.20) appelée différence finie centrée, cette appelation est dû au fait que l’approximation (5.26) peut être
2! 3!
obtenu en appliquant deux fois la différence centrée (5.23) de la dérivée première.
En faisant la différence de (5.19) et (5.20) on obtient: La différence centrée de la dérivée seconde nécessite trois fois l’évaluation de la fonction f : f (x0 +
1 2 1
∆x), f (x0 ) et f (x0 − ∆x). Les poids respectifs: (∆x) 2 , - (∆x)2 et (∆x)2 sont illustrés sur la figure
2(∆x)3 (3) 4.9. En fait, dans toutes les formules d’approximation considèrées la somme des poids doit être
f (x0 + ∆x) − f (x0 − ∆x) = 2∆xf ′ (x0 ) + f (x0 ) + . . . (5.21)
3! zéro.
On pourra montrer que (démonstration à titre d’exercice): x0 - ∆ x x0 x0 + ∆ x
f (x0 + ∆x) − f (x0 − ∆x) (∆x)2 1
0 1
0 1
0 x
0
1 0
1 0
1
f ′ (x0 ) = − f (3) (ξ) (5.22)
2∆x 6
- - - 2
ceci conduit à l’approximation suivante:
(∆ x )
2
-2 (∆ x )
2
(∆ x ) Poids

f (x0 + ∆x) − f (x0 − ∆x) Figure 5.9: Approximation de la dérivée seconde.


f±′ (x0 ) = f ′ (x0 ) ≈ (5.23)
2∆x
appelée différence finie centrée. Comme nous allons le voir dans un exemple explicite, la
5.7.4 Approximation des dérivées partielles
différence finie centrée est plus precise que la différence finie progressive et rétrograde. Ceci est
prévisible du fait que l’erreur est d’ordre O(∆x)2 dans le cas de la différence centrée. Dans les Considèrons une fonction à u(x, y) deux variables x et y ∈ IR. Supposant que f admet des derivées
trois cas que nous avons considèré (progressive, rétrograde et centrée) le nombre d’évaluation de la partielles de tout ordre au voisinge de (x0 , y0 ). ∂u ∂u
∂x (resp ∂y ) n’est rien d’autre que la dérivée
fonction f est égal à deux. ordinaire de u par rapport à x (resp y) en gardant y (resp x constant). On pourra donc utiliser la
82 4. Integration et dérivation numérique 4. 6 Exercices 83

formule de différence avancée, rétrograde ou centrée pour trouver une approximation de ∂u


∂x et/ou 5.8 Exercices
∂u
∂y . D’après la formule de différence centrée on a:
Exercice 1. Reprendre la formule du trapèze établie dans le cours, considerer la subdivision reg-
∂u u(x0 + ∆x, y0 ) − u(x0 − ∆x, y0 ) ulière (ai ){i=0,...2n} où ai = a + i b−a
2n . Calculer T2n en fonction de Tn . Conclure que lorsque Tn est
(x0 , y0 ) ≈= (5.27) connu, les T2n et Tn+1 necessitent le même nombre d’évaluations de la fonction f . Montrer que le
∂x 2∆x
∂u u(x0 , y0 + ∆y) − u(x0 , y0 − ∆y) lien entre la formule de Simpson et celle des trapèzes est donné par
(x0 , y0 ) ≈= (5.28) Sn = 31 (4T2n − Tn ).
∂y 2∆y R
Exercice 2. On veut calculer π = 4 01 1+x dx
2 avec une incertitude absolue de 10
−2 . On approche
Les deux points d’évaluation de la fonction u sont représentés sur la figure suivante: l’intégrale par les méthodes des rectangles avec point milieu, des trapèzes, de Simpson, de Gauss
En physique on a souvent besoin d’évaluer le Laplacien ∇2 u. A deux dimension ∇2 u est donné à deux points. En combien de sous–intervalles faut-il subdiviser [0, 1] dans chaque cas pour avoir
par: l’incertitude désirée sur π?
∂2u ∂2u
∇2 u = + 2 Faire effectivement le calcul par une méthode. On donne les renseignements suivants:
∂x2 ∂y
∂2u ∂2u
1
En utilisant la différence centrée pour ∂x2
et ∂y 2
(5.26), on montre que ∇2 u est approché par: f (x) = , f ′ (x) = −2xf 2 (x)
1 + x2
u(x0 + ∆x, y0 ) − 2u(x0 , y0 ) + u(x0 − ∆x, y0 ) f ′′ (x) = 2(3x2 − 1)f 3 (x) , f (3) = 24x(1 − x2 )f 4 (x)
∇2 u(x0 , y0 ) ≈ + f (4) = 24(5x4 − 10x2 + 1)f 5 (x) , f (5) = 240x(−3x4 + 10x2 − 3)f 6 (x)
(∆x)2
u(x0 , y0 + ∆y) − 2u(x0 , y0 ) + u(x0 , y0 − ∆y) √ R
(5.29) Exercice 3 Calculer une primitive de f (t) = 1 + t2 . En déduire I = 01 f (t)dt.
(∆y)2
Calculer I à 10−2 près par la méthode des rectangles avec points milieu et par la méthode des
L’approximation de ∇2 u nécessite cinq évaluation de u (voir figure), l’erreur de cette approximation trapèzes.
est de l’ordre max(O(∆x)2 , O(∆y)2 ). En pratique, on utilise souvent ∆x = ∆y, dans ce cas ∇2 u Améliorer la précision sur I à partir des deux approximations précédentes. on donne:
devient:
f ′ (x) = x/f (x) , f ′′ (x) = 1/f 3 (x)
∇2 u(x0 , y0 ) ≈ (5.30) f (3) = −3x/f 5 (x) , f (4) = 3(4x2 − 1)/f 7 (x)
u(x0 + ∆x, y0 ) + u(x0 − ∆x, y0 ) + u(x0 , y0 + ∆y) − 4u(x0 , y0 ) + u(x0 , y0 − ∆y) f (5) = 15x(3 − 4x2 )/f 9 (x)
(∆x)2
R 5
Exercice 4. Quelle méthode proposerier–vous pour calculer: I = 01 15
4
|x−0.693471806| 2 dx à 10−6
Comme il se doit,la somme des poids relatifs est égale à zéro. près R
Exercice 5. La formule des trapèzes élémentaire pour l’approximation de l’intégrale xx01 f (x)dx
y
par:
1
0
1 0 (0,1)
1 Z x1
h
f (x)dx ≈ (f (x0 ) + f (x1 ))
x0 2
R
Montrer que l’erreur R = xx01 f (x)dx − h2 (f (x0 ) + f (x1 )) lorsque f est deux fois continuement
(-1,0) (1,0) 3
00000000000000000000000
11111111111111111111111
0
1 0
1 0
1
x (0,0) dérivable a pour expression R = h12 f ′′ (ξ) où ξ ∈ [x0 , x1 ]
0
1 0
1 0
1
-4 1 On pourra proceder de la manière suivante:
1 Poids R
Introduire la fonction auxiliaire R(h) = xx00 +h f (x)dx − h2 (f (x0 ) + f (x0 + h)). On remarque que
′ ′′ ′
calculer R(0), R (h), R (h) et R (0).
On rappelle la Rformule de Taylor avec reste intégrale pour une fonction de lasse C 2 : g(x + t) =
11
0
0 (0,-1)
1 g(x) + tg′ (x) + xx+t (x + t − θ)g′′ (θ)dθ.
R
Exercice 6. Soit f une fonction de classe C ∞ sur I ⊂ IR. On considère I(f ) = 0h f (t)dt que l’on
désire approcher par
Poids 2h
J(f ) = h(af (0) + bf ( )
3
Figure 5.10: Approximation du Laplacien. 1. Déterminer a et b pour que la formule approchée J(f ) soit de degré de précision le plus élevé
possible. R
2. Calculer 01 (1−x)
dx
1/2 (h=1)
dx
Si f (x) = (1−x)1/2
comparer I(f ) et J(f ).
Exercice 7. Soit g une fonction de classe C 4 .
84 4. Intégration numérique 4. 6 Exercices 85

R
a. Determiner le polynôme d’interpolation de Lagrange P2 passant par (0, g(0)), (1, g(1)) et (2, g(2)) On désire calculer ln2 = 01 1+t
dt
avec une incertitude absolue de 10−2 .
b. Trouver les constantes α0 , α1 et α2 tels que la formule d’intégration: En utilisant la méthode des rectangles avec point milieu, des trapèzes et de Simpson déterminer le
Z 2 pas de la subdivision regulière qu’il faut utiliser sur [0, 1] pour avoir la précision désirée.
g(t)dt = α0 g(0) + α1 g(1) + α2 g(2) (5.31) En appliquant la méthode de Simpson, donner la valeur de ln2 à 10−2 .
0

soit exacte pour les polynômes de degré ≤ 2. Exercice 12.


c. Vérifier que (1) est exacte pour P2 Soit f une fonction de classe C 2 [a, b], on pose γ = a+b
2 .
d. On posant g(t) = f (x0 + h2 t) et en utilisant un changement de variables judicieusement choisit 1. Ecrire le polynôme d’interpolation de Lagrange PL (t) passant par les points A0 = (a, f (a)),
retrouver à partir de (5.31) la formule d’intégration élémentaire de Simpson sur l’intervalle [x0 , x1 ]. A1 = (γ, f (γ)) et A2 = (b, f (b)).
Exercice 8. Soit la formule d’intégration suivante: 2. Montrer que:
Z b
Z 1 b−a
PL (t)dt = [f (a) + 4f (γ) + f (b)]
f (x)dx = w0 f (0) + wb f (b) , b ∈ [0, 1] a 6
0
3. On considère la formule d’intégration suivante:
a) Déterminer w0 et wb en fonction de b pour que cette formule soit exacte pour les polynômes de Z 1
degré ≤ 1. f (t)dt = a1 f (−1) + a2 f (0) + a3 f (1) + R(f ) (5.32)
b) Déterminer b pour que cette formule soit exacte pour les polynômes de degré ≤ 2. −1

c) Soit h ∈ [0, 1], En déduire à partir de a) et b) que la formule d’intégration suivante: R(f ) étant le reste. Determiner a1 , a2 et a3 pour que la fomule d’intégration (5.32) soit exacte
Z h pour les polynomes de degrés ≤ 2.
h 3h 2 4. Pour les valeurs de a1 , a2 et a3 trouvées dans 3, la formule d’intégration (5.32) est elle exacte
f (x) = f (0) + f ( h)
0 4 4 3 pour les polynômes de degrés ≤ 3.
est exacte pour les polynômes de degré ≤ 2. 5. A l’aide d’un changement de variable, retrouver à partir de (5.32) la formule de Simpson:
√ Rπ
Exercice 9. On veut calculer 2 = 2 04 cosxdx avec une incertitude absolue de 10−3 . En utilisant
Z b
b−a
f (t)dt = [f (a) + 4f (γ) + f (b)]
la méthodes des rectangles avec point milieu, des trapèzes, de Simpson et celle de Gauss, determiner a 6
le pas de la subdivision regulière qu’il faut utiliser sur [0, π4 ] pour avoir la précision désirée.

En appliquant la méthode de Gauss, donner la valeur de 2 à 10−3 . Exercice 13.
Soit f une fonction de classe C 2 sur [a, b], soit [α, β] un intervalle élémentaire contenu dans [a, b].
Exercice 10: Méthodes des rectangles à gauche. a) Déterminer le polynôme de Lagrange P (X) interpolant f aux points d’abscisses α et β.
Soit f : [a, b] → IR telle que f ′ existe et soit continue; soit α < β ans [a, b]. b) Donner et sans le démontrer l’expression de f (x) − P (x) en fonction de x, α, β et f ′′ .
a. Quelle est la formule d’intégration élémentaire suggérée par la figure (a)? c) En déduire de b) la formule élémentaire d’intégration des trapèzes.
d) Soit (ai )i=0,...,n une subdivision régulière de [a, b] de pas h = (b − a)/n. Retrouver la formule
des trapèzes composée à partir de c).
y=f(x) a y=f(x)
b
Cf
f( β)
Cf
f( β) Exercice 14:
1
On définit la fonction g(x) = 1−x . Calculer
f(α) 1111111
0000000 f(α) 1111111
0000000
0000000
1111111 0000000
1111111
0000000
1111111 0000000
1111111 Z x
0000000
1111111 0000000
1111111 F (x) = g(t)dt, x<1
0000000
1111111 x 0000000
1111111 x
0000000
1111111 0000000
1111111 0
α β α β 2
a.) Quelle est la valeur de F(x) en x = 3

b.) Donner le degré et l’expression du Polynôme de Lagrange qui interpole g(x) aux points 0, 13 ,
Figure 5.11: Méthodes des rectangles à gauche figure (a) et à droite figure (b). 2
3.

Quelle est l’erreur élémentaire? c.) Trouver des coefficients c0 , c1 et c2 tels que pour tout polynôme P de degré inférieur ou égal
b. Soit a0 = a < a1 < a2 < . . . < an = b une subdivision régulière de pas h = b−a n de [a, b]. Quelle
à 2, on ait Z 2
est la formule d’intégration composée obtenue en répétant la formule simple sur chaque intervalle P (x)dx = c0 P (0) + c1 P (1) + c2 P (2)
[ai , ai+1 ]? Erreur de méthode? Que dire de l’approximation si f est monotone sur [a, b]? Justifier o
vôtre réponse. R d.) En utilisant un changement de variable, déduire de la formule précédente les coefficients d0 ,
c. Application au calcul de 12 dx −3
x . Calculer n pour que l’erreur de méthode soit inférieur à 10 . d1 et d2 tels que pour tout polynôme Q de degré inférieur ou égal à 2, on ait
d. Reprendre les mêmes questions dans le cas de la figure (b). Z 2
3 1 2
Q(x)dx = d0 Q(0) + d1 Q( ) + d2 Q( )
Exercice 11. 0 3 3
86 4. Intégration numérique

e.) Utiliser cette formule pour donner une valeur approchée de ln3.
Quel est l’ordre de cette méthode?

You might also like