You are on page 1of 63

Cours d’Analyse Numérique

Henri Bonnel

Licence de Mathématiques L3

Département des Sciences et Techniques


Université de la Nouvelle-Calédonie, 2007
Table des matières

I Analyse numérique matricielle 1

1 Rappels sur les espaces vectoriels et les matrices 1


1.1 Espaces vectoriels, bases, dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Sous-espace vectoriel, somme de sous-espaces, somme directe . . . . . . . . . . . . . . 2
1.3 Applications linéaires et matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.1 Changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3.2 Image, noyau et théorème du rang . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3.3 Matrice transposée et matrice adjointe . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.4 La trace d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.5 Matrice de permutation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.6 Transformations élémentaires et les matrices watsoniennes(ii) . . . . . . . . . . 6
1.3.7 Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Produit scalaire, l’espace euclidien Rn et l’espace hermitien Cn . . . . . . . . . . . . . 7
1.4.1 Les matrices hermitiennes et définies positives . . . . . . . . . . . . . . . . . . . 9
1.4.2 Matrices orthogonales et unitaires . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.3 Matrice normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4.4 Projecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5 Valeurs propres, vecteurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.6 Réduction des matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.7 Normes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.8 Conditionnement des systèmes linéaires et des matrices . . . . . . . . . . . . . . . . . 18
1.9 Exercices d’Algèbre linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

2 Méthodes directes pour la résolution de systèmes linéaires 26


2.1 La méthode de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2 Factorisation LU d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3 Efficacité de l’algorithme de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3.1 Systèmes linéaires de Cramer ou non ? . . . . . . . . . . . . . . . . . . . . . . . 29
2.3.2 Choix des pivots . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3.3 Nombre d’opérations élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.4 Factorisation des matrices symétriques définies positives ; factorisation de Cholesky . . 31
2.4.1 Construction de Λ colonne par colonne . . . . . . . . . . . . . . . . . . . . . . . 32
2.5 Matrice de Householder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.5.1 Définitions et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.5.2 Factorisation A = QR par la méthode de Householder . . . . . . . . . . . . . . 33

3 Méthodes itératives 33
3.1 Méthode de Jacobi, Gauss-Seidel, de relaxation . . . . . . . . . . . . . . . . . . . . . . 34
3.1.1 La méthode de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.1.2 La méthode de Gauss-Seidel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.1.3 La méthode de relaxation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2 Convergence des méthodes de Jacobi, Gauss-Seidel et relaxation . . . . . . . . . . . . 35
4 Méthodes numériques de calcul des valeurs et vecteurs propres 35
4.1 La méthode de la puissance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.2 Méthode de la puissance inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.2.1 Recherche de la valeur propre de plus petit module . . . . . . . . . . . . . . . . 36
4.2.2 Recherche de la valeur propre la plus proche d’un nombre donné . . . . . . . . 36
4.3 Méthode QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

II Interpolation polynômiale 37

5 Quelques bases utiles de l’espace vectoriel Rn [X] 37

6 Evaluation d’un polynôme en un point : le schéma de Hörner 38

7 Existence et unicité du polynôme d’interpolation 40

8 Évaluation de l’erreur d’interpolation 41

9 L’écriture du polynôme d’interpolation sous la forme de Newton 43

III Intégration Numérique 46

10 Formules de quadrature 47
10.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
10.2 Formules classiques : Newton-Cotes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
10.2.1 La formule des rectangles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
10.2.2 La formule des trapèzes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
10.2.3 La formule de Simpson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

11 Intégration Gaussienne 54
11.1 La fonction à intégrer sur un intervalle non nécessairement compact . . . . . . . . . . 54
11.2 La manière d’approcher l’intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
11.3 Formule de quadrature de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
11.3.1 Comment choisir le support d’intégration pour augmenter la précision ? . . . . 56
11.3.2 Polynômes orthogonaux : généralités . . . . . . . . . . . . . . . . . . . . . . . . 57
11.3.3 Polynômes orthogonaux classiques . . . . . . . . . . . . . . . . . . . . . . . . . 58

12 Exercices 59
Première partie
Analyse numérique matricielle

1 Rappels sur les espaces vectoriels et les matrices


1.1 Espaces vectoriels, bases, dimension
Un espace vectoriel (ev) sur le corps K = R ou C est un ensemble non vide E (dont les éléments
s’appellent “ vecteurs”) muni
– d’une loi (opération) interne
+ : E × E → E, (x, y) 7→ x + y
commutative (x + y = y + x), associative x + (y + z) = (x + y) + z, admettant un élément neutre
0E : x + 0E = x ∀x ∈ E et tout élément x admet un opposé −x : x + (−x) = 0E , i.e. (E, +) est un
groupe commutatif,
– d’une loi (opération) externe
· : K × E → E (α, x) 7→ αx
qui a les propriétés suivantes : α(βx) = (αβ)x, α(x + y) = αx + αy, (α + β)x = αx + βx et 1 · x = x
pour tous les x, y ∈ E, α, β ∈ K.

Exemple. E = Kn avec
x = (x1 , . . . , xn ), y = (y1 , . . . , yn ) ∈ Kn , α ∈ K, x+y = (x1 +y1 , . . . , xn +yn ), α·x = (αx1 , . . . , αxn ).

Une famille E = (ei )i∈I d’un K-ev E est dite


– liée s’il existe au moins un vecteur ei qui s’exprime comme combinaison linéaire des vecteurs de la
famille, i.e. on peut trouver une partie finie {i1 , . . . , ip } 63 i de I et les scalaires α1 , . . . , αp ∈ K, tels
que
ei = α1 ei1 + · · · + αp eiP ;
– libre (on dit également que les vecteurs de cette famille sont linéairement indépendants ) si elle
n’est pas liée, autrement dit, quels que soient une famille finie d’éléments distincts (i1 , . . . , ip ) de I
et les scalaires α1 , . . . , αp ∈ K, on a
α1 ei1 + · · · + αp eip = 0E =⇒ α1 = · · · = αp = 0;
– génératrice si
(∀x ∈ E) (∃p ∈ N∗ )(∃(i1 , . . . , ip ) ∈ I p ) (∃(α1 , . . . , αp ) ∈ Kp ) : x = α1 ei1 + · · · + αp eip ;
– base si elle est libre et génératrice.
Si le K-espace vectoriel E admet une base E = (e1 , . . . , en ), alors toute autre base possède exactement
n éléments et le nombre n est dit la dimension de E, et on note dim E = n.
A noter que dans un K-ev E de dimension n :
– toute famille libre ayant n éléments est génératrice ;
– toute famille génératrice ayant n éléments est une famille libre ;
– toute famille libre possède au plus n éléments ;
– toute famille génératrice possède au moins n éléments ;
– toute famille libre peut être complétée en une base ;
– de toute famille génératrice on peut extraire une base.
Si dans un K-ev il existe une famille libre infinie, on dit que l’espace est de dimension infinie.

1
1.2 Sous-espace vectoriel, somme de sous-espaces, somme directe
Une partie non vide E 0 du K-ev E est dite sous-espace vectoriel (sev) de E si elle est stable pour les
deux lois :
∀x, y ∈ E 0 , ∀α ∈ K : x + y ∈ E 0 , αx ∈ E 0 .
Dans ce cas E 0 est un K-ev avec les lois induites par celles de E.
Si A et B sont deux parties de E, on note A + B = {a + b| a ∈ A, b ∈ B} la partie de E appelée
somme (algébrique) de A et B.
Exercice 1. 1. Soient F et G deux sous espaces vectoriels de E. Alors :
(a) F + G est un sev de E ;
(b) F ∩ G est un sev de E ;
(c) Si de plus F et G sont de dimension finie, on a la formule de Grassmann :

dim(F + G) = dim F + dim G − dim(F ∩ G).


\
2. Si (Fi )i∈I est une famille de sev de E, alors Fi est un sev de E.
i∈I

Soit A une partie non vide de E. L’intersection de la famille de tous les sous-espaces de E contenant
A est le plus petit (au sens de l’inclusion) sev de E contenant A (exercice). On le note Vect (A) et
on l’appelle le sous-espace vectoriel engendré par A. Tout élément x ∈ Vect (A) s’exprime comme
une combinaisons linéaire des éléments de A. Plus exactement, Vect (A) est l’ensemble de toutes les
combinaisons linéaires des éléments de A.
Exercice 2. Soient F et G deux sev de E. Montrer que

Vect (F ∪ G) = F + G.

Soient F et G deux sev de E. Si F ∩ G = {0E }, on dit que la somme F + G est directe et on la note
par F ⊕ G.
Exercice 3. Soient F et G deux sous espaces vectoriels de E. Les assertions suivantes sont équivalentes :
(i) F + G = F ⊕ G.
(ii) Pour tout x ∈ F + G il existe un couple unique (y, z) ∈ F × G tel que x = y + z.

On dit que les sous-espaces F et G sont supplémentaires (ou que G est un supplément de F ) lorsque

E = F ⊕ G.

Exercice 4. Soient F et G deux sev supplémentaires de E. Montrer que, si F = (f1 , . . . , fp ) est une base
de F et G = (g1 , . . . , gq ) est une base de G, alors (f1 , . . . , fp , g1 , . . . , gq ) est une base de E.

Exercice 5. (Généralisation) Soit E1 , . . . , El des sous-espaces vectoriels de E tels que E = E1 +


. . . + El (i.e. pour tout vecteur x ∈ E, il existe les vecteurs ei ∈ Ei tels que x = e1 + . . . + el ). Les
affirmations suivantes sont équivalentes :

(i) La décomposition x = e1 + . . . + el est unique pour tout x ∈ E.


(ii) La décomposition de 0 = e1 + . . . + el est unique (autrement dit e1 + . . . + el = 0, ei ∈ Ei (i =
1, . . . , l) =⇒ ei = 0 ∀i).

2
(iii) Si Ei = (ei1 , . . . , eimi ) est une base de Ei (i = 1, . . . , l) alors la famille obtenue par concaténation
l
]
E= (e11 , . . . , e1m1 , e21 , . . . , e2m2 , . . . , el1 , . . . , elml ) := Ei
i=1

est une base de E.

Si les (une des) conditions de l’exercice précédent sont (est) vérifiées (vérifiée) on dit que E est somme
directe de Ei et on écrit
M l
E = E1 ⊕ · · · ⊕ El = Ei .
i=1

1.3 Applications linéaires et matrices


Soient E, F deux ev sur le même corps K. Une application f : E → F est dite linéaire si
∀x, y ∈ E : f (x + y) = f (x) + f (y)
∀α ∈ K, ∀x ∈ E : f (αx) = αf (x).
L’ensemble des applications linéaires de E dans F sera noté L (E, F ) et il est un K espace vectoriel
avec les lois
(f, g) 7→ f + g : (f + g)(x) = f (x) + g(x) ∀x ∈ E
(α, f ) 7→ α · f : (α · f )(x) = α · f (x) ∀x ∈ E.
Tous les espaces considérés dans ce chapitre seront de dimension finie.
Soit E = (e1 , . . . , en ) une base de E. Si x ∈ E, il existe les nombres α1 , . . . , αn uniques tels que
x = α1 e1 + · · · + αn en . On dit que  
α1
xE =  ... 
 

αn
est la matrice de x dans la base E.
Soit g ∈ L (E, F ) et soient E = (e1 , . . . , en ) une base de E et F = (f1 , . . . , fk ) une base de F . La
matrice A = gE,F représentant g dans les bases E, F est le tableau rectangulaire k × n
 
a11 a12 . . . a1n
 a21 a22 . . . a2n  X k
A = (aij ) =  . défini par g(ej ) = aij fi , j = 1, . . . , n.
 
.. .. 
 .. . .  i=1
ak1 ak2 . . . akn

De plus, si y = g(x) alors on a


yF = AxE .
Si on se fixe les bases E et F, alors la correspondance g 7→ A est linéaire et bijective de L (E, F ) dans
l’espace vectoriel des matrices de type k × n (qui est un espace vectoriel de dimension k × n identifié
avec Kk×n ) et qui sera noté Mk,n (K) (ou tout simplement Mk,n ). Donc on peut (avec des bases fixées)
identifier une application linéaire à une matrice (ou vice versa).

A noter que si A représente la matrice de g ∈ L (E, F ) dans la base E de E et F de F , et si B


représente l’application h ∈ L (F, G) dans la base F de F et la base G du K-ev G, alors

B · A représente l’application composée h ◦ g

3
1.3.1 Changement de base
Lorsque F = E, la matrice carrée(i) P = (pij ) ∈ Mn représentant g = idE : E → E définie par
x 7→ g(x) = x dans les bases F = (f1 , . . . , fn ) et E = (e1 , . . . , en ) de E est la matrice de changement
(ou de passage) de la base E en la base F et vérifie donc
n
X
fj = pij ei ∀j = 1, . . . , n.
i=1

Si x ∈ E alors
xE = P xF , xF = P −1 xE
où P −1 est la matrice inverse de P et représente l’application réciproque g −1 c’est-à-dire la matrice
de changement de la base F en la base E.
Enfin, soient g ∈ L (E, F ), E, E0 deux bases de E et F, F0 deux bases de F . Alors, si P est la matrice
de changement de la base E en la base E0 et Q la matrice de changement de la base F en la base F0 ,
et si G est la matrice représentant g dans les bases E, F alors

G0 = Q−1 GP

est la matrice représentant g dans les nouvelles bases E0 , F0 .


Dans le cas particulier où g est définie de E dans E (on dit que g est un endomorphisme et on note
L (E) = L (E; E) la K-algèbre(ii) d’endomorphismes de E) la matrice G représentant g dans E est
liée à la matrice G0 représentant g dans E0 par

G0 = P −1 GP.

Dans ce cas on dit que G0 est semblable à G.

1.3.2 Image, noyau et théorème du rang


Soit g ∈ L (E, F ) et A la matrice (supposée de type k × n, autrement dit on a dim E = n, dim F = k)
représentant g dans les bases E de E et F de F .

– L’image de g (ou de A) est le sous espace vectoriel de F (ou de Kk en identifiant Kk = Mk,1 (K))
défini par

Im (g) = {g(x)| x ∈ E} = {y ∈ F |∃x ∈ E : y = g(x)} Im (A) = {v ∈ Kk | ∃u ∈ Kn : v = Au}.

En particulier, l’équation Ax = b admet au moins une solution si et seulement si (ssi) b ∈ Im (A).

– Le rang de A (ou de g) est le nombre

rg (A) = dim Im (A) = dim Im (g) = rg (g).

et représente le nombre maximum des vecteurs colonnes de A linéairement indépendants.


– Le noyau de A (ou de g) est le sous-espace vectoriel de Kn (ou de E) défini par

ker(A) = {u ∈ Kn | Au = 0} ker(g) = {x ∈ E| g(x) = 0F }.


(i)
On note Mn (K) = Mn,n (K) l’ensemble des matrices carrées de type n × n. A se rappeler que cet ensemble muni
avec les lois internes “ somme” et “ produit” de deux matrices, ainsi qu’avec le produit d’une matrice par un scalaire, a
une structure de K-algèbre.
(ii)
En considérant les lois internes la somme et la composition de deux endomorphismes, et la loi externe donnée par le
produit d’un endomorphisme avec un scalaire.

4
On a rg (g) + dim ker(g) = n rg (A) + dim ker(A) = n

Exercice 6. Montrer que


1. g est surjective ⇐⇒ im (g) = F ⇐⇒ rg (g) = k.
2. g est injective ⇐⇒ ker(g) = {0E }.

1.3.3 Matrice transposée et matrice adjointe


Soit A = (aij ) ∈ Mp,n (K) une matrice de type p × n. Alors la matrice t A = (t aij ) ∈ Mn,p (K) avec
t a = a , i = 1, . . . , n; j = 1, . . . , p est dite la matrice transposée de A (dans la littérature anglo-
ij ji
américaine elle est notée par AT ).
Lorsque K = C, on pose Ā = (āij ) la matrice conjuguée (dont les éléments sont les conjugués complexes
des éléments de A). Alors la matrice adjointe de A, notée A∗ , est donnée par

A∗ = t (Ā)

Évidemment, si A ∈ Mp,n (R) alors A∗ = t A et réciproquement, si A∗ = t A alors la matrice A est réelle.

Une matrice carrée A sera dite :


– hermitienne si A∗ = A
– symétrique si tA =A
Exercice 7. Montrer les propriétés suivantes (A et B sont des matrices, α ∈ K) :
1. le passage à la matrice transposée est linéaire i.e. t (A + B) = t A + t B; t (αA) = αt A
2. t (t A) =A
3. t (AB) = tB · tA

4. t (A−1 ) = (t A)−1 pour les matrices carrées seulement


5. le passage à la matrice adjointe est antilinéaire i.e. (A + B)∗ = A∗ + B ∗ ; (αA)∗ = ᾱA∗
6. (A∗ )∗ = A
7. (AB)∗ = B ∗ A∗

8. (A−1 )∗ = (A∗ )−1 pour les matrices carrées seulement.

1.3.4 La trace d’une matrice carrée


On définit la trace d’une matrice carrée A = (aij ) ∈ Mn (K) par :
n
X
tr (A) = aii .
i=1

Exercice 8. Montrer les propriétés suivantes de la trace (A et B sont des matrice, α ∈ K) :


1. tr (A + αB) = tr (A) + αtr (B) (linéarité) ;
2. tr (AB) = tr (BA)
3. tr (t A) = tr (A);
4. tr (A∗ ) = tr (A) ;
5. si A et B sont semblables alors tr (A) = tr (B).

5
1.3.5 Matrice de permutation
Une permutation σ est une application bijective de l’ensemble {1, . . . , n} dans lui-même. Donc cela
revient à réordonner les nombres 1, . . . , n.
On associe à σ l’endomorphisme g ∈ L (Kn , Kn ) défini par

g(ei ) = eσ(i) i = 1, . . . , n

où (e1 , . . . , en ) est une base de Kn .


La matrice P qui représente g dans cette base est appelée matrice de permutation.

Exercice 9. Soit P une matrice de permutation. Montrer que P est une matrice orthogonale, i.e.

P −1 = t P .

Indication. Montrer que pij = δiσ(j) et calculer t P P .

Une permutation élémentaire ou transposition est une permutation σ telle qu’il existe deux éléments
distincts i et j vérifiant σ(i) = j, σ(j) = i et pour tout k 6= i, j on a σ(k) = k. Sa matrice Pij s’obtient
en permutant les colonnes i et j de la matrice unité In . Il résulte que Pij = t Pij donc Pij−1 = Pij .
Si l’on multiplie à gauche une matrice A par une matrice de permutation, on permute les lignes de A.
Par contre, si on multiplie à droite la matrice A par une matrice de permutation P, on permute les
colonnes de A selon σ −1 .

1.3.6 Transformations élémentaires et les matrices watsoniennes(ii)


Il existe trois types de transformations élémentaires sur les lignes d’une matrice A ∈ Mp,n (R), à
savoir
(a) permutation des lignes i et j et on écrira

Li ↔ Lj

(b) multiplication de la ligne i par un nombre non nul α ∈ R :

Li ← αLi

(c) l’addition à la ligne i de la ligne j multipliée par α ∈ R :

Li ← Li + αLj .

Définition 1. Soient :
– Hij la matrice obtenue en appliquant la transformation Li ↔ Lj à la matrice unité Ip
– Hi (α) la matrice obtenue en appliquant la transformation Li ← αLi à la matrice unité Ip (avec
α 6= 0)
– Hij (α) la matrice obtenue en appliquant la transformation Li ← Li + αLj à la matrice unité Ip .
Théorème 1. Les matrices Hij , Hi (α) et Hij (α) sont inversibles et chaque transformation élémentaire
(a), (b), (c) appliquée à la matrice A peut être réalisée en multipliant à gauche la matrice A par la
matrice watsonienne correspondante. Par exemple la matrice A0 = Hij (α)A est la matrice obtenue de
A en faisant Li ← Li + αLj .
Démonstration. Un bon exercice (facile !) pour ceux qui apprécient les matrices !
(iii)
L’appellation “watsonien” vient de Dr. Watson liée à la notion “élémentaire” et a été introduite par Pierre Brondeau

6
1.3.7 Déterminant d’une matrice carrée
On appelle déterminant de la matrice carrée A = (aij ) le nombre
X
det(A) = ε(σ) · a1σ(1) · · · anσ(n)
σ∈Sn
où Sn est l’ensemble des n! permutations de {1, . . . , n} et ε(σ) est la signature de σ et elle vaut
1 si σ se décompose en un produit d’un nombre pair de permutations élémentaires, −1 sinon. En
écrivant A = [A1 A2 . . . An ] avec Aj ∈ Kn la colonne j de la matrice A, on rappelle que l’applica-
tion (A1 , . . . , An ) 7→ det(A1 , . . . , An ) est multilinéaire de (Kn )n dans K, i.e. pour tous les j ∈ [[1, n]],
α ∈ K, (A1 , . . . , An ) ∈ (Kn )n , A0j ∈ Kn , on a

det(A1 , . . . , Aj + αA0j , Aj+1 , . . . , An ) = det(A1 , . . . , Aj , . . . , An ) + α det(A1 , . . . , A0j , . . . , An ).


On rappelle les propriétés suivantes :
det(In ) = 1

det(A) = det(t A)

det(Ā) = det(A), det(A∗ ) = det(A)

det(αA) = αn det(A)

det(AB) = det A · det B

1
det(A−1 ) = si A est inversible.
det(A)

la matrice A est inversible (ou régulière ) ⇐⇒ det(A) 6= 0

Lorsque det(A) = 0 on dit que A est singulière.

L’équation Ax = b admet une solution unique pour chaque b ∈ Kn ⇐⇒ det(A) 6= 0, et alors x = A−1 b

On propose comme exercice de montrer que deux matrices semblables ont le même déterminant.

1.4 Produit scalaire, l’espace euclidien Rn et l’espace hermitien Cn


n
Sauf la  du contraire, on va identifier un vecteur x = (x1 , . . . , xn ) ∈ K avec sa matrice colonne
 mention
x1
 .. 
xE =  .  dans la base canonique E.
xn
On définit le produit scalaire canonique de deux vecteurs x = (x1 , . . . , xn ), y = (y1 , . . . , yn ) ∈ Kn par
n
X
hx, yin = xi ȳi = y ∗ · x = x∗ · y
i=1

Quand il n’y a pas de confusion on notera tout simplement hx, yi au lieu de hx, yin . On obtient donc
une application h·, ·i : Kn × Kn → K dite produit scalaire hermitien si K = C, euclidien si K = R,
vérifiant les propriétés suivantes quels que soient x, y, z ∈ Kn , α ∈ K :

7
(PS1) hx, yi = hy, xi (symétrie hermitienne) ;
(PS2) hαx + y, zi = αhx, zi + hy, zi (linéarité dans le premier argument) ;
(PS3) hx, xi > 0, hx, xi = 0 ⇐⇒ x = 0E (la forme quadratique associée est définie positive.
Bien évidemment, si K = R on peut omettre la barre dans la propriété (PS1), car elle n’a aucun effet.
A noter que (PS1) et (PS2) impliquent la semi-linéarité (ou anti-linéarité) dans le second argument,
i.e. hx, αy + zi = ᾱhx, yi + hx, zi. A noter également que la propriété (PS1) entraı̂ne que hx, xi est un
réel pour tout x.

En général, un K-espace vectoriel E de dimension finie muni d’un produit scalaire (i.e. d’une ap-
plication h·, ·i : E × E → K vérifiant (PS1), (PS2) et (PS3)) sera dit espace hermitien si K = C, et
espace euclidien si K = R. Un K-ev de dimension infinie sera dit espace préhilbertien.

Exercice 10. Donner une explication pourquoi il est nécessaire de considérer le conjugué complexe dans
la propriété (PS1) lorsque K = C ?

Exercice 11. Soit E un C-espace préhilbertien.


1. Montrer l’inégalité de Cauchy-Schwarz :
p p
∀x, y ∈ E, |hx, yi| 6 hx, xi hy, yi.

Indication. Considérer un réel θ pour que eiθ hx, yi = |hx, yi| et utiliser 0 6 heiθ x − y, eiθ x − yi = . . . Ensuite, dans
p p
l’inégalité obtenue, remplacer x par x/ hx, xi et y par y/ hy, yi...
p
2. En déduire que l’application x 7→ kxk := hx, xi est une norme sur E, i.e. elle vérifie pour tout
x, y ∈ E, α ∈ K,
(N1) kαxk = |α| · kxk;
(N2) kx + yk 6 kxk + kyk;
(N3) kxk > 0, kxk = 0 ⇐⇒ x = 0E .

Exercice 12. Soit E un C-espace préhilbertien. Montrer que, pour tout (x, y) ∈ E 2 et α ∈ C, on a :

kx + α · yk2 = kxk2 + 2<(αhx, yi) + kyk2 ;


kx + yk2 + kx − yk2 = 2(kxk2 + kyk2 ).

La norme euclidienne (resp. hermitienne) d’un vecteur x ∈ Rn (resp. x ∈ Cn ), est donc le nombre
positif
p Xn
kxk2 = hx, xi = ( |xi |2 )1/2 .
i=1

Proposition 1. Soit A ∈ Mp,n (K) une matrice rectangulaire. Alors pour tout x ∈ Kn et pour tout
y ∈ Kp on a
hAx, yip = hx, A∗ yin .

Démonstration.
hx, A∗ yin = (A∗ y)∗ x = y ∗ (A∗ )∗ x = y ∗ (Ax) = hAx, yip

Deux vecteurs x, y sont dits orthogonaux si hx, yi = 0. On écrit x ⊥ y. Si E ⊂ Kn est un ensemble on


pose E ⊥ = {x ∈ Kn | hx, yi = 0 ∀y ∈ E}.

8
Proposition 2. Soit A ∈ Mp,n (K). On a :

ker(A∗ ) = im (A)⊥ im (A∗ ) = (ker(A))⊥

Démonstration. On a
( im (A))⊥ = {y| hy, Axi = 0 ∀x ∈ Kn } = {y| hA∗ y, xi = 0 ∀x ∈ Kn } = {y| A∗ y = 0}.

La deuxième égalité repose sur le fait que si E est un sous-espace vectoriel de Kn alors (E ⊥ )⊥ = E.(iv) En effet, en
utilisant la première égalité appliquée à (A∗ )∗ on a

ker(A) = ( im (A∗ ))⊥ =⇒ (ker(A))⊥ = im (A∗ ).

1.4.1 Les matrices hermitiennes et définies positives


Lemme 1. Pour toute matrice carrée hermitienne A ∈ Mn (C) on a : hAx, xi ∈ R, ∀x ∈ Cn .
Démonstration. On a
hAx, xi = hx, A∗ xi = hx, Axi = hAx, xi.

Définition 2. Une matrice hermitienne A est dite


– définie positive si
∀x ∈ Cn , x 6= 0 =⇒ hAx, xi > 0.
– positive si
hAx, xi > 0 ∀x ∈ Cn .

Remarque 1. Soit A une matrice rectangulaire. Alors les matrices A∗ A et AA∗ sont hermitiennes
car (A∗ A)∗ = A∗ (A∗ )∗ = A∗ A et (AA∗ )∗ = (A∗ )∗ A∗ = AA∗ . De plus A∗ A et AA∗ sont semi définies
positives car :
(1) hA∗ Ax, xi = hAx, Axi = kAxk2 > 0
et l’autre s’obtient en remplaçant A par A∗ dans la précédente.
La relation (1) entraı̂ne aussi que, si ker A = {0} (i.e. l’application associée à A est injective), alors
A∗ A est positive définie.

Proposition 3. Les sous matrices principales d’une matrice hermitienne et définie positive sont her-
mitiennes et définies positives. Les éléments diagonaux de A sont strictement positifs.
Démonstration. Exercice (considérer x = (x1 , . . . , xk , 0, . . . , 0), k < n pour les sous matrices principales et les
vecteurs de la base canonique pour les éléments diagonaux).

1.4.2 Matrices orthogonales et unitaires


Définition 3. Une matrice Q ∈ Mp,n (C) (avec p > n) est dite unitaire si les colonnes de Q sont
des vecteurs orthogonaux deux à deux et de norme unité, c’est-à-dire si

Q∗ Q = In .
(iv)
La démonstration de cette propriété peut être obtenue en utilisant la projection orthogonale sur E. L’inclusion E ⊂
(E ⊥ )⊥ étant évidente, il suffit de montrer l’autre inclusion. Soit x ∈ (E ⊥ )⊥ . Soit x0 la projection orthogonale de x sur E.
Comme (x−x0 ) ⊥ E on a que x ⊥ (x−x0 ), et d’après Pythagore, kxk2 > kx0 k2 = kx−(x−x0 )k2 = kxk2 +kx−x0 k2 > kxk2
d’où kx − x0 k = 0. Donc x = x0 ∈ E.

9
Lemme 2. Soit la matrice Q ∈ Mp,n (C) (avec p > n). Alors

Q est unitaire ⇐⇒ (∀x ∈ Cn ) kQxk2 = kxk2 .(v)

Démonstration. Soit Q unitaire. Pour tout x ∈ Cn on a


kQxk22 = hQx, Qxip = hx, Q∗ Qxin = hx, xin = kxk22 .

Réciproquement, soit Q une isométrie. On a pour tout x, y ∈ Cn ,

kx + yk22 = kQ(x + y)k22 = kQx + Qyk22 = kQxk22 + 2<hQx, Qyip + kQyk22 .

Il résulte que
<hx, yin = <hQx, Qyip ,
d’où
<(hx, y − Q∗ Qyin ) = <(hx, yin − hx, Q∗ Qyin ) = 0.
En prenant x = y − Q Qy, on obtient Q∗ Qy = y.

Lemme 3. Le produit de deux matrices unitaires est une matrice unitaire.


Démonstration. (Q2 Q1 )∗ (Q2 Q1 ) = Q∗1 Q∗2 Q2 Q1 = Q∗1 IQ1 = I.
Lemme 4. Une matrice carrée est unitaire ⇐⇒ Q−1 = Q∗ .

Démonstration. Pour une matrice carrée unitaire on a Q∗ Q = I donc det(Q∗ ) det(Q) = 1 donc Q est inversible et
Q∗ = Q−1 .
Réciproquement, si Q∗ = Q−1 alors Q∗ Q = I donc Q est unitaire.

De la démonstration précédente on déduit immédiatement le


Lemme 5. Le déterminant d’une matrice carrée unitaire a le module égal à 1.
Une matrice orthogonale est une matrice unitaire réelle. Donc la matrice réelle A ∈ Mp,n (R) est
orthogonale ssi
t
AA = In .

1.4.3 Matrice normale


Une matrice carrée A ∈ Mn (K) est dite normale si A∗ A = AA∗ .
On obtient immédiatement que :
1. Toute matrice hermitienne est normale.
2. Toute matrice réelle symétrique est normale.
3. Toute matrice carrée unitaire est normale.
4. Toute matrice carrée orthogonale est normale.

1.4.4 Projecteurs
Soit E, F deux sous-espace vectoriels de Kn tels que

Kn = E ⊕ F.

Cela veut dire que tout vecteur x ∈ Kn s’écrit d’une manière unique comme x = x1 + x2 avec
x1 ∈ E, x2 ∈ F . L’application f : x 7→ x1 est linéaire et s’appelle projection sur E parallèlement à F .
A noter que f ◦ f = f . Si E ⊥ F on appelle f projection orthogonale sur E. Il est clair que E = im f ,
F = ker(f ). Montrons que la réciproque est valable aussi.
(v)
i.e. Q est une isométrie.

10
Définition 4. On appelle matrice de projection, toute matrice carrée P telle que P 2 = P.
Proposition 4. Soit P un projecteur. Alors la matrice Q = I − P est aussi un projecteur appelé
projecteur supplémentaire à P . De plus

im (Q) = ker(P ), im (P ) = ker(Q)

et
Kn = im P ⊕ ker P.
(on dit que P est une projection sur im (P ) parallèlement à ker P )
Démonstration. On a Q2 = I 2 − 2P + P 2 = I − 2P + P = I − P = Q.
y ∈ im (Q) =⇒ ∃x : y = x − P x =⇒ P y = P x − P 2 x =⇒ y ∈ ker(P )

y ∈ ker(P ) =⇒ y = y − P y =⇒ y = Qy =⇒ y ∈ im (Q).
im (P ) = ker(Q) car on peut utiliser l’égalité précédente en observant que Q = I − P , et en permutant P et Q.
Soit x ∈ Kn . Évidemment x = P x + (x − P x) = P x + Qx = x1 + x2 avec x1 ∈ im (P ) et x2 ∈ ker(P ). Si x = x01 + x02
avec x01 ∈ im (P ) et x02 ∈ ker(P ) alors y = x1 − x01 = x02 − x2 ∈ im (P ) ∩ ker(P ) Donc y = P z et P y = 0, d’où P 2 z = 0,
et finalement P z = 0. Donc y = 0 ce qui entraı̂ne l’unicité de l’écriture.

Théorème 2. Soit P la matrice d’une projection orthogonale (i.e. P 2 = P et im (P ) = ker(P )⊥ ).


Alors on a
(i) (x − P x) ⊥ im (P ) ∀x ∈ Kn

(ii) kP xk2 6 kxk2 ∀x ∈ Kn

(iii) kx − P xk2 = min kx − yk2 .


y∈ im (P )

Démonstration. (i) est immédiat grâce à la proposition précédente et au fait que ker(P ) = im (P )⊥ . En particulier
on a x − P x ⊥ P x c’est-à-dire hx, P xi = kP xk22 et il suffit d’appliquer l’inégalité de Cauchy-Schwarz pour obtenir (ii).
Pour tout y ∈ im (P ) on a

0 6 kP x − yk22 = kP x − yk22 + 2hx − P x, P x − yi = k(P x − y) + (x − P x)k22 − kx − P xk22 = kx − yk22 − kx − P xk22 .

1.5 Valeurs propres, vecteurs propres


Soit A ∈ Mn (K) une matrice carrée. On appelle :
– valeur propre de A un nombre λ ∈ K tel qu’il existe un vecteur v ∈ Kn non nul tel que

(2) Av = λv.

– vecteur propre associée à λ, le vecteur v vérifiant (2).


– espace propre l’ensemble Eλ formé par 0 et les vecteurs propres associés à une valeur propre fixée
λ. Il est un sous-espace vectoriel car Eλ = ker(A − λIn ).
– spectre de A l’ensemble des valeurs propres de la matrice A et il sera noté Sp (A).
– rayon spectral de A le nombre %(A) = max{|λ| : λ ∈ Sp (A)}.
– polynôme caractéristique de la matrice A le polynôme de degré n

PA (λ) = det(A − λIn ) .

Comme les sous-espaces propres ne sont pas réduits à {0} on a que

[λ ∈ K est une valeur propre de A] ⇐⇒ [A − λIn n’est pas inversible]

11
d’où on déduit que :

Sp (A) coı̈ncide avec l’ensemble des racines (dans K) de PA .

Exercice 13. Soient A et B deux matrices carrées semblables. Montrer que pA (λ) = pB (λ).
Proposition 5. Soit A ∈ Mn (C) une matrice hermitienne. Alors
Sp (A) ⊂ R.
Démonstration. Soit λ ∈ Sp (A) et v ∈ Eλ \ {0}. On a
λhv, vi = hλ · v, vi = hAv, vi = hv, Avi = λ̄hv, vi,
d’où λ = λ̄ (car hv, vi > 0). Donc λ ∈ R.

Comme toute matrice réelle symétrique est hermitienne, on obtient directement le résultat suivant.
Corollaire 1. Si A ∈ Mn (R) est une matrice symétrique, alors toutes les racines (dans C) du
polynôme caractéristique sont réelles, autrement dit le polynôme caractéristique est scindé sur
R (voir ci-dessous la définition 6).
Proposition 6. Soit A une matrice carrée unitaire (en particulier orthogonale ). Alors tous les
éléments de son spectre sont de module 1.
Démonstration. Soit λ ∈ Sp (A) et v ∈ Eλ \ {0}. On a
kvk22 = hv, A∗ Avi = hAv, Avi = hλv, λvi = |λ|2 kvk22

1.6 Réduction des matrices


Définition 5. Une matrice carrée A est dite diagonalisable (resp. trigonalisable) si elle est semblable
à une matrice diagonale D, (resp. une matrice triangulaire(vi) T ) i.e. il existe une matrice régulière
P telle que D = P −1 AP (resp. T = P −1 AP ).
Remarque 2. La définition précédente s’applique également aux endomorphismes, i.e. un endomor-
phisme est diagonalisable (resp. trigonalisable) s’il existe une base dans laquelle sa matrice est diago-
nale (resp. triangulaire).
Exercice 14. Montrer que la matrice carrée A ∈ Mn (K) est diagonalisable ⇐⇒ il existe une base de Kn
formée des vecteurs propres de A.
Dans ce cas, montrer que la matrice diagonale D semblable à A est donnée par D = diag (λ1 , . . . , λn ), où
λ1 , . . . , λn sont les valeurs propres de A (comptées avec leurs multiplicités dans le polynôme caractéristique).

Définition 6. Un polynôme p ∈ K[X] de degré k > 1 est dit scindé s’il est un produit des polynômes
de premier degré. Donc
Yk Y l
p(X) = c (X − αi ) = c (X − βj )mj
i=1 j=1

avec c, αi et βj des scalaires (éléments de K) et {β1 , . . . , βl } = {α1 , . . . , αk }, (l = Card {α1 , . . . , αk } 6


k) les racines de p, avec leurs multiplicités mj = Card ({i ∈ {1, . . . , k| αi = βj }), m1 + . . . + ml = k. A
noter que β1 , . . . , βl sont les racines distinctes de p, tandis que α1 , . . . , αk sont les racines de p comptées
avec leurs multiplicités.
(vi)
Une matrice carrée T = (tij ) est dite triangulaire supérieure si tij = 0 pour i > j, et triangulaire inférieure si
tij = 0 pour i < j.

12
Remarque 3. Tout polynôme p de C[X] de degré > 1 est scindé (selon le théorème de
d’Alembert-Gauss).
Proposition 7. Si la matrice A est trigonalisable (en particulier diagonalisable) alors son polynôme
caractéristique pA est scindé.
Démonstration. Soit  
t11 t12 ... t1n
 0 t22 ... t2n 
T =
 
.. .. .. .. 
 . . . . 
0 0 ... tnn
une matrice triangulaire (pour fixer les idées disons “ supérieure”) semblable à la matrice A.
On a
t11 − X

t12 ... t1n

0 t 22 − X . . . t2n
Y n
pT (X) = pA (X) = = (tii − X),

.. .. ..

. . ... .
i=1
0 0 . . . tnn − X
qui évidemment est scindé.

Exercice 15. Soit A ∈ Mn (K), k ∈ N∗ et {λ1 , . . . , λk } ⊂ Sp (A) avec (λi 6= λj pour i 6= j). Alors, quel
que soient les vecteurs ei ∈ Eλi \ {0} on a que la famille (e1 , . . . , ek ) est libre.
Indication. Preuve par récurrence selon k.

Exercice 16. Soit A ∈ Mn (K), k ∈ N∗ et {λ1 , . . . , λk } ⊂ Sp (A) avec (λi 6= λj pour i 6= j). Alors la
somme Eλ1 + · · · + Eλk est directe.
Indication. Utiliser l’exercice précédent et l’exercice 5.

Proposition 8. Soit A ∈ Mn (K) et λ ∈ Sp (A) une racine du polynôme caractéristique ayant la


multiplicité m ∈ N∗ (autrement dit pA (X) = (X − λ)m q(X) avec q(X) ∈ K[X] un polynôme tel que
q(λ) 6= 0). Alors
dim Eλ 6 m
i.e., la dimension d’un sous-espace propre est au plus égale à la multiplicité de la valeur propre dans
le polynôme caractéristique.
Démonstration. Soit k = dim Eλ , et soit (e1 , . . . , ek ) une base de Eλ . En complétant cette famille libre en une base
E = (e1 , . . . , ek , ek+1 , . . . , en ) de Kn , et en posant P = [e1 . . . en ] on obtient que la matrice A0 = P −1 AP est donnée par
(∗ signifie un nombre quelconque et on a n − k colonnes marquées avec ∗) :
 
λ 0 ∗ ... ∗
 .. .. .. 

 . . .  
 0
 λ ∗ . . . ∗ 

A0 = 
 .. .. .. 
. . . 


0 ∗ ... ∗ 
 
 0
.. .. 
 

 . . 
0 0 ∗ ... ∗

et donc on a pA (X) = pA0 (X) = (λ − X)k r(X) avec r(X) ∈ K[X]. En utilisant la définition de la multiplicité d’une
racine on déduit que m > k.

Théorème 3. (Caractérisation des matrices diagonalisables) La matrice A ∈ Mn (K) est


diagonalisable ⇐⇒ son polynôme caractéristique pA (X) est scindé sur K[X] et, pour toute valeur
propre λ ∈ Sp (A), on a

dim Eλ = la multiplicité de la racine λ dans pA (X).

13
Démonstration. Soit A diagonalisable. Considérons une base E de E formée par des vecteurs propres de A, et
en posant P = [e1 . . . en ] la matrice de passage de la base canonique à la base des vecteurs propres, on a D =
n
Y k
Y
P −1 AP = diag (α1 , . . . , αn ). Donc pD (X) = pA (X) = (−1)n (X − αj ) = (−1)n (X − λi )mi où λ1 , . . . , λk sont
j=1 i=1
distinctes deux à deux donc k = Card {α1 , . . . , αn }, et {λ1 , . . . , λk } = {α1 , . . . , αn } = Sp (A). Le nombre mi représente
la multiplicité de λi dans pA (X). On peut supposer (quitte à faire une permutation de la famille (β1 , . . . , βn )) que
β1 = · · · = βm1 = λ1 , βm1 +1 = · · · = βm1 +m2 = λ2 , . . . , βm1 +···+mk−1 +1 = · · · = βm1 +···+mk−1 +mk = λk . On a
m1 + · · · + mk = n. Alors on peut écrire E = (e11 , . . . , e1m1 , e21 , . . . , e2m2 , . . . , ek1 , . . . , ekmk ), avec eij ∈ Eλi , j = 1, . . . , mi .
Comme E est libre, on a que Ei = (ei1 , . . . , eimi ) est libre dans Eλi , donc dim Eλi > mi . En utilisant la proposition 8 on
a dim Eλi 6 mi , ce qui prove finalement que dim Eλi = mi .
k
Y
Réciproquement, soit Sp (A) = {λ1 , . . . , λk }, (avec λi 6= λj si i 6= j) et pA (X) scindé donc pA (X) = (−1)n (X − λi )mi ,
i=1
k
M
avec m1 + . . . + mk = n. Grâce à l’exercice 16 on a que la somme Eλ1 + · · · + Eλk est directe et posons F = Ei .
i=1
On a que F est un sous-espace vectoriel de E et dim F = m1 + . . . + mk = n. Donc F = E. Soit Ei une base de Ei
k
]
(i = 1, . . . , k). Alors conformément à l’exercice 5, la famille E = Ei est une base de E et évidemment elle est formée
i=1
par des vecteurs propres de A.

Corollaire 2. (Condition suffisante de diagonalisabilité) Soit A ∈ Mn (K) telle que que


pA (X) admette n racines distinctes (donc n racines simples !). Alors A est diagonalisable.
Démonstration. Soit {λ1 , . . . , λn } = Sp (u). Comme les racines sont simples (de multiplicité 1) on a, grâce à la
proposition 8, que dim Eλi 6 1 pour tous les i = 1, . . . , n. D’autre part, d’après la définition d’un sous-espace propre, il
existe x non nul, x ∈ Eλi . Alors dim Eλi > 1, ce qui prove que dim Eλi = 1, donc on peut utiliser le théorème précédent.

On peut
 constater
 facilement qu’il existe des matrices non diagonalisables. Par exemple, la matrice
1 1
A = a le spectre Sp (A) = {1}, le polynôme caractéristique pA (X) = (1 − X)2 ayant la
0 1
racine double 1 est scindé sur R, mais dim E1 = 1 < 2, donc d’après le théorème 3, A n’est pas
diagonalisable.
Le résultat suivant montre que toute matrice carrée de polynôme caractéristique scindé est
trigonalisable via une matrice unitaire. Plus précisément on a le théorème suivant.

Théorème 4. Soit A ∈ Mn (K) avec pA scindé sur K. Alors A est trigonalisable.


De plus, il existe une matrice U unitaire si K = C (resp. orthogonale si K = R) telle que U ∗ AU = T
(resp. t U AU = T ) avec T matrice triangulaire.
Démonstration. On démontrera que A est trigonalisable par récurrence selon n = dim(E). Notons u ∈ L (E)
l’endomorphisme de E = Kn canoniquement associé à la matrice A, i.e. A représente la matrice de u dans la base
canonique de Kn . Si n = 1, u est trigonalisable dans toute base.
Supposons maintenant que tout endomorphisme d’un K-espace vectoriel de dimension n − 1 (avec n > 2) ayant le
polynôme caractéristique scindé est trigonalisable. Soit u ∈ L (E) avec pu (X) scindé et dim(E) = n. Soit λ1 ∈ K
une racine de pu (dont l’existence est garantie par le fait que pu est scindé). Donc λ1 est une valeur propre de u et
considérons un vecteur propre e1 associé à λ1 . Complétons la famille libre (e1 ) en une base E = (e1 , e2 , . . . , en ) de E. Soit
F = Vect ({e1 }) et G = Vect ({e2 , . . . , en }), donc E = F ⊕ G. Considérons le projecteur p ∈ L (E) sur G parallèlement
à F , i.e. si x ∈ E s’écrit x = y + z avec y ∈ F et z ∈ G, alors p(x) = z. Soit v = p ◦ u. Comme im (v) ⊂ im (p) = G il
P par v. Notons w ∈ L (G) la restriction de v à G. Comme u(e1 ) = λ1 e1 et il existe
résulte que le sous-espace G est stable
les nombres αij tels que u(ej ) = n i=1 αij ei (j > 2), on a
 
λ1 α12 . . . α1n
 0 α22 . . . α2n 
A0 := uE =  . ..  .
 
..
 .. . ... . 
0 αn2 ... αnn

14
D’autre part, v(e1 ) = 0 et w(ej ) = v(ej ) = n
P
i=2 αij ei si j > 2, donc
 
0 0 ... 0  
 0 α22 . . . α2n  α22 ... α2n
 . .. 
vE =  . B := wE0 =  ..
 
.. ..  ... . 
 .. . ... . 
αn2 ... αnn
0 αn2 . . . αnn

où E0 = (e2 , . . . , en ). On constate (en développant det(A0 − X · In ) suivant la première colonne) que pu (X) = pA0 (X) =
det(A0 − X · In ) = (λ1 − X) det(B − X · In−1 ) = (λ1 − X)pB (X) = (λ1 − X)pw (X). Comme pu (X) est scindé, il
résulte que pw (X) est scindé. D’après l’hypothèse de récurrence à l’ordre n − 1, il résulte que w est trigonalisable. Soit
G = (g2 , . . . , gn ) une base de G dans laquelle la matrice de w est triangulaire, donc
 
γ22 γ23 . . . γ2n
 0 γ33 . . . γ3n 
C = wG =  . ..  ,
 
 .. ..
. . 
0 0 . . . γnn

i.e. w(gj ) = ji=2 γij gi pour tous les j > 2.


P

Considérons la base B = (e1 , g2 , . . . , gn ) de E. Il existe les nombres β1j tels que u(gj ) = β1j e1 +v(gj ) = β1j e1 + ji=2 γij gi
P
pour j > 2. Comme u(e1 ) = λ1 e1 on obtient que
 
λ1 β12 . . . β1n
 0 γ22 . . . γ2n 
uB =  .
 
.. .. 
 .. . . 
0 0 . . . γnn

ce qui montre que la matrice A (i.e. l’endomorphisme associé u) est trigonalisable.


Soit maintenant F = (f1 , . . . , fn ) une base dans laquelle la matrice de u est triangulaire supérieure. Donc, uF = T 0 avec
T 0 matrice triangulaire supérieure. On suppose E = Kn muni de son produit scalaire canonique. En utilisant le procédé
de Gram-Schmidt, on construit une base orthonormale U = (u1 , . . . , un ) telle que
j
X
uj = pij fi , ∀j ∈ [[1, n]],
i=1

p11 p12 · · · p1n


 
 0 p22 · · · p2n 
autrement dit, la matrice de passage de la base F en la base U, P =  . ..  est triangulaire supérieure.
 
 .. ..
. . 
0 0 · · · pnn
La matrice T = uU de u dans la base U vérifié T = P −1 T 0 P , donc est une matrice triangulaire supérieure car l’ensemble
des matrices triangulaires supérieures de Mn (K) est une sous-algèbre, et l’inverse d’une matrice triangulaire
supérieure inversible est une matrice triangulaire supérieure (exercice !). Notons C = (c1 , . . . , cn ) la base canonique
de E = Kn , i.e. In = [c1 c2 . . . cn ], qui est également une base orthonormale de E. Comme la matrice de passage
d’une BON en une BON est unitaire si K = C, (resp. orthogonale si K = R), (exercice !) on obtient que
T = U −1 AU avec U la matrice de passage de C en U, car la matrice de u dans la base canonique est la matrice A.

Théorème 5. Soit A ∈ Mn (K) une matrice normale (A∗ A = AA∗ ). Alors il existe une matrice
unitaire carrée U telle que la matrice U ∗ AU soit diagonale. De plus, si K = R et le polynôme ca-
ractéristique de A est scindé sur R, alors la matrice U est orthogonale.
Démonstration. D’après le théorème 4, il existe une matrice unitaire carrée U (resp. orthogonale si K = R et pA
scindé sur R) telle que la matrice T = (tij ) = U ∗ AU soit triangulaire supérieure. On a

T ∗ T = (U ∗ AU )∗ U ∗ AU = U ∗ A∗ U U ∗ AU = U ∗ A∗ AU

et
T T ∗ = U ∗ AU (U ∗ AU )∗ = U ∗ AU U ∗ A∗ U = U ∗ AA∗ U = T ∗ T,
donc T est normale. Alors
n
X
|t1k |2 = (T T ∗ )11 = (T ∗ T )11 = |t11 |2 ,
k=1

15
d’où t1k = 0 pour tout k > 2. Par suite
n
X
|t2k |2 = (T T ∗ )22 = (T ∗ T )22 = |t12 |2 + |t22 |2 = |t22 |2 ,
k=2

d’où t2k = 0 pour tout k > 3, etc. Donc la matrice T est en fait diagonale.

Ce théorème entraı̂ne facilement le résultat suivant très important.

Théorème 6. Soit A ∈ Mn (K).


1. Si A est hermitienne, alors il existe une matrice unitaire U telle que U −1 AU soit une matrice
diagonale réelle.
2. Si A est unitaire, alors il existe une matrice unitaire U telle que U −1 AU soit une matrice
diagonale.
3. Si A est symétrique réelle, alors il existe une matrice orthogonale O telle que O−1 AO soit
une matrice diagonale.
4. Si A est orthogonale, alors il existe une matrice unitaire U telle que U −1 AU soit une matrice
diagonale (non nécessairement réelle !).
Démonstration. Comme toutes les matrices considérées dans le théorème sont normales, et comme le spectre
de toute matrice hermitienne (resp. symétrique réelle) est réel (voir la proposition 5 et son corollaire 1) on obtient
immédiatement les affirmations du théorème.

1.7 Normes
Une norme sur un espace vectoriel E est une application de E dans R, x 7→ kxk vérifiant les propriétés
(N1), (N2), (N3). Dans E = Kn les normes les plus utilisées sont

n
!1/p
X
p
kxkp = |xi | .
i=1

où p > 1. En particulier, pour p = 2 on trouve la norme euclidienne. En faisant p → +∞ on obtient

kxk∞ = max{|xi | : i = 1, . . . , n}.

Les valeurs les plus courantes de p sont 1, 2, ∞.

Définition 7. Une norme matricielle est une norme définie sur Mn (K) qui de plus vérifie :

kA · Bk 6 kAk · kBk.

On peut définir des normes matricielles à partir des normes des vecteurs dans Kn . Si k · k est une
norme sur Kn la norme matricielle subordonnée (ou induite) est définie par

kAk = sup kAxk.


kxk61

Proposition 9. Soit A ∈ Mn (K). On a les relations suivantes


n
X
kAk1 = max ( |aij |)
16j6n
i=1

kAk2 = (%(A∗ A))1/2 = (%(AA∗ ))1/2 = kA∗ k2

16
Xn
kAk∞ = max ( |aij |).
16i6n
j=1

La norme k · k2 est invariante par transformation unitaire :

U U ∗ = I =⇒ kAk2 = kAU k2 = kU Ak2 = kU ∗ AU k2 .

Si A est normale :

AA∗ = A∗ A =⇒ kAk2 = ρ(A).


Démonstration. On montrera seulement les relations pour la norme k·k2 , les autres égalités étant proposées comme
exercice.
D’après l’exercice 19, on a

hAx, Axi hA∗ Ax, xi


kAk22 = sup = sup = sup RA∗ A (x) = µn
x∈E\{0} kxk22 x∈E\{0} hx, xi x∈E\{0}

où µn est la plus grande valeur propre de A∗ A. Comme A∗ A est positive, on a µn = ρ(A∗ A), d’où le résultat.
Montrons que ρ(A∗ A) = ρ(AA∗ ). Si ρ(A∗ A) > 0, il existe u ∈ E tel que

u 6= 0, et A∗ Ap = ρ(A∗ A)p.

On a Ap 6= 0 car, dans le cas contraire (Ap = 0) on aurait A∗ Ap = 0 ce qui contredirait ρ(A∗ A) > 0. En posant
q = Ap 6= 0, on a
AA∗ q = ρ(A∗ A)q,
d’où ρ(A∗ A) ∈ Sp (AA∗ ), ce qui entraı̂ne
(3) ρ(A∗ A) 6 ρ(AA∗ ).
Donc, ρ(AA∗ ) > 0, et en posant B = A∗ , on a ρ(B ∗ B) > 0, donc ρ(B ∗ B) 6 ρ(BB ∗ ) (en remplaçant A par B dans
(3)). Autrement dit ρ(AA∗ ) 6 ρ(A∗ A) d’où l’égalité. Si ρ(A∗ A) = 0, alors on a aussi ρ(AA∗ ) = 0, sinon le raisonnement
précédent montrerait que ρ(A∗ A) > 0.
Soit maintenant U une matrice unitaire. On a

kU Ak2 = ρ((U A)∗ (U A))1/2 = ρ(A∗ U ∗ U A)1/2 = ρ(A∗ A)1/2 = kAk2 .

De la même manière on montre les autres égalités kAk2 = kAU k2 = kU ∗ AU k2 .


Si A est normale, alors A est diagonalisable via une matrice unitaire (voir le théorème 5) i.e., il existe U unitaire et D
diagonale telles que
U ∗ U = diag (λi (A)) = D.
Alors
kAk2 = kU ∗ AU k2 = kDk2 = ρ(D∗ D)1/2 = (max |λi (A)|2 )1/2 = ρ(A).
i

Proposition 10. Quelque soit la matrice A et pour toute norme matricielle on a %(A) 6 kAk
Démonstration. Soit λ ∈ Sp (A) tel que %(A) = |λ|. Soit u un vecteur propre associée à λ et v un vecteur tel que
la matrice ut v ne soit pas nulle. On a

ρ(A)kut vk = |λ| · kut vk = k(λu)t vk = k(Au)t vk = kA(ut v)k 6 kAk · kut vk,

selon les propriétés d’une norme matricielle.

Proposition 11. Soient A ∈ Mn (K) et ε > 0. Il existe une norme matricielle subordonnée k · k telle
que
kAk 6 ρ(A) + ε.

17
Démonstration. Selon le théorème 4, il existe une matrice inversible U (le fait que U est unitaire ne joue aucun
rôle ici) telle que
λ1 t12 t13 ··· t1n
 
 0 λ2 t23 ··· t2n 
..
 
..
U −1 AU = 
 
 0 0 . ··· . 

 .. .. .. .. 
 . . . . 
0 0 0 ··· λn
les nombres λi étant les valeurs propres de la matrice A. Considérons la matrice Dδ = diag (1, δ, δ 2 , . . . , δ n−1 ) où δ > 0.
On obtient
λ1 δt12 δ 2 t13 ··· δ n−1 t1n
 
 0 λ2 δt23 ··· δ n−2 t2n 
..
 
−1
 .. 
(U Dδ ) A(U Dδ ) =  0 0 . ··· . .

 . . .. ..
 .. ..

. . 
0 0 0 ··· λn
Fixons δ > 0 vérifiant
n
X
j−i
max δ tij 6 ε.
16i6n
j=i+1

L’application Mn (K) 3 B 7→ kBk = k(U Dδ )−1 B(U Dδ )k∞ (qui dépend bien évidemment de A et de ε !) vérifie l’énoncé
du théorème. En effet, en écrivant A = diag (λ1 , . . . , λn ) + B, d’après la proposition 9 et le choix de δ, on obtient que
kAk 6 ρ(A) + ε.
D’autre part on vérifie facilement (exercice !) que k · k est une norme matricielle subordonnée à la norme vectorielle
x 7→ k(U Dδ )−1 xk∞ .

Théorème 7. Soit A ∈ Mn (K) une matrice carrée. les conditions suivantes sont équivalentes :
(i) lim Ak = 0
k→∞
(ii) limk→∞ Ak x = 0 ∀x ∈ Kn .
(iii) %(A) < 1
(iv) Il existe une norme matricielle subordonnée k · k pour laquelle kAk < 1.
Démonstration. Soit k · k une norme vectorielle et k · k la norme matricielle subordonnée. L’implication (i) =⇒
(ii) est évidente car kAk xk 6 kAk k · kxk 6 kAkk kxk → 0.
Montrons (ii) =⇒ (iii). Supposons par l’absurde que %(A) > 1. Il existe alors v ∈ Kn \ {0} un vecteur propre de A et
λ ∈ K une valeur propre |λ| > 1. On a Ak v = Ak−1 (Av) = λAk−1 v = . . . = λk v. Mais alors kAk vk = |λ|k kvk > kvk qui
ne tend pas vers 0.
L’implication (iii) =⇒ (iv) résulte immédiatement en utilisant la proposition 11, car il suffit de choisir par exemple
1
ε = (1 − %(A)).
2
La dernière implication (iv) =⇒ (i) est immédiate car kAk k 6 kAkk → 0.

1.8 Conditionnement des systèmes linéaires et des matrices


Dans les problèmes pratiques (du monde réel) on a souvent à faire à des données déterminées d’une
manière approximative (expérimentale). De plus, même des données exactes sont souvent arrondies
dans la mémoire de l’ordinateur. Il est donc important de savoir l’effet des erreurs d’approximation
sur le résultat final d’un calcul. On va étudier cette problématique pour les systèmes linéaires et les
matrices.
Considérons le système linéaire (exemple de R.S. Wilson) :
      
10 7 8 7 x1 32 1
 7 5 6 5   x2   23   1 
  =  , qui admet la solution  ,
 8 6 10 9   x3   33   1 
7 5 9 10 x4 31 1

18
et considérons le système perturbé, où seulement le second membre a été très légèrement modifié :
      
10 7 8 7 x1 + ∆x1 32, 1 9, 2
 7 5 6 5   x2 + ∆x2   22, 9   −12, 6 
 8 6 10 9   x3 + ∆x3  =  33, 1  , qui admet la solution  4, 5  .
      

7 5 9 10 x4 + ∆x4 30, 9 −1, 1

Dans ce cas une erreur relative (i.e. ∆x x ) de l’ordre 1/200 sur les données (ici le second membre)
entraı̂ne une erreur relative de l’ordre de 10/1 sur le résultat (la solution du système linéaire), soit un
rapport d’amplification des erreurs relatives de l’ordre de 2000 ! !
Considérons également le système perturbé, où cette fois c’est la matrice du système qui est légèrement
perturbée :

   
  
10 7 8, 1 7, 2 x1 + ∆x1 32 −81
 7, 08 5, 04 6 5   x2 + ∆x2   23   137 
=
  33  , qui admet la solution  −34
    .
 8 5, 98 9, 89 9   x3 + ∆x3 
6, 99 4, 99 9 9, 98 x4 + ∆x4 31 22

Là encore, de petites variations des données (ici, les éléments de la matrice) modifient complètement
le résultat (la solution du système). Portant la matrice A du système semble “ gentille” : elle est
symétrique, sont déterminant vaut 1, et la matrice inverse
 
25 −41 10 −6
 −41 68 −17 10 
A−1 =  10 −17

5 −3 
−6 10 −3 2

est tout aussi “ gentille”.


Les systèmes qui présentent ce phénomène d’avoir des grands écarts dans les résultats suite à des
petites variations de données sont dits mal conditionnés. Analysons de près ce phénomène.
Considérons tout d’abord le système
Ax = b
ainsi que le système avec une perturbation dans le second membre

A(x + ∆x) = b + ∆b,

où la matrice A est supposée inversible, et ∆x, ∆b sont des vecteurs. On va comparer les solutions
exactes x et x + ∆x des deux systèmes. Considérons une norme quelconque k · k sur Kn et k · k la
norme matricielle subordonnée. Des égalités

∆x = A−1 ∆b, b = Ax,


k∆xk
on déduit k∆xk 6 kA−1 k · k∆bk et kbk 6 kAk · kxk. Alors, l’erreur relative kxk vérifie

k∆xk  −1  k∆bk
6 kA k · kAk .
kxk kbk

On appelle conditionnement de la matrice A pour la norme k · k le nombre

cond (A) = kA−1 k · kAk,

19
où kAk représente la norme matricielle subordonnée à la norme vectorielle k · k. Lorsque’on utilise la
norme k · kp , on écrit condp (A).
On a donc montré que l’erreur relative du résultat est majorée par l’erreur relative sur la donnée b de
la façon suivante
k∆xk k∆bk
6 cond (A) .
kxk kbk
On peut montrer qu’il n’est pas possible de faire mieux ! Plus précisément, on a le théorème suivant.

Théorème 8. Soit A une matrice inversible, et soit x et x + ∆x les solutions des systèmes linéaires

Ax = b,
A(x + ∆x) = b + ∆b,

où b et ∆b sont des vecteurs. On suppose b 6= 0. Soit k · k une norme vectorielle et k · k la norme
matricielle subordonnée. Alors on a l’inégalité

k∆xk k∆bk
6 cond (A) ,
kxk kbk

et c’est la meilleure possible : pour une matrice A donnée, on peut trouver des vecteurs b 6= 0 et ∆b 6= 0
tels qu’elle devienne une égalité.
Démonstration. On a déjà montré l’inégalité. Comme la sphère unité est compacte dans l’espace vectoriel normé
(Kn , k · k) et toute application linéaire définie sur un espace vectoriel normé de dimension finie dans un evn quelconque
est continue, il existe des vecteurs ∆b et x sur la sphère unité tels que kAxk = kAk et kA−1 ∆bk = kA−1 k. Avec ce choix,
i.e. en posant b = Ax et en tenant compte que ∆x = A−1 ∆b, on obtient une égalité.

Lorsqu’on perturbe la matrice A on a le résultat analogue suivant.

Théorème 9. Soit A une matrice inversible, et soit x et x + ∆x les solutions des systèmes linéaires

Ax = b,
(A + ∆A)(x + ∆x) = b,

où b est un vecteur et ∆A est une matrice. On suppose b 6= 0. Soit k · k une norme vectorielle et k · k
la norme matricielle subordonnée. Alors on a l’inégalité

k∆xk k∆Ak
6 cond (A) ,
kx + ∆xk kAk

et c’est la meilleure possible : pour une matrice A donnée, on peut trouver un vecteur b 6= 0 et une
matrice ∆A 6= 0 tels qu’elle devienne une égalité.
Démonstration. En utilisant l’égalité Ax = b dans le système perturbé, on obtient A∆x = −∆A(x + ∆x), d’où
∆x = −A−1 ∆A(x + ∆x), ce qui entraı̂ne k∆xk 6 kA−1 k · k∆Ak · kx + ∆xk = cond (A) k∆Ak kAk
kx + ∆xk, donc l’inégalité
est prouvée.
Pour montrer que l’inégalité peut devenir une égalité, considérons un vecteur unitaire y tel que kA−1 yk = kAk (voir la
démonstration du théorème précédent). Soit α ∈ K \ {0}. En prenant ∆A = −αI, ∆x = αA−1 y, x = y − ∆x, b = Ax, on
obtient les égalités
Ax = b, (A + ∆A)(x + ∆x) = b,
k∆xk = |α| · kA−1 yk = |α| · kA−1 k = k∆Ak · kA−1 k = k∆Ak · kA−1 k · kx + ∆xk.
Pour que b soit non nul, il suffit de choisir α ∈ K \ ({0} ∪ Sp (A)). En effet, Ax = A(y − ∆x) = Ay − αy 6= 0, car kyk = 1,
donc y 6= 0 et α ∈
/ Sp (A).

On finit sur les propriétés suivantes du conditionnement d’une matrice.

20
Théorème 10. 1. Pour tout matrice A inversible,

cond (A) > 1, cond (A) = cond (A−1 ), cond (αA) = cond (A), α ∈ K \ {0}.

2. Pour toute matrice A inversible,


µn
cond2 (A) = ,
µ1
où µn > 0 et µ1 > 0 désignent respectivement la racine carrée de la plus grande (resp. la plus
petite) des valeurs propres de la matrice A∗ A.(vii)
3. Si A est unitaire ou orthogonale, alors cond2 (A) = 1.
4. Le conditionnement cond2 (A) est invariant par transformation unitaire :

U U ∗ = I =⇒ cond2 (A) = cond2 (U A) = cond2 (AU ) = cond2 (U ∗ AU ).

Démonstration. Exercice (à utiliser la proposition 9 pour cond2 A) !

1.9 Exercices d’Algèbre linéaire


Exercice 17. (Polynôme caractéristique, spectre, espaces propres, réduction de ma-
trices)

1. Soient A et B deux matrices carrées de même ordre, avec A inversible. Montrer que les polynômes
caractéristiques de AB et de BA coı̈ncident.
Montrer que le résultat reste valable sans la condition A inversible.
Indication. Si A n’est pas inversible, alors il existe ε0 > 0 tel que pour tout ε ∈]0, ε0 ] on ait A + εI inversible. Ensuite,
justifier que l’application ε 7→ p(A+εI)B (λ) est continue sur R pour tout λ ∈ C fixé.

2. Soit A = (aij ) ∈ Mn,p (R). Montrer que

max(min aij ) 6 min(max aij ).


i j j i

3. Soit A, B ∈ Mn (R).
(a) Peut-on avoir AB − BA = λIn avec λ ∈ R \ {0} ?
(b) Si n est impair et A et B sont inversibles, peut-on avoir AB + BA = 0 ?
4. Soit A une matrice carrée et λ ∈ Sp (A). Montrer que, pour tout p ∈ N∗ , λp ∈ Sp (Ap ).
5. Soit A une matrice carrée nilpotente (i.e. il existe p ∈ N∗ tel que Ap = 0). Déterminer Sp (A) et les
sous-espaces propres.
6. Soit A une matrice carrée inversible. Établir une relation entre pA (λ−1 ) et pA−1 (λ) où λ ∈ C \ {0}.
Quelle relation on a entre :
(a) Sp (A) et Sp (A−1 ) ?
(b) les sous-espaces propres de A et de A−1 ?
(vii)
A se rappeler que la matrice A∗ A est définie positive si A est inversible, donc les valeurs propres sont des réels
strictement
p positifs. Si λ1 (A∗ A) 6 λ2 (A∗ A) 6 . . . 6 λn (A∗ A) sont les valeurs propres de A∗ A, alors les nombres
µi = λi (A∗ A), 1 6 i 6 n s’appellent valeurs singulières de la matrice A.

21
7. Soit A = (aij ) ∈ Mn (R) avec aij = 1 pour tout (i, j) ∈ [[1, n]]2 . Trouver Sp (A) et les sous-espaces
propres de A. La matrice A est-elle diagonalisable ? Si la réponse est “ oui”, alors donner une matrice
de passage.
Indication. Montrer que les espaces propres sont E0 = ker(A) et En = R · (1, 1, . . . , 1). Vous pouvez choisir
 
1 1 1 ... ... 1
 −1 1 1 ... ... 1 
 
 0 −2 1 . . . . .. 1 
 .. .. 
P =  0 0 −3 . . .

.. .. . . .. .. . 
 
. .. 

 . . . .
0 0 ... ... 1 − n 1

8. Quelle relation existe-t-il entre le polynôme caractéristique d’une matrice carrée A ∈ Mn (K) et celui
de sa transposée t A ?

α si i = j
9. Soient les matrices A, B ∈ Mn (C) avec aij = α ∀(i, j) ∈ [[1, n]] et bij =
2 , où
β si i 6= j
α, β ∈ C. Calculer pA (X) et pB (X).
Indication. Exprimer A et B en utilisant la matrice In et la matrice ayant tous les termes égaux à 1 (voir l’exercice
17.7).

10. Montrer que si les matrices carrées A et B sont semblables, alors pour tout n ∈ N (ou n ∈ Z si A
inversible) An est semblable à B n avec la même matrice de passage.

11. Étudier si les matrices suivantes sont diagonalisables ou trigonalisables dans Mn (R). Trouver, s’il y a
lieu une base dans laquelle la matrice est diagonalisable (resp. trigonalisable). Pour les matrices non
trigonalisables dans Mn (R) diagonaliser ou trigonaliser dans Mn (C).
     
5 −3 2 2 −1 1 2 −1 −1
a)  6 −4 4  b)  1 2 −1  c)  2 −1 −2 
4 −4 5 1 −1 2 −1 1 2
 
1 0 0 0 ... 0
1 2 0 0 ... 0 
   
1 −1 1 2 1 0

 
d)  1 1 −1  e)  1 3 −1  f) 
 1 2 3 0 ... 0 
0 −1 2 −1 2 3
 .. .. .. .. 
 . . . . 
1 2 3 4 ... n
12. Calculer An où A est la matrice donnée dans l’exercice précédent au point a) ou au point d).

13. Exprimer le terme général un en fonction de n ∈ N dans la suite de Fibonacci : u0 = u1 = 1, et pour


tous les n ∈ N, un+2 = un+1 + un .
 
un
Indication. Poser vn = un+1 et Xn = vn
. Montrer que la suite vectorielle (Xn )n∈N vérifie la relation
 
0 1
Xn+1 = AXn , avec A = . En déduire que Xn = An X0 et calculer An .
1 1

14. Soit A ∈ Mn (C), et soient λ1 (A), . . . , λn (A) les valeurs propres de A (comptées avec leurs multi-
plicités). Montrer que
n
Y n
X
det(A) = λk (A), tr (A) = λk (A).
k=1 k=1

22
Exercice 18. Matrices symétriques, matrices hermitiennes, espaces euclidiens et her-
mitiens

1. (Th. de Jacobi) Soit A ∈ Mn (R) une matrice symétrique. On note Ap = [aij ]16i,j6p (1 6 p 6 n).
Montrer que :
(i) A positive =⇒ det Ap > 0 pour tout p ∈ [[1, n]] ;
(ii) A est définie positive ⇐⇒ det Ap > 0 pour tout p ∈ [[1, n]] ;
(iii) A négative =⇒ (−1)p det Ap > 0 pour tout p ∈ [[1, n]] ;
(iv) A est définie négative ⇐⇒ (−1)p det Ap > 0 pour tout p ∈ [[1, n]].
2. Soit A = [aij ] ∈ Mn (R) une matrice symétrique positive. Montrer que :

∀i ∈ [[1, n]], aii > 0;

sup |aij | 6 sup aii .


(i,j)∈[[1,n]]2 i∈[[1,n]]

3. Soit a et b deux vecteurs unitaires distincts d’un espace euclidien E. Montrer qu’il existe une unique
réflexion (i.e. une symétrie par rapport à un hyperplan vectoriel) les échangeant : la réflexion notée
sa,b qui est la réflexion d’hyperplan H = (b − a)⊥ et qui vérifie

∀x ∈ E, sab (x) = x − 2hx, uiu


b−a
où u = .
kb − ak
4. Montrer que pour toute matrice orthogonale M = [mij ] ∈ Mn (R) on a

n X n
X


mij 6 n.
i=1 j=1

Indication. Soit (e1 , . . . , en ) la base canonique de Rn , (c1 , . . . , cn ) les vecteurs de Rn dont les matrices dans la base
Pn
canonique sont les colonnes de M . Posons f = e1 + · · · + en . Montrer que i=1 mij = hcj , f i. En déduire que
| i=1 j=1 mij | = | j=1 hcj , f i| = |h j=1 cj , f i| 6 k j=1 cj k · kf k. Mais kf k2 = n et k n
Pn Pn Pn Pn Pn P 2
j=1 cj k = n.

5. Soit une matrice hermitienne A ∈ Mn (C) pour laquelle il existe p ∈ N∗ tel que Ap = In . Montrer
que A2 = In .
6. Soit a1 , . . . , an des réels non nuls. Diagonaliser la matrice de terme général ai aj .
Indication. Montrer que la rang de A est égal à 1. En déduire que les espaces propres de A sont ker A et im A, et que
Sp (A) = {0, n 2
P
i=1 i }. Une base orthogonale de vecteurs propres de A est (f1 , . . . , fn ) où
a
a2 a2 2
1 +a2 a2 2 2
1 +a2 +a3
f1 = (a1 , − a12 , 0, . . . , 0); f2 = (a1 , a2 , − a3
, 0, . . . , 0), f3 = (a1 , a2 , a3 , − a4
, 0, . . . , 0), . . . , fn = (a1 , a2 , . . . , an ),
dont (f1 , . . . , fn−1 ) est une base de ker A.

7. (La racine carrée d’une matrice hermitienne positive) Soit A ∈ Mn (C) une matrice
hermitienne positive. Montrer qu’il existe une matrice hermitienne positive B tel que B 2 = A.

8. Soit A ∈ Mn (C) une matrice hermitienne positive. Montrer que det(A) est un réel positif et
√n
p
1 + det A 6 n det(In + A).

Indication. Utiliser l’inégalité de Jensen pour la fonction convexe t 7→ ln(1 + et ).

23
Exercice 19. (Le quotient de Rayleigh et le théorème de Courant-Fischer) Soit A ∈
Mn (K) une matrice hermitienne de valeurs propres λ1 6 λ2 6 . . . 6 λn , les vecteurs propres associés
p1 , . . . , pn vérifiant
p∗i pj = δij ,
i.e. (p1 , . . . , pn ) est une BON de Kn . Pour tout k ∈ [[1, n]], on note Vk = Vect (p1 , . . . , pk ) et on note Vk
l’ensemble des sous-espaces vectoriels de dimension k de Kn . On pose V0 = {0} et V0 = {V0 }.
On définit l’application (appelée quotient de Rayleigh) RA : Kn \ {0} → K par
hAv, vin v ∗ Av
RA (v) = = ∗ .
hv, vi v v
La matrice A étant hermitienne, les valeurs de RA sont réelles ! Montrer les propriétés suivantes pour tout
k ∈ [[1, n]] :

(4) λk = RA (pk ),
(5) λk = max RA (v),
v∈Vk \{0}
(6) λk = min RA (v),
⊥ \{0}
v∈Vk−1

(7) λk = min max RA (v),


W ∈Vk v∈W \{0}
(8) λk = max min RA (v).
W ∈Vk−1 v∈W ⊥ \{0}

Indication. Pour montrer (7), on obtient d’abord de (5)


λk > inf max RA (v).
W ∈Vk v∈W


Pour justifier l’inégalité contraire on doit montrer (en utilisant la formule de Grassmann) que dim(W ∩ Vk−1 ) > 1 et on utilise
(6).

Exercice 20. (Les systèmes supra-déterminés et la matrice pseudo-inverse)


Soit A ∈ Mp,n (K) une matrice rectangulaire de rang r, et le système linéaire Ax = y. Si y ∈ / im (A) le
système n’a pas de solution, et si y ∈ im (A) le système admet au moins une solution(viii) .
1. Dans cette partie on suppose rg (A) = n donc n 6 p et le système et supra-déterminé.
(a) Montrer que ker(A) = {0} et que la matrice A∗ A est définie positive, donc inversible.
(b) Définissons la matrice A# , dite l’inverse généralisée (ou pseudo-inverse) de A, par :

A# = (A∗ A)−1 A∗ ∈ Mn,p (K).

i. Montrer que, pour tout y ∈ Kp et x ∈ Kn , on a y − AA# y⊥Ax.


ii. En déduire que AA# y représente la projection orthogonale de y sur im (A). Donc, pour
tout y ∈ Kp , on a la relation

min kAx − yk2 = kAA# y − yk2 ,


x∈Kn

autrement dit, le vecteur x# := A# y est l’unique solution du système “ normal”

(9) A∗ Ax = A∗ y,
(viii)
Plus exactement, si x0 est une solution du système, alors l’ensemble des solutions est x0 + ker(A).

24
et sera appelé solution du système Ax = y au sens des moindres carrés, car
2
Xp X n
2

minn kAx − yk2 = min aij xj − yi .
x∈K
i=1 j=1

iii. Montrer les relations suivantes :

A∗ AA# = A∗ ; A# A = In ,

si p = n alors A est inversible et A−1 = A# .


2. Considérons maintenant le cas général i.e. rg (A) = r .
(a) Montrer que le système (9) admet au moins une solution pour chaque y ∈ Kp (utiliser la
proposition 2).
(b) Montrer que le sous-espace G = ker(A)⊥ est stable pour la matrice positive A∗ A (utiliser la
proposition 2), et la restriction à G de l’application linéaire définie par A∗ A est définie positive
(i.e. hA∗ Ax, xin > 0 pour tout x ∈ G \ {0}).
(c) Soit µ1 > µ2 > · · · > µr > · · · > µn les valeurs propres de la matrice A∗ A et (e1 , . . . , er , . . . , en )
une base orthonormée de Kn formée des vecteurs propres de A∗ A associés à la liste (µ1 , . . . , µr , . . . , µn ).
i. Montrer que (e1 , . . . , er ) est une base orthonormée de G, et (er+1 , . . . , en ) est une base
orthonormée de G⊥ = ker(A).
ii. En déduire que µr > 0 et µr+1 = · · · = µn = 0.
iii. Posons fi = √1µi Aei , i ∈ [[1, r]]. Montrer que la famille (f1 , . . . , fr ) est une base ortho-
normée de im (A).
(d) Montrer que, pour chaque y ∈ Kp , le système (9) admet exactement une solution x# ∈ G
définie par
r r
#
X 1 ∗ X 1
x = hA y, ei in ei = √ hy, fi ip ei .
µi µi
i=1 i=1

(e) Montrer que l’application y 7→ x# de Kp dans Kn est linéaire.


Sa matrice (associée aux bases canoniques de Kp et Kn ) sera notée également A# et sera
appelée inverse généralisée de A (ix) . Donc
r r
#
X 1 ∗ X 1
A y= hA y, ei in ei = √ hy, fi ip ei .
µi µi
i=1 i=1

(f) Montrer que la matrice A# vérifie les propriétés suivantes :


i. Pour tout y ∈ Kp , AA# y représente le projeté orthogonal de y sur im (A), donc l’élément
x# = A# y est l’unique solution du problème de minimisation minx∈Kn kAx − yk2 , i.e.

∀x ∈ Kn , x 6= x# =⇒ kAx# − yk2 < kAx − yk2 .

ii. Pour chaque y ∈ Kp , l’élément x# = A# y est l’unique solution du problème d’optimisation

min kxk2 sous la contrainte A∗ Ax = A∗ y,

autrement dit, x# vérifie le système normal A∗ Ax = A∗ y, et pour toute autre solution x


du système normal on a kx# k2 < kxk2 .
(ix)
Dans le cas r = n cette matrice coı̈ncide avec la matrice A# définie au point 1 (exercice).

25
iii. AA# A = A; A# AA# = A# , (A# )# = A.
Indication. Pour montrer ii. il suffit de montrer que x# représente la projection orthogonale sur ker(A)⊥
de toute solution x du système normal. Pour montrer AA# A = A utiliser la relation im (A) = ker(A∗ )⊥
(proposition 2), donc AA# Ax−Ax ∈ ker(A∗ )∩ker(A∗ )⊥ = {0}. Pour la dernière relation, montrer d’abord
les relations : ker(A# ) = im (A)⊥ , im (A# ) = ker(A)⊥ et (A# )# A# y = AA# y pour tout y ∈ Kp .

Exercice 21. (Sur le conditionnement d’une matrice inversible)


Soit la matrice A ∈ Mn (R) donnée par

1 2 ··· 0
0 ···
 
....
 0 1 2 . .
 

 . . . . ..
.. .. 
 . .. .
. . .
 .

A= . .

 .. .... ..
 .
. 0 . 

 . .. ..
 ..

. 2 . 
0 ··· ··· ··· 0 1

Montrer que A est inversible et


 
1 −2 4 · · · (−2)n−1

 0 1 −2 · · · (−2)n−2 

.. . . .. .. ..
A−1
 
=
 . . . . . .
..

 .. 
 . . 1 −2 
0 ··· ··· 0 1

En déduire que
cond ∞ (A) = cond 1 (t A) = 3(2n − 1).
De même, kAk2 > 2, kA−1 k2 > 2n−1 , donc

cond 2 (A) > 2n .

2 Méthodes directes pour la résolution de systèmes linéaires


Dans cette section on est intéressé de résoudre le système linéaire de matrice carrée A ∈ Mn (K)
(supposée inversible) et de second membre b :

(10) Ax = b

Les méthodes directes sont les méthodes qui donnent, au bout d’un nombre fini d’opérations logiques
et arithmétiques et dans l’hypothèse de l’absence d’arrondis, une solution exacte du problème.

2.1 La méthode de Gauss


Cette méthode est basée sur l’élimination successive des inconnues et elle s’appelle aussi la méthode des
pivots de Gauss. On remplace le système (10) par un autre équivalent à matrice triangulaire supérieure
dont la résolution numérique est immédiate. On commence par éliminer la première inconnue x1 des
équations 2, 3, . . . n en supposant a11 6= 0 (sinon on permute la première ligne avec une autre ligne
i telle que ai1 6= 0, car si ai1 = 0 pour tous les i, alors A n’est pas inversible). On additionne à
ai1
l’équation (i) la première multipliée par − . Donc après la première itération on obtient le système
a11

26
A(2) x = b(2) décrit par

pour i = 2, . . . , n :
(2) ai1
aij = aij − a1j , j = 2, . . . , n
a11
et
(2) ai1
bi = bi − b1 ;
a11
(2)
on a bien ai1 = 0, i = 2, . . . , n, (la première ligne ne change pas).

L’étape k se résume donc à transformer la matrice


 (1) (1) (1) (1) 
a11 a12 · · · a1k · · · a1n
(2) (2) (2)
 0 a22 · · · a2k · · · a2n
 

 . .. .. 
 . .
 . .

A(k) = 

(k) (k) 
 0 ··· 0 akk · · · akn 
 .. .. .. ..
 

 . . . . 
(k) (k)
0 ··· 0 ank · · · ann

et le second membre  
(1)
b1
 (2) 
 b2 
..
 
 
 . 
 (k)
b(k)

=
 bk


 (k)
 bk+1


 . 
 .
 .


(k)
bn
de la manière suivante. Pour i = k + 1, . . . , n :
(k)
(k+1) (k) aik (k)
aij = aij − a ,
(k) kj
j = k + 1, . . . , n
akk
(k)
(k+1) (k) aik (k)
bi = bi − b .
(k) k
akk
(k)
L’algorithme est possible si à chaque étape le pivot akk 6= 0, sinon on permute avec l’une des lignes
(k)
suivantes telle que aik 6= 0.

2.2 Factorisation LU d’une matrice


(k)
On peut remarquer que dans l’algorithme de Gauss, en supposant qu’à chaque étape on a akk 6= 0,
les transformations effectuées sur la matrice A(k) sont décrites par des multiplications à gauche par
des matrices triangulaires inférieures. En utilisant les matrices watsoniennes, on constate que
ank an−1,k ak+1,k (k)
A(k+1) = Hnk (− ) · Hn−1,k (− ) · · · Hk+1,k (− )A
akk akk akk

27
A noter que toutes les matrices Hik (− aakkik
) sont triangulaires inférieures avec 1 sur la diagonale. Donc
leur produit a la même propriété. Finalement, en posant U = A(n) et L = l’inverse du produit de
toutes les matrices de type Hik (− aakk
ik
), i > k, on obtient
A = LU
avec L matrice triangulaire inférieure (lower) avec les éléments diagonaux égaux à 1, et U matrice
triangulaire supérieure (upper) (la dernière matrice obtenue dans l’algorithme). Montrons que la fac-
torisation LU d’une matrice inversible A est unique.
Si A = L0 U 0 alors les matrices L, U, L0 , U 0 sont inversibles, et donc U U 0−1 = L−1 L0 . Mais L−1 L0
est une matrice triangulaire inférieure avec 1 sur la diagonale, et U U 0−1 est une matrice triangulaire
supérieure. Mais cela entraı̂ne U U 0−1 = L−1 L0 = I, donc L = L0 et U = U 0 .

Grâce à cette factorisation on peut en réalité résoudre deux systèmes de matrice triangulaire : Ly = b,
et ensuite U x = y.

A noter aussi que


n
Y
det(A) = det(L) · det(U ) = det(U ) = uii .
i=1
L’hypothèse utilisée pour la factorisation LU :
(k)
(HP ) ∀k ∈ [[1, n]], akk 6= 0,
est équivalente à la propriété suivante :

(HMP) les sous-matrices principales Ak = (aij )16i,j6k , k ∈ [[1, n − 1]], sont inversibles.

(i)
En effet, si (HP ) est vérifiée, alors det Ak = ki=1 aii , car le déterminant de Ak est invariant par
Q
transformation élémentaires (produit par des matrices watsoniennes).
Réciproquement, montrons par récurrence selon k < n, que si det(Ai ) 6= 0 pour i ∈ [[1, k]], alors
(i)
aii 6= 0 pour i ∈ [[1, k]]. La propriété est triviale pour k = 1. Si elle est vraie pour 1 6 k − 1 < n − 1,
alors, en utilisant l’algorithme de Gauss jusqu’à l’étape k − 1 (car d’après l’hypothèse de récurrence
(i)
aii 6= 0 pour i ∈ [[1, k − 1]]) on obtient l’existence d’une matrice triangulaire inférieure L(k) ayant 1
sur la diagonale telle que
L(k) A = A(k) .
En multipliant par blocs
 (1) (1) (1) (1) 
a11 a12 · · · a1k · · · a1n
(2) (2) (2)
0 a22 · · · a2k · · · a2n
    
 
(k)
 .. .. .. 

 Lk O 

 Ak ∗ 

= . . .


  (k) (k) 
   0 · · · 0 akk · · · akn 
∗ ∗ ∗ ∗  .. .. .. ..
 
∗ ∗ ∗ ∗ 
 . . . . 
(k) (k)
0 ··· 0 ank · · · ann
on obtient
(1) (1) (1)
 
a11 a12 · · · a1k
(2) (2)
a22 · · · a2k
 
(k)  0 
Lk Ak = .. .. .. .
. . .
 
 
(k)
0 · · · 0 akk

28
(k) (k)
Comme det(Lk Ak ) = det(Lk ) det(Ak ) = det(Ak ) 6= 0, on obtient

k
(i)
Y
aii = det(Ak ) 6= 0,
i=1

(k)
donc akk 6= 0. On a démontré donc le théorème suivant.

Théorème 11. La factorisation A = LU de la matrice A ∈ Mn (K) avec L matrice triangulaire


inférieure ayant 1 sur la diagonale et U matrice triangulaire supérieure inversible a lieu, si, et seule-
ment si, toutes les matrices principales de A sont inversibles. De plus, la factorisation est unique.

2.3 Efficacité de l’algorithme de Gauss


Pour apprécier l’efficacité de cet algorithme (comme de n’importe quel autre algorithme !) il faut
répondre aux questions suivantes :
1. A quelle classe de problèmes, (i.e. pour quel type de matrice A et second membre b) est-il
applicable ?
2. Quelle est la sensibilité du problème aux erreurs d’arrondi ?
3. Est-il rapide ? Autrement dit, quel est le nombre d’opérations nécessaires.
4. Quelle place mémoire nécessite t-il ?

2.3.1 Systèmes linéaires de Cramer ou non ?


Nous avons vu que si la matrice A est régulière, il est toujours possible de trouver un pivot non
nul. Si l’on ne sait pas a priori, si A est régulière, la méthode de Gauss permet, en supposant que
toutes les opérations sont effectuées exactement, de le déterminer. Si à l’étape k, tous les éléments
(k)
aik = 0, i = k, . . . , n (c’est-à-dire on ne peut pas trouver un pivot même si on permute des lignes)
alors la matrice est singulière !

2.3.2 Choix des pivots


Malheureusement il faut tenir compte de ce que tous les résultats de calculs sont entachés d’erreurs
d’arrondi.
L’exemple suivant montre l’effet du choix des pivots sur la précision de l’algorithme. Supposons que
les nombres sont représentés en virgule flottante dans une base décimale avec 3 chiffres significatifs.
Soit le système Ax = b avec
 −4   
10 1 1
A= et b = .
1 1 2

Choisissons le coefficient 10−4 comme premier pivot. Après l’élimination de x1 dans la deuxième
équation, on obtient le système équivalent :
 −4    
10 1 x1 1
=
0 1 − 104 x2 2 − 104

qui, compte tenu des erreurs d’arrondi, sera en fait représenté par :
 −4    
10 1 x1 1
=
0 −104 x2 −104

29
1 − x2
La solution de ce nouveau système est x2 = 1, x1 = = 0.
10−4
Choisissons maintenant comme ligne pivot à la première étape la deuxième ligne (i.e. on permute
les lignes 1 et 2). Donc, après cette permutation et après avoir éliminé x1 dans la deuxième équation
on obtient le système équivalent (exact !) suivant :
    
1 1 x1 2
= .
0 1 − 10−4 x2 1 − 2 · 10−4

Après les arrondis, on a en fait le système


    
1 1 x1 2
=
0 1 x2 1
qui a la solution x1 = x2 = 1.

104 104 − 2
Or la solution exacte du système initial est x1 = x 2 = . La première solution
104 − 1 104 − 1
approchée est complètement fausse, la deuxième est excellente ! On voit l’importance du choix de pi-
vot.
Dans le premier cas les pivots valent 10−4 et 104 , alors que dans le second cas ils valent 1 et 1. Dans
les deux cas x2 est obtenu avec la même petite erreur d’arrondi, mais au moment du calcul de x1 ,
cette erreur est divisée par 1 dans le second cas alors qu’elle est divisée par 10−4 dans le premier cas,
entraı̂nant un effet déplorable sur la valeur de x1 .
(k)
D’une façon générale, nous avons vu qu’à l’étape k, si le coefficient akk n’est pas nul, on peut le
choisir comme pivot et appliquer l’algorithme d’élimination sans permuter des lignes. Mais les coeffi-
cients lik de la matrice L sont inversement proportionnels au pivot. Or ces coefficients interviennent
en multiplicateurs dans les formules de transformations. Les erreurs d’arrondi qui affectent déjà les
(k)
coefficients akj pourront être amplifiées et viendront s’ajouter aux erreurs commises à l’étape k. Cette
amplification est d’autant plus importante que le pivot est petit. On a donc intérêt à éviter de choisir
des pivots trop petits. Pour cela, on adopte la stratégie dite du pivot partiel qui consiste à prendre
pour pivot le plus grand élément de la colonne traitée.

2.3.3 Nombre d’opérations élémentaires


L’étape k de passage de la matrice A(k) à la matrice A(k+1) et du second membre b(k) en b(k+1)
(k = 1, . . . , n − 1) nécessite les opérations suivantes :
– n − k divisions (qui peuvent être remplacées par des multiplications si l’on calcule d’abord l’inverse
du pivot) ;
– (n − k)(n − k + 1) multiplications
– (n − k)(n − k + 1) soustractions
Donc pour arriver à la forme A = LU on a besoin de
n−1 n−1
X X n(n2 − 1)
(n − k)(n − k + 1) = (p2 + p) =
3
k=1 p=1

multiplications et autant de soustractions ;


n−1
X n(n − 1)
(n − k) =
2
k=1
divisions.

30
Ensuite il faut résoudre le système triangulaire, et il est facile à voir que cela nécessite :

n divisions par les pivots ;


1 + 2 + . . . + (n − 1) = (n−1)n
2 multiplications et autant d’additions. Cela fait n2 opérations.

Donc, le total général d’opérations est de l’ordre de n3 , i.e. la complexité de l’algorithme est O(n3 ).
Il est instructif de comparer ces nombres à ceux que l’on obtient par la méthode de Cramer :

det(a1 , . . . , ai−1 , b, ai+1 , . . . , an )


xi = .
det(a1 , . . . , ai−1 , ai , ai+1 , . . . , an )

Ces formules nécessitent le calcul de n+1 déterminants d’ordre n, chaque déterminants étant la somme
de n! termes, composés chacun du produit de n coefficients. La complexité de cette méthode est donc
O((n + 1)!).....

2.4 Factorisation des matrices symétriques définies positives ; factorisation de


Cholesky
Théorème 12. Une matrice A (réelle) est symétrique et définie positive ssi il existe une matrice Λ
triangulaire inférieure, inversible, ayant les éléments diagonaux positifs, telle que

A = Λ · t Λ.

Démonstration. On a vu (remarque 1) que toute matrice de la forme B · t B est semi définie positive. Compte tenu
du fait que Λ est inversible on déduit que Λ · t Λ est positive définie.
Montrons la réciproque. La matrice A étant définie positive, tous ses éléments diagonaux sont strictement positifs, et
toutes ses matrices principales det Ak sont définies positives (voir la proposition 3). Alors, les matrices principales sont
inversibles, ce qui permet d’appliquer le théorème 11, donc il existe L une matrice triangulaire inférieure ayant 1 sur la
diagonale et U une matrice triangulaire supérieure inversible telles que A = LU . En multipliant par blocs, on obtient
que, pour tout k, Ak = Lk Uk , d’où
k
Y
det(Ak ) = det(Lk ) det(Uk ) = det(Uk ) = uii ,
i=1

√ √
et, comme det(Ak ) > 0, on obtient que ki=1 uii . Il suit, ukk > 0 pour
Q
tout 1 6 k 6 n. Soit D = diag ( u11 , . . . , unn ).
On a  √  √
··· × ··· ×

u11 0 0 u11
√ √
 × u 22 · · · 0  0 u22 ··· × 
A = LU = (LD)(D−1 U ) =  .
  
.. .. .. ..  .. .. .. ..
 . . . .  . . . . 
√ √
× × ··· unn 0 0 ··· unn
Posons Λ = LD, Υ = D−1 U . La symétrie de A et l’égalité A = ΛΥ, entraı̂nent ΛΥ =t Υt Λ, d’où

1 × ··· × 0 ··· 0
   
1
 0 1 ··· ×   × 1 0 
Υ(t Λ)−1 =  . . = .
−1 t
.  = (Λ ) Υ.
   
.. .. . .
 .. . ..   .. . . .. 
0 0 ··· 1 × × ··· 1

De cette égalité on déduit que Υ(t Λ)−1 = (Λ−1 )t Υ = In , donc Υ =t Λ.

La factorisation
A = Λ · tΛ
est dite de Cholesky.

31
2.4.1 Construction de Λ colonne par colonne
Pour calculer Λ = (lij ) on doit avoir
j
X
aij = lik ljk pour i > j.
k=1

2 et a = l l . On trouve grâce à la proposition 3


Donc a11 = l11 i1 i1 11
√ ai1
l11 = a11 et li1 = .
l11
2 + l2 , d’où, en utilisant de nouveau la proposition 3, on constate que a − l2 =
Ensuite a22 = l21 22 22 21
a221
a22 − a11 > 0, donc l22 est bien défini et ai2 = li1 l21 + li2 l22 ce qui permet le calcul de li2 pour i > 2.

En général
k−1
X
v aik − lij lkj
u k−1
u X
2 j=1
lkk = takk − lkj lik = , i = k + 1, . . . , n.
lkk
j=1

On peut voir que le nombre d’opérations nécessaires pour utiliser cet algorithme est de
2n3 + 15n2 + n
.
6

2.5 Matrice de Householder


2.5.1 Définitions et propriétés
Définition 8. On appelle matrice élémentaire de Householder une matrice H telle que

H = I − 2u · t u avec u ∈ Rn , kuk = 1.

Théorème 13. Toute matrice élémentaire de Householder H est symétrique et orthogonale.


Démonstration. On a t H = t (I − 2u · t u) = H et donc t H · H = H 2 = I − 4u · t u + 4u · t u · u · t u = I − 4u · t u +
4u(kuk2 · t u) = I.

En fait H représente la symétrie par rapport au (hyper)plan P orthogonal à u et passant


par l’origine.

En effet, soit x0 la projection orthogonale de x sur le (hyper)plan P , et soit Sx le symétrique de x par


rapport à P . On a Sx = 2x0 − x et x0 doit vérifier : x0 − x = αu et hx0 , ui = 0. Donc α = −t ux, d’où
en utilisant le fait que t u · x ∈ R, on obtient Sx = 2x − (t ux) · u − x = x − u · (t ux) = x − (ut u)x = Hx.

32
Lemme 6. Soient v, e ∈ Rn non colinéaires, et kek = 1. Alors les matrices élémentaires de House-
holder définies par les vecteurs
v − kvke v + kvke
u= ou u0 =
kv − kvkek kv + kvkek
vérifient
Hv = kvke ou, respectivement Hv = −kvke
Démonstration. Posons α = kvk ou α = −kvk. Il suffit de trouver un plan P passant par l’origine, de sorte que αe
soit le symétrique de v par rapport à P . Le vecteur unitaire u colinéaire à v − αe définit la transformation élémentaire
de Householder.

2.5.2 Factorisation A = QR par la méthode de Householder


Soit A ∈ Mn,p (R) avec n > p. On cherche à transformer A en une matrice triangulaire supérieure R à
l’aide de p−1 transformations élémentaires de Householder : H1 , . 
. . , Hp−1
 . On construit H1 à l’aide du
1
 0 
lemme précédent en prenant v la première colonne de A et en =  .  ∈ Mn,1 (R) si v et en ne sont
 
 .. 
0
pas colinéaires. Si v et en sont colinéaires, on prend H1 = In Évidemment A(2) = H1 A a la première
colonne colinéaire à en . Ensuite on considère la sous matrice A0(2) de A(2) obtenue par la suppression
de la ligne 1 et de la colonne 1. Si H20 est la matrice de Householder de dimension (n − 1) × (n − 1)
telle que la première colonne de H20 A0(2) est colinéaire àen−1 , et un−1 le vecteur
 associé,
 alors H2
0 I1 0
est la matrice de Householder associée au vecteur un = et H2 = , etc. Après
un−1 0 H20
p − 1 itérations on obtient R = A(p) = Hp−1 · · · H1 A qui est une matrice triangulaire supérieure(x) . En
posant Q = t (H p−1 · · · H1 ) = H1 · · · Hp−1 , on constate que Q ∈ Mn (R) est une matrice orthogonale
et que A = QR. Donc on a démontré le résultat suivant.
Théorème 14. Étant donnée une  A ∈ Mn,p (R) (avec n > p) il existe une matrice orthogonale
 matrice
R0
Q ∈ Mn (R) et une matrice R = ∈ Mn,p (R) avec R0 ∈ Mp (R) triangulaire telles que
0
A = QR.

Cette méthode (quand n = p) est plus stable que la méthode de Gauss.

3 Méthodes itératives
Dans ce chapitre nous allons remplacer l’équation

(11) Ax = b

(avec A ∈ Mn (K) inversible) par l’équation x = Bx + c, et nous allons considérer la suite des vecteurs
(uk ) définie par
(12) uk+1 = Buk + c
en espérant qu’elle converge vers la solution de (11). Plus précisément, la méthode itérative est consis-
tante si la limite de la suite (uk ) lorsqu’elle existe est la solution de (11). La méthode itérative est
dite convergente si pour toute valeur initiale u0 ∈ Kn , la suite converge vers la solution de (11).
R0
 
(x)
Plus précisément R = où R0 est une matrice carrée triangulaire supérieure.
0

33
Théorème 15. Les affirmations suivantes sont équivalentes :
1. La méthode itérative est convergente.
2. %(B) < 1.
3. Il existe une norme matricielle k · k telle que kBk < 1.
Démonstration. On a vu (théorème 7) que les affirmations 2. et 3. sont équivalentes à dire que B k → 0. Il suffit de
montrer que l’affirmation 1. est équivalente à B k → 0.
Supposons donc B k → 0. Soit u0 ∈ Kn quelconque et ũ0 = la solution du problème (11). Les suites (uk ) et (ũk ) définies
par la méthode itérative vérifient
k−1
X k−1
X
uk = B k u0 + Bpc et ũk = B k ũ0 + B p c.
p=0 p=0

De plus la suite (ũk ) est stationnaire ũk = ũ0 . On a


uk − ũ0 = uk − ũk = B k (u0 − ũ0 ) → 0.
Réciproquement, supposons la méthode itérative convergente. Si par l’absurde B k 6→ 0 alors il existe u0 ∈ Kn tel que
B k (u0 − ũ0 ) 6→ 0. Alors uk − ũ0 = B k (u0 − ũ0 ) 6→ 0, donc uk 6→ ũ0 .

Remarque 4. La convergence d’une telle méthode sera d’autant plus rapide que %(B) sera petit.

3.1 Méthode de Jacobi, Gauss-Seidel, de relaxation


Dans toutes ces méthodes on décompose A = M − N avec M “facile à inverser”. On a donc

Ax = b ⇐⇒ M u = N u + b ⇐⇒ u = M −1 N u + M −1 b

Donc on résout le système Ax = b par la méthode itérative

uk+1 = M −1 N uk + M −1 b.

Cela revient à résoudre les systèmes linéaires successifs :

M uk+1 = N uk + b.

On écrit A sous la forme A = D − L − U avec D diagonale, L triangulaire inférieure et U triangulaire


supérieure.

3.1.1 La méthode de Jacobi


On choisit M = D, donc la méthode consiste à résoudre

Duk+1 = (L + U )uk + b.

Pour que D soit inversible il faut supposer aii 6= 0 pour tous les i. Pour calculer une composante du
vecteur uk+1 , on a besoin de n − 1 composantes de uk , donc il faut garder entièrement le vecteur uk
dans la mémoire lors du calcul de uk+1 . On a donc besoin de 2n mémoires pour stocker les vecteurs
uk et uk+1 .

3.1.2 La méthode de Gauss-Seidel


Cette methode consiste à utiliser les composantes de uk+1 déjà calculées. Elle s’écrit donc

Duk+1 = Luk+1 + U uk + b ⇐⇒ uk+1 = (D − L)−1 U uk + (D − L)−1 b.

Il faut toujours supposer aii 6= 0 pour que la matrice D − L soit inversible.


Un avantage de cette méthode est qu’elle ne nécessite plus que n mémoires, les deux vecteurs uk est
uk+1 pouvant être stockés à la même place.

34
3.1.3 La méthode de relaxation
Cette méthode, basée sur la méthode de Gauss-Seidel, consiste à “passer une partie de D dans N ”.
   
D 1−ω
− L uk+1 = D + U uk + b.
ω ω
Donc on a  −1  
D 1−ω
uk+1 = −L D+U uk + b.
ω ω
Cette méthode définie pour ω 6= 0 coı̈ncide avec la méthode de Gauss-Seidel pour ω = 1. Pour ω > 1
elle est appelée méthode de sur-relaxation, et sous-relaxation pour ω < 1.

3.2 Convergence des méthodes de Jacobi, Gauss-Seidel et relaxation


Théorème 16. Soit A ∈ Mn (K) une matrice hermitienne définie positive décomposée sous la forme
A = M − N avec M matrice inversible.
Si la matrice M ∗ + N est définie positive, alors la méthode itérative converge.
p
Démonstration. Comme A est définie positive, l’application u 7→ kukA = hAu, ui est une norme sur Kn .
Soit v ∈ Kn le vecteur propre de M −1 N associé à la valeur propre λ avec |λ| = %(M −1 N ). On peut supposer que
kvkA = 1. Posons w = M −1 Av ⇐⇒ v = A−1 M w. On a
|λ|2 = kM −1 N vk2A = kM −1 (M − A)vk2A = k(I − M −1 A)vk2A = kv − wk2A
= kvk2A − 2<hv, wiA + kwk2A = 1 − 2<hAv, wi + hAw, wi = 1 − 2<hM w, wi + h(M − N )w, wi
= 1 − hM w, wi − hN w, wi = 1 − hw, M wi − hN w, wi = 1 − hM ∗ w, wi − hN w, wi = 1 − h(M ∗ + N )w, wi < 1.
Donc %(M −1 N ) < 1 et on peut utiliser le théorème 15.

Remarque 5. Le fait que A est supposée hemitienne et positive définie n’est pas restrictif, car le
système Ax = b, avec A inversible quelconque, est équivalent au système A∗ Ax = A∗ b et A∗ A est
hermitienne et positive définie (voir la remarque 1).
On va accepter le théorème.
Théorème 17. Si la matrice A est hermitienne définie positive, la méthode de relaxation converge
pour tout 0 < ω < 2.

4 Méthodes numériques de calcul des valeurs et vecteurs propres


4.1 La méthode de la puissance
Cette méthode permet de calculer la valeur propre de plus grand module et le vecteur propre associé.
Théorème 18. Soit A une matrice réelle carrée d’ordre n, diagonalisable, et soit λ ∈ Sp (A) avec
|λ| = %(A). On suppose −λ ∈ / Sp (A). Soit B = (v1 , . . . , vn ) la base de Rn formée par des vecteurs
propres de A, et λ1 , . . . , λn les valeurs propres associées (comptées avec leur ordre de multiplicité). On
peut supposer que |λ| = |λ1 | = |λ2 | = . . . = |λp | > |λp+1 | > . . . > |λn |. Soit
n
X
u0 = αi vi
i=1

tel que ∃i0 6 p : αi0 6= 0.

Alors les suites des vecteurs définies par :


uk
wk = , uk+1 = Awk ;
kuk k

35
ont les propriétés suivantes(xi) :

lim sign (λk )wk = v ∈ Eλ , kvk = 1


k→∞

d’où
lim w2k = v
k→∞

et
lim u2k+1 = λ lim w2k .
k→∞ k→∞

Démonstration. On a n n
X X λi k
Ak u0 = αi λki vi = λk (u + αi ( ) vi )
i=1 i=p+1
λ
Pp
avec u = i=1 αi vi . On constate que u ∈ Eλ \ {0} (car αi0 6= 0). D’autre part

k−1u
Awk−1 A kuk−1 k Auk−1 A2 wk−2 Ak w0 Ak u0
wk = = uk−1 = = = ... = =
kAwk−1 k kA kuk−1 k k kAuk−1 k kA wk−2 k
2 kA w0 k
k kAk u0 k
Pn λ k
(u + n λi k
P
λk (u + i=p+1 αi ( λi ) vi ) k i=p+1 αi ( λ ) vi )
= = sign (λ ) .
|λ|k k(u + n λi k
k(u + n λi k
P P
i=p+1 αi ( λ ) vi )k i=p+1 αi ( λ ) vi )k

Donc
u
sign (λk )wk → = v.
kuk
La suite extraite sign (λ2k )w2k = w2k converge évidemment vers v. Enfin, on a

u2k+1 = Aw2k → Av = λv.

4.2 Méthode de la puissance inverse


C’est la méthode de la puissance appliquée soit à la matrice A−1 qui permet d’obtenir la valeur propre
de plus petit module et le vecteur propre associé, soit à la matrice (A − µI)−1 qui permet d’obtenir la
valeur propre la plus proche de µ et le vecteur propre associé.
Dans ce dernier cas, on utilise cette méthode pour calculer très efficacement une approximation d’un
vecteur propre lorsque l’on connaı̂t une approximation d’une valeur propre par un autre procédé.

4.2.1 Recherche de la valeur propre de plus petit module


C’est la valeur propre de plus grand module de A−1 . On applique donc l’algorithme de la puissance à
A−1 .
Dans la pratique on ne calcule pas A−1 mais on effectue la factorisation de A et on résout à chaque
itération le système Auk+1 = wk .

4.2.2 Recherche de la valeur propre la plus proche d’un nombre donné


1
Le plus grand module de des valeurs propres de (A − µI)−1 est où les λi sont les valeurs
mini |λi − µ|
propres de A. On procède comme précédemment en résolvant (A − µI)uk+1 = wk . Dans ce cas
1
lim u2k+1 = lim w2k ,
k→∞ λ − µ k→∞
où λ est la valeur propre de A la plus proche de µ.
(xi)
On note sign (α) = 1 si α > 0, −1 si α < 0 et 0 si α = 0

36
4.3 Méthode QR
L’algorithme est le suivant :
Etape 1. On pose A1 = A et on factorise A1 = Q1 R1 .
Etape 2. On pose A2 = R1 Q1
Etape (k+1). On pose Ak+1 = Rk Qk et on factorise Ak+1 = Qk+1 Rk+1 .
A noter que toutes ces matrices sont semblables. En effet A2 = Q∗1 A1 Q1 , . . . , Ak+1 = Q∗k Ak Qk .

Théorème 19. Si A est inversible et admet n valeurs propres distinctes, la suite Ak vérifie la propriété
suivante :
lim (Ak )ij = 0 ∀1 6 j < i 6 n.
k→∞

(où (Ak )ij est l’élément de la matrice Ak situé sur la ligne i et colonne j).

Autrement dit, la matrice Ak devient triangulaire, sa diagonale étant donc composée des valeurs
propres de A.

Deuxième partie
Interpolation polynômiale
Dans ce chapitre on se propose de donner plusieurs réponses (équivalentes du point de vue mathématique,
mais différentes du point de vue pratique !) à la question suivante :
Étant donnée une fonction f : I → R, où I est un intervalle de R, dont les valeurs sont connues
seulement en un nombre fini de n + 1 points distincts de I, notés x0 , x1 , . . . , xn , on cherche une
fonction polynôme de degré au plus n prenant les mêmes valeurs que la fonction donnée f au points
(appelés aussi “nœuds”) x0 , x1 , . . . , xn .
Autrement dit, on cherche P ∈ Rn [X] tel que, pour tout i ∈ [[0, n]] on ait

P (xi ) = f (xi ).

5 Quelques bases utiles de l’espace vectoriel Rn [X]


L’ensemble des polynômes de degré au plus n avec coefficients dans R, noté Rn [X], est un R-espace
vectoriel de dimension n + 1, et la famille (1, X, X 2 , . . . , X n ) est une base, que l’on appelle base
canonique. A part cette famille, on rencontrera les bases suivantes :
1. La famille C = (1, X − c, (X − c)2 , . . . , (X − c)n ), où c ∈ R est un réel donné arbitraire (on
l’appellera aussi centre).
2. La famille(xii)
i
!
Y
N= (X − ck ) ,
k=1 06i6n

où (c1 , . . . , cn ) ∈ Rn est une famille de n réels quelconques.

Définition 9. Lorsqu’un polynôme P est écrit dans la base N, on dit qu’on représente P sous sa
forme de Newton relative aux centres c1 , . . . , cn .
(xii) Qi
La produit d’une famille vide est égal à 1, donc le terme de rang 0, est donné par k=1 (X − ck ) = 1.

37
Remarque 6. Si dans la base N on a c1 = c2 = · · · = cn = c on retrouve la base C. De plus, si c = 0
on retrouve la base canonique.
Cela veut dire que, tout résultat valable pour la base N est en particulier valable pour les autres deux
bases.

Les centres choisis pour exprimer un polynôme P sous la forme de Newton ont une importance
essentielle sur la qualité de l’évaluation numérique de P en un point. En effet, on vous propose
d’analyser cette situation dans le cadre du TP1.

6 Evaluation d’un polynôme en un point : le schéma de Hörner


Soit le polynôme P écrit sous sa forme de Newton :
n i
!
X Y
P (X) = a0 +a1 (X−c1 )+a2 (X−c1 )(X−c2 )+. . .+an (X−c1 )(X−c2 ) · · · (X−cn ) = ai (X − ck ) .
i=0 k=1

Pour calculer la valeur P (t) de P en un point donné t ∈ R, en posant a0n (t) = an , on constate que
n−2 i n−1
! !
X Y Y
0
P (t) = ai (t − ck ) + an−1 (t) (t − ck )
i=0 k=1 k=1

avec
(13) a0i (t) = ai + a0i+1 (t)(t − ci+1 )
pour i = n − 1. En réitérant, on obtient
n−3 i n−2
! !
X Y Y
P (t) = ai (t − ck ) + a0n−2 (t) (t − ck )
i=0 k=1 k=1

avec a0n−2 (t) obtenu avec la même formule (13) pour i = n − 2.


Après n itérations on obtient

P (t) = a00 (t).

On peut resumer se procédé sous la forme d’un algorithme.

Algorithme d’évaluation de P en t
eval-horner(n,a,c,t → val, a’)
entrée :
n : entier positif représentant le degré du polynôme P
a vecteur de n + 1 réels formé par les coordonnées de P dans la base considérée, i.e. a(i) = ai pour
tout i ∈ [[0, n]].
c : vecteur de n réels désignant les centres considérés, i.e. c(i) = ci , i ∈ [[1, n]].
t : réel en lequel on évalue P .

sortie :
val : réel défini par val = P (t).
a0 vecteur de n + 1 réels dont la signification importante sera donnée plus loin.

38
Début de corps
a0 (n) ←− a(n)
pour i = n − 1 à 0 faire
a0 (i) ←− a(i) + a0 (i + 1)(t − c(i + 1))
fin pour
val ←− a0 (0)
Fin de corps

Remarque 7. A noter que les centres ne sont pas forcément distincts, donc cet algorithme permet
également d’évaluer un polynôme donné dans la base canonique, où avec un seul centre.

Remarque 8. On se propose d’étudier la complexité de l’algorithme. Si


• α désigne le temps d’accès mémoire en lecture et écriture ;
• β désigne le maximum de temps d’une opération (+, −, ×, /) ;
• γ désigne le temps d’exécution d’un test,
alors le temps d’execution de l’algorithme de Hörner est donné par
T (n) = T1 (n) + T2 (n) + T3 (n),
où T1 (n) est le temps d’execution du début du corps, T2 (n) est celui du corps, et T3 (n) la fin du corps.
On constate que T1 (n) = 2α, (car une lecture et une écriture), T3 (n) = 2α et, sans tenir compte du
calcul de l’adresse d’un élément d’une table, ou du temps de test à chaque tour de boucle, on a
T2 (n) = n(4α + 3β).
Si on tient compte aussi des éléments négligés, on a
T2 (n) = n(4α + 3β) + cn
où c est une constante indépendante de n ou de i.
Finalement on trouve que T (n) = An + B, donc T (n) = O(n), ce qui montre que l’algorithme est
linéaire en n.

Exercice 22. Montrer que, si


P (X) = a0 + a1 (X − c1 ) + a2 (X − c1 )(X − c2 ) + . . . + an (X − c1 )(X − c2 ) · · · (X − cn ),
et a0 (t) = (a00 (t), . . . , a0n (t)) est le vecteur obtenu dans l’algorithme de Hörner, alors

n−1 i−1
!!
X Y
P (X) = a00 (t) + (X − t) a0i (t) (X − ck )
i=1 k=1
= a00 (t) + a01 (t)(X − t) + a02 (t)(X − t)(X − c1 ) + . . . a0n (t)(X − t)(X − c1 ) · · · (X − cn−1 ).
Autrement dit les nombres a0i (t), 1 6 i 6 n représentent (dans la première expression) les coefficients
0
Qquotient de la division euclidienne de P par (X − t), et a0 (t) le reste, dans la base de Newton
du
i
k=1 (X − ck ) .
06i6n−1
La deuxième expression montre que le vecteur a0 est le vecteur des composantes de P sous sa forme de
Newton relative aux centres t, c1 , c2 , . . . , cn−1 .
Indication : Utiliser le fait que an = a0n (t) et
ai = a0i (t) + (ci+1 − t)a0i+1 (t), i ∈ [[0, n − 1]]

et regrouper les termes dans l’écriture initiale de P .

39
7 Existence et unicité du polynôme d’interpolation
Considérons pour toute la suite de cette partie une fonction réelle f définie sur l’intervalle I = [a, b] ⊂
R, et n + 1 points distincts de I notés x0 , x1 , . . . , xn . On dit que le polynôme P ∈ Rn [X] interpole f
aux points x0 , . . . , xn (ou sur les points du support {x0 , . . . , xn }) si et seulement si

∀i ∈ [[0, n]] P (xi ) = f (xi ).

Ce type d’interpolation s’appelle interpolation de Lagrange.


On va considérer une nouvelle base de Rn [X], dite base de Lagrange, donnée par la famille (Li )06i6n
où, pour tout i ∈ [[0, n]],
Y (X − xk )
Li (X) = .
(xi − xk )
k∈[[0,n]]\{i}

Il est évident que, pour tout i ∈ [[0, n]], Li ∈ Rn [X], et

(14) ∀k ∈ [[0, n]] Li (xk ) = δik .

Proposition 12. La famille L = (Li )06i6n est une base de Rn [X).


Démonstration. Vu que dim(Rn [X]) = n + 1 = le nombre d’éléments de la famille L, il suffit de montrer que la
famille est libre. Soit (αi )06i6n une famille de nombres réels telle que
n
X
αi Li (X) = 0.
i=0

En prenant pour chaque k ∈ [[0, n]], X = xk et en utilisant (14), on obtient αk = 0.

Théorème 20. (Existence et unicité du polynôme d’interpolation) Soit f une fonction


définie sur un intervalle I = [a, b] ⊂ R et n + 1 points distincts de I notés x0 , x1 , . . . , xn . Alors il existe
un unique polynôme de Rn [X] qui interpole f en les points x0 , . . . , xn . On l’appelle le polynôme
d’interpolation (ou interpolant) de f sur le support {x0 , . . . , xn }. Il est donné par
n
X
Pn (X) = f (xi )Li (X).
i=0

Démonstration. Il est clair que Pn (X) := i=0 f (xi )Li (X) ∈ Rn [X] comme combinaison linéaire de la famille L.
Pn
En utilisant la formule (14), on obtient immédiatement que, pour chaque i, P (xi ) = f (xi ) ce qui montre l’existence.
Pour justifier l’unicité considérons un polynôme Q ∈ Rn [X] interpolant f sur le support {x0 , . . . , xn }. Alors, le polynôme
Pn − Q vérifie
(Pn − Q)(xi ) = 0, ∀i ∈ [[0, n]],
donc il s’annule en n + 1 points distincts. Le fait que son degré est 6 n entraı̂ne Pn − Q = 0.

Exercice 23. Donner une autre démonstration de l’unicité du polynôme d’interpolation, en utilisant le
fait que L est une base de Rn [X] et la formule (14).

Exercice 24. 1. Trouver les polynômes d’interpolation P0 (resp. P1 ) de f sur le support {x0 } (resp.
{x0 , x1 }).
2. Montrer à l’aide d’un exemple (simple !) que le degré de Pn peut être strictement inférieur à n.

40
Exercice 25. Soit n+1 réels x0 , x1 , . . . , xn distincts deux à deux. Considérons la matrice de Vandermonde
Vn ∈ Mn+1 (R),
 
1 1 1 ··· 1 1
 x0 x1 x2 · · · xn−1 xn 
 
 2 2 2 2 2 
Vn =  x0 x1 x2 · · · xn−1 xn  .
 .. .. .. .. .. 
 . . . ··· . . 
x0 x1 x2 · · · xn−1 xnn
n n n n

Pour la base des polynômes de Lagrange L = (Li )06i6n on note (αij )06i,j6n les coefficients du développement
dans la base canonique :
Xn
Li (X) = αij X j , i ∈ [[0, n]].
j=0

Montrer que la matrice Vn est inversible et exprimer Vn−1 à partir des coefficients (αij )06i,j6n .

8 Évaluation de l’erreur d’interpolation


Soit Pn le polynôme d’interpolation de f sur le support {x0 , x1 , . . . , xn } ⊂ I = [a, b]. Pour tout point
x ∈ I, on désignera par en (x) = f (x) − Pn (x) l’erreur d’interpolation.

Théorème 21. Soit f ∈ C n+1 ([a, b]). Alors, pour tout t ∈ [a, b] il existe ξ ∈]a, b[ tel que
n
f (n+1) (ξ) Y
en (t) := f (t) − Pn (t) = (t − xi ).
(n + 1)!
i=0

Démonstration. Si t ∈ {x0 , . . . , xn }, en (t) = 0 et la relation est Q


vérifiée pour tout ξ ∈]a, b[. Considérons maintenant
t ∈ [a, b] \ {x0 , . . . , xn } et la fonction ϕ : x 7→ f (x) − Pn (x) − A n i=0 (x − xi ), définie sur I = [a, b]. La constante
A est choisie de sorte que ϕ(t) = 0. La fonction ϕ est de classe C n+1 sur I et elle s’annule en n + 2 point distincts
x0 , x1 , . . . , xn , t. En utilisant le théorème de Rolle, on obtient que ϕ0 s’annule en n + 1 points distincts de ]a, b[. Par
n
!(n+1)
(n+1)
Y
(n+1)
récurrence on obtient que ϕ s’annule en un point ξ ∈]a, b[. Comme Pn = 0 et (x − xi ) = (n + 1)!, on
i=0
obtient f (n+1) (ξ) = A(n + 1)! d’où le résultat.

Comme conséquence on obtient immédiatement la propriété suivante.

Proposition 13. Avec les hypothèses et notations du théorème 21 on a



n
kf (n+1) k∞ Y
ken k∞ 6 max (t − xi ) ,

(n + 1)! t∈[a,b]
i=0

où kϕk∞ = sup |ϕ(t)| est la norme de la convergence uniforme dans l’espace C([a, b]).
t∈[a,b]

En ramenant l’intervalle [a, b] à l’intervalle [−1, 1] (par une transformation affine) on peut se poser le
problème suivant :
n
Y
Comment choisir les centres xi de sorte que max (t − xi ) soit le plus petit possible ?

t∈[−1,1]
i=0
Autrement dit on veut minimiser l’application P 7→ J(P ) := kP k∞ sur la partie C du

41
sous-espace vectoriel Rn [X] formée par les polynômes ayant le coefficient dominant 1.
(xiii)

Le mathématicien russe P. Tchebychev (1821-1894) a trouvé la réponse à cette question, que nous
proposons sous la forme d’un exercice.

Exercice 26. Considérons dans R[X] la suite (Tn )n∈N des polynômes de Tchebychev définie par

(15) T0 (X) = 1, T1 (X) = X,


et pour tout n ∈ N∗ ,
(16) Tn+1 (X) = 2XTn (X) − Tn−1 (X).
1. Montrer que, pour tout n ∈ N, Tn ∈ Rn [X], deg(Tn ) = n et, pour tout n > 1 le coefficient dominant
de Tn est 2n−1 .
2. Montrer que la suite (fn )n∈N de C([−1, 1]) définie par

∀n ∈ N, ∀t ∈ [−1, 1], fn (t) = cos(n arccos(t))

vérifie(xiv) les relations (15, 16).


3. En déduire que Tn (t) = fn (t) pour tout n ∈ N, t ∈ [−1, 1].
4. Montrer que les racines de Tn sont les nombres
 
(2k + 1)π
xk = cos , k ∈ [[0, n − 1]],
2n

donc Tn possède n racines réelles distinctes dans l’intervalle ] − 1, 1[.


5. Montrer que les points d’extrémum global de Tn sur [−1, 1] sont les nombres
 
0 kπ
xk = cos , k ∈ [[0, n]].
n

6. Soit pour tout n ∈ N∗ , T̃n (X) = 21−n Tn (X) = X n + . . . le polynôme ayant le coefficient dominant
1 et colinéaire au polynôme de Tchebychev Tn . Montrer que, pour tout polynôme P ∈ R[X],
deg(P ) = n, ayant le coefficient dominant 1, on a

max |P (t)| > max |T̃n (t)|.


t∈[−1,1] t∈[−1,1]

Indication. En supposant le contraire, montrer que sign (T̃n (x0k )−P (x0k )) = (−1)k , k = 0, . . . , n, car |P (x0k )| < 21−n .
Alors le polynôme T̃n − P ∈ Rn−1 [X] change le signe (au moins) n fois sur [−1, 1], donc possède au moins n racines !

Exercice 27. Soit [a, b] un segment de R, a < b.


1. Trouver une application affine croissante ϕ : R → R telle que ϕ([−1, 1]) = [a, b].
2. Soit T̂n = T̃n ◦ ϕ−1 , n ∈ N, où T̃n est le polynôme de Tchebychev défini dans l’exercice 26. Montrer
que  
2X − (b + a)
∀n ∈ N T̂n (X) = T̃n .
b−a
(xiii)
Montrer que C est une partie convexe de Rn [X], donc on a un problème d’optimisation convexe !
(xiv)
en utilisant l’égalité cos((n + 1)θ) = 2 cos θ cos(nθ) − cos((n − 1)θ), θ ∈ R

42
3. Posons pour tout n ∈ N,
(b − a)n (b − a)n
 
2X − (b + a)
T̃n[a,b] (X) = T̂n (X) = T̃n
2n 2n b−a

le polynôme colinéaire à T̂n ayant le coefficient dominant 1. En utilisant le point 5 de l’exercice 26,
montrer que pour tout polynôme P ∈ R[X], deg(P ) = n, de coefficient dominant 1 on a

max |P (t)| > max |T̃n[a,b] (t)|.


t∈[a,b] t∈[a,b]

[a,b]
4. Montrer que, pour tout n ∈ N∗ , les racines de Tn sont les nombres
  
(2k + 1)π
xk = ϕ cos , k ∈ [[0, n − 1]].
2n

Exercice 28. Considérons l’espace préhilbertien C([−1, 1]) des fonctions réelles continues sur [−1, 1]
2
muni du produit scalaire avec la fonction poids x 7→ w(x) = √ :
π 1 − x2
2 1 f (x)g(x)
Z
2
∀(f, g) ∈ C([−1, 1]) (f, g) 7→ hf, giw = √ dx.
π −1 1 − x2
1. Montrer que l’application h·, ·iw est bien définie et représente un produit scalaire.
2. Montrer que la suite (fn )n∈N est orthonormale dans (C([−1, 1]), h·, ·iw ), où
1
∀x ∈ [−1, 1] f0 (x) = √ T0 (x), fn (x) = Tn (x), (∀n ∈ N∗ ),
2
(Tn ) étant la suite des polynômes de Tchebychev définis dans l’exercice 26.
Indication. Effectuer le changement de variable x = cos(θ) dans le calcul de l’intégrale.

9 L’écriture du polynôme d’interpolation sous la forme de Newton


Considérons le polynôme d’interpolation Pn (X) de la fonction f : I = [a, b] → R sur le support
{x0 , . . . , xn } ⊂ I. Sa forme de Newton relatives aux centres x0 , . . . , xn−1 est donnée par
 
Xn i−1
Y
Pn (X) = di  (X − xj ) .
i=0 j=0

Posons, pour tout k ∈ [[0, n]],


 
k
X i−1
Y
Pk (X) = di  (X − xj ) ∈ Rk [X].
i=0 j=0

On constate que, pour tout 0 6 k 6 n et pour tout 0 6 j 6 k, Pk (xj ) = Pn (xj ) = f (xj ), donc Pk (X)
est le polynôme interpolant de f sur le support {x0 , . . . , xk }.
La définition des polynômes Pk entraı̂ne la relation
k−1
Y
(17) ∀k ∈ [[1, n]] Pk (X) = Pk−1 (X) + dk (X − xj ).
i=0

43
Cette relation très importante nous permet de déterminer de proche en proche le polynôme de Newton.
Pour 0 6 k 6 n, le coefficient dominant de Pk , qui est dk , s’appelle différence divisée relative à
{x0 , . . . xk }. Il dépend de f et du support {x0 , . . . , xk }. On le note

dk = f [x0 , . . . , xk ].
On peut écrire donc,  
n
X i−1
Y
(18) Pn (X) = f [x0 , . . . , xi ]  (X − xj ) .
i=0 j=0

Proposition 14. La différence divisée f [x0 , . . . , xk ] est indépendante de l’ordre des points de support.
Plus exactement, pour toute permutation σ de {0, . . . , k} on a

f [xσ(0) , . . . , xσ(k) ] = f [x0 , . . . , xk ].

Démonstration. Par unicité du polynôme d’interpolation, les polynômes Pk (resp. Qk ) interpolants de f sur le sup-
port {x0 , . . . , xk } (resp. {xσ(0) , . . . , xσ(k) }) coı̈ncident. Il suit qu’ils ont le même coefficient dominant, d’où la conclusion.

Exercice 29. Trouver les polynômes P0 et P1 interpolant f sur le support {x0 }, respectivement {x0 , x1 }.
En déduire que
f [x0 ] = f (x0 )
et
f (x1 ) − f (x0 ) f [x1 ] − f [x0 ]
f [x0 , x1 ] = =
x1 − x0 x1 − x0

Théorème 22. Les différences divisées vérifient, pour tout k ∈ [[1, n]], la formule de récurrence
suivante :

f [x1 , . . . , xk ] − f [x0 , . . . , xk−1 ]


(19) f [x0 , . . . , xk ] = .
xk − x0
Démonstration. Soit Q le polynôme d’interpolation de f sur le support {x1 , . . . , xk } et R le polynôme d’interpolation
de f sur le support {x0 , . . . xk−1 }. Considérons le polynôme

(X − x0 )Q(X) (X − xk )R(X)
(20) P (X) = − ∈ Rk [X].
xk − x0 xk − x0
(x0 − xk )R(x0 ) (xk − x0 )Q(xk )
On a P (x0 ) = − = f (x0 ), P (xk ) = = f (xk ), et pour tout 1 6 i 6 k − 1,
xk − x0 xk − x0
(xi − x0 )Q(xi ) (xi − xk )R(xi ) (xi − x0 )f (xi ) − (xi − xk )f (xi )
P (xi ) = − = = f (xi ),
xk − x0 xk − x0 xk − x0
donc P est le polynôme interpolant de f sur le support {x0 , x1 , . . . , xk }. Alors son coefficient dominant est donné par
f [x0 , . . . , xk ], et d’après la formule (20) il est égal au quotient entre le coefficient dominant de Q moins le coefficient
dominant de R, et xk − x0 , i.e., le second membre de la formule (19).

Remarque 9. La formule (19) peut être utilisée également sous la forme

f [xi+1 , . . . , xi+k ] − f [xi , . . . , xi+k−1 ]


f [xi , xi+1 , . . . , xi+k ] = .
xi+k − xi
Ainsi, on obtient

44
x0 f [x0 ]
f [x0 , x1 ]
x1 f [x1 ] f [x0 , x1 , x2 ]
..
f [x1 , x2 ] .
..
x2 f [x2 ] . f [x1 , x2 , x3 ] ··· f [x0 , . . . , xn ]
.. .. .. ..
. . . .
.. ..
. . f [xn−1 , xn ]
xn f [xn ]

Les éléments en gras du tableau ci-dessus (la diagonale) sont les coefficients du polynôme interpolant
de f sur le support {x0 , . . . , xn } écrit sous la forme de Newton relative aux centres x0 , . . . , xn−1 :
Pn (X) = f [x0 ] + f [x0 , x1 ](X − x0 ) + . . . + f [x0 , . . . , xn ](X − x0 )(X − x1 ) · · · (X − xn−1 ).
Exercice 30. Considérons le support {−1, 0, 1} ⊂ [a, b] et une fonction f : [a, b] → R vérifiant
f (−1) = 1, f (0) = 2, f (1) = 0.
1. Calculer le polynôme interpolant f sur le support {−1, 0, 1} sous la forme de Newton.
2. Calculer le polynôme interpolant f sur le support {−1, 0, 1} sous la forme de Lagrange.
3. Comparer les deux polynômes en les développant dans la base canonique.

Exercice 31. En utilisant le théorème 21 sur l’erreur de l’interpolation et les mêmes notations et hy-
pothèses, montrer que, pour tout t ∈ [a, b] \ {x0 , . . . , xn } on a
n
Y
(21) en (t) = f (t) − Pn (t) = f [x0 , . . . , xn , t] (t − xi ).
i=0

En déduire qu’il existe ξ ∈]a, b[ (qui dépend de t) tel que


f n+1 (ξ)
(22) f [x0 , . . . , xn , t] = .
(n + 1)!
Indication. Si on note Pn+1 (X) le polynôme interpolant f sur le support {x0 , . . . , xn , t}, montrer que Pn+1 (X) = Pn (X) +
Qn
i=0 (X − xi ), d’où en (t) = Pn+1 (t) − Pn (t).
f [x0 , . . . , xn , t]

Remarque 10. En notant par f [x0 , . . . , xn , ·] le prolongement par continuité à [a, b] de l’application
t 7→ f [x0 , . . . , xn , t] : [a, b] \ {x0 , . . . , xn } → R (on accepte l’existence de ce prolongement !), la formule
(21) est valable pour tout t ∈ [a, b].

TP 1. Le choix des nœuds d’interpolation de Tchebychev


On se donne sous forme analytique une fonction f définie sur l’intervalle [a, b] = [−1, 1] de R. On souhaite
étudier expérimentalement l’effet du choix des centres c1 , . . . , cn sur la qualité de l’approximation.
On considère f (x) = ex sur [−1, 1].
1. Premier choix (nœuds équidistants)
On considère les nœuds :
b−a 1
ci = −1 + ih, i ∈ [[0, 8]], avec h = = .
8 4

45
– Déterminer le polynôme d’interpolation P de f correspondant aux nœuds c0 , c1 , . . . , c8 .
– Représenter la fonction P .
– Déterminer et représenter la fonction erreur e1 (x) = |P (x) − f (x)|, x ∈ [−1, 1].
2. Deuxième choix (nœuds de Tchebychev)
On considère les nœuds  
π 2i + 1
ti = cos · , i ∈ [[0, 8]].
2 9
– Déterminer le polynôme d’interpolation Q de f correspondant aux nœuds t0 , t1 , . . . , t8 .
– Représenter la fonction Q.
– Déterminer et représenter la fonction erreur e2 (x) = |Q(x) − f (x)|, x ∈ [−1, 1].
3. Conclusions
Représenter les fonctions f , P , Q, e1 et e2 . Commenter les résultats.

Remarque 11. La théorie présentée dans les 3 dernières sections repose sur l’hypothèse des points
du support distincts deux à deux. Il est possible de généraliser les résultats à des fonctions plus lisses
(classe C m ) en acceptant des points non distincts et en faisant apparaı̂tre les dérivées de f . Pour cela
on utilise les polynômes d’interpolation de Hermite. On ne vas pas approfondir ici cette théorie,
on va seulement donner un aperçu des idées.
Supposons f : [a, b] → R une fonction de classe C m sur le segment [a, b] de R, p + 1 points distincts
de [a, b] : {x0 , x1 , . . . , xp } , et (i0 , i1 , . . . , ip ) ∈ Np+1 avec max ik 6 m. On cherche un polynôme H de
06k6p
degré au plus n = pk=0 (ik + 1) − 1 tel que, pour tout k ∈ [[0, p]],
P

H (j) (xk ) = f (j) (xk ), j = 0, . . . , ik .

On peut montrer l’existence et l’unicité d’un tel polynôme, et il s’écrit sous la forme :
p X
X ik
H(X) = f (j) (xk )Lkj (X),
k=0 j=0

où
p
(X − xk )j X − xl il +1
Y  
Lkj (X) = ∈ Rn [X].
j! xk − xl
l=0, l6=k

Il est assez facile à vérifier que



dr Lkj  1 si k = l et j = r
(xl ) =
dxr
0 sinon.

Remarque 12. Il faut noter qu’il existe d’autres types d’interpolation, comme l’interpolation par des
fonctions splines, l’idée étant d’interpoler par morceaux avec des polynômes de degré 3 etc. Cette
approche, qui est plus stable du point de vue numérique, ne sera pas développée dans ce cours.

46
Troisième partie
Intégration Numérique
10 Formules de quadrature
10.1 Généralités
Dans cette section on considère un segment de R noté [a, b] (donc a, b ∈ R, a < b). Étant donné une
fonction continue f : [a, b] → R, lorsqu’on connaı̂t une primitive F (xv) , on peut calculer son intégrale
d’après la formule (fondamentale !)
Z b
f (x) dx = F (b) − F (a).
a

Malheureusement, dans beaucoup de cas, on ne peut pas calculer une primitive (dans la classe des
fonctions usuelles). Par ailleurs, dans la pratique la fonction f est donnée souvent sous la forme d’un
tableau, donc la notion de primitive perd tout son sens. C’est pourquoi les méthodes approchées, dont
notamment les méthodes numériques de calculs des intégrales acquièrent une grande importance.
Z b
On considère la forme linéaire f 7→ I(f ) = f (x) dx définie sur l’espace vectoriel C([a, b]). I est
a
continue de l’espace vectoriel normé (C[a, b], k · k∞ ) dans (R, | · |) car

|I(f )| 6 (b − a)kf k∞ .

On se donne un support {x0 , . . . , xn } formé par n+1 points distincts de [a, b] qui sera fixé (indépendamment
de f ) . Si on note Pn [f ] le polynôme interpolant f sur le support {x0 , . . . , xn }, l’idée est d’approcher
I(f ) par In (f ) := I(Pn [f ]). En utilisant la base de Lagrange L = (Li )06i6n , on constate que
Z b n
Z bX n
X
In (f ) = Pn [f ](x) dx = f (xi )Li (x) dx = αi f (xi ),
a a i=0 i=0
Z b
où les nombres αi = Li (x) dx (i = 0, . . . , n) ne dépendent pas de f !. La forme linéaire In est
a
aussi continue sur (C[a, b], k · k∞ ). En effet,
n
!
X
|In (f )| 6 |αi | kf k∞ .
i=0

Donc, on veut approcher la forme linéaire continue I (qui dépend uniquement de (a, b)), par la forme
linéaire et continue In (qui dépend de (a, b; x0 , . . . , xn )).
D’une manière générale, l’erreur d’une formule de quadrature (en supposant f de classe C n+1 ) est
donnée par
Z b
En (f ) = I(f ) − In (f ) = (f − Pn [f ])(x) dx.
a
Grâce à la formule (21) et le remarque qui suit, on a
Z b n
Y
(23) En (f ) = f [x0 , x1 , . . . , xn , t] (t − xi ) dt.
a i=0
(xv)
la primitive d’une fonction continue sur un un intervalle existe toujours !

47
En utilisant la formule (22) et la formule de la moyenne, on a aussi
n+1 Z b Yn

f (η)
∃η ∈ [a, b] |En (f )| 6 (t − x ) dt.

i

(n + 1)! a


i=0

Vu l’unicité du polynôme d’interpolation sur le support {x0 , . . . , xn }, pour tout f ∈ Rn [X] on a


Pn [f ] = f , donc
I(f ) = In (f ).
Autrement dit :
la formule de quadrature
Z b n
X
(24) f (x) dx ≈ αi f (xi )
a i=0

est exacte pour tout polynôme f de degré au plus n.


Pour déterminer les coefficients (αi )06i6n il suffit de considérer dans (24) f = f0 , f =
f1 , . . . f = fn où (fj )06j6n est une base de Rn [X] pour laquelle il est facile de calculer
Z b
fj (x) dx.
a
Cette dernière assertion résulte de l’exercice suivant.

Exercice 32. Montrer que l’application f 7→ (f (x0 ), . . . , f (xn )) est un isomorphisme de l’espace vectoriel
Rn [X] dans l’espace vectoriel Rn+1 .
En déduire la propriété suivante :
La famille (fj )06j6n est libre dans Rn [X] ⇐⇒ la famille (vj )06j6n est libre dans Rn+1 où

vj = (fj (x0 ), fj (x1 ), . . . , fj (xn )), j ∈ [[0, n]].

En effet, on obtient le système linéaire des inconnues α0 , . . . , αn :


n
X Z b
fj (xi )αi = fj (x) dx, j = 0, 1, . . . , n.
i=0 a

La matrice du système admet comme colonnes les vecteurs vj définis dans l’exercice, donc elle est
inversible !

Exercice 33. Donner une formule de quadrature dans le cas a = 0, b = 1 et le support x0 = 0, x1 =


1 3
3 , x2 = 4 . Trouver la formule par 3 méthodes : celle décrite ci-dessus, avec le polynôme de Newton et avec
celui de Lagrange.

10.2 Formules classiques : Newton-Cotes


On verra dans la suite qu’avec un choix convenable du support, on peut élever le degré des polynômes
vérifiant la formule de quadrature.

48
10.2.1 La formule des rectangles
Commençons par le cas d’un “petit intervalle”.
Considérons le support {x0 } avec x0 ∈ [a, b]. Alors la formule cherchée est de la forme
Z b
f (x) dx ≈ α0 f (x0 )
a

et cette formule est exacte pour tout polynôme de degré au plus 0, i.e. pour toute fonction constante.
Donc, en prenant f = 1, on obtient
α0 = (b − a),
donc la formule
I0 (f ) = (b − a)f (x0 ),
ou Z b
f (x) dx ≈ (b − a)f (x0 ).
a

Exercice 34. Donner une interprétation géométrique de cette formule de quadrature !

a+b
Un cas particulier intéressant est donné par x0 = , donc la formule de quadrature
2
Z b  
a+b
(25) f (x) dx ≈ (b − a)f
a 2

appelée la formule du rectangle pour le point du milieu. Dans ce cas, la formule est exacte
pour des polynômes de degré au plus 1 !
Plus précisément on a la propriété suivante.

Proposition 15. Soit f de classe C 2 sur [a, b]. Alors, il existe ξ ∈ [a, b] tel que
b
(b − a)3
Z
f (x) dx = (b − a)f (c) + f 00 (ξ) .
a 24
En particulier, si f ∈ R1 [X], alors f 00 = 0, donc la formule (25) est exacte ! L’erreur de quadrature
pour une fonction C 2 est donc

(b − a)3
(26) E0 (f ) = f 00 (ξ) .
24
a+b
Démonstration. En effet, en posant c = , la formule de Taylor-Lagrange assure pour tout x ∈ [a, b] l’existence
2
d’un point ηx ∈]a, b[ tel que
f 00 (ηx )(x − c)2
f (x) = f (c) + f 0 (c)(x − c) + .
2
Z b
En intégrant sur [a, b], comme (x − c) dx = 0, en utilisant la formule de la moyenne on obtient le résultat.
a

Cette formule est utile lorsque l’intervalle [a, b] est “petit”. Pour un intervalle [a, b] quelconque, on
considère un subdivision de [a, b] avec des points équidistants a = x0 < x1 . . . < xn = b, donc
b−a
xi = a + ih où h = est le pas d’intégration. En utilisant la formule du point du milieux sur
n
chaque intervalle [xi , xi+1 ], i = 0, . . . , n − 1, on obtient
Z b n−1  
X (2i + 1)h
(27) f (x) dx ≈ h f a+ .
a 2
i=0

49
Pour évaluer l’erreur de l’approximation dans cette formule on va supposer f de classe C 2 sur [a, b].
Alors, en utilisant la formule (26) sur chaque intervalle [xi , xi+1 ] on a
b n−1  n−1
X Z xi+1 n−1
h3 X 00
Z   
X (2i + 1)h (2i + 1)h
f (x) dx−h f a+ = f (x) dx − hf a + = f (ξi ),
a 2 xi 2 24
i=0 i=0 i=0

1
où ξi ∈ [xi , xi+1 ]. En utilisant la formule généralisée de la moyenne(xvi) : (on prend δi = pour tout
n
i) on obtient :

b n−1
nh3 00 (b − a)h2 00
Z  
X (2i + 1)h
(28) ∃ξ ∈ [a, b] f (x) dx − h f a+ = f (ξ) = f (ξ).
a 2 24 24
i=0
Il suit
Z n−1 
b X  (2i + 1)h (b − a)h2 00
(29) f (x) dx − h f a+ 6 kf k∞ .

2 24

a
i=0
En conclusion, l’erreur dans la formule (27) du rectangle en utilisant le point du milieu avec n points
(b − a)2
équidistants pour une fonction C 2 est de l’ordre h2 = , i.e. pour n → +∞,
n2
Z n−1 
b X  (2i + 1)h 1
f (x) dx − h f a+ = O( 2 ).

2 n

a
i=0

10.2.2 La formule des trapèzes


Prenons le support {x0 , x1 } avec x0 = a < x1 = b. Alors la formule de quadrature est de la forme
Z b
f (x) dx ≈ α0 f (a) + α1 f (b).
a

Elle doit être exacte pour tout polynôme f ∈ R1 [X], en particulier lorsque f (x) = 1, ou f (x) = x. On
obtient le système 
 α0 + α1 = b − a
b2 − a2 .
 aα0 + bα1 =
2
b−a
On trouve α0 = α1 = .
2
Donc, on a la formule de quadrature
b
b − a
Z 
(30) f (x) ≈ f (a) + f (b) .
a 2
On remarque que le second membre
b − a 
I1 (f ) = f (a) + f (b)
2
représente l’aire du trapèze des sommets (a, 0), (b, 0, (b, f (b)), (a, f (a)).
(xvi) n
Pn Exercice : Soient ϕ : [a, b] → R une fonction continue et (c1 , . . . , cn ) ∈ [a, b] et (δi )16i6n une famille de réels positifs,
i=1 δi = 1. Alors il existe ξ ∈ [a, b] tel que

n
X
δi ϕ(ci ) = ϕ(ξ).
i=1

50
Exercice 35. Retrouver la formule des trapèzes en utilisant le polynôme interpolant sous la forme de
Newton, i.e.
Z b Z b
f (x) ≈ (f [a] + f [a, b](x − a)) dx.
a a

En utilisant la formule générale sur l’erreur de quadrature (23), si f est de classe C 2 sur [a, b], alors il
existe ξ ∈ [a, b] tel que
Z b
1
E1 (f ) = I(f ) − I1 (f ) = − f 00 (ηx )(x − a)(b − x) dx.
2 a

D’après la formule de la moyenne on obtient qu’il existe ξ ∈ [a, b] tel que

f 00 (ξ) b
(b − a)3
Z
E1 (f ) = − (x − a)(b − x) dx = −f 00 (ξ) .
2 a 12
Pour un “grand intervalle” on procède comme pour la formule du rectangle : on considère une sub-
b−a
division de [a, b] avec n points équidistants : a = x0 < x1 < · · · < xn = b, donc en posant h =
n
on a xi = a + ih, i = 0, . . . n. En appliquant la formule des trapèzes sur chaque intervalle [xi , xi+1 ],
i = 0, . . . , n − 1, on obtient
Z b n−1
X Z xi+1 n−1
h X 
f (x) dx = f (x) dx ≈ f (xi ) + f (xi+1 ) .
a xi 2
i=0 i=0

En regroupant la dernière somme on obtient la formule


Z b n−1
h X 
(31) f (x) dx ≈ f (a) + 2 f (a + ih) + f (b) .
a 2
i=1
Pour évaluer l’erreur dans la dernière formule on fait le même type de raisonnement que dans la
formule des rectangles en supposant f de classe C 2 sur [a, b] et on obtient

b n−1
h2
Z
h X 
∃ξ ∈ [a, b] f (x) dx − f (a) + 2 f (a + ih) + f (b) = −(b − a) f 00 (ξ).
a 2 12
i=1

10.2.3 La formule de Simpson


a+b
Considérons le support {x0 , x1 , x2 } avec x0 = a, x1 = b, x2 = c = . La formule de quadrature :
2
Z b Z b
f (x) dx ≈ P2 [f ](x) dx
a a
nous amène à calculer

Z b Z b 
P2 [f ](x) dx = f [a] + f [a, b](x − a) + f [a, b, c](x − a)(x − b) dx
a a
Z b  Z b
= f [a] + f [a, b](x − a) dx + f [a, b, c](x − a)(x − b) dx
a a
| {z } | {z }
I1 I2

D’après la formule des trapèzes :

51
Z b  b−a
I1 = f [a] + f [a, b](x − a) dx = (f (a) + f (b)).
a 2
Un calcul simple montre que
b
(b − a)3
Z
(x − a)(x − b) dx = − .
a 6
D’autre part,
f (b)−f (c)
f [c, b] − f [a, c] b−c − f (c)−f
c−a
(a)
f (b) − 2f (c) + f (a)
f [a, b, c] = f [a, c, b] = = =2
b−a b−a (b − a)2
b−a
car b − c = c − a = . Alors
2
(b − a)3 b−a
I2 = −f [a, b, c] =− (f (b) − 2f (c) + f (a)),
6 3
d’où
b
b − a
Z 
P2 [f ](x) dx = f (a) + 4f (c) + f (b) .
a 6
En conclusion, on a obtenu la formule de quadrature de Simpson
b    
b−a
Z
a+b
(32) f (x) dx ≈ f (a) + 4f + f (b) .
a 6 2
A noter que le second membre représente le barycentre de
 
b−a a+b 4(b − a) b−a
[f (a), ], [f , ], [f (b), ].
6 2 6 6

Pour évaluer l’erreur dans la formule de Simpson, on va supposer f de classe C 4 sur [a, b]. Considérons
la fonction
Z c+t
t 
t 7→ ϕ(t) = f (x) dx − f (c − t) + 4f (c) + f (c + t)
c−t 3
b−a
définie sur [0, h], où h = . ϕ est de classe C 4 et, pour tout t ∈ [0, h], on a :
2
1  t 
ϕ0 (t) = f (c − t) + f (c + t) − f (c − t) + 4f (c) + f (c + t) − − f 0 (c − t) + f 0 (c + t)
3 3
2  4 t 0 0

= f (c − t) + f (c + t) − f (c) − − f (c − t) + f (c + t) ;
3 3 3
1  t 
ϕ00 (t) = − f 0 (c − t) + f 0 (c + t) − f 00 (c − t) + f 00 (c + t) ;
3 3
t 
ϕ000 (t) = − 000 000
− f (c − t) + f (c + t) ;
3
1  t 
ϕ(4) (t) = − − f 000 (c − t) + f 000 (c + t) − f (4) (c − t) + f (4) (c + t) .
3 3
On constate que
ϕ(0) = ϕ0 (0) = ϕ00 (0) = ϕ000 (0) = 0.
D’autre part, pour tout t ∈ [0, h], d’après la formule des accroissements finis,
t
∃θt ∈]0, t[ ϕ(4) (t) = − (2f (4) (θt ) + f (4) (c − t) + f (4) (c + t))
3

52
et d’après la formule généralisée de la moyenne
4t (4)
∃γt ∈ [a, b] ϕ(4) (t) = − f (γt ).
3
Alors la formule de Taylor avec le reste intégral sur [0, h] implique

1 h 1 h
Z Z
3 (4) 4t
ϕ(h) = (h − t) ϕ (t) dt = − (h − t)3 f (4) (γt ) dt.
3! 0 3! 0 3

Enfin, d’après le théorème de la moyenne, comme t(h − t)3 > 0, il existe ξ ∈ [a, b] tel que
Z h
4 (4)
ϕ(h) = − f (ξ) t(h − t)3 dt.
3 · 3! 0

En intégrant par parties on obtient immédiatement


Z h
h5
t(h − t)3 dt = ,
0 20
donc
h5 (4)
f (ξ). ϕ(h) = −
90
Comme l’erreur d’approximation dans la formule de Simpson est donnée par ϕ((b − a)/2) = ϕ(h), on
obtient
b
(b − a)5 (4)
   
(b − a)
Z
a+b
(33) E2 (f ) = f (x) dx − f (a) + 4f + f (b) = − f (ξ).
a 6 2 2880
Comme la dérivée d’ordre 4 de tout polynôme f ∈ R3 [X] est nulle, on obtient que la formule de
Simpson est exacte pour tout polynôme de degré au plus 3. Cela montre la bonne performance
numérique de cette formule, car l’ordre (i.e. le plus grand degré du polynôme intégré exactement) est
supérieur à celui qui laissait prévoir le nombre de points !

Résumons l’ordre des formules étudiées :

formule ordre nombre de points


rectangles quelconque 0 1
rectangles milieu 1 1
trapèzes 1 2
Simpson 3 3

Dans le cas d’un “grand intervalle” [a, b], en prenant la subdivision a = x0 < x1 < . . . < xn = b avec
b−a
des points équidistants (∀i ∈ [[0, n]], xi = a + ih, h = ), si on applique la formule de Simpson sur
n
chaque intervalle [xi , xi+1 ], on obtient
Z b n−1
X Z xi+1 n−1    
hX xi + xi+1
f (x) dx = f (x)dx ≈ f (xi ) + 4f + f (xi+1 ) .
a xi 6 2
i=0 i=0

En regroupant les termes dans la somme on obtient


Z b n−1 n−1  !
h X X h
(34) f (x) dx ≈ f (a) + f (b) + 2 f (xi ) + 4 f xi + .
a 6 2
i=1 i=0

53
L’erreur d’approximation dans cette formule s’obtient facilement en utilisant (33) sur chaque sous-
intervalle [xi , xi+1 ] :
Z b n−1 n−1
X  !
h X h
E(f ) = f (x) dx − f (a) + f (b) + 2 f (xi ) + 4 f xi +
a 6 2
i=1 i=0
n−1
X Z xi+1
    
h xi + xi+1
= f (x) dx − f (xi ) + 4f + f (xi+1 )
xi 6 2
i=0
n−1
h5 X (4)
= − f (ξi )
2880
i=0
nh5
= − f (4) (ξ),
2880
où ξi ∈ [xi , xi+1 ], i = 0, . . . , n − 1, et ξ ∈ [a, b], la dernière égalité ayant été obtenue grâce à la formule
généralisée de la moyenne. On peut encore écrire
h4 (4) (b − a)5 (4)
E(f ) = −(b − a) f (ξ) = − f (ξ).
2880 2880n4
Donc, pour n → +∞ on a

b n−1   n−1  !
(b − a) b−a (2i + 1)(b − a)
Z X X 1
f (x) dx− f (a) + f (b) + 2 f a+i +4 f a+ = O( 4 ).
a 6n n 2n n
i=1 i=0
(35)

11 Intégration Gaussienne
11.1 La fonction à intégrer sur un intervalle non nécessairement compact
Dans cette section on va considerer une fonction f donnée sur un intervalle I quelconque ( qui peut
être ouvert, non borné etc.). Donc on se place sur un intervalle I =]a, b[, avec −∞ 6 a < b 6 +∞
(ou bien sur un segment I = [a, b]). On suppose f continue sur I et intégrable sur I (si I n’est pas
compact). On écrit pour tout x ∈ I,
f (x) = w(x)r(x)
où w peut présenter des singularités en a et b mais w est intégrable et r est régulière. Par exemple, si
a = −1, b = 1 on peut avoir
1
w(x) = √
1 − x2
et r continue sur le segment [−1, 1].
Ou, par exemple si a = 0, b = +∞, alors avec w(x) = e−x , on peut avoir r une fonction polynôme, car
x 7→ r(x)e−x est intégrable sur ]0, +∞[ (croissances comparées à l’infini de e−x ). Ou, plus généralement,
r peut avoir une croissance polynômiale i.e., il existe p ∈ N et K > 0 tels que

∀x ∈ [0, +∞[ |r(x)| 6 K(xp + 1).


2
Enfin, si a = −∞, b = +∞ on peut prendre w(x) = e−x etc.
Donc, dans la suite la fonction à intégrer f sera donnée sous la forme f = wr avec w une fonction
intégrable et positive sur I, r régulière, et rw intégrable sur I. On appelle w fonction poids.
Bien évidemment, si l’intervalle d’intégration est un segment [a, b], alors on peut considérer le poids
w(x) = 1.

54
11.2 La manière d’approcher l’intégrale
Soit le support {x0 , . . . , xn } formé de n+1 points distincts de l’intervalle d’intégration. On va considérer
le polynôme d’interpolation de r sur le support {x0 , . . . , xn }, Pn [r]. Alors, comme
n
Y
∀x ∈ I, r(x) = Pn [r](x) + r[x0 , . . . , xn , x] (x − xi )
i=0

on obtient
Z Z Z Z n
Y
f (x) dx = w(x)r(x) dx = w(x)Pn [r](x) dx + w(x)r[x0 , . . . , xn , x] (x − xi ) dx .
I I
|I {z } |I {z i=0 }
In (f )
En (f )

In (f ) représente une valeur approchée de l’intégrale et En (f ) l’erreur de cette approximation.


On peut faire ces opérations en supposant que w ∈ L1 (a, b), et

∀k ∈ N, x 7→ xk w(x) est un élément de L1 (a, b).

Posons désormais
n
Y
ωn+1 (X) = (X − xi ),
i=0

donc ωn+1 est un polynôme de degré n + 1 ayant le coefficient dominant 1.


Z
Il reste donc à savoir comment calculer la valeur approchée de f ,
I
Z
In (f ) = w(x)Pn [r](x) dx
I

et estimer l’erreur Z
En (f ) = w(x)r[x0 , . . . , xn , x]ωn+1 (x) dx.
I
Calcul de In (f )
Comme dans la base de Lagrange (Lj )06j6n on a
n
X
Pn [r](X) = r(xj )Lj (X),
j=0

n  
Y X − xi
où Lj (X) = , j = 0, . . . , n, en posant
xj − xi
i=0,i6=j,
Z
wj = w(x)Lj (x) dx,
I

on obtient
n
X
In (f ) = wj r(xj ).
j=0

A noter que les nombres wj ne dépendent pas de f (ou de r). Ils dépendent évidemment de n et du
support d’intégration.

55
Pour calculer les nombres wj on peut remarquer que pour tout polynôme r ∈ Rn [X], on a Pn [r] = r,
donc en prenant par exemple r(X) = X k , k = 0, . . . , n, on obtient
Z n
X
k
w(x)x dx = wj xkj , k = 0, . . . , n
I j=0

ce qui représente un système de n + 1 équations à n + 1 inconnues ayant comme matrice une matrice
de Vandermonde inversible (on peut également raisonner en utilisant l’exercice 32).
Une autre manière de calculer les nombres wj est d’écrire Pn [r] sous la forme du polynôme de Newton.

Erreur d’intégration
Pour estimer l’erreur En (f ) on peut, d’une manière générale, utiliser la formule (21) en supposant r
de classe C n+1 sur I et la formule de la moyenne. On obtient

|rn+1 (ξ)|
Z
(36) |En (f )| 6 |w(x)ωn+1 (x)| dx.
(n + 1)! I

11.3 Formule de quadrature de Gauss


11.3.1 Comment choisir le support d’intégration pour augmenter la précision ?
On va dire que la formule de quadrature
Z n
X
(37) w(x)r(x) dx ≈ wj r(xj )
I j=0

où
n
X Z
(38) wj r(xj ) = w(x)Pn [r](x) dx
j=0 I

est exacte à l’ordre p (où p ∈ N) si elle est exacte (i.e. l’erreur est nulle) pour tout polynôme de
degré au plus p.
Comme la dérivée d’ordre n + 1 de tous polynôme de degré au plus n est nulle, la formule (36) montre
qu’on a toujours p > n.
La question est de savoir si, avec un choix convenable du support {x0 , . . . , xn } de n + 1 points distincts
de I, on peut obtenir une formule de quadrature exacte à l’ordre p = n + m avec m > 1. On a vu que
cela a été possible dans la formule du rectangle pour le point du milieu ou la formule de Simpson !
On a le résultat suivant.

Théorème 23. (Jacobi) Soit m ∈ N∗ . Alors


la formule de quadrature (37) est exacte à l’ordre n + m ⇐⇒ la relation (38) est vérifiée et le
Yn
polynôme ωn+1 (X) = (X − xj ), vérifie
j=0
Z
(39) ∀P ∈ Rm−1 [X] w(x)P (x)ωn+1 (x) dx = 0.
I

Démonstration. “⇐” Soit r ∈ Rn+m [X]. Il existe Q ∈ R[x], R ∈ Rn [X] tels que
r(X) = ωn+1 (X)Q(X) + R(X).

56
Comme la formule est exacte au moins à l’ordre n, on a
Xn Z Z Z
wj R(xj ) = w(x)R(x) dx = w(x)r(x) dx − w(x)Q(x)ωn+1 (x) dx.
j=0 I I I

Alors, selon (39) la dernière intégrale est nulle, donc


Z n
X n
X
w(x)f (x) = wj R(xj ) = wj f (xj ).
I j=0 j=0

Comme f est arbitraire dans Rn+m [X], on conclut que la formule de quadrature est exacte à l’ordre n + m.
La réciproque est immédiate, car pour tout P ∈ Rm−1 [X], le polynôme f = P ωn+1 appartient à Rn+m , d’où, selon
l’hypothèse,
Z n
X
w(x)f (x) dx = wj f (xj ) = 0,
I j=0
Z Z
car f (xj ) = 0, j = 0, . . . , n. Alors w(x)P (x)ωn+1 (x) dx = w(x)f (x) dx = 0.
I I

Corollaire 3. L’ordre maximum pour lequel la formule de quadrature (37) est exacte est 2n + 1.
Démonstration. Si, par l’absurde, l’affirmation du corollaire est fausse, alors il existe un entier m > n + 2 vérifiant
2
le théorème de Jacobi. Alors, en prenant P = ωn+1 dans la relation (39), on obtient wωn+1 = 0, d’où la contradiction
ωn+1 = 0.

La formule (39) nous suggère à considérer l’espace préhilbertien R[x] muni du produit scalaire h·, ·iw
défini par
Z
(40) (P, Q) 7→ hP, Qiw := w(x)P (x)Q(x) dx.
I
On propose comme exercice au lecteur de montrer que cette application est un produit scalaire sur
R[X].
Alors, pour que les conditions du théorème de Jacobi soient satisfaites pour la plus grande valeur de
m = n + 1, il faut que le polynôme ωn+1 (qui est de degré n + 1) soit w-orthogonal(xvii) au sous-espace
vectoriel Rn [X].
Dans la section suivante on va approfondir ces idées.

11.3.2 Polynômes orthogonaux : généralités


Dans cette section on désigne par Ew l’espace préhilbertien de polynômes réels R[X] muni du produit
scalaire h·, ·iw défini par (40) avec int (I) =]a, b[, −∞ 6 a < b 6 +∞.
La famille (X k )k∈N est libre dans Ew . En utilisant le procédé d’orthogonalisation de Gram-
Schmidt(xviii) il existe une famille orthogonale de polynômes (Qk )k∈N telle que

∀k ∈ N deg(Qk ) = k,

∀(k, i) ∈ N2 k 6= i =⇒ hQk , Qi iw = 0,
Vect (Q0 , . . . , Qk ) = Rk [X].
Il est clair que
∀(k, i) ∈ N2 i < k =⇒ Qk ⊥Ri [X].
(xvii)
C’est-à-dire par rapport au produit scalaire h·, ·iw , i.e.
∀P ∈ Rn [X] hωn , P iw = 0.

(xviii)
voir le cours d’Analyse de Fourier en L2 !

57
Théorème 24. Soit (Qk )k∈N la suite des polynômes orthogonaux dans l’espace Ew considérée ci-
dessus. Pour tout k ∈ N∗ , le polynôme Qk admet k racines distinctes dans l’intervalle ]a, b[.
Démonstration. Le polynôme Qk de degré k admet k racines dans C. Notons z1 , . . . , zi celles de ces racines
appartenant à ]a, b[ comptées sans répétition, et qui provoquent un changement de signe (i.e., pour tout j ∈ [[1, i]], il
existe un voisinage Vj de zj , Vj ⊂]a, b[ tel que pour tout couple (α, β) ∈ Vj2 , α < zj < β, on a Qk (α)Qk (β) < 0). S’il n’y
a pas de changement de signe sur ]a, b[, alors on prend i = 0. Pour démontrer le théorème il suffit de montrer que i = k.
Supposons i < k. En prenant le polynôme
Yi
p(X) = (X − zj ),
j=1

comme deg(p) = i, grâce à l’orthogonalité de Qk à Ri [X], on a

hQk , piw = 0.

Mais, il existe un polynôme R tel que Qk = p · R car toutes les racines de p sont des racines de Qk . De plus R ne change
pas de signe sur ]a, b[ (exercice !). Alors Qk p(x) > 0 pour tout x ∈]a, b[. Comme w est positif, on obtient que
Z b
hQk , piw = w(x)Qk (x)p(x) dx = 0,
a

ce qui implique wQk p = 0 sur ]a, b[. Ceci est une contradiction ! Donc i = k ce qui achève la preuve.

Théorème 25. Soit n ∈ N et le support {x0 , . . . , xn } donné par les racines du polynôme Qn+1 . Alors
n
Y
le polynôme ωn+1 (X) = (X − xi ) est colinéaire avec Qn+1 i.e.
i=0
∃α ∈ R∗ ωn+1 = αQn+1
et la formule de quadrature (37) (avec (38)) est exacte à l’ordre 2n + 1.
Démonstration. Il est clair que les polynômes ωn+1 et Qn+1 ont les mêmes racines (avec les mêmes ordres de
multiplicité = 1), d’où la colinéarité. Il suit que la relation (39) est vérifiée pour m = n (car Qn+1 ⊥R[ X], donc ωn+1 =
αQn+1 ⊥Rn [X]), d’où la conclusion grâce au théorème de Jacobi.

11.3.3 Polynômes orthogonaux classiques


A partir de la suite des polynômes orthogonaux (Qn )n∈N considérée dans la section précédente, on
considère les cas particuliers suivants des suites de la forme (αn Qn )n∈nN avec (αn )n∈N une suite de
réels non nuls :
Les polynômes de Legendre : I = [−1, 1] et x 7→ w(x) = 1.
Sont les éléments de la suite des polynômes orthogonaux (Ln )n∈N obtenue par le procédé de
Gram-Schmidt appliqué à la famille (X n )n∈N normalisés par la condition :

∀n ∈ N Ln (1) = 1.(xix)

1
Les polynômes de Thebychev : I =] − 1, 1[ et x 7→ w(x) = √ .
1 − x2
Sont les polynômes (Tn )n∈N qui ont été étudiés dans les exercices 26 et 28.
Les polynômes de Hermite : I =] − ∞, +∞[ et x 7→ w(x) = exp(−x2 ).
Sont les éléments de la suite des polynômes orthogonaux (Hn )n∈N obtenue par le procédé de
Gram-Schmidt appliqué à la famille (X n )n∈N normalisés par la condition :
pour tout n ∈ N, le coefficient dominant de Hn est 2n .
(xix)
Dans ce cas particulier toutes les racines de Qn sont dans l’intervalle ] − 1, 1[ d’après le théorème 24.Alors Qn (1) 6= 0,
1
donc on prend Ln = Qn .
Qn (1)

58
Les polynômes de Laguerre : I =]0, +∞[ et x 7→ w(x) = e−x xα avec α ∈] − 1, +∞[.
Sont les éléments de la suite des polynômes orthogonaux (Ln )n∈N obtenue par le procédé de
Gram-Schmidt appliqué à la famille (X n )n∈N normalisés par la condition :

∀n ∈ N Ln (0) = 1(xx)

12 Exercices
Exercice 36. Soit f : [a, b] → R une fonction de classe C 4 . On considère un pas constant d’intégration
b−a
h= pour f sur [a, b] et on note x0 , x1 , . . . , xN les points de subdivision. On se propose de calculer
N
l’intégrale à ε près
Z b
I= f (x) dx,
a
où le réel ε > 0 est donné.
On pose Mi = max |f i) (x)|, i = 1, . . . , 4.
x∈[a,b]
1. Déterminer en fonctions de Mi , a et b le pas maximal hmax autorisé en méthode des rectangles, du
point du milieux, des trapèzes et de Simpson pour que la valeur absolue de l’erreur soit majorée par
ε.
En déduire le nombres N de sous-intervalles à considerer pour chacune des méthodes citées, afin
d’évaluer I.
2. Application numérique :
a = 1, b = 3, ε = 10−4 ,
et
f (x) = ex .

3. Même question avec f (x) = x.
4. Interpreter les résultats obtenus.
Exercice 37. Dans cette exercice on se propose de calculer par la méthode de Simpson l’intégrale
Z +∞
2
I= e−x dx
0

à ε près (le réel ε > 0 est donné).


1. Expliquer pourquoi on ne peut pas calculer I directement par la méthode de Simpson.
Z A
2 ε
2. Soit A ∈ [1, +∞[. On pose IA = e−x dx. On veut évaluer IA à près.
0 2
−x2
(a) Soit la fonction x 7→ g(x) = e p(x), où p ∈ R[X]. Montrer par récurrence que, pour tout
n ∈ N, ∃pn ∈ R[X] tel que
2
g (n) (x) = e−x pn (x),
et les polynômes (pn )n∈N vérifient
p0 = p
pn+1 (X) = p0n (X) − 2Xpn (X).
(xx)
Toutes les racines de Qn sont dans l’intervalle ]0, +∞[, donc Qn (0) 6= 0 ce qui permet de normaliser par Ln =
1
Qn .
Qn (0)

59
(b) En déduire la dérivée quatrième f (4) de f et trouver un majorant M de |f (4) | sur [0, A].
(c) En déduire en fonction de A, M et ε, le pas maximal hmax autorisé en méthode de Simpson
pour que l’erreur d’intégration soit en valeur absolue inférieure à ε/2.
Z +∞
2
3. Montrer que pour tout A > 0, e−x dx converge et que
A
Z +∞
2
e−x dx 6 e−A .
A

4. En déduire que, pour tout A > 1, on a

|I − IA | 6 e−A .

5. Trouver la plus petite valeur de A ∈ [1, +∞[ pour que |I − IA | 6 ε/2.


6. Avec la valeur de A trouvée au point précédent, préciser l’erreur commise en prenant I ≈ IS , où IS
est l’évaluation de IA par la méthode de Simpson à ε/2 près.
7. Bilan : on donne ε = 10−4 . Déterminer A est hmax pour évaluer I. Quel est le nombre de sous-
intervalles à considerer ?

Exercice 38. 1. Déterminer le support {x0 , . . . , xn } dans l’intégration gaussienne sur ] − 1, 1[ avec le
1
poids x 7→ w(x) = √ .
1 − x2
2. Pour chaque valeur de n ∈ [[0, 2]] déterminer la formule de quadrature de Gauss correspondante.
3. Application numérique : évaluer à l’aide des formules trouvées au point précédent les intégrales
Z 1 Z 1
x3 dx sin(x)
I= √ ; I0 = √ dx
1−x 2 1 − x2
−1 −1

et donner une majoration de l’erreur de cette évaluation.

Exercice 39. 1. Trouver les polynômes de Legendre L0 , L1 , L2 et L3 .


2. Donner les formules de quadrature de Gauss correspondantes aux supports {x0 , . . . , xn }, 0 6 n 6 2
pour l’intervalle [−1, 1] et le poids x 7→ w(x) = 1.
Z 1
1
3. Utiliser ces résultats pour évaluer 2
dx.
−1 1 + x

60

You might also like