You are on page 1of 54

Table des matires

1 ESPACES VECTORIELS
1.1 Structure despace vectoriel sur K . . . . . . . . . . . . . . . . . .
1.1.1 Dfinition . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.2 Proprits . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Sous-espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.1 Dfinition . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.2 Caractrisation des s.e.v . . . . . . . . . . . . . . . . . . .
1.3 Familles de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3.1 Combinaison linaire . . . . . . . . . . . . . . . . . . . . .
1.3.2 Sous-espace vectoriel engendr par une famille de vecteurs
1.3.3 Famille gnratrice . . . . . . . . . . . . . . . . . . . . . .
1.3.4 Famille libre Famille lie . . . . . . . . . . . . . . . . . .
1.3.5 Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4 Espaces vectoriels de dimension finie . . . . . . . . . . . . . . . .
1.4.1 Dfinition . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4.2 Existence de bases . . . . . . . . . . . . . . . . . . . . . .
1.5 Sous-espaces vectoriels en dimension finie . . . . . . . . . . . . . .
1.5.1 Dimension dun s.e.v . . . . . . . . . . . . . . . . . . . . .
1.6 Sous-espaces vectoriels supplmentaires - Sommes directes . . . .
1.6.1 Somme de 2 s.e.v . . . . . . . . . . . . . . . . . . . . . . .
1.6.2 Somme directe . . . . . . . . . . . . . . . . . . . . . . . .
1.6.3 Caractrisation des s.e.v supplmentaires . . . . . . . . . .
1.6.4 Somme de p s.e.v de E . . . . . . . . . . . . . . . . . . . .
1.6.5 Somme directe de p s.e.v . . . . . . . . . . . . . . . . . . .
1.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

3
3
3
4
4
4
4
5
5
6
6
7
8
9
9
9
10
10
10
10
11
11
11
12
13

2 APPLICATIONS LINEAIRES
2.1 Dfinitions et exemples . . . . . . . . . . . . . . . . . . . . . . .
2.1.1 Dfinitions . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Consquence de la dfinition . . . . . . . . . . . . . . . . . . . .
2.3 Image rciproque dun s.e.v Noyau dune application linaire .
2.4 Image directe dun s.e.v Image dune application linaire . . .
2.5 Projecteur et symtrie . . . . . . . . . . . . . . . . . . . . . . .
2.6 Application linaire en dimension finie . . . . . . . . . . . . . .
2.6.1 Rang dune application linaire . . . . . . . . . . . . . .
2.6.2 Caractrisation des isomorphismes . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

15
15
15
15
16
16
17
18
19
19
19

.
.
.
.
.
.
.
.
.
.

TABLE DES MATIRES


2.7

2.6.3 Matrice dune application linaire . . . . . . . . . . . . . . . . . . . .


Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3 CALCUL MATRICIEL
3.1 Dfinition . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Oprations et structures algbriques . . . . . . . . . . . . . . .
3.2.1 Addition . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.2 Multiplication par un scalaire . . . . . . . . . . . . . .
3.2.3 Produit matriciel . . . . . . . . . . . . . . . . . . . . .
3.2.4 Transposition . . . . . . . . . . . . . . . . . . . . . . .
3.3 Matrices Carres . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.1 Dfinition . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.2 Matrices carres particulires . . . . . . . . . . . . . .
3.3.3 Proprits et calcul des inverses de matrices inversibles
3.3.4 Matrices semblables . . . . . . . . . . . . . . . . . . . .
3.4 Puissances matricielles . . . . . . . . . . . . . . . . . . . . . .
3.4.1 Dfinition . . . . . . . . . . . . . . . . . . . . . . . . .
3.4.2 Calcul de puissances matricielles . . . . . . . . . . . . .
3.5 Matrices et applications linaires . . . . . . . . . . . . . . . .
3.6 Changement de base - Matrice de passage . . . . . . . . . . .
3.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4 DETERMINANTS
4.0.1 Applications p-linaires . . . . . . . . . . . . . . . . .
4.1 Dterminant de n vecteurs . . . . . . . . . . . . . . . . . . .
4.1.1 Dterminant de n vecteurs dans la base B . . . . . .
4.1.2 Caractrisation des bases . . . . . . . . . . . . . . . .
4.2 Dterminant dune matrice carre . . . . . . . . . . . . . . .
4.2.1 Proprits . . . . . . . . . . . . . . . . . . . . . . . .
4.2.2 Rgles de calcul du dterminant dune matrice carre
4.2.3 Dterminant dune matrice triangulaire par blocs . .
4.3 Dveloppement dun dterminant suivant une range . . . .
4.3.1 Mise en place . . . . . . . . . . . . . . . . . . . . . .
4.3.2 Matrice des cofacteurs . . . . . . . . . . . . . . . . .
4.4 Dterminant et rang . . . . . . . . . . . . . . . . . . . . . .
4.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5 SYSTEMES DEQUATIONS LINEAIRES
5.1 Dfinitions . . . . . . . . . . . . . . . . . . . . . . .
5.2 Matrice associe un systme linaire . . . . . . . .
5.3 Rsolution des systmes chelonns . . . . . . . . .
5.3.1 Systmes triangulaires diagonale non nulle
5.3.2 Systmes chelonns . . . . . . . . . . . . .
5.4 Mthode du pivot de Gauss . . . . . . . . . . . . .
5.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . .
5.6 Travaux dirigs . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

20
22

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

23
23
24
24
25
25
25
26
26
26
28
29
30
30
30
31
32
33

.
.
.
.
.
.
.
.
.
.
.
.
.

35
35
37
38
38
39
39
40
40
42
42
43
44
46

.
.
.
.
.
.
.
.

47
47
49
50
50
50
51
53
54

Chapitre 1
ESPACES VECTORIELS
Dans ce chapitre, K dsigne R ou C. Dans ce chapitre, K dsigne R ou C.

1.1
1.1.1

Structure despace vectoriel sur K


Dfinition

On appelle espace vectoriel sur K ou Kespace vectoriel, tout ensemble E non vide muni
dune relation (+) et dune loi externe () appele multiplication par un scalaire telles que :
(E, +) est groupe ablien dont llment neutre est 0E ;
x E, y E, K :

(x + y) = x + y;

K, K, x E :

( + ) x = x + x;

K, K, x E :

( x) = ( ) x;

x E :

1 x = x.

Les lments de E sont appels vecteurs. Ceux de K sont appels scalaires.


0E est le vecteur nul de E. x est loppos du vecteur x.
Exemples :
a) Kn est un espace vectoriel sur K (n 1). Les vecteurs sont les nuplets (x1 , . . . , xn )
dlments de K.
b) K est un espace vectoriel sur K.
c) Soit E un ensemble, F un Kespace vectoriel, alors A (E, F ) lensemble des applications
de E dans F est un Kespace vectoriel.
d) En particulier A (I, R), o I est une partie de R, est un Respace vectoriel.
Remarque : On utilise souvent labrviation : e.v. pour espace vectoriel.

1.2 Sous-espace vectoriel

1.1.2

Proprits

Il dcoule immdiatement de la dfinition que : pour tout couple (u, v) de vecteurs de E et


tout couple (, ) de scalaires, on a :
u
u
On pose u v
(u v)
( ) u

=
=
=
=
=

0E ( = 0
(1) u;
u + (v);
u v;
u u.

ou

u = 0E );

Par la suite on omettra volontairement le signe () entre un scalaire et un vecteur multiplis.

1.2
1.2.1

Sous-espace vectoriel
Dfinition

Soit E un Ke.v. . On appelle sous-espace vectoriel de E toute partie non vide F de E qui
a elle-mme une structure despace vectoriel sur K.
Cela revient au mme de dire quun sous-espace vectoriel F dun Ke.v. E cest une partie
non vide possdant les deux proprits de stabilit suivantes :
X F est stable pour (+) : (x, y) F 2 ,

x + y F.

X F est stable pour () : x F, K,

x F.

Remarque :
B {0E } et E sont des sous-espaces vectoriels de E.
B Labrviation de sous-espace vectoriel est s.e.v.

1.2.2

Caractrisation des s.e.v

F est un s.e.v du Ke.v. E ssi :


X F E;
X F 6= ;
X F stable par combinaison linaire i.e (x, y) F 2 , (, ) K2 :

x + y F.

Proposition 1.1. Si E est un Ke.v., le vecteur nul de E appartient tous


les s.e.v de E.
Si 0E 6 F alors F nest pas un s.e.v de E.
En pratique :
Pour montrer que F est un Ke.v., on essaie de montrer que F est un s.e.v dun Ke.v. bien
connu E.

1.3 Familles de vecteurs

Pour montrer que F est un s.e.v de E, on commence par chercher savoir si 0E F ; si oui
F 6= , sinon F nest pas un s.e.v de E.
Exemples classiques :
1. Les droites vectorielles et les plans vectoriels sont des s.e.v de le.v. des vecteurs de
lespace.
2. C (I, R) lensemble des fonctions continues sur I R valeurs relles, est un s.e.v de
A (I, R).
Proposition 1.2. Si F et G sont deux s.e.v de E, alors F G est un s.e.v de E.
Dmonstration : On utilise la caractrisation et la proposition 3.1.
F G E car F E et G E.
F et G tant deux s.e.v de E alors 0E F et 0E G. On en dduit 0E F G.
Donc F G 6= .
Soit u, v F G et soit , K.
u, v F = u + v F
u, v G = u + v G

= u + v F G.

Attention : En gnral, F G nest pas un s.e.v de E si F et G sont des s.e.v de E.


Considrer le contre exemple suivant pour sen convaincre :
n
o
n
o
E = R2 ; F = (x, 0)/x R ; G = (0, y)/y R .
n
o
On a : F G = (x, y)/x = 0 ou y = 0 .
F G nest pas un s.e.v de E car :

(1, 0) F G
mais (1, 0) + (0, 1) = (1, 1) 6 F G.
(0, 1) F G

1.3
1.3.1

Familles de vecteurs
Combinaison linaire

Soit E un Ke.v. et S = (u1 , . . . , up ) une famille de p vecteurs de E.


u E est dit combinaison linaire des p vecteurs de S sil existe p scalaires 1 , . . . , p tels
que :
p
X
u = 1 u1 + . . . + p up =
j uj .
j=1

On dit aussi que u se dcompose suivant S . Les 1 , . . . , p sont les coefficients (de la combinaison linaire ci-dessus).

1.3 Familles de vecteurs

Exemple : Soit E = R3 .
u1 = (1, 2, 3); u2 = (2, 1, 3); u3 = (5, 0, 9).
1 u1 + 2 u2 + 3 u3 = (1 22 + 53 ; 21 + 2 , 31 32 + 93 ).
Donc un vecteur (x, y, z) de E est combinaison linaire de u1 , u2 , u3 ssi il existe 1 , 2 , 3
rels tels que :

1 22 + 53 = x
21 + 2
= y .

31 32 + 93 = z
On effectue des combinaisons des lignes de ce systme dquations et on en dduit quil faut
et il suffit que 9x 3y + 5z = 0.
Par exemple (1, 3, 0) est une combinaison linaire de u1 , u2 , u3 et (1, 1, 1) ne lest pas.

1.3.2

Sous-espace vectoriel engendr par une famille de vecteurs

Thorme 1.1. Soit S = (u1 , . . . , up ) une famille de p vecteurs dun Ke.v. E. Lensemble des combinaisons linaires des p vecteurs de S est un s.e.v de E appel sous-espace
vectoriel engendr par S et not V ect(S ) ou V ect(u1 , . . . , up ).
Exemple : Considrer les trois vecteurs u1 , u2 , u3 de lexemple qui prcde. On montre facilement que :
n
o
V ect(u1 , u2 , u3 ) = (x, y, z) R3 / 9x 3y + 5z = 0 .

Remarque 1.1 (Importante). Tout s.e.v de E qui contient des p vecteurs u1 , . . . , up


contient aussi V ect(u1 , . . . , up ).

1.3.3

Famille gnratrice

On appelle famille gnratrice de E toute famille finie S de vecteurs de E telle que tout
vecteur de E se dcompose suivant S . On dit aussi que S engendre E ou V ect(S ) = E.
Remarque 1.2.
z S est une famille gnratrice de E ssi E = V ect(S ).
z Si lon modifie lordre des vecteurs dune famille gnratrice de E, on obtient encore une
famille gnratrice de E.
Exemples :

1.3 Familles de vecteurs

a) S = (1, 0), (0, 1) est une famille gnratrice de R2


car (x, y) = x(1, 0) + y(0, 1) : (x, y) R2 .
b) B0 = (e1 , . . . , en ) est une famille gnratrice de Kn o e1 = (1, 0, . . . , 0) ; ;
ei = (0, . . . , |{z}
1 , 0, . . . , 0) ; en = (0, . . . , 1).
iime place

Proposition 1.3. Toute famille de vecteurs de E qui contient une famille gnratrice de E
est une famille gnratrice de E.

Proposition 1.4. Si (u1 , . . . , up ) est une famille gnratrice de E et si up est combinaison


linaire des autres uj alors (u1 , . . . , up1 ) est encore une famille gnratrice de E.

1.3.4

Famille libre Famille lie

Dfinition 1.1. Une famille S = (u1 , . . . , up ) de vecteurs dun Ke.v. E est une famille
libre de E si :

p
X

i ui = 0 = i 1, 2, . . . , p ; i = 0.

i=1

On dit aussi que les vecteurs u1 , u2 , . . . , up sont linairement indpendants. Une famille
qui nest pas libre est dite lie et les vecteurs qui la composent sont dits linairement
dpendants.
Remarques :
Si lon modifie lordre des vecteurs dune famille libre de E, on obtient une autre famille
libre de E.
La famille S est lie ssi il existe une combinaison linaire nulle de vecteurs de S ayant
au moins un coefficient non nul.
Exemples :
# B0 = (e1 , . . . , en ) est une famille libre de Kn .

# La famille (1, 0); (0, 1); (1, 1) est une famille lie de R2 car
(1, 0) + (0, 1) (1, 1) = (0, 0).

Proposition 1.5.
1. (u) libre u 6= 0E .
2. Toute famille contenue dans une famille libre est libre.

1.3 Familles de vecteurs

Dmonstration :
1. Supposons : (u) libre alors
si u = 0E alors 1 u = 0E , et 1 6= 0. Donc (u) li ce qui contredit lhypothse.
Do u 6= 0.
Supposons u 6= 0 alors u = 0E = = 0 donc (u) libre.
2. Evident : on complte avec 0 comme coefficient.

Proposition 1.6.

(u, v) lie
1.
= il existe K tel que v = u.

u 6= 0
2. Toute famille qui contient une famille lie est lie.
3. Toute famille qui contient le vecteur nul est lie.
4. Une famille S de vecteurs est lie ssi il existe au moins un vecteur de S combinaison
linaire des autres vecteurs de S .

Proposition 1.7. Soit (u1 , u2 , . . . , up ) une famille libre de E.


u V ect(u1 , u2 , . . . , up ) (u1 , u2 , . . . , up , u) est lie.
Remarque : On a aussi dans le cas o (u1 , u2 , . . . , up ) est libre,
u 6 V ect(u1 , u2 , . . . , up ) (u1 , u2 , . . . , up , u) libre.

1.3.5

Base

Dfinition 1.2. On appelle base de E (en tant que Ke.v.) toute famille de
vecteurs de E, qui est libre et gnratrice de E.
Exemple : B(e1 , . . . , en ) est une base de Kn . Cette base est dite canonique.
Caractrisation des bases :
B est une base de E ssi les vecteurs de B sont dans E et tout vecteur de E scrit de manire
unique comme combinaison linaire des vecteurs de B.
p
X
Si B = (u1 , . . . , up ) est une base de E et
xi ui est un vecteur de E, alors le xi est appel
la iime coordonne de u dans la base B.

i=1

Proposition 1.8. Soit S = (u1 , . . . , up ) famille de vecteurs de Kn .


1. Si S est une famille libre, alors p n.

1.4 Espaces vectoriels de dimension finie

2. Si S est libre et si p = n, alors S est une base.


3. Si S est gnratrice, alors p n.
4. Si S est gnratrice et p = n, alors S est une base.
5. Toutes les bases de Kn ont n lments.

1.4

Espaces vectoriels de dimension finie

1.4.1

Dfinition

Lespace vectoriel E est dit de dimension finie sil existe dans E une famille gnratrice de E
ayant un nombre fini dlments.

1.4.2

Existence de bases

Si E(6= {0E }) admet une famille gnratrice finie S , alors il existe une base de E constitue
de vecteurs de S .
Thorme 1.2. Toutes les bases dun e.v. de dimension finie, distinct de {0E }, ont
le mme nombre dlments.
Dfinition 1.3 (de la dimension). Le nombre dlments commun toutes les
bases dun e.v. E de dimension finie non rduit au vecteur nul, sappelle la dimension
de E. On le note : dim E.
Par convention, dim{0E } = 0.
Un espace vectoriel de dimension 1 est appel droite vectorielle.
On appelle plan vectoriel tout e.v. de dimension 2.
Exemple :
dim Kn = n (en tant que K e.v.).
dimR Rn = n ; dimC Cn = n ; dimR Cn = 2n.

Thorme 1.3. Dans un e.v. de dimension n N :


Toute famille libre a au plus n lments.
Toute famille gnratrice a au moins n lments.

Thorme 1.4. Soit E un Ke.v. de dimension finie.


dim E = 0 E = {0E }.

1.5 Sous-espaces vectoriels en dimension finie

10

Thorme 1.5. Soit E un Ke.v. de dimension n N .


Toute famille libre de n lments de E est une base de E.
Toute famille gnratrice de n lments de E est une base de E.
Dans la pratique, pour montrer quune famille de n vecteurs dun e.v. de E de dimension n
est une base de E, il suffit de dmontrer quelle est libre ou gnratrice de E.
Thorme 1.6 (Thorme de la base incomplte). Soit E un Ke.v. de dimension
finie n et soit S = (u1 , . . . , up ) une famille libre de p vecteurs de E (p < n). S peut tre
complte par (n p) vecteurs de E pour former une base de E.

1.5
1.5.1

Sous-espaces vectoriels en dimension finie


Dimension dun s.e.v

Thorme 1.7. Soit E un Ke.v. de dimension finie. Tout s.e.v F de E est de dimension
finie et dim F dim E.

Proposition 1.9. Soient F et G deux s.e.v dun Ke.v. E de dimension finie. Si F G et


dim F = dim G, alors F = G.
Dmonstration : Si dim F = dim G = 0 alors F = G = {0E }.
Sinon, F G et dim F = dim G = p (avec p 1).
Dans ce cas F admet une base S de p vecteurs. S est libre dans F donc aussi dans G
et par suite S est une base de G (thorme 3.5.). Donc F = V ect(S ) = G.
En particulier, si F est un s.e.v de E et si dim F = dim E alors E = F .

1.6
1.6.1

S.e.vectoriels supplmentaires - Sommes directes


Somme de 2 s.e.v

Soient F1 et F2 deux s.e.v


n du Ke.v. E.
o
Lensemble F1 + F2 = x1 + x2 / x1 F1 , x2 F2 est un s.e.v de E appel somme de F1
et F2 . Cest le plus petit s.e.v contenant F1 F2 .

1.6 S.e.vectoriels supplmentaires - Sommes directes

1.6.2

11

Somme directe

Soient F1 et F2 deux s.e.v du Ke.v. E. On dit que F1 et F2 sont en somme directe ou


que la somme G = F1 + F2 est directe si la dcomposition y = x1 + x2 de chaque lment de
G = F1 + F2 est unique.
Autrement dit : y G, !x1 F1 et !x2 F2 :

y = x1 + x2 .

On crit alors : G = F1 F2 .
On dit que F1 et F2 sont supplmentaires de E lorsque E = F1 F2 .
n
o
n
o
Exemple : E = R2 :
F1 = (x, 0) / x R et F2 = (0, y) / y R :
Alors on a : E = F1 F2 .

1.6.3

Caractrisation des s.e.v supplmentaires

Thorme 1.8. Soient F1 et F2 deux s.e.v du Ke.v. E de dimension finie. Les 4 propositions suivantes sont quivalentes :
1. F1 et F2 sont supplmentaires de E.
h
i h
i
2. x E, (x1 , x2 ) F1 F2 : x = x1 + x2 et F1 F2 = {0E } .
3. Il existe une base B1 de F1 et une base B2 de F2 telles que B1 B2 soit une base de
E.
4. dim F1 + dim F2 = dim E et F1 F2 = {0E }.
Proposition 1.10. Si E est un Ke.v. de dimension finie, tout s.e.v F1 de E admet au
moins un s.e.v supplmentaire F2 dans E et dim F2 = dim E dim F1 .
En pratique, pour dterminer un s.e.v supplmentaire F2 de F1 , on cherche une base de F1
que lon complte par une famille S de vecteurs de E pour obtenir une base de E. On prend
alors F2 = V ect(S ).

1.6.4

Somme de p s.e.v de E

Soient F1 , F2 , . . . , Fp , p s.e.v de E (p 2). P


Lensemble des vecteurs de E de la forme u = pi=1 ui , o ui Fi pour tout i = 1, 2, . . . , p
p
X
est appel somme des p s.e.v Fi . On le note F1 + F2 + . . . + Fp ou
Fi .
i=1

Proposition 1.11. Soient F1 , F2 , . . . , Fp , p s.e.v de E (p 2).


p
X
Alors
Fi est un s.e.v de E qui contient tous les Fi .
i=1

1.7 Exercices

1.6.5

12

Somme directe de p s.e.v

On dit que la somme

p
X

Fi des p s.e.v Fi de E est directe lorsque chaque vecteur de F

i=1

scrit de manire unique u =

p
X

ui avec ui Fi pour i [|1, p|]. On note alors

i=1

F = F1 F2 Fp ou F =

p
M

Fi .

i=1

1.7

Exercices

Exercice 1.1. Dterminer lesquels des ensembles E1 , E2 , E3 et E4 sont des sous-espaces


vectoriels de R3 . Calculer
n
E1 = (x, y, z) R3 ;
n
E2 = (x, y, z) R3 ;
n
E3 = (x, y, z) R3 ;
n
E4 = (x, y, z) R3 ;

leurs dimensions.

x+yz =x+y+z =0 .
o
x2 z 2 = 0 .
o
ex ey = 0 .
o
2
2
z(x + y ) = 0 .

Exercice 1.2. Dire si les familles suivantes sont libres ou lies :

u1 (0; 1) ;
u2 (2; 1) et
u3 (1; 1) dans R2 .
1.

v1 (3; 7; 0),
v2 (5; 0; 7) et
v3 (2; 3; 1) dans R3 .
2.
Exercice 1.3. On considre les trois vecteurs :


1
2


X1 =
2 , X2 = a
a
1

et

X3 =
2

o a dsigne un paramtre rel.


A quelle condition sur a la famille (X1 , X2 , X3 ) est-elle libre ?



1
1
1

Exercice 1.4. Dans R3 , U =


1 , V = 1 et W = 2 .
3
2
1
1. Montrer que U , V et W forment une base de R3 .

.
2. Trouver, dans cette base, les coordonnes du vecteur Z =
1

1.7 Exercices

13

Exercice 1.5. Montrer que les familles de polynmes suivantes sont des bases des espaces
indiqus.

a) Dans R4 [X], la famille 1, X 1, (X 1)2 , (X 1)3 , (X 1)4 ; dterminer lcriture dun


polynme P R4 [X] dans cette base en fonction des valeurs de P et de ses drives
successives en 1.
b) Dans R2 [X], la famille

X, X(X + 1), (X + 1)2 ; dterminer lcriture des polynmes

1, X, X 2 dans cette base, puis lcriture dun polynme quelconque a + bX + cX 2 .

c) Dans R4 [X], la famille P0 , . . . , P4 gale :

X(X 1) X(X 1)(X 2) X(X 1)(X 2)(X 3)


1, X,
,
,
2
6
24

dterminer lcriture des polynmes 1 + X + X 2 + X 3 et 1 + X + X 2 + X 3 + X 4 dans


cette base.

Chapitre 2
APPLICATIONS LINEAIRES
2.1
2.1.1

Dfinitions et exemples
Dfinitions

On dsigne par K un corps commutatif reprsentant ici R ou C.


Soient E et F deux espaces vectoriels sur K et f une application de E dans F. On dit que f
est linaire (ou Klinaire) si les deux conditions suivantes sont vrifies :
(1) (x, y) E 2

f (x + y) = f (x) + f (y).

(2) (, x) K E f (x) = f (x).


ou bien de faon condense f est linaire si la seule condition suivante est vrifie :
(x, y) E 2 K f (x + y) = f (x) + f (y).
Remarque : Les conditions (1) et (2) signifient quune application linaire entre deux espaces
vectoriels est simplement un morphisme despaces vectoriels.
X Une application linaire et bijective est appele un isomorphisme despaces vectoriels.
X Une application linaire de E dans E est appel un endomorphisme de E.
X Un endomorphisme bijectif de E est appel un automorphisme de E.
X Une application linaire de E dans K est appele une forme linaire sur E.

2.1.2

Exemples

1. E = R2 et F = R3 . Soit f dfinie de E dans F par f : (x, y) 7 (x, x + y, y).


Alors f est linaire.
2. Soit E un Ke.v. et K. On dfinit de E dans E lapplication suivante :
h : x 7 x. Alors h sappelle une homothtie vectorielle de rapport . h est un
endomorphisme de E ; cest un automorphisme de E ssi 6= 0.
3. On prend E = Rn [X]. Soit g lapplication dfinie sur E qui, tout polynme P de E
associe le polynme g(P ) = XP 0 P . alors g est un endomorphisme de E.

2.2 Consquence de la dfinition

15

4. E = C [0, 1], K : ensemble des applications continues de [0, 1] dans K. On dfinit


Z 1
lapplication suivante : : f 7
f (x) dx. Alors est une forme linaire sur E.
0

5. Soit E un Ke.v. et soit v un vecteur de E. On dfinit de E dans E lapplication


suivante : tv : x 7 x + v. Alors tv sappelle une translation de vecteur v. tv nest
pas une application linaire (sauf pour v = 0E ).
6. Soit E un Ke.v. : lapplication nulle de E dans E qui, tout vecteur de E associe le
vecteur nul 0E est un endomorphisme de E. On la note 0.
Lapplication identique de E (ou identit de E), qui, tout vecteur x de E associe x
lui-mme, est un automorphisme de E. Elle est note IdE .
Notations
L (E, F ) : ensemble des applications linaires de E dans F ;
L (E) : ensemble des endomorphismes de E ;
GL(E) : ensemble des automorphismes de E ;
E : ensemble des formes linaires sur E.
Remarques :
L (E, F ), muni de laddition et de la multiplication par un scalaire est un espace
vectoriel sur K.
L (E, F ) muni de laddition et de la composition des applications est un anneau unitaire
non commutatif.

2.2

Consquence de la dfinition

Soient E et F 2 Ke.v. et f dans L (E, F ). Alors on a :


(i) f (0E ) = 0F .
(ii) x E f (x) = f (x).
(iii) (x, y) E 2 f (x y) = f (x) f (y).
Proposition 2.1. E et F tant deux Ke.v., S tant une partie de E et f un lment de

L (E, F ), alors on a : V ect f (S) = f V ect(S) .

2.3

Image rciproque dun s.e.v Noyau dune application linaire

Soient E et F deux Ke.v. et f un lment de L (E, F ). Pour tout s.e.v H de F, on dfinit


limage rciproque
de H par f,note f 1 (H), de la manire suivante :

f 1 (H) = x E / f (x) H . Cest un s.e.v de E.


En particulier f 1 ({0F }), limage rciproque du vecteur nul de F, sappelle le noyau de
lapplication linaire f. On le note Ker(f ) ou Ker f .

Ker(f ) = x E / f (x) = 0F : cest lnensemble des vecteurs de E qui ont pour image
par f le vecteur nul de F.

2.4 Image directe dun s.e.v Image dune application linaire

16

Proposition 2.2. E et F tant deux Ke.v. et f un lment de L (E, F ), alors Ker f est
un s.e.v de E.
Proposition 2.3. E et F tant deux Ke.v. et f un lment de L (E, F ).
Alors f est injective ssi Ker f = {0E }.
Proposition 2.4. E et F tant deux Ke.v. et f un lment de L (E, F ). On suppose que f
est injective. Alors limage par f dune partie libre de E est une partie libre de F. En dautre
terme : lorsque f est injective on a :
n
o
n
o
L libre dans E = f(L) libre dans F .
Exemples :
1. Dterminer le noyau de chacune des trois premires applications linaires qui ont t
donnes en exemple au 2.1.2.
2. Prenons E = R3 et F = R2 . Soit dfinie de E dans F par f : (x, y, z) 7 (x y +
z, x z). Montrer que f est linaire et dterminer son noyau.
3. I tant un intervalle de R, on pose E = C 1 (I, R) et F = C(I, R). E et F sont des e.v.
sur R. On dfinit de E dans F lapplication D : f 7 f 0 , qui tout lment f de E
associe sa drive. Montrer que D est linaire et dterminer son noyau.

2.4

Image directe dun s.e.v Image dune application


linaire

Soient E et F deux Ke.v. et f un lment de L (E, F ). Pour tout s.e.v G de E, on


dfinit limage
directe de G par f , note
suivante :
n
o fn(G), de la manire
o
f (G) = y F / x G : f (x) = y = f (x) / x G . Cest un s.e.v de F.
En particulier f (E), limage directe de E par f est appel limage de f . On le note Im(f )
ou Im f .
Donc par dfinition :
Im f = {f (x) / x E}.
Proposition 2.5. E et F tant deux Ke.v. et f un lment de L (E, F ), alors Im f est
un s.e.v de F.
Proposition 2.6. E et F tant deux Ke.v. et f un lment de L (E, F ).
Alors f est surjective ssi Im f = F.

2.5 Projecteur et symtrie

17

Proposition 2.7. E et F tant deux Ke.v. et f un lment de L (E, F ). Alors limage par
f dune partie gnratrice de E est une partie gnratrice de Im f .
n
o
n
o
En dautre terme on a : S gnratrice de E = f(S) gnratrice de Im f .
En particulier lorsque f est surjective :
n
o
n
o
S gnratrice de E = f(S) gnratrice de F .

Proposition 2.8. E et F tant deux Ke.v. et f un lment de L (E, F ).


Alors f est isomorphisme ssi limage par f dune base de E est une base de F.
En dautre terme on a :
n
o
n
o
f isomorphisme = B base de E, f(B) est une base de F .

2.5

Projecteur et symtrie

Dfinition 2.1. Soit E un Ke.v. et p un endomorphisme de E.On dit que p est un projecteur de E lorsque p p = p (on dit aussi que p est un endomorphisme idempotent).
Etant donn un projecteur p sur E, on dit que p est la projection sur Im(p) paralllement
Ker(p).
Noter quen gnral, pour un endomorphisme quelconque dun espace vectoriel E, son noyau
et son image ne sont pas forcment supplmentaires dans E. Cest un particularit des projecteurs comme lindique le thorme qui suit :
Thorme 2.1. Soit p un projecteur de E. Alors : E = Im(p) Ker(p). La
rciproque nest pas exacte.
Dans la pratique, et pour aller dans lautre sens, supposons que E1 et E 2 sont deux
sous espaces vectoriels supplmentaires dans E : E = E1 E2 . Cela permet de dfinir la
projection p1 sur E1 paralllement E2 et la projection p2 sur E2 paralllement E1 . Dans
ce cas, on a : p1 + p2 = IdE . En effet, comme tout vecteur x E peut se dcomposer de
manire unique sous la forme : x = x1 + x2 u x1 E1 et x2 E2 , on pose tout simplement :
p1 (x) = x1 et p2 (x) = x2 et tout le reste devient vident.
Thorme 2.2. Si p un projecteur de E, alors : Im p = {x E : p(x) = x }.
Dfinition 2.2. Soit E un Ke.v. et s un endomorphisme de E.On dit que s est une symtrie
lorsque s s = IdE (on dit aussi que p est un endomorphisme involutif ou une involution).
Remarque : Il est facile de remarquer quune symtrie est inversible et rciproque delle-mme.

2.6 Application linaire en dimension finie

2.6

18

Application linaire en dimension finie

Proposition 2.9. Soient E et F deux Ke.v. et f un lment de L (E, F ). Soit G un s.e.v


de E de dimension finie. Alors f (G) est de dimension finie et dim f (G) dim G avec galit
si f est injective. En particulier, si E est de dimension finie, alors dim(Im f ) dim E.

2.6.1

Rang dune application linaire

Dfinition 2.3. Soient E et F deux Ke.v. et f un lment de L (E, F ). On appelle rang


de f et on note rg(f ), la dimension de Im f .
On a donc :

rg(f ) = dim Im(f ).

Proposition 2.10. Soient E et F deux Ke.v. et f un lment de L (E, F ).


(i) rg(f ) dim F .
(ii) rg(f ) = dim F ssi f est surjective.
Soit (e1 , e2 , . . . , en ) une base de E,

(iii) rg(f ) = rg f (e1 ), f (e2 ), . . . , f (en ) .


(iv) rg(f ) dim E.

Thorme 2.3 (thorme du rang). Soient E et F deux Ke.v. et f un


lment de L (E, F ). Alors :

2.6.2

dim Ker(f ) + rg(f ) = dim E.

Caractrisation des isomorphismes

Thorme 2.4. Soient E et F deux Ke.v. de dimension finie gale n, et


soit f un lment de L (E, F ). Alors :
n
o
n
o
n
o
f est bijective f injective f surjective .
Proposition 2.11. Soient E et F deux Ke.v. et f un lment de L (E, F ). Si f est un
isomorphisme alors :
(i) f 1 est un isomorphisme de F dans E.
(ii) dim E = dim F .

2.6 Application linaire en dimension finie

2.6.3

19

Matrice dune application linaire

Dfinition de la matrice dune application linaire


Soient E un e.v. de dimension finie p 1 et F un e.v. de dimension finie n 1. On note
B = (e1 , e2 , . . . , ep ) une base de E et C = (1 , 2 , . . . , n ) une base de F .
On a vu quune application linaire tait dtermine par les images des vecteurs dune
base. Donc, si f : E F est une application linaire, elle est dtermine par les vecteurs
f (e1 ), . . . , f (ep ).
Chacun de ces vecteurs est dfini par ses coordonnes dans la base C. La notation de ces
coordonnes ncessite un double indice. On notera aij la i-ime coordonne dans la base C
de limage f (ej ) du j-ime vecteur de la base B. Ces np coefficients sont regroups dans un
tableau de n lignes et de p colonnes, appel matrice de lapplication linaire f relativement
aux bases B et C quon prsente de la faon suivante :

a11 a12 a1p


a21 a22 a2p

..
..
..
.
.
.
.
.
.
an1 an2 anp
Exemple : Si B = (e1 , e2 , e3 ) est la base canonique de R3 , et si C = (1 , 2 ) est la base
canonique de R2 lapplication linaire f : R3 R2 dfinie par
f (e1 ) = 21 2 , f (e2 ) = 52 , f (e1 ) = 1 + 32 a pour matrice :

2 0 1
1 5 3
Remarque : On met en colonnes les images des vecteurs de la base de dpart reprs
dans la base darrive .
La matrice de f dpend des bases B et C et on notera M (f, B, C) ou mat(f ; B, C), ce quon
abrgera en M (f ) ou mat(f ) quand il ny aura pas dambigut sur les bases.
Le plus souvent, on utilisera une seule lettre pour dsigner une matrice : on dira, par exemple,
la matrice A de f par rapport aux bases B et C. Pour indiquer les coeffients de A, on crira
A = (aij )1in,1jp en supprimant la mention des bornes de variation des indices i et j ds
que cela ne crera pas de confusion.
Importance de lordre des vecteurs dans une base : On voit tout de suite que la
matrice dune application linaire ne sera pas la mme suivant lordre dans lequel on prend
les vecteurs de B et lordre dans lequel on prend les vecteurs de C. Dans lexemple prcdent,
posons B0 = (e3 , e1 , e2 ) et C0 = (2 , 1 ). On a :

3 1 5
0
0
M (f, B , C ) =
.
1 2 0
Image dun vecteur par une application linaire
Matrice dun vecteur
Soient E un espace vectoriel de dimension p muni dune base B = (e1 , . . . , ep ) et u un
vecteur de E. u dfinit une application linaire lu : R E telle que lu (1) = u.

2.6 Application linaire en dimension finie

20

La matrice U = M (lu , B0 , B) est la matrice forme par les coordonnes (u1 , . . . , up ) de u


dans la base B :

u1

U = ...
up
avec B0 la base canonique.
Image dun vecteur par une application linaire : Conservons les notations prcdentes
et soit maintenant F un e.v. de dimension n muni dune base C = (1 , . . . , n ) et f : E F
une application linaire.
On pose A = M (f, B, C) = (aij ).
Comment trouver avec U et A la matrice V = M (lf (u) , B0 , C) ?
On vient de voir que V est la matrice colonne forme par les coordonnes (v1 , . . . , vn ) de
v = f (u) dans la base C. Comme :
p
!
X
f (u) = f
uj ej
j=1

p
X

uj f (ej )

j=1

p
X
j=1

on a vi =

!
aij i

i=1

p
n
X
X
i=1

p
X

uj

n
X

aij uj

!
i ,

j=1

aij uj .

j=1

On voit que vi sobtient en prenant les termes de la i-ime ligne de A et en les multipliant
par les termes de U de mme rang puis en faisant la somme de ces produits.
Nous crivons V = AU :

a11 a1p
u1
v1

...
...
V = ... = AU = ...
.. .
an1 anp
up
vn

2
Par exemple, limage du vecteur
de R2 par lapplication linaire R2 R3 dfinie par
3
la matrice

1 1
A = 3 2
2 2
est dfinie par la matrice

1 1
1
2
V = 3 2
= 0 .
3
2 2
2
Expression analytique dune application linaire :

2.7 Exercices

2.7

21

Exercices

Exercice 2.1. E = R3 , f est linaire de E dans E, dfinie par :

2
1
1

1
1
1

, f (
2 et f (
1 .
e
)
=
e
)
=
f (
e1 ) =
1
2
3

3
3
3
1
1
2
g est lapplication de E dans E dfinie par :
u E,

g(u) = u f (u).

1. Montrer que g est linaire.


2. (a) Dterminer rang f, Im f et Ker f.
(b) Dterminer rang g, Im g et Ker g.
(c) Montrer que f f = f .
Exercice 2.2. Nous admettrons que lensemble E des fonctions polynmes de degr infrieur
n
o
ou gal 2 est un e.v. sur R et quune base de E est B = P1 , P2 , P3 o
P1 (x) = x2 , P2 (x) = x et P3 (x) = 1.
A tout polynme P de E, on associe le polynme Q de E dfini par
Q(x) = P (x + 1) P (x) + P (x 1).
On notera f lapplication de E dans E dfinie par : P E,

f (P ) = Q.

1. Vrifier que f (P1 ) = P1 + 2P3 , f (P2 ) = P2 et que f (P3 ) = P3 .


2. Montrer que f est linaire.
3. Quel est le rang de f . En dduire dim Ker f .
Exercice 2.3.
de matrice

1. Donner une base du noyau et de limage de la transformation linaire

0 1 3 1

A=
.
3 4 6 8

0 1 3
4
2. Donner les quations de Ker(A) et Im(A).
3. Montrer que R4 = Ker(A) Im(A).

Chapitre 3
CALCUL MATRICIEL
3.1

Dfinition

Une matrice est un tableau form de nombres pris dans un corps commutatif not K qui
reprsente toujours R ou C.
Soit n le nombre de lignes et p le nombre de colonnes, le couple (n, p) sappelle la dimension ou lordre de la matrice.
Les nombres qui forment la matrice sappellent les coefficients de cette matrice.
Lensemble des matrices dordre (n, p) coefficient dans K est not Mn,p (K).
Soit A Mn,p (K) alors on peut crire

a11 a12 a1p


a21 a22 a2p

A = ..
..
..
.
.
.
.
.
.
an1 an2 anp
Les aij sappellent les lments ou les coefficients de la matrice ; llment aij est situ
lintersection de la iime ligne et de la j ime colonne de A.
On note souvent A = (aij )0in, 1jp ou simplement A = (aij ) sil ny a pas de confusion
possible.
Si K = R, on dit que la matrice A est relle ; si K = C, elle est dite complexe.
Si n = p, on dit que A est une matrice carre dordre n ; les lments a11 , a22 , . . . , ann
forment alors la diagonale principale de la matrice. On les appelle les lments ou
coefficients diagonaux de A.
Une matrice ayant une seule colonne est dite unicolonne et reprsente en gnral un
vecteur, dans ce cas p = 1 :

a11
a21

A = .. .
.
an1
Une matrice ayant une seule ligne est dite uniligne, dans ce cas n = 1 :

3.2 Oprations et structures algbriques

23

A = a11 a12 a1p .


Une matrice qui a une ligne et une colonne est un scalaire.
Si A = (aij ) est une matrice de type (n, p) on appelle transpose de A, et on note t A,
la matrice t A = (bij ) de type (p, n) dfinie par bij = aji .
t
A est obtenue en permutant les lignes et les colonnes de M. On a : t (t A) = A.
Une matrice carre A = (aij ) est dite symtrique si aij = aji quels que soient i et j, i.e
si A = t A.
Une matrice carre A = (aij ) est dite antisymtrique si A = t A.
Si A = (aij ) est une matrice complexe de type (n, p) la matrice A = (aij ) est appele
matrice conjugue de A, aij tant le nombre complexe conjugu de aij .
On appelle adjointe de A, et on note A , la matrice A = t (A) = t A.
Si A est une matrice carre et si A = A, on dit que A est hermitienne.
On dit quune matrice carre A = (aij ) est triangulaire suprieure si les lments
situs au-dessous de la diagonale principale sont nuls, i.e si aij = 0 pour i > j. On dfinit de
mme une matrice triangulaire infrieure.
Une matrice diagonale est une matrice carre A = (aij ) telle que aij = 0 si i 6= j.
Si 1 , . . . , n dsignent les lments diagonaux dune matrice diagonale D, nous crirons
D = diag(1 , . . . , n ).
On appelle matrice scalaire une matrice diagonale dont tous les lments de la diagonale
principale sont gaux.
On appelle matrice unit dordre n, et on note In , la matrice scalaire dordre n dont
les lments de la diagonale principale sont gaux 1.

1 0 0
Exemple : I3 = 0 1 0 .
0 0 1

3.2
3.2.1

Oprations et structures algbriques


Addition

Soient A Mn,p (K), B Mn,p (K) telles que : A = (aij ) et B = (bij ) alors S = A + B est
une matrice de Mn,p (K) dont les coefficients sij sont dfinis par sij = aij + bij i, j.
Laddition dans Mn,p (K) est commutative et associative.
Llment neutre de (+) est la matrice nulle not 0(n,p) ou 0 tout simplement, dont tous les
coefficients sont nuls.

3.2 Oprations et structures algbriques

3.2.2

24

Multiplication par un scalaire

Soient A = (aij ) dans Mn,p (K) et K, alors P = A est une matrice de Mn,p (K) dont les
coefficients Pij sont :
Pij = aij i, j.
Remarque : Mn,p (K) muni de laddition et de la multiplication par un scalaire est un e.v.
sur K de dimension n p.

3.2.3

Produit matriciel

Soient A = (aij ) Mn,p (K) et B = (bkl ) Mp,q (K). Alors le produit C = A B est
possible et donne une matrice de Mn,q (K) dont les coefficients Cij sont
Cij =

p
X

aik bkj .

k=1

Remarques :
Le produit AB nest dfini que si le nombre de colonnes de A est gal au nombre de lignes
de B.
Lexpression de Cij sobtient partir de la ligne dindice i de A et de la colonne dindice
j de B. On dit que lon fait le produit AB lignes par colonnes .
Le produit matriciel nest pas commutatif AB 6= BA.
Exemple :

1 1 2
3 5 1

2 4
9
14
1 6 =
.
14 44
3 2

Proprits du produit
Si A, B, C sont des matrices telles que les diffrents produits ci-dessous soient dfinis et
si est un scalaire quelconque, on a
A(B C) = (A B)C ;
A(B + C) = AB + AC ; (B + C)A = BA + CA ;
A(B) = (A)B = (AB).
Mn,n (K) muni de laddition et du produit matriciel (pour n N? ) est un anneau non
intgre car on peut avoir A 6= 0,B 6= 0
et A B
= 0.

0 1
1 0
0 0
En effet, soit par exemple A =
et B =
alors A B =
.
0 0
0 0
0 0

3.2.4

Transposition

Soit A = (aij ) Mn,p (K). La matrice transpose de A note t A ou At est la matrice de


Mp,n (K) dont les coefficients ij sont donns par ij = aji , i, j.
t
Les lignes de A deviennent les colonnes
de

A avec leur numro :

1 2
1 1 1
A=
alors t A = 1 1 .
2 1 0
1 0

Proprits de la transposition

3.3 Matrices Carres


1.
2.
3.
4.

25

t t

( A) = A pour tout A Mn,p (K).


(A + B) = t A + t B A, B Mn,p (K).
t
(A) = t A, K.
t
(A B) = t B t A, A, B tant que les produits sont possibles.
t

Remarquons que les proprits 2 et 3 montrent que lorsque n = p, alors la transposition


est une application linaire, plus prcisement :

Alors

Soit : Mn,n (K) Mn,n (K)


A 7 t A.
(
(A + B) = (A) + (B),

3.3
3.3.1

(A) = (A).

= est un endomorphisme de Mn,n (K).

Matrices Carres
Dfinition

Les lments de Mn,n (K) sont appels matrices carres dordre n coefficients dans K. On
note simplement Mn (K) au lieu de Mn,n (K).
On sait que Mn (K) est un espace vectoriel sur K de dimension n2 et que muni de laddition
et du produit matriciel, Mn (K) est un anneau non commutatif et non intgre.

3.3.2

Matrices carres particulires

a) Matrice unit
Note In , la matrice unite dordre n est la matrice carre dordre n dont les coefficients
sont le ij (symbole de Kronecker)

1 0 0
(
. . ..

0 si i 6= j,
. .
0 1
ij =
= In = . .
.
.. . . . . . 0
1 si i = j.
0 0 1
b) Matrices scalaires
Une matrice A
(K) est dite scalaire lorsquil existe K tel que A = In .
Mn
2 0
Par exemple
est scalaire.
0 2
Dans certains domaines de la physique, les matrices scalaires sont dites sphriques
(notamment en mcanique). Remarquons que pour une matrice carre quelconque, il
existe deux diagonales : la diagonale principale et la diagonale secondaire.
c) Matrices diagonales
Une matrice diagonale est une matrice
sont nuls.

a11

0
A= .
..
0

carre dont tous les coefficients non diagonaux

0 0
..
.
a22 . .
.
.
..
..
.
. 0
0 ann

3.3 Matrices Carres

26

d) Matrices triangulaires
M = (mij ) Mn (K) est triangulaire suprieure (resp. infrieure) si tous les coefficients
en dessous (resp. au dessus) de la diagonale principale sont nuls.
Exemple :

t11 t12 t1n


..
..

.
.
0 t12
s
T = (tij ) = . .
tij = 0 j < i.

.
..
. . tn1n
..
0 0
tnn

T = (tij ) =

t11

t21
..
.

t12
...

tn1

...
...

0
..
.

tij = 0 j > i.

tnn1 tnn

e) Matrices symtriques et antisymtriques


M Mn (K) est dite symtrique si t M = M
et elle est dite antisymtrique si t M = M.
Remarque 3.1. Si M est symtrique, elle est " gomtriquement symtrique par rapport la diagonale principale ".

0 1 2
0 1
et N = 1 0 1 sont symtriques.
Exemple : M =
1 2
2
1 2
Remarque 3.2. Si A est antisymtrique dordre n, alors toute sa diagonale principale
est nulle, t A = A = aii = aii = aii = 0.

0 1
Exemple : A =
nest pas antisymtrique.
1
2

0 1
est antisymtrique.
1 0
Les ensembles Sn (K) et An (K) des matrices symtriques et antisymtriques dordre n
coefficients dans K sont des s.e.v de Mn (K).
Proposition 3.1. Toute matrice carre dordre n coefficient dans K peut tre dcompose de manire unique en la somme dune matrice symtrique et une matrice
antisymtrique de la manire suivante :
M = MS + MA .
Avec
1
MS = (M + t M ) (partie symtrique)
2
1
MA = (M t M ) (partie antisymtrique).
2

3.3 Matrices Carres

27

3 1 1
Exemple : Dcomposer M = 0 2 0 en partie symtrique et antisymtrique.
1 1 3
f ) Matrices orthogonales
M Mn (K) est dite
: t M M = M t M = In
lorsque
orthogonale

2/2 2/2
= les colonnes forment une base orthonorme.
Exemple : M =
2/2
2/2
g) Matrices inversibles
A Mn (K) est inversible ssi il existe B Mn (K) telles que A B = B A = In
(remarquons quune matrice orthogonale est inversible).
Dans ce cas, la matrice B est appele linverse de A et est note B = A1 . On a donc
A A1 = A1 A = In (pour une matrice M orthogonale, on a M 1 = t M ).

3.3.3

Proprits et calcul des inverses de matrices inversibles

On note GLn (K) lensemble des matrices carres dordre n coefficients dans K qui sont
inversibles.
a) Proprits
(i) Si A GLn (K) alors A1 GLn (K) et (A1 )1 = A.
(ii) Si A et B sont dans GLn (K) alors AB et BA sont inversibles et on a :
(A B)1 = B 1 A1 ,
(B A)1 = A1 B 1 .
(iii) Si A GLn (K) alors t A GLn (K) et (t A)1 = t (A1 ).
(iv) Si D Mn (K) est diagonale, on note D =
diag(1 , 2 , . . . ,
n ) alors D est inver1 1
1
sible ssi i 6= 0 i. Dans ce cas D1 = diag
, ,...,
.
1 2
n
(v) Si T Mn (K) est triangulaire alors T est inversible ssi aucun coefficient diagonal
nest nul.
(vi) (A + B)1 6= A1 + B 1 .
(vii) (A)1 = 1 A1 si K? et A GLn (K).
b) Calcul de linverse par la mthode du pivot de Gauss
. Les oprations lmentaires
On note Li la ligne n i et Ci la colonne n i de cette mme matrice.
(i) Li Li
ou
Ci Ci ; K? .
Cest une homothtie ou dilatation.
(ii) Li Lj change de lignes ;
Ci Cj change de colonnes.

3.3 Matrices Carres

28

(iii) Li Li + Lj j 6= i;
Ci Ci + Cj j 6= i.
Cest une transvection.
Les oprations lmentaires sur une matrice correspond une post ou une pr multiplication par une matrice lmentaire de cette matrice.
Remarque : Post : opration sur les colonnes. Pr : opration sur les lignes.
Principe de la mthode : Soit A Mn (K).
On effectue des oprations lmentaires sur les lignes de A et de In simultanment de
manire transformer A en In dans la colonne de gauche du tableau de pivot. Si cette
transformation est possible alors cest que A est inversible et son inverse A1 appparait
dans la colonne de droite
de pivot.
du tableau
3 1 1
Exemple : Soit A = 0 2 0 . Montrer que A est inversible et trouver son inverse
1 1 3
par la mthode du pivot de Gauss.
c) Rduite triangulaire de Gauss
On rappelle que le rang dune matrice A Mn,p (K) est le nombre de lignes ou de
colonnes qui sont linairement indpendants.
On rappelle que C1 , C2 , . . . , Cn sont linairement indpendantes si
1 C1 + 2 C2 + . . . + n Cn = 0 = 1 = 2 = . . . = n = 0.
Le rang de A se note rg(A). Une matrice carre A dordre n est inversible ssi rg(A) = n.
e triangulaire
On appelle rduite triangulaire de Gauss de la matrice A, toute matrice A
obtenue partir de A par des oprations lmentaires sur les lignes ou sur les colonnes.
e = rg(A).
On montre que rg(A)
On en dduit les remarques suivantes :
(i) Une matrice A Mn (K) nest pas inversible si elle comporte une ligne ou une
colonne nulle.
(ii) Une matrice A Mn (K) ayant deux lignes ou deux colonnes proportionnelles (ou
colinaires ou lies) ne peut tre inversible.
d) Calcul de linverse par la mthode AB = BA = In (mthode du polynme annulateur)

3 1 1
10 6 6
Exemple pratique : A = 0 2 0 A2 = 0 4 0 .
1 1 3
6 6 10
2
On a :
A 6A + 8I3 = 0.

1
1
6I3 A .
= A =
8

3.3.4

Matrices semblables

Deux matrices A et B de Mn (K) sont dites semblables lorsquil existe une matrice inversible
P GLn (K) telles que :
A = P BP 1

3.4 Puissances matricielles

29

Remarque importante : Deux matrices A et B de Mn (K) sont semblables si et seulement


si elles sont les matrices dun mme endomorphisme relativement deux bases.
Proprits :
(i) Si A et B sont semblables et que A est inversible alors B est inversible et A1 et B 1
sont aussi semblables
A = P BP 1
=
A1 = P B 1 P 1 .
(ii) Quand deux matrices A et B sont semblables donc t A et t B sont aussi semblables.
t
A = P BP 1
=
A = t (P 1 ) t B t P.

3.4

Puissances matricielles

3.4.1

Dfinition

Soit M Mn (K) et soit p N. On dfinit les puissances de M de la manire suivante :


p fois
z
}|
{
M 0 = In , M 1 = M, M 2 = M M, p 2 M p = M M M .
n
X
P (X) =
ak X k = a0 + a1 X + . . . + an X n tant un polynme de K[X].
k=0

On dfinit la matrice (ou le polynme matriciel) P (M ) par :


P (M ) = a0 In + a1 M + . . . + an M n pour toute matrice carre M dordre q coefficients
dans K.

3.4.2

Calcul de puissances matricielles

a) Par rcurrence

1 1
Soit M =
, calculer M n , n N.
1 1

1 1
1 1
2
=
M =
1 1
1 1


2 2
1 1
3
M =
=
2 2
1 1

2 2
2 2
4 4
4 4

=2

=2

1 1
1 1
1 1
1 1

On constate que M p = 2p1 M = cest une conjoncture.


M p+1 = M p M = 2p1 M M = 2p1 M 2 = 2p1 21 M = 2p M.
La rcurrence est tablie donc on a M 0 =I2 et
M n = 2n1 M
1 1 1
Offre : Calculer M n , n N avec M = 1 1 1 .
1 1 1
b) Mthode du binme de Newton
A et B tant dans Mp (K), soit n N : si AB = BA alors on a :
n

(A + B) =

n
X
k=0

Cnk Ak B nk

n
X
k=0

Cnk B k Ank .

n 1.

3.5 Matrices et applications linaires

4 1
1 4

30

, calculer J n , n N.

1 1
Or J = M + N avec M =
et N = 3I2 .
1 1

3 3
MN = NM =
donc en utilisant le binme de Newton, on a :
3 3
Exemple : J =

Jn =
=

n
X
k=0
n
X

Cnk M k N nk =

n
X

Cnk M k (3I2 )nk =

k=0

Cnk 3nk M k = Cn0 3n I2 +

k=0

= Cn0 3n I2 +
= Cn0 3n I2 +

n
1 X
2

k=1
n
1 X

n
X

!
Cnk 3nk 2k

n
X
k=0

Cnk 3nk 2k1

Cnk M k 3nk I2

!
M

k=1

M
!

Cnk 3nk 2k Cn0 3n 20 M

k=0

1
J n = 3n I2 + 5n 3n M.
2

4 1 1
Offre : Calculer J n avec J = 1 4 1 .
1 1 4
Remarques : La formule du binme est souvent intressant dans les cas o la dcomposition de la matrice M en somme de deux matrices qui commutent entre elles comporte
une matrice dont une certaine puissance est nulle.
On donne dabord la dfinition suivante :
Soit N Mn (K). On dit que N est nilpotente sil existe un entier p tel que :
N p = 0 (et N p1 6= 0).
On appelle indice de nilpotence dune matrice nilpotente le plus petit entier p0 rpondant la dfinition ci-dessus.
Notons que toute matrice triangulaire ayant tous ces lments diagonaux nuls est ncessairement nilpotente.
c) Mthode du polynme annulateur
Soit M Mn (K) et soit P K[X] un polynme annulateur de M en ce sens que
P (M ) = 0.
Pour calculer M k , on utilise la division euclidienne de X k par P.
X k = P (X)Q(X) + R(X) avec deg(R) < deg(P ).
On remplace alors X par M et on obtient :
M k = P (M )Q(M ) + R(M ), or P (M ) = 0 donc M k = R(M ).

3.5

Matrices et applications linaires

Application linaire canoniquement asocie


Soit une matrice de np coefficients : A = (aij ). Soient E un e.v. de dimension finie p muni
dune base B = (e1 , . . . , ep et F un e.v. de dimension finie n muni dune base C = (1 , . . . , n ).

3.6 Changement de base - Matrice de passage

31

On peut associer A une application linaire f : E F de la faon suivante : les images


des vecteurs de la base B de E sont dfinies comme les vecteurs de F , dont les coordonnes
dans la base C sont les colonnes successives de la matrice, i.e. que
f (ej ) =

n
X

aij i

pour 1 j p.

i=1

Lien entre oprations sur les applications linaires et oprations sur les matrices

3.6

Changement de base - Matrice de passage

3.7 Exercices

3.7

32

Exercices

Exercice 3.1.

1 1 0

1. Soit A =
0 1 1 et soit B = A I3 .
0 0 1

(a) Calculer B 2 , B 3 en dduire une formule de rcurrence que lon dmontrera pour
B n , pour tout entier n.
(b) Dvelopper (B + I3 )n par la formule du binome et simplifier.
(c) En dduire An Pour tout entier n.

1 1 1 1

0 1 1 1

2. Soit A =
. Pour tout entier n, calculer An en utilisant A I4 .
0 0 1 1

0 0 0 1
Exercice

1 1

2 1

1 1

2 1

1 1

3.2. Calculer le rang



2 1 1
1 0

1 1 1
1 1

1 2 1
, 1 0

1 1 1
1 0
1 1 2
1 0

des matrices suivantes.



0 0 1
1 1 1

0 0 0
0 2 1

1 0 0
, 1 1 1

0 1 0
2 1 1
0 0 1
1 1 1

Exercice 3.3. Soit A =


1

1
Calculer A et montrer que

Exercice 3.4. Soit A =


2
2
2

1
2

0
1
0


1 3

1 2

2 2
,

1 3

1 0

0 2

1 1

2 1

1 1

1 1 2

1 1 2

1 2 2
.

1 1 3

1 1 0

1
= 2I A, en dduire que A est inversible et calculer A1 .

1
.
2

1. Calculer A3 3A2 + 2A.


2. Quel est le reste de la division euclidienne de X n par X 3 3X 2 + 2X ?
3. Calculer An pour n N.
4. A est-elle inversible ?
Exercice 3.5. Soit A une matrice carre dordre n ; on suppose que A2 est une combinaison
linaire de A et In : A2 = A + In .

3.7 Exercices

33

1. Montrer que An est galement une combinaison linaire de A et In pour tout n N .


2. Montrer que si est non nul, alors A est inversible et que A1 est encore combinaison
linaire de A et In .
3. Application 1 : soit A = Jn In , o Jn est la matrice Attila (envahie par les uns...),
avec n 1. Montrer que A2 = (n 2) A + (n 1) In ; en dduire que A est inversible,
et dterminer son inverse.
4. Application 2 : montrer que si n = 2, A2 est toujours une combinaison linaire de A
et I2 , et retrouver la formule donnant A1 en utilisant 2.

Chapitre 4
DETERMINANTS
4.0.1

Applications p-linaires

p dsigne un entier au moins gal 2.


Dfinitions 4.1 (Application et forme p-linaires).
Soient E et F deux K-espaces vectoriels ; une application f de E p valeurs dans F est
dite p-linaire si elle est linaire par rapport chacune de ses variables, i.e. si pour tout
j [[1, p]] et pour tout ak E, k [[1, p]] \ {j}, les applications
x E 7 f (a1 , . . . , aj1 , x, aj+1 , . . . , ap ) F
sont linaires.
Lensemble des applications p-linaires de E dans F est not Lp (E, F ).
Les applications p-linaires de E vers le corps des scalaires K sont appeles formes plinaires sur E.

35
Exemples 4.1.
(i) Si 1 ,. . .,p sont des formes linaires sur E, lapplication
f : (x1 , . . . , xp ) E p 7 1 (x1 ) p (xp )
est une forme p-linaire sur E.
(ii) Lapplication dterminant

x1 y1
2
2
= x1 y2 x2 y1
(x, y) K K 7

x2 y2
est une forme 2-linaire (ou bilinaire) sur K2 .
(iii) Lapplication dterminant

x y z
1 1 1

3
3
3
(x, y, z) K K K 7 x2 y2 z2

x3 y3 z3
= (x1 y2 z3 + x2 y3 z1 + x3 y1 z2 ) (x3 y2 z1 + x1 y3 z2 + x2 y1 z3 )
est une forme 3-linaire (ou trilinaire) sur K3 .
Proposition 4.1.
1. Lapplication nulle de E p vers F est la fois p-linaire et linaire.
2. Soit f est une application p-linaire de E dans F ; si lun des vecteurs xi est nul, alors
le vecteur f (x1 , . . . , xp ) est nul.
3. Lp (E, F ) est un K-espace vectoriel.
Dmonstration.
(2) f est une application linaire par rapport sa ie variable, et limage de 0E par une
application linaire est 0F .
(3) Lp (E, F ) est un sous-espace vectoriel de lespace de toutes les applications de E p vers
F.

4.1 Dterminant de n vecteurs

36

Dfinitions 4.2 (Symtrie, antisymtrie et alternance).


Soient E et F deux K-espaces vectoriels et f une application p-linaire sur E valeurs
dans F ; on dit que :
f est symtrique si (x1 , . . . , xp ) E p , (i, j) [[1, p]],
i < j = f (. . . , xi , . . . , xj , . . .) = f (. . . , xj , . . . , xi , . . .)
f est antisymtrique si (x1 , . . . , xp ) E p , (i, j) [[1, p]],
i < j = f (. . . , xi , . . . , xj , . . .) = f (. . . , xj , . . . , xi , . . .)
f est alterne si (x1 , . . . , xp ) E p , (i, j) [[1, p]],
i < j et xi = xj = f (. . . , xi , . . . , xj , . . .) = 0F .
Exemples 4.2. Reprenons les exemples prcdents.
(i) f est symtrique
(ii) et iii. Les dterminants sont antisymtriques et alterns.
Proposition 4.2. Lensemble des applications n-linaires symtriques et lensemble des
applications n-linaires alternes de E valeurs dans F sont des sous-espaces vectoriels de
Lp (E, F ).
Thorme 4.3 (Antisymtrie, alternance et permutation).
Soit f une application p-linaire de E vers F ; les proprits suivantes sont quivalentes :
1. f est alterne ;
2. f est antisymtrique ;
3. pour toute permutation s Sp et tout (x1 , . . . , xp ) E p
f (xs(1) , . . . , xs(p) ) = (s)f (x1 , . . . , xp )

4.1

Dterminant de n vecteurs

Dans cette section, E dsigne un K-espace vectoriel de dimension finie n, muni dune base
B = (e1 , . . . , en ) ; la base duale B = (1 , . . . , n ) est dfinie par i (x) = xi la coordonne de
rang i relative B. Nous tudions lensemble n (E) des formes n-linaires alternes dfinies
sur E et f dsigne une telle forme.

4.1 Dterminant de n vecteurs

4.1.1

37

Dterminant de n vecteurs dans la base B

Dfinition 4.3 (Dterminant de n vecteurs dans une base).


Soient E un K-espace vectoriel de dimension finie n et B = (e1 , . . . , en ) une base de E ;
on appelle dterminant dans la base B et lon note detB , lunique forme n-linaire alterne
sur E qui prend la valeur 1 sur B.
Si pour tout j [[1, n]], xj =

n
X

ai,j ei , le scalaire det(x1 , . . . , xn ), appel dterminant

i=1

dans la base B du n-uple (x1 , . . . , xn ) E n , admet deux expressions


detB (x1 , . . . , xn ) =

X
sSn

(s)

n
Y

as(j),j =

j=1

(s)

sSn

n
Y

ai,s(i)

(4.1)

i=1

Thorme 4.4 (Dimension de n (E)).


Lespace vectoriel n (E) des formes n-linaires alternes sur un espace vectoriel E de
dimension n est de dimension 1 ; il admet pour base (detB ) et
f n (E), f = f (e1 , . . . , en ) detB = f (B) detB

4.1.2

(4.2)

Caractrisation des bases

Thorme 4.5 (Passage dune base une autre).


Si B et B 0 sont deux bases de E et V un n-uple de E n , on a
detB (B 0 ) detB0 (B) = 1

(4.3)

detB0 (V) = detB0 (B) detB (V)

(4.4)

Dmonstration. detB0 est une forme n-linaire alterne qui on applique la formule 6.2. ,
soit
detB0 = detB0 (B) detB
En prenant la valeur de ces expressions en B 0 et en V, on obtient les rsultats.
Thorme 4.6 (Caractrisation des bases).
Si V = (v1 , . . . , vn ) est une famille de n vecteurs dun espace vectoriel de dimension n et
si B est une base de E, V est une base de E detB (V) 6= 0
Dmonstration.
=

Si V est une base de E, detB (V) nest pas nul, car detB (V) detV (B) = 1.

Par contrapose ; si V nest pas une base de E, V est une famille lie (V est maximale)

et donc detB (V) = 0 (image dune famille lie par une forme n-linaire alterne).

4.2 Dterminant dune matrice carre

4.2

38

Dterminant dune matrice carre

Considrons une matrice carre M dordre n 1 coefficients dans K ; on note ai,j (ou aij ) le
terme gnral de cette matrice et C1 ,. . .,Cn ses vecteurs colonnes ; on crira indiffremment :
M = [ai,j ] = (C1 , . . . , Cn ).
Appelons E = (E1 , . . . , En ) la base canonique de Mn,1 (K) ; le scalaire ai,j sinterprte
comme la composante du vecteur colonne Cj suivant Ei relativement la base canonique C,
ce qui donne la dfintion suivante :
Dfinition 4.4 (Dterminant dune matrice carre).
On appelle dterminant de la matrice carre M = [ai,j ], et lon note det M , le dterminant
detE (C1 , . . . , Cn ) de la famille de ses vecteurs colonnes dans la base canonique de Mn,1 (K).
Thorme 4.7 (Dterminant de la transpose dune matrice).
Si M = [ai,j ] Mn (K), on a
t

det M = det M =

(s)

sSn

n
Y

as(j),j =

j=1

(s)

sSn

n
Y

ai,s(i)

i=1

Dmonstration. Le vecteur colonne Cj a pour coordonnes (a1,j , . . . , an,j ) dans la base canonique de Mn,1 (K). En changeant M en tM , on passe de lune des expressions du dterminant
lautre.

4.2.1

Proprits

Thorme 4.8 (Dterminant dune matrice triangulaire).


Le dterminant dune matrice triangulaire est le produit des lments de sa diagonale
principale.
Dmonstration. Si M est une matrice triangulaire suprieure, on utilise lexpression 4.3 du
dterminant dun systme triangulaire de vecteurs.
Si M est une matrice triangulaire infrieure, tM est une matrice triangulaire suprieure ;
lgalit det M = det tM donne le rsultat.
Thorme 4.9 (Dterminant de la matrice dun endomorphisme).
Si u est un endomorphisme dun K-espace vectoriel E de dimension finie n 1, le
dterminant de u est le dterminant de la matrice de u dans une base quelconque de E.

Pour toute base B de E, det u = det MatB (u) .


Dmonstration. Soit B = (e1 , . . . , en ) une base de E ; les composantes du vecteur colonne
Cj de MatB (u) sont les composantes de u(ej ) dans B, ce qui donne lgalit

det u(e1 ), . . . , u(en ) = detE (C1 , . . . , Cn ) = det MatB (u) .

4.2 Dterminant dune matrice carre

39

Thorme 4.10. Si n est un entier positif, on a


1. det In = 1 ;
2. M Mn (K), K, det(M ) = n det(M ) ;
3. (M, N ) Mn (K)2 , det(M N ) = det M det N ;
4. M GLn (K) det M 6= 0 et, dans ce cas, det(M 1 ) = (det M )1 .
Proposition 4.11 (Dterminant de matrices semblables).
Deux matrices semblables ont mme dterminant.
Dmonstration. Si A et B sont semblables, il existe une matrice inversible P telle que B =
P 1 AP et donc det(P 1 AP ) = det(P 1 ) det A det P = det A.
Remarques.
Si M et N sont deux matrices carres dordre n 2, det(M + N ) est (presque) toujours
diffrent de det M + det N .

4.2.2

Rgles de calcul du dterminant dune matrice carre

Le dterminant dune matrice carre est une application n-linaire alterne des vecteurs
colonnes, et donc
si on change deux colonnes dune matrice, le dterminant se change en son oppos ;
le dterminant dune matrice dpend linairement de chacun de ses vecteurs colonnes ;
on ne change pas la valeur du dterminant dune matrice en ajoutant lun de ses
vecteurs colonnes, une combinaison linaire des autres vecteurs colonnes ;
le dterminant dune matrice est nul si lun des vecteurs colonnes est nul, ou si lun
des vecteurs colonnes est combinaison linaire des autres vecteurs colonnes.
Puisque le dterminant dune matrice est gal au dterminant de sa transpose, on peut
remplacer vecteur colonne par vecteur ligne dans les proprits prcdentes.

4.2.3

Dterminant dune matrice triangulaire par blocs

Soient C = (1 , . . . , n ) est la base canonique de Kn , E 0 le sous-espace vectoriel de Kn


de base C 0 = (2 , . . . , n ) et E 00 le sous-espace vectoriel de Kn de base C 00 = (1 , . . . , n1 ).
Lapplication
f : (x1 , . . . , xn1 ) 7 detC (1 , x1 , . . . , xn1 )
est une forme (n 1)-linaire alterne sur E 0 ; elle est donc proportionnelle detC 0 , et comme
f (C 0 ) = detC (1 , 2 , . . . , n ) = 1, on a lgalit
(x1 , . . . , xn1 ) E 0 , detC (1 , x1 , . . . , xn1 ) = detC 0 (x1 , . . . , xn1 )
De mme, en utilisant la (n 1)-forme linaire alterne sur E 00
g : (x1 , . . . , xn1 ) 7 detC (x1 , . . . , xn1 , n )

4.2 Dterminant dune matrice carre

40

on obtient
(x1 , . . . , xn1 ) E 00 , detC (x1 , . . . , xn1 , n ) = detC 00 (x1 , . . . , xn1 ).
Nous venons de dmontrer le
Lemme 4.12. Si A Mn1 (K), alors

..
..

1
. 0n1,1
. 01,n1
A

. . . . . . . . . . . . . . . = det A = . . . . . . . . . . . . . . .

.
.

01,n1 ..
0n1,1 ..
1
A
Lemme 4.13. Si A Mn1 (K) et B Mn1 (K), alors

..
..
1
A . 01,n1
. B

. . . . . . . . . . . . = det A = . . . . . . . . . . . .

.
.

0n1,1 .. A
B ..
1
En utilisant ce lemme et une dmonstration par rcurrence, on retrouve le
Thorme 4.14 (Dterminant dune matrice triangulaire).
Le dterminant dune matrice triangulaire est le produit des lments de sa diagonale
principale.
Lemme 4.15. Soient A Mp (K), B Mp,q (K) et C Mq,p (K) ; alors

..
..
Ip . B
A . 0

. . . . . . . . = det A = . . . . . . . .

.
.

0 .. A
C .. Iq
Thorme 4.16 (Dterminant dune matrice triangulaire par blocs).
Si A Mp (K), B Mq (K) et C Mp,q (K), on a

..
A . C

. . . . . . . . = det A det B

..

0 . B
Dmonstration. On crit la matrice dont on veut calculer le dterminant, comme un produit
de deux matrices du type prcdent, en utilisant le produit matriciel par blocs

..
..
..
A
.
C
I
.
0
A
.
C

M = . . . . . . . . = . . . . . . . . . . . . . . . . = N R

..
..
..
0 . Iq
0 . B
0 . B
Le lemme prcdent et det M = det N det R donnent le rsultat.

4.3 Dveloppement dun dterminant suivant une range

4.3
4.3.1

41

Dveloppement dun dterminant suivant une range


Mise en place

Soient M = [ai,j ] = (C1 , . . . , Cn ) une matrice carre


Pndordre n 2, E = (E1 , . . . , En )
la base canonique de Mn,1 (K) ; pour j [[1, n]], Cj = i=1 ai,j Ei . Le dterminant de M se
dveloppe suivant son j e argument en utilisant la linarit et lon a
det M = detE (C1 , . . . ,

n
X
k=1

ak,j Ek , . . . , Cn ) =

n
X

ak,j detE (C1 , . . . , Ek , . . . , Cn ) =

k=1

n
X

ak,j Ak,j

k=1

o les dterminants Ak,j sexprime par

a1,1 a1,j1 0 a1,j+1 a1,n

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

ak1,1 ak1,j1 0 ak1,j+1 ak1,n

Ak,j = ak,1 ak,j1 1 ak,j+1 ak,n


ak+1,1 ak+1,j1 0 ak+1,j+1 ak+1,n

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

an,1 an,j1 0 an,j+1 an,n


soit, en effectuant (j 1) transpositions de colonnes,

0 a1,1 a1,j1

a
1,j+1
1,n

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

0 ak1,1 ak1,j1 ak1,j+1 ak1,n

ak,j+1 ak,n
Ak,j = (1)j1 1 ak,1 ak,j1
0 ak+1,1 ak+1,j1 ak+1,j+1 ak+1,n

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

0 an,1 an,j1
an,j+1 an,n
ce qui donne, en effectuant (k 1) transpositions de lignes,

1 ak,1 ak,j1
a

a
k,j+1
k,n

0 a1,1 a1,j1
a1,j+1 a1,n

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

(j1)+(k1)

0
a

a
a

a
Ak,j = (1)
k1,1
k1,j1
k1,j+1
k1,n

0 ak+1,1 ak+1,j1 ak+1,j+1 ak+1,n

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

0 an,1 an,j1
an,j+1 an,n

a1,1 a1,j1
a

a
1,j+1
1,n

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

ak1,n
j+k
j+k ak1,1 ak1,j1 ak1,j+1
= (1)
= (1) det Mk,j
a

a
a

a
k+1,1
k+1,j1
k+1,j+1
k+1,n

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

an,1 an,j1
an,j+1 an,n
Ainsi Ak,j = (1)k+j det Mk,j o Mk,j est la matrice dduite de M par suppression de la k e
ligne et de la j e colonne.

4.3 Dveloppement dun dterminant suivant une range

42

Dfinitions 4.5 (Mineur, cofacteur).


Si M = [ai,j ] est une K-matrice carre dordre n 2, on appelle
mineur relatif llment ai,j , le dterminant de la matrice carre Mi,j dordre (n 1)
et dduite de M par la suppression de la ie ligne et de la j e colonne ;
cofacteur de ai,j , le scalaire (1)i+j det Mi,j .
Thorme 4.17 (Dveloppement du dterminant suivant une range).
Si M = [ai,j ] est une K-matrice carre dordre n 2 et Ai,j le cofacteur de ai,j , alors,
pour tout i et tout j dans [[1, n]], on a
n
X
det M =
ak,j Ak,j , dveloppement du dterminant suivant la j e colonne ;
k=1

det M =

n
X

ai,k Ai,k , dveloppement du dterminant suivant la ie ligne.

k=1

Dmonstration. La premire formule a t dmontre. Pour la seconde, on utilise lgalit


du dterminant de M et de sa transpose, et le dveloppement de det tM par rapport la ie
colonne de tM , i.e. la ie ligne de M .

4.3.2

Matrice des cofacteurs

Dfinition 4.6 (Matrice des cofacteurs).


Si M = [ai,j ] est une K-matrice carre dordre n 2, on appelle matrice des cofacteurs
ou comatrice de M , et on note Com M , la matrice de terme gnral Ai,j , le cofacteur relatif
ai,j .

Com M = [Ai,j ] = (1)i+j det Mi,j .

Thorme 4.18. Pour toute K-matrice carre M dordre n 2, on a


M t(Com M ) = t(Com M ) M = (det M )In .
Dmonstration. Si, dans M , on remplace la j e colonne (ak,j )k par (bk )k , le dterminant de
n
X
cette nouvelle matrice scrit
bk Ak,j : cest le dveloppement du dterminant par rapport
sa j e colonne.

k=1

Si la nouvelle colonne (bk )1kn est la ie colonne de M , le dterminant est nul si i 6= j,


et vaut det M si i = j, ce qui scrit
(i, j) [[1, n]]2 ,

n
X
k=1

ak,i Ak,j = j,i (det M )

4.4 Dterminant et rang

43

ou encore, puisque ( (Com M ) M )j,i =

n
X

Ak,j ak,i ,

k=1
t

(Com M ) M = (det M )In

Par une mthode analogue, que je vous encourage rdiger, on montre que
2

(i, j) [[1, n]] ,

n
X

ai,k Aj,k = i,j (det M )

k=1

ce qui revient crire


M t(Com M ) = (det M )In

Remarque. M 7 Com M est une application continue de Mn (K)dans Mn (K), car les
composantes de Com M sont polynomiales en les coefficients de M .
Corollaire (Inverse dune matrice carre).
Si M est une matrice carre inversible dordre n 2, on a
M GLn (K) = M 1 =

1 t
(Com M ).
det M

Remarques. Excepts les cas n = 2 et n = 3, cette formule ne peut servir au calcul numrique
de linverse car elle comporte trop doprations.

a c
d
c
1
GL2 (K) = M 1 =

M =
ad bc b a
b d
Par contre, elle est utile dans des questions thoriques ; par exemple, M 7 M 1 est une
bijection continue de GLn (K) (cest mme une involution) car produit de deux applications
continues.

4.4

Dterminant et rang

Le rang dune matrice M = [ai,j ] = (C1 , . . . , Cp ) = t(L1 , . . . , Ln ) Mn,p (K) est le rang
de ses vecteurs colonnes (Cj )j[[1,p]] ou celui de ses vecteurs lignes (Li )i[[1,n]] car le rang dune
matrice est gal celui de sa transpose ; on a donc :
rg M inf(n, p)
Dfinition 4.7 (Matrice extraite).
Si I est une partie non vide de [[1, n]] et J une partie non vide de [[1, p]], on appelle matrice
extraite de M associe I et J, la matrice R = [ai,j ] o i I et j J.

4.4 Dterminant et rang

44

Lemme 4.19. Le rang dune matrice extraite de M est infrieur ou gal au rang de M .
Dmonstration. Soit R une matrice extraite de M associe I et J. Considrons la matrice
Q extraite de M et associe [[1, n]] et J ; les vecteurs colonnes (Cj )jJ de Q constituent une
sous-famille des vecteurs colonnes de M , donc rg Q rg M .
De mme, les vecteurs lignes (Li )iI de R constituent une sous-famille des vecteurs lignes
de Q, do rg R rg Q, et le rsultat.
Thorme 4.20 (Caractrisation du rang dune matrice).
Le rang dune matrice non nulle est lordre maximal des matrices carrs inversibles extraites.
Dmonstration. Soit M Mn,p (K) une matrice non nulle.
Lensemble des ordres des matrices carres inversibles extraites de M nest pas vide, car
il contient 1 puisque M nest pas la matrice nulle, et est major par rg M daprs le lemme.
On note r son plus grand lment ; on a donc 1 r rg M .
De la famille (C1 , . . . , Cp ) des vecteurs colonnes de M , on peut extraire une sous-famille
libre (Cj )jJ de cardinal rg M ; on note Q la matrice extraite de M associe [[1, n]] et J, et
rg M = rg Q. Des vecteurs lignes (L1 , . . . , Ln ) de Q, on peut encore extraire une sous-famille
libre (Li )iI de cardinal rg Q ; on note R la matrice extraite de M et associe I et J et
rg R = rg Q.
R est une matrice carre de rang maximum (#I = #J = rg R = rg Q = rg M ), donc
une matrice inversible. En consquence, r rg M .
Finalement r est gal au rang de M .
Corollaire (Caractrisation des familles libres).
Si F = (c1 , . . . , cp ) est une famille de p vecteurs dun K-espace vectoriel E de dimension
finie n, si M = MatB (F) Mn,p (K) est la matrice des composantes de F relatives une
base B de E, F est une famille libre si, et seulement si, il existe une matrice carre dordre
p, extraite de M et de dterminant non nul.

4.5 Exercices

4.5

45

Exercices

Exercice 4.1. La famille (2, 1, 0), (1, 3, 1), (5, 2, 1) est-elle libre ?
Exercice 4.2. Calculer le dterminant

3
1
0
0

. . .
0
3
1

.
. . 0
n = 4 0
3

.
.
.

. . . . . . 1

0
4 0 3
en fonction de n (vrifier que 1 est racine de X 3 3X 2 + 4).
Exercice 4.3. Soient a, b, c trois rels et n le dterminant de taille n suivant :

a b

......
c

n = . . . .

.
.
b

0
c a
1. On pose 0 = 1, 1 = a. Montrer que n N, n+2 = an+1 bcn .
2. On suppose que a2 = 4bc. Montrer par rcurrence que :
n N, n = (n + 1)

an
.
2n

Exercice 4.4. Soit n le dterminant de taille n suivant :

3 1
0

. . . ..
2 3
1
.

.
. . 0
n = 0 2
3

. .
.. . . . . . . . . 1

0 0
2 3
1. Montrer que n N , n+2 = 3n+1 2n (avec la convention 0 = 1, 1 = 3).
2. Montrer par rcurrence que n N , n = 2n+1 1.

Chapitre 5
SYSTEMES DEQUATIONS
LINEAIRES
Dans tout ce chapitre, les systmes considrs sont coeffcients dans R ou C. Dans un
souci de simplifcation des notations, nous adopterons la convention que le symbole K dsigne
R ou C. On rappelle que K n dsigne lensemble des n-uplets dlments de K, cest--dire
lensemble des (u1 ; . . . ; un ) avec chaque ui appartenant K.

5.1

Dfinitions

Dfinition 5.1. Soit p N et n N . On appelle systme linaire de p quations


n inconnues coeffcients dans K (ou encore systme p n) tout systme dquations du
type

a11 x1 + + a1n xn = b1
(S)

ap1 x1 + + apn xn = bp

avec aij K pour 1 i p et 1 j n, et bi K.


Un tel systme est dit carr si p = n.
Dfinition 5.2. Si b1 = . . . = bp = 0, le systme est dit homogne. Pour un systme
linaire gnral (S) de p quations n inconnues, le systme

a11 x1 + + a1n xn = 0
0
(S )

ap1 x1 + + apn xn = 0
est appel systme homogne associ (S).

5.1 Dfinitions

47

Dfinition 5.3. Soit (S) un systme linaire pn. On appelle solution de (S) tout n-uplet
(u1 ; . . . ; un ) de Kn tel que

a11 u1 + + a1n un = b1
(S)

ap1 u1 + + apn un = bp

Dfinition 5.4. Deux systmes (S1 ) et (S2 ) sont dits quivalents sils ont le mme ensemble de solutions, cest--dire si toute solution de (S1 ) est solution de (S2 ) et vice versa.
Exemple : Les systmes

x1 = 1
x1 x2 = 2

et

x1 + x2 = 0
x1 x2 = 2

sont quivalents.
Dfinition 5.5. On dit quun systme carr est triangulaire si lon a
aij = 0 pour tout couple (i; j) tel que i < j (systme triangulaire infrieur)
ou bien
aij = 0 pour tout couple (i; j) tel que i > j (systme triangulaire suprieur).
Un systme triangulaire est dit diagonale non nulle sil est triangulaire et si
tous les termes diagonaux sont non nuls.
Exemple : Le systme suivant est triangulaire suprieur diagonale non nulle :

x1 + 5x2 + x4 = 1

x2 + x3 = 5
x3 5x4 = 0

x4 = 1
Dfinition 5.6. On dit quun systme pn est chelonn sil existe un entier

k 1, . . . , n et un k-uplet dentiers j1 < < jk de 1, . . . , n tel que :

1. pour i 1, . . . , k , on a

a = 0, si j < j ;
ij
i
aij 6= 0;
i

2. pour i > k, aij = 0.


Les k premires quations sont appeles quations principales, et les inconnues xj1 , . . . , xjk sont appeles inconnues principales.

5.2 Matrice associe un systme linaire

48

Remarque 5.1. Tout systme triangulaire suprieur diagonale non nulle est

chelonn : on a k = n et ji = i pour tout i 1, . . . , n ;


Exemple : Le systme 4 5 suivant est chelonn

2x1 + 3x2 + x5

x2 + x3 + x4 x5
x5

=1
=4
=0
= 3

On a k = 3, j1 = 1, j2 = 2 et j3 = 5. Les trois prmires quations sont les quations


principales, et x1 , x2 et x5 sont les inconnues principales.

5.2

Matrice associe un systme linaire

Dfinition 5.7. Soit (S) un systme p n. Notons aij (avec i dcrivant 1, . . . , p

et j dcrivant 1, . . . , n ) ses coeffcients. On appelle matrice associe au systme


(S) le tableau de nombres

A=

a11 a12

a1n

a21 a22 a2n

..
.. . .
..
. .
.
.

ap1 ap2 apn

On dit que A est une matrice p lignes, n colonnes et coeffcients dans K. On


note Mp,n (K) lensemble des matrices p lignes et n colonnes coeffcients dans K.
Si p = n, on dit que la matrice est carre et on utilise plutt la notation Mn (K) au lieu
de Mn,n (K).
Remarque 5.2.
Les p lignes sont appeles vecteurs lignes de A.
Les n colonnes sont appeles vecteurs colonnes de A.
Si A M1,n (K), A est appele matrice ligne.
Si A Mp,1 (K), A est appele matrice colonne.
Proposition 5.1. Un systme est triangulaire suprieur (resp. infrieur) si et seulement
si sa matrice associe est triangulaire suprieure (resp. infrieure).
De mme, on dira que la matrice dun systme (S) est chelonne si le systme est lui-mme
chelonn.
La notation matricielle permet de rcrire les systmes linaires sous forme trs condense.
En effet, considrons le systme linaire (S) de p quations n inconnues ;

5.3 Rsolution des systmes chelonns

49

x1
b1

notons A la matrice associe ce systme x = ... et b = ... . Le systme (S) se


xn
bn
rcrit :
Ax = b.

Exemple : Le systme (S)

2x1 x2 = 5
se rcrit
x1 + x2 = 1

2 1
1 1

x1
x2

5
1

En pratique, pour la rsolution des systmes linaires, on pourra adopter la notation condense suivante :
2 -1 5
(S)
.
1 1 -1

5.3
5.3.1

Rsolution des systmes chelonns


Systmes triangulaires diagonale non nulle

Proposition 5.2. Soit (S) un systme triangulaire suprieur diagonale non nulle. Alors
(S) a une unique solution obtenue par la mthode de la remonte :
bk
xk =

n
X
i=k+1

akk

aki xi
k = n, n 1, . . . , 2, 1.

Exercice : Montrer que les systmes triangulaires infrieurs peuvent tre rsolus de faon
analogue par la mthode de la descente.

5.3.2

Systmes chelonns

Considrons un systme chelonn gnral p n :

a1j1 xj1 + . . . + a1n xn =


(S) akjk xjk + . . . + akn xn =

0=

0=

b1

bk
bk+1
bp

1er cas : Lun des bj avec j {k + 1, . . . , p} est non nul. Alors (S) na pas de solution.
2me cas : bk+1 = . . . = bp = 0. Alors (S) est quivalent au systme () suivant :

a1j1 xj1 + . . . + a1n xn = b1



()

akjk xjk + . . . + akn xn = bk


Ce nouveau systme se rsout facilement par la mthode de la remonte en considrant
les inconnues non principales (xj avec j 6= ji pour tout i) comme des paramtres libres. Si

5.4 Mthode du pivot de Gauss

50

k = n, le systme () est tout simplement un systme triangulaire suprieur diagonale non


nulle, et la proposition 7.2. sapplique.
Sinon, on doit avoir k < n, et on obtient une infinit de solutions (x1 , . . . , xn ).
Exemple : Soit un paramtre rel. On veut rsoudre
2
0
0
0

3
1
0
0

0
0
0
0

0 1
1 -1
0 1
0 0

1
3
6

1er cas : 6= 0. Le systme na pas de solution.


1me cas : = 0. Le systme est quivalent
2 3 0 0 1
0 1 0 1 -1
0 0 0 0 1

1
3
6

Les inconnues principales sont x1 , x2 et x5 . Les deux autres inconnues x3 et x4 sont des
paramtres libres. Par la mthode de la remonte, on trouve :

x5 = 6
x2 = 3 x4 + x5 = 9 x4

x1 = 1 x5 3x2 = 16 + 3 x4
2
2
Lensemble des solutions de (S) est

3
16 + x4 , 9 x4 , x3 , x4 , 6 /x3 R, x4 R .
=
2

5.4

Mthode du pivot de Gauss

La mthode du pivot de Gauss consiste transformer un systme (S) en un systme


chelonn quivalent laide de transformations lmentaires.
Les transformations lmentaires sont de trois types :
(T1 ) Echange de deux lignes du systme,
(T2 ) Multiplication dune ligne par un scalaire non nul,
(T3 ) Ajout une ligne dun multiple dune autre ligne.
Limportance que lon accorde aux transformations lmentaires est justifie par le rsultat suivant :
Proposition 5.3. Deux systmes (S1) et (S2) se dduisant lun de lautre par une succession de transformations lmentaires sont quivalents.
Autrement dit, faire des transformations lmentaires ne change pas lensemble des solutions
dun systme linaire.

5.4 Mthode du pivot de Gauss


0 4 0 4
Exemple : Mettre le systme (S) : 2 3 1 0
2 0 -1 0

51
2
1 sous forme chelonne.
0

Algorithme du pivot de Gauss : Considrons un systme (S) de taille p n et de matrice


A. On veut rsoudre Ax = b.
Le pivot de Gauss est une mthode itrative permettant de transformer nimporte quel
systme linaire en un systme chelonn quivalent aprs un nombre fini de transformations
lmentaires.
Premire itration :
Premier cas : La matrice A est nulle. Lalgorithme est alors termin.
Deuxime cas : A 6= 0. Soit j1 lindice de la premire colonne non nulle.
Premire tape : Par permutation de lignes on se ramne au cas o a1j1 .
Deuxime tape : Le but de cette tape est de faire apparatre des 0 dans la
aij
colonne j1 sous le coefficient a1j1 . Pour cela, on retranche 1 (L1 ) chaque
a1j1
ligne (Li ) avec i 2.
Itration suivante : On ne touche plus la premire ligne et lon applique la mthode de
la premire itration au systme (p 1) n constitu par les lignes 2 p du systme
obtenu la fin de la premire tape.
Fin de lalgorithme : Lalgorithme sarrte au bout dau plus p 1 itrations ou lorsque
le sous-systme obtenu a toutes ses lignes nulles.

5.5 Exercices

5.5

Exercices

Exercice 5.1. Mettre sous forme matricielle et rsoudre les systmes suivants.

2x + y + z = 3

3x y 2z = 0
1.

x + y z = 2

x + 2y + z = 1

x+y+z+t = 1

x y + 2z 3t = 2

2.
2x + 4z + 4t = 3

2x + 2y + 3z + 8t = 2

5x + 3y + 9z + 19t = 6

2x + y + z + t = 1

x + 2y + 3z + 4t = 2
3.

3x y 3z + 2t = 5

5y + 9z t = 6

xy+z+t = 5

4.
2x + 3y + 4z + 5t = 8

3x + y z + t = 7

x + 2y + 3z = 0
5.

2x + 3y z = 0
3x + y + 2z = 0

Exercice 5.2. Soient a et b deux rels, et A la matrice

a 2 1 b

A=
3 0 1 4
5 4 1 2
Montrer que rg(A) 2. Pour quelles valeurs de a et b a-t-on rg(A) = 2 ?

52

5.6 Travaux dirigs

5.6

53

Travaux dirigs

Exercice 5.3. Pythagore dit son disciple :


Jai trois fois lge que tu avais quand javais lge que tu as. Lorsque tu auras lge que
jai, la somme de nos ges sera de 98.
Quel est lge de son disciple ?

. Montrer que la matrice


Exercice 5.4. Soit M la matrice suivante : M =
1
0
0

2 0 1
1
M est inversible et calculer M .
Exercice 5.5. Soit u lapplication suivante :
u:

R2 [X]
P

R2 [X]

7 (2X + 1)P (X 2 1)P 0

Vrifier que u est bien dfinie et linaire.


Dterminer la matrice de u dans la base canonique de R2 [X].
Exercice 5.6. Soient trois vecteurs e1 , e2 , e3 formant une base de R3 . On note T lapplication
linaire dfinie par T (e1 ) = T (e3 ) = e3 et T (e2 ) = e1 + e2 + e3 .
1. Dterminer le noyau de cette application linaire. Donner la matrice A de T dans la
base donne.
2. On pose f1 = e1 e3 , f2 = e1 e2 , f3 = e1 + e2 + e3 . Calculer e1 , e2 , e3 en fonction
de f1 , f2 , f3 . Les vecteurs f1 , f2 , f3 forment-ils une base de R3 ?
3. Calculer T (f1 ), T (f2 ), T (f3 ) en fonction de f1 , f2 , f3 . crire la matrice B de T dans
cette nouvelle base.

1 1 1

4. On pose P =
0 1 1 . Vrifier que P est inversible et calculer P . Quelle
1 0 1
relation relie A, B, P et P 1 ?
Exercice 5.7. Soit f lendomorphisme de R3 , dont la matrice dans la base canonique
{e1 , e2 , e3 } est

2 2

A=
1 0

1. Calculer (A I)2 . En dduire An , en utilisant la formule du binme de Newton.

5.6 Travaux dirigs

54

2. Soient P (X) = (X 1)2 et Q R[X]. Exprimer le reste de la division euclidienne de


Q par P en fonction de Q(1) et Q0 (1), o Q0 est le polynme driv de Q.
En remarquant que P (A) = 0 et en utilisant le rsultat prcdent avec un choix judicieux
du polynme Q, retrouver An .

You might also like