You are on page 1of 47

Un rappel

sur les matrices






Patrice Wira



Universit de Haute-Alsace
Facult des Sciences et Techniques

2000 - 2001




Sommaire




Calculs matriciels (matrix algebra) ........................................................................................ 1
1. Reprsentation matricielle et notations................................................................................................. 1
2. Laddition................................................................................................................................................ 1
Laddition matricielle...................................................................................................................................... 1
Proprits de laddition ................................................................................................................................... 2
Exemples : laddition et la soustraction matricielle ........................................................................................ 2
Exemples : laddition et la combinaison linaire de deux vecteurs................................................................. 3
3. Le produit................................................................................................................................................ 3
La multiplication dune matrice avec un scalaire............................................................................................ 3
Proprits de la multiplication entre une matrice et un scalaire ...................................................................... 4
La multiplication matricielle ........................................................................................................................... 4
Proprits lmentaires de la multiplication matricielle.................................................................................. 4
Quelques exemples.......................................................................................................................................... 5
Un produit matriciel particulier : le produit de Hadamard .............................................................................. 5
4. Les produits vectoriels............................................................................................................................ 5
Le produit interne............................................................................................................................................ 6
Le produit vectoriel ......................................................................................................................................... 7
Le produit mixte.............................................................................................................................................. 7
Le produit externe ........................................................................................................................................... 7
Proprits des produits scalaire et vectoriel .................................................................................................... 8
Interprtation gomtrique.............................................................................................................................. 8
Exemples :..................................................................................................................................................... 10
5. Loprateur de transposition ............................................................................................................... 10
Proprits lmentaires de la transposition ................................................................................................... 10
6. Matrices particulires........................................................................................................................... 10
La matrice nulle ............................................................................................................................................ 10
Matrice diagonale.......................................................................................................................................... 11
La matrice identit......................................................................................................................................... 11
Matrice triangulaire....................................................................................................................................... 11
Matrices symtrique et antisymtrique.......................................................................................................... 11
Matrice idempotente...................................................................................................................................... 11
Proprits de la matrice nulle........................................................................................................................ 11
Proprit de la matrice identit...................................................................................................................... 12
7. Matrices partitionnes.......................................................................................................................... 12
8. Le dterminant dune matrice ............................................................................................................. 13
Quelques proprits du dterminant dune matrice :..................................................................................... 13
Quelques thormes ...................................................................................................................................... 13
9. Les mineurs, les cofacteurs et la matrice adjointe ............................................................................. 14
Les mineurs................................................................................................................................................... 14
Les mineurs directeurs .................................................................................................................................. 14
Les cofacteurs ............................................................................................................................................... 14
La matrices adjointe ...................................................................................................................................... 15

Proprits ...................................................................................................................................................... 15
Exemples....................................................................................................................................................... 15
Calcul du dterminant dune matrice avec les cofacteurs ............................................................................. 15
Calcul de la solution dun systme dquations linaires - Rgle de Cramer................................................ 16
10. Matrice inverse et pseudo-inverse ....................................................................................................... 17
1
er
cas, m = n : ............................................................................................................................................ 18
Proprits de la matrice inverse : .................................................................................................................. 18
Calcul de la matrice inverse : ........................................................................................................................ 18
Calcul de l'inverse d'une matrice partitionne............................................................................................... 19
2
me
cas, m < n :.......................................................................................................................................... 19
3
me
cas, m > n :.......................................................................................................................................... 19
Proprits de la pseudo-inverse :................................................................................................................... 20
Dtermination rcursive de la pseudo-inverse (thorme de Grville) : ....................................................... 20
Le Lemme dinversion matricielle (The matrix inversion Lemma) .................................................... 20
Le noyau d'une matrice ................................................................................................................................. 21
Rsolution de lquation = AXB C ........................................................................................................... 21
11. Indpendance linaire de vecteurs, la singularit .............................................................................. 22
12. Le rang dune matrice .......................................................................................................................... 22
Proprit :...................................................................................................................................................... 22
13. La trace dune matrice ......................................................................................................................... 23
Proprit :...................................................................................................................................................... 23
14. La norme ............................................................................................................................................... 23
La norme vectorielle ..................................................................................................................................... 23
La norme matricielle ..................................................................................................................................... 24
15. Lorthogonalit ..................................................................................................................................... 25
Proprits ...................................................................................................................................................... 25
Quelques thormes ...................................................................................................................................... 25
16. Valeurs et vecteurs propres ................................................................................................................. 25
Proprits ...................................................................................................................................................... 26
17. Diagonalisation dune matrice............................................................................................................. 26
Intrt de la diagonalisation .......................................................................................................................... 27
Puissance n-me d'une matrice...................................................................................................................... 27
18. Formes quadratiques............................................................................................................................ 28
19. Dfinitivit ............................................................................................................................................. 28
20. Changement de base............................................................................................................................. 29
Dfinition d'une base..................................................................................................................................... 29
Application : plusieurs repres dans l'espace 3D.......................................................................................... 30
Application : les axes principaux d'une ellipse ............................................................................................. 33
21. Matrice racine carre ........................................................................................................................... 34
Les fonctions vectorielles (matrix calculus) ......................................................................... 36
1. La diffrentiation et lintgration par rapport un scalaire ............................................................ 36
Quelques proprits sur la drivation :.......................................................................................................... 36
2. Dfinition d'une fonction vectorielle ................................................................................................... 37
3. Le gradient dune fonction scalaire..................................................................................................... 37
4. La Jacobienne dune fonction vectorielle............................................................................................ 38
5. La Hessienne dune fonction scalaire.................................................................................................. 38
6. La drivation chaine ........................................................................................................................... 39
7. Expansions en srie de Taylor et de Maclaurin.................................................................................. 39
Expansion en srie de Taylor d'une fonction scalaire multivariable ............................................................. 39
Srie de Taylor deux variables ................................................................................................................... 40
Srie de Taylor une variable ( lordre n)................................................................................................... 40
Srie de Maclaurin une variable ( lordre n)............................................................................................. 40
Srie de Maclaurin deux variables.............................................................................................................. 41
Expansion en srie de Maclaurin d'une fonction scalaire multivariable........................................................ 41
Bibliographie........................................................................................................................... 42
Annexe..................................................................................................................................... 42





Patrice Wira - 1 - 1999
Calculs matriciels (matrix algebra)
1. Reprsentation matricielle et notations
Une matrice est un tableau rectangulaire dlments, gnralement des nombres ou des
fonctions. Ces grandeurs sont gnralement des rels ou des complexes. Dans la suite, nous ne
considrerons que des grandeurs relles. Une matrice A de dimension m*n est note
* m n
A R . Cette matrice est une matrice de m lignes et de n colonnes :
11 1
1
n
ij ij
m mn
a a
a a
a a
(
(
( = =

(
(

A

.
Une matrice V qui ne comporte quune seule colonne,
*1 m
V R , est appel un vecteur
colonne :
1
2
v
v
(
(
=
(
(

V .
Une matrice V qui ne comporte quune seule ligne,
1*n
V R , est appel un vecteur ligne :
| |
1 2
v v = V .
Par convention, tout vecteur est dsign comme une matrice colonne.
Si m = n, alors la matrice est carre.


2. Laddition
Laddition matricielle
Laddition matricielle nest dfinie quentre deux matrices de mme dimensions. La matrice
rsultante est de la mme dimension que les matrices additionnes et chacun de ses lments
est la somme des lments des deux matrices correspondant la mme ligne et la mme
colonne.
Soient
* m n
A R et
* m n
B R . Laddition de ces deux matrices est donne par :
ij ij ij
c a b ( ( = = +

C .

On la note : = + C A B ,
* m n
C R .
Il en va de mme pour la soustraction, au signe prs. La soustraction des matrices A et B
est donne par :
ij ij ij
c a b ( ( = =

C .

Patrice Wira - 2 - 1999

On la note : = C A B ,
* m n
C R .


Proprits de laddition
En considrant trois matrices,
* m n
A R ,
* m n
B R et
* m n
C R , on a les trois proprits
suivantes :

+ = + A B B A Commutativit (commutative law).
( ) + = + C A B CA CB Distributivit (distributive law).
( ) ( ) + + = + + A B C A B C Associativit (associative law).


Exemples : laddition et la soustraction matricielle
Si
2*3
A R et
2*3
B R tel que
1 4 0
2 7 3
(
=
(

A ,
5 2 6
0 1 1
(
=
(

B , alors :

1 5 4 2 0 6 6 6 6
2 0 7 1 3 1 2 8 4
+ + +
( (
+ = =
( (
+ + +

A B et
4 2 6
2 6 2

(
=
(

A B .



Patrice Wira - 3 - 1999
Exemples : laddition et la combinaison linaire de deux vecteurs

L'addition de deux vecteurs (de dimensions
2,
2
, v w R ) permet de dfinir un
paralllogramme. Le vecteur rsultant u
est une des diagonale du paralllogramme.
Prenons par exemple
4
2
(
=
(

v et
1
3
(
=
(

w , on obtient alors :
4 1 3
2 3 5
( ( (
= + = + =
( ( (

u v w





| | | | | | | |
v
w
u
-
-
-
-
-
-

Figure 1: L'addition de deux vecteurs.

Une combinaison linaire de deux vecteurs
2
v R et
2
w R est l'addition de deux
vecteurs qui on fait subir un changement
de longueur par des coefficients scalaires.
Reprenons les vecteurs exemple
4
2
(
=
(

v et
1
3
(
=
(

w :
4 1
2 2
2 3
8 1 9 9
4 3 1 1
( (
= + = +
( (

( ( ( (
= + = =
( ( ( (


u v w


| | | | | | | | | | | | |
-2 v
w
u
-
-
-
-
-
-
-
-

Figure 2 : La soustraction de deux vecteurs.

3. Le produit
La multiplication dune matrice avec un scalaire
La multiplication entre une matrice et un nombre scalaire donne une matrice dont chaque
lment de la matrice est multipli par le scalaire.
Etant donn
* m n
A R une matrice, et b un scalaire, alors les lments de la matrice C
rsultante sont donns par :
ij ik
c ba = .

La matrice b = C A est de mme dimension que A,
* m n
C R .

Patrice Wira - 4 - 1999


Proprits de la multiplication entre une matrice et un scalaire
Si c est un scalaire, alors :

c c = A A Commutativit,
* m n
A R .
( ) c c c + = + A B A B Distributivit,
* m n
A R et
* m n
B R .
( ) ( ) ( ) ( ) c c c c = = = AB A B A B AB Associativit, o AB est la multiplication
matricielle entre les matrices
* m n
A R et

* n p
B R .


Si c et b sont des scalaires, alors :
( ) b c b c + = + A A A Distributivit,
* m n
A R .
( ) ( ) bc b c = A A Associativit,
* m n
A R .


La multiplication matricielle
La multiplication entre deux matrices nest dfinie que lorsque leurs dimensions son
compatibles : le nombre de colonnes de la matrice gauche de loprateur doit correspondre
au nombre de lignes de la matrice droite de loprateur.
Si
* m n
A R , et si B
* n p
R , la multiplication entre les matrices A et B donne une
matrice C de dimensions m*p telle que tous ses lments :
1
n
ij ik kj
k
c a b
=
=

.

On note cette opration : * = = C A B AB, . .


Proprits lmentaires de la multiplication matricielle
AB BA La commutativit nest pas toujours vraie
(the commutative law is usually broken).

( ) + = + C A B CA CB Distributivit gauche
(distributive law from the left)
avec A, B
* m n
R et C
* p m
R .

Patrice Wira - 5 - 1999

( ) + = + A B C AC BC Distributivit droite
(distributive law from the right)
avec A, B
* m n
R et C
* n p
R .

( ) ( ) = A BC AB C Associativit (associative law)
avec A
* m n
R , B
* n p
R et C
* p q
R .

Quelques exemples

Si
2*2
A R et
2*3
B R tel que
5 3
4 2

(
=
(

A ,
8 2 6
7 0 9

(
=
(

B , alors

5 3 8 2 6 5(8) ( 3)(7) 5( 2) ( 3)0 5(6) ( 3)(9) 19 10 3
4 2 7 0 9 4(8) 2(7) 4( 2) 2(0) 4(6) 2(9) 46 8 42
+ + +
( ( ( (
= = =
( ( ( (
+ + +

AB

Si on dispose dun vecteur ligne
4
x R et dun vecteur colonne
4
y R tel que
| | 1 3 5 1 = x et | | 2 4 2 6
T
= y , alors
| | | |
2
4
1 3 5 1 1( 2) 3(4) 5(2) ( 1)(6) 14
2
6

(
(
(
= = + + + =
(
(

xy .


Un produit matriciel particulier : le produit de Hadamard
La matrice rsultante du produit de Hadamard entre deux matrices de mme taille contient
le rsultat dune multiplication lment par lment.
On note le produit entre les matrices
* m n
A R et
* m n
B R :
= C A B,
* m n
C R ,
ij ij ij
c a b ( ( = =

C .


4. Les produits vectoriels
Si laddition de vecteur nest pas trs diffrente de laddition matricielle, il nen va pas de
mme en ce qui concerne la multiplication. En effet, multiplier deux vecteurs na pas la mme

Patrice Wira - 6 - 1999
signification que multiplier deux matrices, cest pourquoi on distingue les produits vectoriels
des produits matriciels.
La multiplication de deux vecteurs peut tre dfinie de trois faon diffrentes, selon que le
rsultat est un scalaire, un vecteur ou une matrice. On les appelle respectivement produit
interne (scalaire), vectoriel et produit externe.
Les produits interne et externe sont des cas particulier de la multiplication matricielle dfinie
en toute gnralit prcdemment.


Le produit interne
Soient deux vecteurs de mme dimension,
n
x R et
n
y R . On appelle produit interne (en
Anglais on parlera de inner product ou de vector dot product ) la somme des
multiplications lments par lments de chaque vecteur :
1
,
n
T T T
i i
i
y x
=
= = =

x y x y y x .

Cette opration retourne un scalaire. Le produit interne est aussi appel produit scalaire, il
nest dfini que si les deux vecteurs sont de mme taille.
Le produit interne est un moyen de mesurer comment deux vecteurs sont parallles. Deux
vecteurs sont orthogonaux si leur produit scalaire est nul.

Remarque : angle en deux vecteurs.
Si deux vecteurs qui ne sont pas parallles forment un angle entre eux.
Si x et y sont deux vecteurs Euclidiens, alors ils forment un angle dfinit par :
,
cos =
x y
x y
.

Les deux vecteurs x et y sont dit orthogonaux quand leur produit interne est nul ( =90),
on le note x y .

Remarque : parfois le produit entre deux matrices en galement appel produit scalaire, mais
lordre de x et y est important :
T T
x y y x qui donne un nombre, et quil faut diffrencier
de
T
yx (produit externe) qui est une matrice.



Patrice Wira - 7 - 1999
Le produit vectoriel
Le produit vectoriel de deux vecteur se traduit en Anglais par vector product ou cross
product . Le produit vectoriel de deux vecteurs de trois composantes est dfini par :
1 1 2 3 3 2
2 2 3 1 1 3
3 3 1 2 2 1
x y x y x y
x y x y x y
x y x y x y
( ( (
( ( (
= =
( ( (
( ( (

x y .

Formellement, ce produit peut tre considr comme un dterminant, avec les vecteurs
( , , ) i j k constituants la base dans la premire colonne :
1 1
2 2 1 1 1 1
2 2
3 3 3 3 2 2
3 3
x y
x y x y x y
x y
x y x y x y
x y
= = +
i
x y j i j k
k
,
2 3 3 2 3 1 1 3 1 2 2 1
( ) ( ) ( ) x y x y x y x y x y x y = + + x y i j k .

Remarque : ce nest pas un vrai dterminant dans le sens o il ne retourne pas une grandeur
scalaire.


Le produit mixte
Soit trois vecteurs x , y et z
n
R . Le nombre rel ( ). x y z , c'est dire le produit scalaire
du vecteur x y par le vecteur z , s'appelle le produit mixte des trois vecteurs x , y , z
(dans cet ordre). Le rsultat est un scalaire. On parle en Anglais de scalar triple product .


Le produit externe
Considrons deux vecteurs de dimensions diffrentes,
m
x R et
n
y R . On appelle produit
externe (traduit en Anglais par outer product ou dyadic product ) :
1 1 1
1
,
n
T
i j
m m n
x y x y
x y
x y x y
(
(
= =
(
(

x y xy

, avec 1,..., i m = , 1,..., j n = .


T
ij i j
z x y ( ( = = =

z xy , avec 1,..., i m = , 1,..., j n = .

Cette opration retourne une matrice de m lignes et n colonnes. Ce produit peut tre dfini
comme un produit matricielle.
Le produit externe joue un rle important lorsquil sagit de dterminer comment sont
corrls les lments dun vecteur avec ceux dun autre.

Patrice Wira - 8 - 1999

Remarque : si
| |
1 2 3 10
T
= x contient toutes les valeurs possibles entre 1 et 10,
alors
T
= z xx contient les tables de multiplication jusqu 10 :
1 2 3 4 5 6 7 8 9 10
2 4 6 8 10 12 14 16 18 20
3 6 9 12 15 18 21 24 27 30
4 8 12 16 20 24 28 32 36 40
5 10 15 20 25 30 35 40 45 50
6 12 18 24 30 36 42 48 54 60
7 14 21 28 35 42 49 56 63 70
8 16 24 32 40 48 56 64 72 80
9 18 27 36 45 54 63 72 81 90
10 20 30 40 50 60 70 80 90 100
T
(


xx
(
(
(
(
(
(
(
(
(
(
(
(
(
(
.


Proprits des produits scalaire et vectoriel
Soient x , y et z trois vecteurs
n
R et soit a un scalaire.
Le produit scalaire est distributif : .( ) . . + = + x y z x y x z .
est commutatif : . . = x y y x .
est associatif : ( ). ( . ) a a = x y x y .

Le produit vectoriel est distributif : x x x ( ) + = + x y z x y x z .
Nest PAS commutatif : x x = x y y x .
est associatif : x x ( ) ( ) a a = x y x y .


Interprtation gomtrique


Patrice Wira - 9 - 1999
. A B
B
A
X
Z
Y

x B A B
A
X
Z
Y
x A B
aire = x A B

Figure 3: Les produits scalaire ( gauche) et vectoriel ( droite) de deux vecteurs.


Le produit scalaire :
Le scalaire qui est retourn est proportionnel la projection du premier vecteur sur le second.
Cet opration est frquemment utilise pour mesurer lorthogonalit de deux vecteurs mais
aussi pour dcrire la composante dun vecteur dans une direction particulire.

Le produit vectoriel :
Le produit vectoriel, not A B est un vecteur orthogonal A et B. Il est nul si A et B
sont parallles. Il est utilis pour dterminer la normale de deux droites. Cest ainsi quon
dfini le vecteur normal dune surface en un point quelconque.

Le produit mixte :
La valeur absolue du produit mixte est le produit de la longueur de la projection du vecteur
z sur la perpendiculaire au plan de mme direction que les vecteurs x et y sur la surface du
paralllogramme construit sur les vecteurs x et y . Autrement dit, c'est le volume du
paralllpipde construit sur les trois vecteurs x , y et z . On dit aussi que le produit mixte
reprsente le volume algbrique de ce paralllpipde.

x
y
z x y


Figure 4: Le produit mixte de trois vecteurs.



Patrice Wira - 10 - 1999
Exemples :
Considrons un espace de dimensions trois dfini par les vecteurs i , j et k .
Les vecteurs x et y scrivent par rapport cette base :
i j k
x x x = + + x i j k et
i j k
y y y = + + y i j k .
Le produit scalaire de x et y vaut alors :
. cos( , )
i i j j k k
x y x y x y = = + + x y x y x y .

Le produit vectoriel vaut quand lui
x ( ) ( ) ( )
j k k j k i i k i j j i
x y x y x y x y x y x y = + + x y i j k ,
et x sin( , ) = x y x y x y .

On rappelle que
2 2 2 1 2
( )
i j k
x x x = + + x .


5. Loprateur de transposition
La transpose dune matrice A est la matrice
T
A (note parfois aussi ' A ) dfinie par :
* m n
A R ,
* T n m
A R ,
*
ij
m n
a ( =

A ,
*
T
ji
n m
a ( =

A .

Proprits lmentaires de la transposition
( )
T T
= A A o A
* m n
R .
( )
T T T
+ = + A B A B avec A, B
* m n
R .
( )
T T T
= AB B A o
* m n
A R ,
* n p
B R et

1
*
n
ik kj
k
m p
a b
=
(
=
(

AB .


6. Matrices particulires
La matrice nulle
La matrice dont tous les termes sont nuls est appele matrice nulle. On la note = A 0 :
0
ij
a = , i , j .


Patrice Wira - 11 - 1999
Matrice diagonale
Une matrice diagonale
* n n
A R est une matrice carre dont tous les lments non diagonaux
sont nuls, c'est dire que 0
ij
a = , i j . Elle est de la forme :
11
0 0
0
0
0 0
ij ij
nn
a
a a
a
(
(
(
( = =

(
(
(

A

.

La matrice identit
Une matrice identit est une matrice diagonale
* n n
A R (donc carre) qui voit tous ses
lments nuls sauf ceux de sa diagonale principale qui sont unitaires. On la note
n
I ou I :
= A I
0
1
ij
ii
a
a
=

,
1,...,
i j
i n

=
.

Matrice triangulaire
Une matrice triangulaire suprieure (respectivement infrieure) est une matrice carre
* n n
A R dont les lments qui se trouvent au-dessous (respectivement au-dessus) de la
diagonale principale sont nuls, c'est dire telle que 0
ij
a = , i j > ( i j < ). Elle est donc de
la forme :
11 12 1
22
0
0 0
n
ij
nn
a a a
a
a
a
(
(
(
( = =

(
(
(

A

(respectivement
11
21 22
1
0 0
0
ij
n nn
a
a a
a
a a
(
(
(
( = =

(
(
(

A

).


Matrices symtrique et antisymtrique
Soit
* n n
A R une matrice carre.
- Si
T
= A A, alors A est dite matrice symtrique.
- Si
T
= A A, alors A est dite matrice antisymtrique.

Matrice idempotente
Considrons une matrice carre
* n n
A R . Si
T
= A A A , alors A est dite idempotente.

Proprits de la matrice nulle
Soit A une matrice, A
* m n
R :

Patrice Wira - 12 - 1999
= = A0 0A 0 Cest loprateur nul de la multiplication
+ = + = A 0 0 A A Cest loprateur neutre de laddition

Proprit de la matrice identit
Soit A une matrice, A
* m n
R :
= = AI IA I Cest loprateur neutre de la multiplication

7. Matrices partitionnes
La composante de base dune matrice A de dimensions quelconques est
ij
a . Il est parfois
intressant de considrer une matrice en tant que tableau de matrices lmentaires.
Soit :
11 12
21 22




ij
a
m
n
p q
(
( = =
(


A A
A
A A ,
avec
*
11
m p
A R ,
*
12
m q
A R ,
*
21
n p
A R ,
*
22
n q
A R .

La matrice A est une matrice de m+n lignes et de p+q colonnes,
( )*( ) m n p q + +
A R .

Considrons une seconde matrice B partitionne ainsi :
1
2
(
=
(

B
B
B
, o
*1
1
p
B R ,
*1
2
q
B R .
On peut alors crire :
11 12 1 11 1 12 2
21 22 2 21 1 22 2
+
( ( (
= =
( ( (
+

A A B A B A B
AB
A A B A B A B
.

Cette relation est souvent utilise avec les notations suivantes :
( ( (
( ( (

A B E AE+ BF
=
C D F CE+ DF
.
Toutes les sous-matrices doivent comporter des dimensions compatibles avec les rgles du
produit matriciel.
La transpose d'une matrice partionne est donne par :
T
T T
T T
( (
=
( (

A B A C
C D B D
.



Patrice Wira - 13 - 1999
8. Le dterminant dune matrice
On appelle dterminant dune matrice A carre,
* n n
A R , le nombre not det( ) A ou | A|
et gal :
1
1
1
det( ) ( 1) det( )
n
i
i i
i
a
+
=
=

A A o
i
A est la matrice obtenue en rayant la
1
re
colonne et la i-ime ligne.

Si n = 2,
11 12
11 22 12 21
21 22
det( )
a a
a a a a
a a
(
= =
(

A .
Si n = 3,
11 22 33 13 32 21 12 23 31 11 23 32 22 13 31 33 12 21
det( ) a a a a a a a a a a a a a a a a a a = + + A .
Lorsque le dterminant dune matrice est nul, on dit que la matrice est singulire.

Remarques :
1
det( )
n
kj kj
j
a c
=
=

A pour tous les lignes k de A.


1
det( )
n
il il
i
a c
=
=

A pour tous les colonnes l de A.



Quelques proprits du dterminant dune matrice :
det( ) det( )det( ) = AB A B avec A
* n n
R .
1
1
det( )
det( )

= A
A
avec A
* n n
R .
( ) ( ) ( ) ( ) ( )
1 1
det det det det = det det

| | (
= =
|
(
\ .
D E
A G D EG F D G FD E
F G

o
* n n
(
=
(

D E
A
F G
R , D
* m m
R et les dimensions des matrices E, F et Gsont
en accord avec celles de A et D ;
1
D doit exister

Quelques thormes
1. Si tous les lments d'une ligne (colonne) d'une matrice
* n n
A R sont nuls alors
det( ) 0 = A .
2. Si tous les lments d'une ligne (colonne) du dterminant d'une matrice
* n n
A R sont
multipli par un scalaire k, alors le dterminant est multipli par k.
3. Si B est obtenue partir de
* n n
A R en changeant deux de ces lignes (colonnes), alors
det( ) det( ) = B A .
4. Si B est obtenue partir de
* n n
A R en faisant passer la i-me ligne (colonne) par
dessus p lignes (colonnes), alors det( ) ( 1) det( )
p
= B A .

Patrice Wira - 14 - 1999
5. Si deux lignes (colonnes) de
* n n
A R sont identiques, alors det( ) 0 = A .
6. Si, aux lments dune ligne (colonne) on ajoute k fois les lments correspondants dune
autre ligne (colonne), la valeur du dterminant reste inchange.

Pour tous ces thormes, on trouvera la dmonstration dans (Ayres, 1991).

Le calcul du dterminant d'une matrice
3*3
A R peut tre calcul par la rgle dite de Sarrus
(Christol et al. 1996, p. 108).

9. Les mineurs, les cofacteurs et la matrice adjointe
Les mineurs
Les mineurs
ij
m des lments
ij
a dune matrice Acarre,
* n n
A R , sont les dterminants de
la partie restante de A lorsquon ne tient pas compte de la ligne i et de la colonne j.

Les mineurs directeurs
Les mineurs directeurs dune matrice Acarre,
* n n
A R , appels aussi mineurs principaux
(en Anglais leading minors ) sont dfinis comme suit :
1 11
m a =
11 12
2
21 22
det
a a
m
a a
| | (
=
|
(
\ .

11
3
33
det
a
m
a
| | (
=
|
(
\ .


...
( ) det
n
m = A

Les cofacteurs
Les cofacteurs
ij
c des lments
ij
a dune matrice Acarre,
* n n
A R , sont donns par :
c =( 1)
i j
ij ij
m
+
.

Le cofacteur est souvent aussi not
ij
.


Patrice Wira - 15 - 1999
La matrices adjointe
La matrice des cofacteurs
ij
c des lments
ij
a dune matrice Acarre,
* n n
A R , lorsquelle
est transpose, est appel la matrice adjointe de A. On note gnralement cette matrice A


ou encore adj( ) A .
A

=
11 1
1
adj( )
T
n
T
ij ij
n nn
c c
c c
c c
(
(
( = =

(
(

A

,
adj( )
T
= A C , avec
ij
c ( =

C

Proprits
= = AA AA A I

o A est le dterminant de la matrice A.
adj( ) adj( ).adj( ) = AB A B .

Exemples
En ce qui concerne la matrice
3*3
A R ,
11 12 13
21 22 23
31 32 33
a a a
a a a
a a a
(
(
=
(
(

A , nous avons le mineur
11 12
23
31 32
a a
m
a a
(
=
(

et le cofacteur
11 12 2 3
23
31 32
( 1)
ij
a a
c m
a a
+
(
= =
(

.


Calcul du dterminant dune matrice avec les cofacteurs
La valeur dun dterminant dordre n dune matrice carre
* n n
A R est la somme des n
produits obtenus en multipliant chaque lment dune ligne (colonne) donne de la matrice
par son cofacteur.

On peut donc, par exemple, calculer le dterminant dordre 3 de la matrice
3*3
A R ,
11 12 13
21 22 23
31 32 33
a a a
a a a
a a a
(
(
=
(
(

A par un dveloppement selon la seconde colonne :
12 12 22 22 32 32
21 23 11 13 11 13
12 22 32
31 33 31 33 21 23
det( ) a c a c a c
a a a a a a
a a a
a a a a a a
= + +
( ( (
= +
( ( (

A
.


Patrice Wira - 16 - 1999
En choisissant judicieusement la ligne (ou la colonne) par laquelle en effectue le
dveloppement, on peut trs largement simplifier les calculs. On cherchera notamment
effectuer les dveloppement selon les lignes ou les colonnes qui comportent le plus de valeurs
nulles.
Ainsi, si
3 5 8
1 0 2
4 0 3
(
(
=
(
(

A , alors
1 2
det( ) 5 5{1(3) 2(4)} 25
4 3
(
= = =
(

A .


Calcul de la solution dun systme dquations linaires - Rgle de Cramer
On peut dterminer la solution dquations linaires par les dterminants. On appelle cette
mthode la rgle de Cramer.
Soit le systme de trois quations linaires trois inconnues
1
x ,
2
x et
3
x :
11 12 13 1 1
21 22 23 2 2
31 32 33 3 3
a a a x b
a a a x b
a a a x b
( ( (
( ( (
=
( ( (
( ( (

.

Soit A le dterminant de la matrice
3*3
A R .
La valeur numrique des coefficients de A est multiplie par
1
x si chaque lment de la
premire colonne est multiplie par
1
x (thorme 2) :
1 11 12 13
1 1 21 22 23
1 31 32 33
x a a a
x x a a a
x a a a
(
(
=
(
(

A

En ajoutant chaque lment de la premire colonne de ce dernier dterminant,
2
x fois
llment correspondant d la seconde colonne et
3
x fois llment de la troisime colonne
(thorme 6), on obtient :

1 11 2 12 3 13 12 13 1 12 13
1 1 21 2 22 3 23 22 23 2 22 23
1 31 2 32 3 33 32 33 3 32 33
x a x a x a a a b a a
x x a x a x a a a b a a
x a x a x a a a b a a
+ +
( (
( (
= + + =
( (
+ + ( (

A ,
cest dire
1 12 13
2 22 23
3 32 33
1
b a a
b a a
b a a
x
(
(
(
(

=
A
, condition que 0 A .

Patrice Wira - 17 - 1999


Il en va de mme pour
2
x et
3
x :
11 1 12 13
21 2 23
31 3 33
2
a b a a
a b a
a b a
x
(
(
(
(

=
A
,
11 12 1
21 22 2
31 32 3
3
a a b
a a b
a a b
x
(
(
(
(

=
A
.

Cette rgle peut tre applique nimporte quel systme de n quations linaires n
inconnues, pourvu que le dterminant des coefficients
ij
a soit diffrent de zro.


10. Matrice inverse et pseudo-inverse
Deux matrices A et B sont inverses si leur produit est gal la matrice identit : = AB I ,
alors
1
= B A .
Les matrices inverse, et plus gnralement les pseudo-inverses, trouvent leurs applications
la rsolution des systmes dquations linaires quelles que soient leurs dimensions :
= y Ax ,
* m n
A R ,
m
y R est le vecteur cherch,
n
x R est le vecteur des connaissances.
Linverse gnralise dun tel systme est not
+
A .
Linverse gnralise
+
A satisfait les conditions suivantes :
+
= AA A A
+ + +
= A AA A
( )
T + +
= AA AA Condition de symtrie
( )
T + +
= A A A A

La solution dun systme linaire partir de la pseudo-inverse
+
A scrit alors :
+
= x A y .
La rsolution dun tel systme met en vidence trois cas. Selon les dimensions m et n , on
dfinira les matrices inverse, pseudo-inverse gauche et pseudo-inverse droite.
La matrice inverse est la solution d'un problme qui possde autant d'inconnues (variables
dtermines) que de contraintes. Cela ne signifie pas pour autant qu'il existe une solution.

Patrice Wira - 18 - 1999
La pseudo-inverse gauche est une solution dun problme sur-dtermin, qui contient des
informations redondantes, elle minimise lerreur quadratique moyenne, mean square error
en Anglais.
La pseudo-inverse droite est une solution dun problme sous-dtermin, qui ne contient pas
suffisamment dinformation pour donner une solution unique, mais donne une solution
particulire, celle qui minimise la norme quadratique.
En fait, ces deux pseudo-inverses qu'on appelle gnralement matrice inverse gnralise de
Moore-Penrose, sont donnes par :
2 1 2 1
0 0
lim ( ) lim ( )
T T T T


+

= + = + A A A I A A AA I .

Si les colonnes de A sont linairement indpendantes, on peut prendre 0 = .

1
er
cas, m = n :
Cest la cas dune matrice carre. Si A est une matrice non singulire (cest dire
det( ) 0 A ), alors
1 +
= A A est la matrice inverse de A. La matrice
1
A vrifie la
proprit
1 1
n
I

= = A A AA .
Proprits de la matrice inverse :
Si A et B sont deux matrices non singulires, A
* n n
R et B
* n n
R , alors :
1 1
( )

= A A
1 1
( ) ( )
T T
= A A
1 1 1
( )

= AB B A (par extension
1 1 1 1
( )

= ABC C B A si la
matrice C est inversible.
1
1
det( )
det( )

= A
A

1 1
( ) ( )
n n
I I

+ = + A A A A si
1
( )
n
I

+ A existe.
1 1
( ) ( )
n n n
I I I

+ + + = A A A si
1
( )
n
I

+ A existe.
1 1
( ) ( )
n m
I I

+ = + A BA AB A si A
* m n
R , B
* n m
R et si
1
( )
n
I

+ BA
et
1
( )
m
I

+ AB existent.
1 1
( ) ( )
m n m
I I I

+ + + = AB A BA B si A
* m n
R , B
* n m
R et si
1
( )
n
I

+ BA
et
1
( )
m
I

+ AB existent.

Calcul de la matrice inverse :
La matrice inverse
1
A dune matrice Acarre,
* n n
A R , est donne par la relation :
1
adj( )
det( )

=
A
A
A
.

Patrice Wira - 19 - 1999
Pour quune matrice soit inversible, il faut que sont dterminant soit diffrent de 0. On dit
alors que la matrice est rgulire ou non singulire.

Exemple lorsque n = 2 :
Si
11 12
21 22
a a
a a
(
=
(

A , on dtermine
11 21
12 22
T
a a
a a
(
=
(

A puis on remplace chaque lment de
T
A
par son cofacteur pour dterminer
22 12
21 11
adj( )
a a
a a

(
=
(


A .
On calcule
11 22 12 21
det( ) a a a a = A , puis on dtermine la matrice inverse
1
A en divisant
chaque lment de adj( ) A par det( ) A .

On peut galement calculer l'inverse d'une matrice A par la mthode du pivot de Gauss
(Christol et al. 1996, p. 19) dans le cas particulier o la matrice est carre et est inversible.
Le systme, caractris par la matrice A, est alors dit systme de Cramer ou systme
rgulier dans ce cas.

Calcul de l'inverse d'une matrice partitionne
Soit A
* n n
R une matrice partitionne en quatre sous-matrices telle que :
(
=
(

D E
A
F G
, o
D
* m m
R et les dimensions des matrices E, F et Gsont en accord avec celles de A et D.
L'inverse
1
A de la matrice A est donne par :
1 1 1 1 1 1 1 1
1
1 1 1 1 1
( ) ( )
( ) ( )


( +
=
(


D D E G FD E FD D E G FD E
A
G FD E FD G FD E

si
1
D existe.

2
me
cas, m < n :
Il existe une infinit de solution, parmi lesquelles ont peut retenir celle qui minimise la norme
x :
1
( )
T T +
= A A AA
Cette matrice est appele pseudo-inverse droite, elle vrifie la proprit
m
I
+
= AA .
3
me
cas, m > n :
Il existe une solution approche au sens des moindres carrs :
1
( )
T T +
= A A A A
Cette matrice est appele pseudo-inverse gauche, elle vrifie la proprit I
n
+
= AA .


Patrice Wira - 20 - 1999
Proprits de la pseudo-inverse :
Si A est une matrice et un scalaire,
*
R :
( )
+ +
= A A
1
( )
+ +
= A A
( ) ( )
T T + +
= A A
( ) ( )
T T T T + + +
= = A A A A A AA
( )
T T + +
= AA A A A
T T +
= A AA A
rang( ) rang( ) rang( )
T +
= = A A A

Dtermination rcursive de la pseudo-inverse (thorme de Grville) :
Soit
* m n
A R . La dtermination rcursive de la matrice pseudo-inverse de A repose sur
lide de partition de A en colonnes.
A un instant k donn, la pseudo-inverse est calcule partir de
1 k
+

A et de la colonne
courante dindice k de la matrice A.
Soit
1 k k k
a

( =

A A o
k
a dsigne la k-ime colonne de
k
A , alors (Kohonen, 1984, p. 51) :
1
( )
T
k k k
k
T
k
+
| |
=
|
\ .
A I a p
A
p

o
2
1 1 1 1
1 1
2
1 1 1
( ) / ( ) si
( ) 0
( ) /(1 ) sinon
k k k k k k
k k k
k
T
k k k k k
+ +
+


+ + +

=

+

I A A a I A A a
I A A a
p
A A a A a

Les conditions initiales sont les suivantes :
1 1
= A a
1
1 1 1 1
1
( ) si 0
0 sinon
T T
T

+

=

a a a a
A

Le Lemme dinversion matricielle (The matrix inversion Lemma)
Considrons l'expression suivante :
C D C B A
1 1 1

+
=
T
[1].

Quelle est alors l'expression de
1 1
) (

= A A ?
Multiplions [1] gauche par A :
C D AC AB I
1 1
+ =
T
[2].

Multiplions [2] droite par B :
CB D AC A B
1
+ =
T
[3].

Patrice Wira - 21 - 1999

Multiplions [3] droite par
T
C :
) (
1 1 T T T T T T
CBC D D AC CBC D AC AC BC + = + =

[4].

Multiplions [4] droite par
1
] [

+
T
CBC D :

1 1
] [

= + D AC CBC D BC
T T T
[5].

Multiplions [5] droite par CB :
CB CBC D BC CB D AC
1 1
] [

+ =
T T T
[6].

Retranchons [6] de B :
CB CBC D BC B CB D AC B
1 1
] [

+ =
T T T
[7].

D'aprs [3], on tire que A B CB D AC =
1 T
et on peut dduire que :
CB CBC D BC B A
1
] [

+ =
T T
[8].

Finalement, on retiendra une des deux formulations suivantes :
1 1 1 1 1 1
] 1 [

+ = +
=
C B D B CD B B A CD B A
T T T

CB CBC D BC B A C D C B A
1 1 1 1
] [

+ = +
=
T T T



Le noyau d'une matrice
Pour un systme d'quations homognes 0 = Ax ,
* m n
A R ,
n
x R , l'ensemble des solutions
x constitue un espace vectoriel appel noyau de A, not Ker( ) A . La dimension de cet
espace sera note N
A
.

Remarque : Une quation linaire
1 1 2 2 3 3
...
n n
a x a x a x a x h + + + = est dite non homogne si
0 h .

Thorme : pour
* m n
A R on a rang( ) N n + =
A
A .

Rsolution de lquation = AXB C
Considrons l'quation = AXB C (Kohonen, 1984, p.53), avec A, B et C des matrices
quelconques dont les dimensions sont en accords avec les rgles de la multiplication
matricielle et o l'inconnu dterminer est X.
La condition ncessaire et suffisante pour avoir une solution cette quation est :

Patrice Wira - 22 - 1999
+ +
= AA CB B C.

La solution gnrale est de la forme :
+ + + +
= + X A CB Y A AYBB ,
avec Y de mmes dimensions que X.

Une solution particulire est
+ +
= X A CB (cas pour 0 = Y ), c'est la solution dont la norme
Euclidienne est minimale.

11. Indpendance linaire de vecteurs, la singularit
Soit un ensemble
1
a ,
2
a ,...,
n
a de n vecteurs de dimension m, et
1
,
2
,...,
n
un ensemble de
scalaires.
Le vecteur dfini par
1
n
i i
i

=
=

c a forme une combinaison linaire de vecteurs, note { }


i
a .
Lensemble des vecteurs { }
i
a est linairement indpendants si :
0 = c
1 2
... ... 0
i n
= = = = = =

Soit A une matrice,
* m n
A R .
- Les colonnes de A sont linairement indpendantes si et seulement si
T
A A est une
matrice non singulire de rang plein,
- Les lignes de A sont linairement indpendantes si et seulement si
T
A A est non
singulire.

Une matrice carre
* n n
A R , est dite non singulire (ou inversible) si
* n n
B R telle que :
det( ) 0 = = AB BA I A .

12. Le rang dune matrice
Le rang dune matrice correspond au nombre maximum de colonnes ou de lignes linairement
indpendantes. Cest aussi lordre du plus grand dterminant non nul. Si k est cet ordre, on
dit que la matrice est de rang k.
Une matrice A,
* m n
A R , est dite de rang plein si : rang( ) min( , ) m n = A .

Proprit :
Quelle que soit une matrice A,
* m n
A R ,
rang( ) rang( ) rang( ) rang( )
T T T
= = = A A AA A A .


Patrice Wira - 23 - 1999
13. La trace dune matrice
La trace dune matrice A,
* n n
A R est gale la somme des lments de la diagonale de
cette matrice :
1
trace( )
n
ii
i
a
=
=

A .
Proprit :
trace( ) trace( ) = AB BA A
* n n
R , B
* n n
R .
(trace( ))
T

AB
B
A

* n m
A R ,
* n m
B R .
(trace( ))
2
T

= =

ABA
D AB
A

* n m
D R et
* n m
A R ,
* m m
B R .


14. La norme
La norme vectorielle
On appelle p-norme, la norme note galement
p
L dun vecteur
n
x R :
1/
1
p
n
p
i
p
i
x
=
| |
=
|
\ .

x .
Les normes les plus usuelles sont :
- la norme
1
L galement appele norme absolue,
1
1
n
i
i
x
=
=

x ,
- la norme
2
L ou norme Euclidienne,
( )
1/ 2
1/ 2
2
2
1
n
T
i
i
x
=
| |
= = =
|
\ .

x x x x .
Voici quelques proprits de la norme Euclidienne, x et
n
y R :
- + + x y x y ,
- .
T
x y x y ,
- . v w v w si
n
v R et
n
w R , on appelle cette proprit l'ingalit de
Schwartz.

La norme Euclidienne est aussi appel norme quadratique (cest la distance Euclidienne).
Une norme peut tre pondre. Ceci est surtout utilis en Physique, lorsque les lments dun
vecteur sont de nature diffrente (reprsentent des grandeurs dans des units diffrentes).

Soit x un vecteur normer,
n
x R , on pose,
n
y R : = y Dx .
On calcule alors la norme (Euclidienne par exemple) du vecteur y plutt que celle de x :

Patrice Wira - 24 - 1999
( ) ( ) ( )
1/ 2 1/ 2 1/ 2
T T T T
= = = = y y y Dx x D Dx x Qx .

La matrice
T
= Q D D est une matrice de pondration de la forme quadratique
T
x Qx
prsente dans lexpression de la norme y .

Pour la matrice
* n n
D R , on prend souvent une matrice diagonale avec chaque terme comme
tant linverse de la valeur maximale que peut prendre llment concern :
1max
max
max
1 0
1
0 1
i
n
x
x
x
(
(
=
(
(

D

.


La norme matricielle
Il existe plusieurs normes matricielles. La norme dune matrice peut tre dfinie dans
diffrent sens, elle doit satisfaire les contraintes poses par nimporte quel espace (Kohonen,
1984, p.47).
Les normes matricielles, sont dfinies de la mme faon que les normes vectorielles.
On appelle p-norme d'une matrice A,
* m n
A R , la norme :
1/
1 1

p
m n
p
ij
p
i j
a
= =
| |
=
|
\ .

A .

La norme matricielle la plus connue et la plus utilises est l'quivalente de la norme
Euclidienne chez les vecteurs, on l'appelle la norme de Frobenius :
trace( )
T
E
= = A A A A ,
1/ 2
2
1 1

m n
ij
i j
a
= =
| |
=
|
\ .

A .

La norme de Frobenius est la norme Euclidienne au sens matricielle, qui nest pas compatible
avec la norme Euclidienne vectorielle (it is not consistent with the Euclidean vector norm).
Si A est une matrice carre,
* n n
A R , et x un vecteur de n lments, :
= Ax x .

La norme suivante est elle compatible avec la norme vectorielle :
1
max
=
=
x
A Ax .


Patrice Wira - 25 - 1999
15. Lorthogonalit
Lensemble des vecteurs { }
i
a , , 1,...,
n
i
i k = a R , est orthogonal si :
0,
T
i j
i j = a a .

Ce mme ensemble est orthogonal si :
0,
T
i j
i j = a a ,
1,
T
i i
i = a a .

Ceci se note galement :
T
i j ij
= a a ,

o
ij
est loprateur de Kronecker.
Une matrice carre
* n n
A R est dite orthogonale si ses colonnes forment un ensemble
orthogonale :
1 T T T
n
I

= = = A A AA A A .

Proprits
Si A est une matrice carre orthogonale,
* n n
A R , et x un vecteur de n lments,
n
x R :
= Ax x
( )( ) =
T T
Ax Ay x y
Si
* m n
A R , la condition dorthogonalit se traduit par
T
n
I = A A .

Quelques thormes
1. Si A est une matrice orthogonale, son inverse et sa transpose le sont galement.
2. Le produit de plusieurs matrices orthogonales est une matrice orthogonale.
3. Le dterminant d'une matrice orthogonale est gal 1 .


16. Valeurs et vecteurs propres
Soit A une matrice carre,
* n n
A R . Les valeurs propres
i
de cette matrices (appeles
aussi valeurs caractristiques) sont les racines de lquation polynomiale :

det( ) 0
i
= A I

Lensemble des valeurs propres dune matrice constitue son spectre.

Patrice Wira - 26 - 1999
Les vecteurs propres (ou vecteurs caractristiques)
i
v de cette matrices se dduisent de la
dfinition suivante :
i i i
= Av v

Comme le systme est indtermin, les vecteurs propres sont obtenus une constante
multiplicative prs, cest dire que lon dtermine des directions propres.

Remarques :

det( ) 0
i
= A I est appel polynme caractristique de A.
i
I A est appel la matrice caractristique de A.
Deux matrices sont dites semblables si elles ont le mme polynme caractristique.


Proprits
Si A est une matrice carre,
* n n
A R , ayant pour valeurs propres
i
, 1,..., i n = :
1
det( )
n
i
i

=
=

A

1
trace( )
n
i
i

=
=

A

17. Diagonalisation dune matrice
Si les valeurs propres dune matrice
* n n
A R sont relles et simples, on obtient n directions
propres distinctes que lon peut utiliser comme axes de coordonnes. Dans ce nouveau
systme daxes, la matrice A devient une matrice D diagonale telle que :
1

n
0
0
i

(
(
=
(
(

D

.

Soit P la matrice forme par les composantes des vecteurs propres
i
v :
| |
1
... ...
i n
= P v v v .

Cette matrice (
* n n
P R ) est appele la matrice modle de A. On montre alors que (Christol
et al., 1996, p 141) :
1
= D P AP .

La diagonalisation d'une matrice permet de rsoudre de faon lgante des problmes qui
peuvent sembler complexes au premier abord (Rotella et Borne, 1995).

Patrice Wira - 27 - 1999
Elle est souvent, dans le cas des problmes complexes (les problmes bass sur l'inversion de
matrices singulires), l'unique faon de procder. On utilise alors d'autres mthodes pour
calculer les valeurs propres (Strang, 1993).
Les mthodes numriques prennent galement de plus en plus d'importance dans le calcul
d'inversion de telles matrices (Stoer et Bulirsch, 1993).

Intrt de la diagonalisation
Considrons le systme diffrentiel linaire suivant, reprsent dans une base quelconque :
= x Ax .
Il est constitu de n quations diffrentielles du premier ordre dpendantes. Effectuons le
changement de base dfini par :
= x Py ou
1
= y P x .
Le systme diffrentiel devient alors :
1 1 1
= = = y P x P Ax P APy ,

donc en fait : = y Dy ,

o D est une matrice diagonale. La rsolution du systme diffrentiel obtenu par
changement de base se rduit alors n quations diffrentielles du premier ordre
indpendantes.
La diagonalisation permet galement la simplification et ltude des formes quadratiques
(Cairoli, 1991). Une autre application directe de la diagonalisation d'une matrice est la calcul
de ces puissances entires.

Puissance n-me d'une matrice
La formule
1
= D P AP avec A une matrice diagonalisable s'crit aussi
1
= A PDP . On en
dduit que :
1 1 1 1
...
n n
= = A PDP PDP PDP PD P .

La matrice D (respectivement A) reprsente l'endomorphisme (application linaire) u dans
une base f forme de vecteurs propres (respectivement dans la base canonique e). La formule
prcdente exprime simplement le fait que les matrices
n
D et
n
A reprsentent le mme
endomorphisme
n
u respectivement dans la base f et dans la base e.
Le produit de deux matrices est trs facile calculer : la matrice produit est diagonale et le i-
me terme de sa diagonale est le produit des i-mes termes des diagonales des deux matrices.

Patrice Wira - 28 - 1999
On en dduit que la puissance n-me de la matrice diagonale D s'obtient simplement en
levant la puissance n chacun des termes de sa diagonale.

18. Formes quadratiques
Une forme quadratique est un polynme homogne du second degr en n variables
1
x ,
2
x ,...,
n
x :
1
1 1
( ,..., )
n n
n ij i j
i j
f x x a x x
= =
=

.
On peut reprsenter la forme quadratique grce aux notations matricielles. Pour cela,
considrons A une matrice carre,
* n n
A R , et x un vecteur de n lments,
n
x R :
| |
1
...
T
n
x x = x ,
ij
a ( =

A ,
alors ( )
T
f = x x Ax .

Remarque : On dit que de lexpression ( , )
T
f = x y x Ay quelle est de la forme bilinaire, avec
y un vecteur de dimension n,
n
y R .

Supposons que A soit une matrice relle.
Toute matrice carre peut tre dcompose en une matrice
s
A symtrique,
T
s s
= A A , et en
une matrice
a
A anti-symtrique,
T
a a
= A A .
Ainsi,
s a
= + A A A avec :
2
T
s
+
=
A A
A et
2
T
a

=
A A
A .
Si la matrice A nest pas symtrique au dpart, on peut crire :
( )
T T T T
s a s a
= + = + x Ax x A A x x A x x A x .
Dans cette expression, les deux termes sont des scalaires, ils sont donc gaux leur
transpos, en particulier :
( )
T T T T T T
a a a a
= = = x A x x A x x A x x A x
qui doit tre nul, do
T T
s
= x Ax x A x .
On peut donc affirmer sans perdre de gnralit que la matrice A de la forme quadratique
est symtrique.

19. Dfinitivit
On dit quune matrice
* n n
A R , est dfinie positive, 0 > A , si la forme quadratique qui lui
est associe est dfinie positive :
0 0
T
> > A x Ax , 0 x .

Patrice Wira - 29 - 1999

A est dfinie semi-positive, 0 A , si 0
T
x Ax pour tout vecteur 0 x .
A est dfinie ngative, 0 < A , si 0
T
< x Ax pour tout 0 x .
A est dfinie semi- ngative, 0 A , si 0
T
x Ax pour tout vecteur 0 x .
On parle, selon la cas, de positivit ou de ngativit.
En fait, une forme quadratique est dite non dfinie si son signe dpend du vecteur x .

Pour tester la positivit dune matrice, on peut utiliser le critre de Sylvester qui dit quune
matrice est dfinie positive si tous ses mineurs principaux sont positifs :

0 ssi 0
i
m > > A , 1,..., i n = .
Ce critre nest plus valable pour la semi-positivit :

0 ssi m 0
i
A , 1,..., i n = nest pas vrai, mais :

0 ssi m 0
i
A et

0
ij
m , 1,..., i n = , 1,..., j n = .
Les mmes raisonnements sont valables pour les cas ngatifs.

Cela peut galement se vrifier en utilisant les valeurs propres
i
, 1,..., i n = , de la matrice
A :

0 ssi 0
i
> > A ,

0 ssi 0
i
A ,

0 ssi 0
i
< < A ,

0 ssi 0
i
A .

20. Changement de base
Dfinition d'une base
Lorsqu'on travaille avec les combinaisons linaires, il est commode d'introduire la notion de
famille de vecteurs d'un espace E qui gnralise la notion de partie. Dans une famille, les
vecteurs sont rangs dans un certain ordre et le mme vecteur peut apparatre plusieurs fois
(dans le langage des dnombrements mathmatiques, une famille est un arrangement avec
rptition, alors qu'une partie est une combinaison). Les familles les plus intressantes sont
celles ayant un nombre n fini d'lments et pour lesquelles les vecteurs sont distincts. Ces
considrations faites, la diffrence entre famille et partie ne concerne alors plus que l'ordre des
vecteurs. On note une famille de n vecteurs indics par l'ensemble {1,..., } I n = par ( )
i i I
a

ou
plus simplement, ( )
i
a .


Patrice Wira - 30 - 1999
Une famille de vecteurs libre est un ensemble de vecteurs linairement indpendants. A
l'inverse, une famille lie contient au moins un vecteur qui est une combinaison linaire des
autres.

On dit que la famille A est gnratrice d'un sous-espace vectoriel F de E si A est contenu
dans F et si tout vecteur de F est une combinaison linaire de vecteurs de A.

Une famille de vecteurs d'un espace vectoriel E qui est la fois libre et gnratrice de E est
appel base de E.

Exemple : la base canonique.
La famille
1 2
( , ,... )
n
e e e forme des n vecteurs
1
(1, 0,...0) = e ,
2
(0,1, 0,...0) = e ,
(0, 0,...,1, 0,...0)
i
= e , (0, 0,..., 0,1)
n
= e de
n
R est une base de
n
R appele base canonique.

Application : plusieurs repres dans l'espace 3D
Lobjectif que lon se fixe est de reprsenter nimporte point de l'espace 3D dans plusieurs
bases.

On se place dans un repre 3D
1
R , dfini par une base orthonorme. A partir de ce premier
repre, on dfinit par rapport
1
R un second repre
2
R , galement dfini par une base
orthonorme.
Le passage d'un repre un autre fait intervenir deux oprations essentielles : la translation
et la rotation.
Le repre
2
R est donc dfini par la position de son origine
2
O dans le repre
1
R (c'est la
translation, dfinie par un vecteur
3
t R ) et par l'orientation des vecteurs formant sa base
(c'est la rotation, dfinie par une matrice
3*3
A R ) par rapport ceux qui constituent la
base de
1
R .

Considrons dans un premier temps qu'une simple translation de | | 4 2 2
T
= t comme le
montre la figure suivante.
S'il n'y a pas de rotation pour passer d'un repre l'autre, la matrice de rotation est la
matrice identit :
3
I = A .



Patrice Wira - 31 - 1999
0 1 2 3 4 5 6
0
1
2
3
4
P
O2
x
y
Q
O1

Figure 5 : Les points P et Q dans le premier repre
par rapport aux axes x et y.

0 1 2 3 4 5 6
0
1
2
3
4
O2
O1
P
Q
z
y

Figure 6 : Les points P et Q dans le premier repre
par rapport aux axes y et z.


Connaissant les coordonnes d'un point | | 1 1 1
T
=
2
R
P dans le repre
2
R , on veut connatre
ses coordonnes
1
R
P dans le repre
1
R :
= + A t
1 2
R R
P P .

On trouve alors :
| | 5 3 3
T
=
1
R
P .

On peut poser le problme inverse : quelles sont les coordonnes dans
2
R d'un point dfini
dans
1
R ?
Dans
1
R dfinissons le point Q tel que | | 1 1 1
T
=
1
R
Q . Les coordonnes de Q dans
2
R sont
donnes par l'application inverse celle dfinie prcdemment :
Q = + A t
1 2
R R
Q ,
1
) Q

= A t
2 1
R R
(Q .

L'application numrique donne | | 3 1 1
T
=
2
R
Q .

Considrons maintenant, que le passage de
1
R
2
R ne se fasse non seulement par la
translation de | | 4 2 2
T
= t mais aussi par une rotation dfinie par la matrice
0 1 0
0 0 1
1 0 0
(
(
=
(
(

A (les angles d'Euler quivalents sont : | | | | 0 / 2 / 2
T T
= ).



Patrice Wira - 32 - 1999
0
1
2
3
4
5
0
1
2
3
4
5
0
1
2
3
4
5
y
x
z

0 1 2 3 4
0
1
2
3
4
x
y


0 1 2 3 4
0
1
2
3
4
x
z

0 1 2 3 4
0
1
2
3
4
y
z

Figure 7 : Un cube dans un espace 3D, le point Q est reprsent par un cercle magenta.

Le point S, dfini dans
2
R par | | 1 1 1
T
=
2
R
S et reprsent sur les figures prcdentes par
un cercle (un des sommets du cube) a pour coordonnes dans
1
R
1
R
S selon la formule :
S = + A t
1 2
R R
S ,

soit aprs calcul,
| | 3 1 3
T
=
1
R
S .

Le point T, dfini dans le repre
1
R par | | 3 8 3
T
=
1
R
T voit ses coordonnes
2
R
T dans
2
R donnes par l'application inverse :
1
) T

= A t
2 1
R R
(T .
Le calcul donne | | 1 1 10
T
=
2
R
T .

On voit finalement, que le passage d'un repre l'autre utilise une multiplication gauche,
que ce soit pour passer de
1
R
2
R , ou inversement de
2
R
1
R . La multiplication cause
peut donc de faon gnrale tre assimil un changement de base.

Patrice Wira - 33 - 1999

Application : les axes principaux d'une ellipse
Lobjectif que lon se fixe est de reprsenter nimporte quelle ellipse en coordonnes polaires.

Dans un premier temps, on rappelle un cas particulier, celui o les axes de lellipse sont
parallles aux axes de coordonnes. On gnralisera ensuite pour le cas des axes quelconques.

Axes de lellipse parallles aux axes de coordonnes :
L'quation d'une ellipse est donne par :
2 2
0 0
( ) ( ) a x x b y y d + = ,

avec { }
0 0
, x y le centre de lellipse et a , b et d positifs.
On peut aussi crire :
2 2
0 0
2 2
( ) ( )
1
a b
x x y y


+ = ,

avec /
a
d a = et /
b
d b = .
Les coordonnes polaires qui reprsentent cette ellipse sont alors :
0
0
cos( )
cos( )
a
b
x x
y y


= +

= +


avec 0 2 .

Axes de lellipse quelconques :
L'quation gnrale d'une ellipse quelconque dcrite dans un rfrentiel est :
2 2
0 0 0 0
( ) ( ) 2 ( )( ) a x x b y y c x x y y d + + = .

On peut aussi lcrire sous forme quadratique :
| |
0
0 0
0
x x a c
x x y y d
y y c b

( (
=
( (


.
Soit, en notation matricielle :
T
d = x Ax .

La courbe correspondante est une ellipse si la matrice A est dfinie positive, cest dire si a
et b sont positifs et si det( ) 0 > A , soit
2
ab c > .
Caractriser une ellipse revient dterminer ses axes principaux qui sont les directions
propres de la matrice A. Les vecteurs propres de A sont dfinis par :
det( ) 0
i
= A I ,

Patrice Wira - 34 - 1999
soit,
2 2
a+b ( ) 4
=
2
i
a b c

+
.

Soient
1
d et
2
d les directions propres et
1
v et
2
v les vecteurs propres A. Les vecteurs
propres vrifient la relation :
i i i
= Av v .

Ces vecteurs sont dfinis une constante prs : on ne connat que leurs directions
1
d et
2
d ,
soit :
1 1 1 1
2 2 2 2
: ( ) / avec
: ( ) / avec
d y x a c
d y x a c


= =

= =



Soient v et w les coordonnes dun point dans les axes dfinis par les directions
1
d et
2
d .
Avec ces coordonnes, lquation de lellipse scrit :
2 2
1 2
v w d + = ,
ou
2 2
2 2
1 2
1
v w

+ = ,
avec
1 1
/ d = et
2 2
/ d = .
On peut donc facilement tracer lellipse avec les coordonnes { } , v w , puis passer dans les axes
{ } , x y par une matrice de changement de base.

Soit B la matrice de changement de base telle que :
x v
y w
( (
=
( (

B
On dmontre alors que :
2 2
1 2
1 2
2 2
1 1
1 1
1 1
1 1



(
(
+ +
(
=
(
(
+ + (

B .


21. Matrice racine carre


Patrice Wira - 35 - 1999
Toute matrice A,
* n n
A R , dfinie semi-positive, 0 A , peut tre factorise en deux
matrices racines carres tel que :
T
= A A A ou
T
= A A A .
Les matrices racines carres gauche et droite des deux expressions prcdentes ne
sont pas forcment les mmes.
Il peut y avoir plusieurs matrices racines carres, et de toutes sortes. En fait, si M est une
matrice orthogonale,
1 T
= M M ,
* n n
M R , alors on montre que :
T T
= A A M M A .
T T
A M est une matrice racine carre de A.
Si 0 > A , alors toutes les matrices racines carres de A sont non singulires.


Patrice Wira - 36 - 1999
Les fonctions vectorielles (matrix calculus)
1. La diffrentiation et lintgration par rapport un scalaire
Soit x vecteur,
n
x R et soit A une matrice,
* m n
A R .
La drive du vecteur x par rapport un scalaire t vaut :
1
n
x t
t
x t

(

(
=
(

(

x
et | |
1
T
n
x t x t
t

x
.

La drive de la matrice A par rapport un scalaire t vaut :
ij
a
t t

(
=
(


A
.


Quelques proprits sur la drivation :
Soient
* m n
A R et
* m n
B R des matrices et soit
n
x R un vecteur :

( )
t t t

+ = +

A B
A B
( )
t t t

= +

A B
AB B A
1 2 1
n
n n n
t t t t


= + + +

A A A A
A A A A
1
1 1
t t



=

A A
A A
trace( )
t t

=

A A
A


1
( )
0
t t


= =

AA I



Remarque : drive d'un dterminant par un scalaire
La drive det( )
t

A du dterminant d'une matrice


* n n
A R est la somme des n
dterminants obtenus en remplaant de toutes les manires possibles les lments d'une ligne
(colonne) de det( ) A par leurs drives par rapport t.


Patrice Wira - 37 - 1999
Si x est un vecteur,
n
x R et si A est une matrice,
* m n
A R , leur intgration par rapport
un scalaire t donne :
1
n
x t
t
x t
(

(
= (
(

x et
1
T
n
t x t x t
(
=


x ,

ij
t a t
(
=


A .


2. Dfinition d'une fonction vectorielle
Un ensemble de fonctions multivariables valeurs relles,
1
( ) f x ,
2
( ) f x , ..., ( )
m
f x ,
n
x R ,
peut tre reprsent par une unique fonction vectorielle, :
n m
f R R , :
n
i
f R R :
| |
1 2
( ) ( ) ( ) ( )
T
m
f f f = f x x x x .

Si ( ) f x est une fonction vectorielle, | |
1 2
( ) ( ) ( ) ( )
T
m
f f f = = y f x x x x , o
n
x R et
:
n m
f R R .
La drive de la fonction f relative une constante t vaut :
( )
2
T T T
t

= + =

yQy
y Qy y Qy y Qy avec
( )
t t

= =

y f x
y et avec Q une matrice de
pondration.


3. Le gradient dune fonction scalaire
Soit une fonction multivariable valeurs scalaires, dfinie par :
1 2
( ) ( , , , )
m
f f x x x = x , :
n
f R R.
x est un vecteur de dimension n,
n
x R .
Le gradient de la fonction f par rapport x a pour expression :
2
*1
( ) ( ) ( ) ( ) ( )
( )
T
i i n
n
f f f f f
f
x x x x
( (
= = =
( (


x
x x x x x
x
x
.

Le vecteur gradient reprsente le vecteur des drives premires de la fonction f.

Le gradient de la fonction scalaire ( )
T
f = x x Qx , avec Q une matrice de pondration,
* n n
Q R ,
n
x R , vaut :

Patrice Wira - 38 - 1999
( )
( ) 2
T
f
f

= =

x
x
x x Q
x
.


4. La Jacobienne dune fonction vectorielle
Soit une fonction vectorielle | |
1 2
( ) ( ) ( ) ( )
T
m
f f f = f x x x x , o
n
x R et
:
n m
f R R .
La matrice des drives premires de la fonction f relatives aux composantes
j
x du vecteur
x scrit :
( ) ( )
( )
i
j
f
x
(

= =
(


f x x
J x
x
.
On appelle cette matrice la matrice Jacobienne de f . Cette matrice scrit galement :
1 1
1 1
1
( ) ( )
( )
( )
( ) ( ) ( )
T
n
T
m m m
n
f f
x x f
f f f
x x

(
(
(
(
(
= =
(
(
(
(


(

(

x
x
x x
x
J x
x x x
.


5. La Hessienne dune fonction scalaire
Etant donn une fonction scalaire ( ) f x , :
n
f R R. La matrice Hessienne de ( ) f x
relative au vecteur
n
x R est dfinie comme la matrice symtrique suivante :
2
*
( )
( )
i j
n n
f
x x
(

=
(


x
H x .

En notant ( ) f x la fonction vectorielle qui vaut :
2
*1
( ) ( ) ( ) ( ) ( )
( ) ( )
T
i i n
n
f f f f f
f
x x x x
( (
= = = =
( (


x
x x x x x
f x x
x
,

La matrice Hessienne scrit :

Patrice Wira - 39 - 1999
| |
2
2 2
1 1 1
2 2
1
*
( ) ( )
( ) ( ) ( ) ( )
( ) ( )
( ) ( )
T
T
n
n n n
n n
f
f f
f f
x x x x
f f
x x x x

(
= = = = =
(


(
(

(
( =
(

(
(


x x xx
f x x
H x f x x x
x x x x
x x
x x

.

La matrice Hessienne est la matrice des drives secondes de la fonction scalaire f
relativement au vecteur
n
x R . Elle reprsente la matrice Jacobienne du gradient de la
fonction scalaire f.


6. La drivation chaine
Soit la fonction scalaire compose : ( ) ( (( )) f h g = x x ,
n
x R et :
n
f R R.
La rgle de drivation chane permet dcrire :
i i
f h g
x g x

=

.

Dans le cas gnral, si :
r m
h R R , :
n r
g R R et :
n m
f R R , alors :
( ) ( ( )) ( ) =
x g x
f x h g x g x .


7. Expansions en srie de Taylor et de Maclaurin
Expansion en srie de Taylor d'une fonction scalaire multivariable
Soit une fonction scalaire multivariable ( ) f x , :
n
f R R,
n
x R .
Lexpansion en srie de Taylor de ( ) f x au voisinage dun point
0
x en termes de
0 0 i i i
x x x = = = x x x (i = 1, ..., n) sexprime ainsi :
2
0 0 0
1 1 1
( ) 1 ( )
( ) ( ) ( ) ( )
2
n n n
i i j
i i j i i j
f f
f f f x x x
x x x

= = =

= + = + + +


x x
x x x x x

o
0
( ) x sont les termes dordres suprieur impliquants les drives partielles dordre
suprieur, ngligeables lorsque x est suffisamment petit.
En notation vectorielle, on obtient :
2
0 0 0 0
1
( ) ( ) ( ) ( ) ( )
2
T T
f f f = + + +
x x
x x x f x x x x x

Patrice Wira - 40 - 1999


Srie de Taylor deux variables
Soit une fonction scalaire ( , ) f x y deux variables admettant des drives partielles dordre
n+1 dans un certain domaine, pour des points
0 0
( , ) x y et ( , ) x y .
Lexpansion en srie de Taylor de ( , ) f x y au voisinage dun point
0 0
( , ) x y est :
0 0 0 0
0 0 0 0
2 2 2 2 2
0 0 0 0 0 0 0 0
0 0 0 0 2 2
( , ) ( , )
( , ) ( , ) ( ) ( )
( ) ( , ) ( , ) ( ) ( , )
( )( ) ( , )
2 2
f x y f x y
f x y f x y x x y y
x y
x x f x y f x y y y f x y
x x y y x y
x x y y


= + +


+ + + +



Avec
0
x x x = et
0
y y y = , on a :
0 0 0 0
0 0 0 0
2 2 2 2 2
0 0 0 0 0 0
0 0 2 2
( , ) ( , )
( , ) ( , )
( , ) ( , ) ( , )
( , )
2 2
f x y f x y
f x x y y f x y x y
x y
x f x y f x y y f x y
x y x y
x x y y


+ + = + +


+ + + +



Par rapport au cas multivariable, on a pos : | |
T
x y = x , | |
0 0 0
T
x y = x .


Srie de Taylor une variable ( lordre n)
Lexpansion en srie de Taylor l'ordre n d'une une fonction scalaire ( ) f x dpendant d'une
unique variable x est :
2 2
0 0 0 0 0
0 0 0 2
( ) ( ) ( ) ( ) ( )
( ) ( ) ( ) ... ( )
2 !
n n
n
f x x x f x x x f x
f x f x x x x
x x n x


= + + + + +

,

c'est dire, avec
0
x x x = et
0
y y y = :
2 2
0 0 0
0 0 0 2
( ) ( ) ( )
( ) ( ) ... ( )
2 !
n n
n
f x x f x x f x
f x x f x x x
x x n x


+ = + + + + +

.


Srie de Maclaurin une variable ( lordre n)
Lexpansion en srie de Maclaurin est un cas particulier de celle de la srie de Taylor. Cette
particularit est marque par le fait que l'expansion se fait autour de
0
0 x = ce qui revient
dire que x x = :
2 2
2
(0) (0) (0)
( ) (0) ...
2 !
n n
n
f x f x f
f x f x
x x n x

= + + + +

.

Patrice Wira - 41 - 1999

Srie de Maclaurin deux variables
Soit une fonction scalaire ( , ) f x y deux variables. Son expansion en srie de Maclaurin
s'crit :
2 2 2 2 2
2 2
(0, 0) (0, 0) (0, 0) (0, 0) (0, 0)
( , ) (0, 0) ...
2 2
f f x f f y f
f x y f x y xy
x y x x y y

= + + + + + +

.


Expansion en srie de Maclaurin d'une fonction scalaire multivariable
Si ( ) f x est une fonction scalaire multivariable, :
n
f R R,
n
x R , son expansion en srie
de Maclaurin au voisinage de
0
x et en termes de
0 0 i i i
x x x = = = x x x (i = 1, ..., n) est
donn par :
2
1 1 1
(0) 1 (0)
( ) (0) ...
2
n n n
i i j
i i j i i j
f f
f f x x x
x x x
= = =

= + + +


x .

La notation vectorielle est plus adapte :
2
1
( ) (0) (0) (0) ...
2
T T
f f f = + + +
x x
x x f x x .




Patrice Wira - 42 - 1999
Bibliographie

Ayres, F., Jr., 1991. Matrices : cours et problmes, McGraw Hill, New York.

Cairoli, R., 1996. Algbre linaire, Presses Polytechniques et Universitaires Romandes,
Lausanne.

Christol, G., Pilibossian, P., and Yammine, S., 1996. Algbre, cours et exercices corrigs,
Ellipses-Edition Marketing, Paris.

Kohonen, T., 1984. Self-Organization and Associative Memory, Springer-Verlag, Berlin.

Rotella, F., and Borne, P., 1995. Thorie et pratique du calcul matriciel, Editions Technip,
Paris.

Stoer, J., and Bulirsch, R., 1993. Introduction to Numerical Analysis, Springer-Verlag, New
York.

Strang G., 1993. Introduction to Linear Algebra, .Welleley Cambridge Press, Wellesley.

Annexe

Alphabet Grec
Alpha Nu
Bta Xi
Gamma Omicron
Delta Pi
Epsilon Rh
Zta Sigma
ta Tau
Thta Upsilon
Iota Phi ,
Kappa Khi
Lambda Psi
Mu Omga