Professional Documents
Culture Documents
exp (x m)> 1 (x m) , x Rn .
2
det
(2)n/2
Daprs la proposition 1.1, les lois gaussiennes sont stables par transformation affine. La forme trs particulire de la loi image,
dcrite dans le rsultat suivant sur lequel on pourrait tre tent - tort- de jeter un coup doeil distrait, est dutilit constante dans
la manipulation des vecteurs gaussiens.
Proposition 1.2 Si A Mk,n (R), b Rk et X Nn (m, ), on a :
AX + b Nk (Am + b, A A> ).
Lorsque est relle, symtrique et semi-dfinie positive, on peut construire laide du thorme de Schur une matrice 1/2
vrifiant 1/2 1/2 = . Cette matrice est inversible, dinverse 1/2 , lorsque est dfinie positive.
Proposition 1.3 Soient m Rn et Mn (R) symtrique semi-dfinie positive.
(i) Si det 6= 0 et X Nn (m, ), alors 1/2 (X m) Nn (0, Id) ;
(ii) Si X Nn (0, Id), alors m + 1/2 X Nn (m, ).
1. Benot Cadre - ENS Rennes
Lorsque 2 v.a.r. sont indpendantes, leur covariance est nulle. En revanche, la rciproque est fausse, sauf dans le cas des vecteurs
gaussiens :
Thorme 1.2 Soit X un vecteur gaussien. Les composantes de X sont des v.a.r. indpendantes si, et seulement si la matrice de
variance de X est diagonale.
La preuve de ce rsultat, sur laquelle nous ne nous arrterons pas, est une illustration de lintrt de la la fonction caractristique,
et donc de la transforme de Fourier (cf [O UVRARD ]). A ce titre, elle peut tre insre dans une lecon danalyse et probabilits
portant sur ce thme.
Remarque Le fait que les composantes du vecteur alatoire X soient des v.a.r. gaussiennnes nest pas suffisant pour tablir cette
quivalence (reprendre lexemple du (c) de la remarque ci-dessus).
A PPLICATION : SIMULATION DE VECTEURS GAUSSIENS . Il est facile de simuler un vecteur gaussien de matrice de variance
diagonale, car les composantes sont alors des v.a.r. indpendantes de lois gaussiennes. Supposons donc que lon ait simuler
une ralisation dun vecteur gaussien X Nn (m, ). Il existe une matrice orthogonale P telle que = P P> (?), o =
diag(1 , , n ). Si Z = P> (X m), alors Z Nn (0, ). Il suffit donc de simuler les n v.a.r. indpendantes Z1 , , Zn de lois
N1 (0, 1 ), , N1 (0, n ) constituant le vecteur gaussien Z pour obtenir une ralisation de X, car X = m + PZ. Lalgorithme de
simulation de X est :
1. Calculer la dcomposition (?) pour . NB : en pratique, Scilab fournit la fonction svd (Singular Value Decomposition) qui,
utilise comme suit : [A, , B] = svd( ), rend la matrice diagonale dont les lments sont rangs par ordre dcroissant,
et A, B sont des matrices unitaires telles que = A B> , cest--dire que dans notre cas, A = B = P.
2. Gnrer une ralisation z de Z en simulant des gaussiennes N1 (0, i ) pour les indices i tels que i > 0, et complter les
autres composantes de z par des 0.
3. Calculer la ralisation correspondante x = m + Pz de X = m + PZ.
Le conditionnement dans un vecteur gaussien possde des proprits trs particulires, comme en tmoigne le rsultat ci-dessous :
Thorme 1.3 Soit (Y, X1 , , Xn )> un vecteur gaussien de Rn+1 tel que X = (X1 , , Xn )> possde une matrice de variance
inversible. Si (a1 , , an )> = V(X)1 (cov(Y, X1 ), , cov(Y, Xn ))> , on a :
n
Preuve On suppose que (Y, X1 , , Xn ) est centr, et on note Y = ni=1 ai Xi . On vrifie facilement que pour tout i = 1, , n :
cov(Y Y , Xi ) = E(Y Y )Xi = 0.
Puisque le vecteur (X1 , , Xn ,Y Y ) est gaussien, Y Y
(X1 , , Xn ). En consquence,
E(Y |X1 , , Xn ) = E(Y Y |X1 , , Xn ) + Y = E(Y Y ) + Y = Y .
sont des vecteurs gaussiens indpendants. Enfin, pour tout i = 1, , ri , les v.a.r. hX, ei1 i, , hX, eiri i sont indpendantes et de
mme loi N1 (0, 2 ). Par suite,
ri hX, ei i 2
1
j
2
ki k =
r2i .
2
j=1
Le thorme de Cochran permet dobtenir facilement des informations sur les estimateurs de la moyenne ou de la variance dans
un chantillon gaussien. Pour un chantillon X1 , , Xn de v.a.r., on note Xn et Sn2 sa moyenne et variance empirique :
1 n
1 n
Xn = Xi et Sn2 =
(Xi Xn )2 .
n i=1
n 1 i=1
Lestimateur naturel (1/n) ni=1 (Xi Xn )2 de var(X1 ) est biais. En revanche, Sn2 le mrite destimer sans biais la variance
var(X1 ).
On rappelle que la loi de Student n degrs de libert, note Tn , est la loi du quotient
Y n2 .
nX/ Y , o X
Y , X N1 (0, 1) et
Thorme
2.2 [F ISHER ] Soit X = (X1 , , Xn )> Nn (m e, 2 Id), avec > 0 et e = (1, , 1)> . Alors, Xn
Sn . De plus,
2
n(Xn m)/ N1 (0, 1), (n 1)Sn2 / 2 n1
et n(Xn m)/Sn Tn1 .
Daprs la loi forte des grands nombres, Sn p.s. La dernire assertion du thorme de Fisher, le thorme de la limite centrale
unidimensionnel et le lemme de Slutsky montrent que pour les grandes valeurs de n, Tn est proche de la loi N1 (0, 1).
A titre de complment, on peut montrer (cf [O UVRARD ]) que Xn
Sn X est gaussien. La preuve, qui utilise la fonction
caractristique, peut judicieusement tre insre dans une lecon danalyse et probabilits.
Preuve Cas m = 0 et 2 = 1. Soit L le s.e.v. de Rn engendr par e. Le projecteur orthogonal P sur L est la matrice n n
ne contenant que des 1/n. On a alors PX = Xn e et (Id P)X = (X1 Xn , , Xn Xn )> . Comme (Id P)X est la projection
orthogonale de X sur lorthogonal de L, on dduit du thorme de Cochran que PX
(Id P)X, et en particulier que Xn
Sn2 .
2
2
2
Enfin, (n 1)Sn = k(Id P)Xk n1 daprs le thorme de Cochran.
3. STATISTIQUE DES ECHANTILLONS GAUSSIENS
[R F. : DACUNHA -C ASTELLE ET D UFLO , O UVRARD]
3.1 L E MODLE
On dispose dobservations relles x1 , , xn . En terme de modlisation, la premire tape consiste considrer que ces rels sont
des ralisations de n v.a.r.i.i.d. notes X1 , , Xn , cest--dire que pour une certaine ventualit , xi = Xi (). Ces observations
sont supposes tre issues dune loi gaussienne. On peut donc considrer dans la suite que X1 N1 (m, 2 ), avec m et > 0
inconnus. Lenjeu est maintenant de donner des valeurs approches pour les paramtres m et 2 (cadre paramtrique). On note
xn et s2n la moyenne et la variance des observations x1 , , xn :
xn =
1 n
1 n
xi et s2n =
(xi xn )2 .
n i=1
n 1 i=1
Le modle statistique est {Pm, ; m R, > 0}, o Pm, = N1 (m, 2 )n , et (X1 , , Xn ) dsigne un chantillon de la loi Pm, .
Les intervalles de confiance et les tests sont construits laide du thorme de Fisher, qui a lavantage de fournir des lois n fix
(tests et intervalles de confiance non asymptotiques).
On note ]0, 1[ le niveau du test, cest--dire le maximum de lerreur de 1re espce lorsque le paramtre (m ou ) parcourt
lensemble dfini par lhypothse nulle H0 (rappelons que lerreur de 1re espce est la probabilit de rejeter H0 tort). On choisit
souvent = 1%, 5% ou 10%, de manire considrer en priorit des tests de niveau faible (cest le principe de Neyman). On ne
considre que les cas
les plus courants en pratique, i.e. (resp. m) est inconnu lorsque lon veut tester m (resp. ). Sinon, il suffit
dutiliser lgalit n(Xn m)/ N1 (0, 1) sous Pm, .
On fixe m0 , et on veut tester par exemple H0 : m m0 contre H1 : m > m0 au niveau . La statistique de test n(Xn m)/Sn
Tn1 sous Pm, . La rgion de rejet est du type {(z1 , , zn ) Rn : zn > a} car H0 est rejete tort ds que Xn prend des valeurs
anormalement grandes. Notons tn1, le quantile dordre 1 de la loi Tn1 . Alors, sous H0 :
Sn
Sn
Pour ce test, une rgion de rejet au niveau est donc R := {(z1 , , zn ) Rn : zn > m0 + tn1, sn / n}. Autrement dit, la
procdure de dcision est dfinie ainsi : on rejette H0 au niveau si xn R .
3.3 L E TEST DE F ISHER
2
On fixe 0 , et on veut tester par exemple H0 : 0 contre H1 : > 0 au niveau . La statistique de test (n 1)Sn2 / 2 n1
2
2
sous Pm, . Soit n1, le quantile dordre 1 de la loi n1 . On montre comme dans le cas prcdent que pour ce test, la rgion
2
de rejet au niveau est R := {(z1 , , zn ) Rn : zn > n1,
02 /(n 1)}. Autrement dit, on rejette H0 au niveau si s2n R .
L
n(Xn EX1 ) Nd (0, V(X1 )).
La preuve est directe partir de la version unidimensionnelle du TLC et lastuce de Cramr-Wold.
L E TLC ET LA THORIE DES PROBABILITS . La position "centrale" de ce thorme rside dans le fait suivant : ds lors que les
vecteurs alatoires X1 , , Xn sont indpendants et de mme loi de carr intgrable, la loi de Xn est proche de Nd (EX1 , V(X1 )/n)
lorsque n est grand (avec toutes les prcautions dusage ! !). En termes de modlisation, limpact de ce rsultat est considrable :
il signifie que lon peut raisonnablement considrer que la somme de petites perturbations indpendantes est la ralisation dune
loi qui est proche dune loi gaussienne.
L A VITESSE DE CONVERGENCE DANS LE TLC ( CAS d = 1). Lorsque lon utilise le TLC, que ce soit pour calculer des intervalles
de confiance asymptotiques, faire des tests asymptotiques, ou bien pour justifier le fait quune erreur puisse tre
raisonnablement
considre comme tant issue dune loi normale, on est toujours amen dire : pour les grandes valeurs de n, n(Xn m) suit
peu prs une loi normale.
Que signifie ici "pour les grandes valeurs de n" ? Autrement dit, comment peut-on contrler lerreur
commise en remplacant n(Xn m) par la loi normale correspondante ? Un lment de rponse est donn par lingalit de
Berry-Essen : sous rserve que X1 admette un moment dordre 3, et sous les conditions du TLC :
sup P n(Xn EX1 ) x P(G x)) Cn1/2 ,
xRd
avec G N1 (0, V(X1 )) et C une constante indpendante de n, dpendant des 3 premiers moments de X1 . Pour les applications,
il est important de disposer dune valeur de C qui soit la plus petite possible, ce qui fut lobjet dune longue qute...
REFERENCES
Dacunha-Castelle D. et Duflo M. Probabilits et statistiques, 1. Problmes temps mobile. Masson, 1993.
Foata D. et Fuchs A. Calcul des probabilits, 2me dition. Dunod, 1998.
Ouvrard J.-Y. Probabilits 2 - Matrise Agrgation. Cassini, 2000.
Toulouse P.S. Thmes de probabilits et statistique. Dunod, 1999.
Thorme Soit X un vecteur alatoire de Rn de carr intgrable. Alors, detV(X) = 0 si, et seulement si il existe une liaison affine
p.s. entre les composantes de X. Dans ce cas, on a aussi P(X EX Im(V(X))) = 1.
Preuve Supposons que detV(X) = 0. Comme V(X) est une matrice symtrique semi-dfinie positive, il existe une matrice
diagonale et une matrice orthogonale Q telles que QV(X)Q> = . En posant Y = QX, on obtient un vecteur alatoire de
matrice de variance . Soit v un vecteur propre correspondant une valeur propre nulle de V(X). Comme Y = QX, on a pour une
coordonne Yk de Y : Yk = v> X. Alors, var(Yk ) = v> V(X)v = 0, do p.s. v> X = v> EX. On a donc p.s. X EX Im(V(X)), ce
qui entrane lexistence dune relation affine p.s. entre les composantes de X. La rciproque est immdiate : sil existe une liaison
affine p.s. entre les composantes de X, alors en considrant la variance dans cette relation, on tablit lexistence dune relation
entre les colonnes de V(X) .
Si detV(X) = 0, on a P(X EX + Im(V(X))) = 1 et le vecteur alatoire X ne prend ses valeurs que dans un sous-espace affine
de Rn : on dit que la loi de X est dgnre. Comme par ailleurs (EX + Im(V(X))) = 0, dsignant la mesure de Lebesgue
sur Rn , le rsultat suivant est immdiat.
Corollaire Soit X un vecteur alatoire de Rn dont les composantes sont de carrs intgrables. Si detV(X) = 0, la loi de X ne
possde pas de densit par rapport la mesure de Lebesgue sur Rn .