You are on page 1of 11

ENIT/ 3ime Hydromtorologie/ Prvision hydrologique et

Systmes dalerte
Chapitre II Formalisme du problme de prvision
1. Lapproche baysienne et la prdiction
2. Distribution prdictive
3. Cas dune distribution normale
4. Ecriture du problme de prvision sous incertitude
5. Modle AR(1) de sries temporelles des dbits

On a vu que la prvision contrairement la simulation utilise


les distributions conditionnelles. Le cadre baysien permet de
dvelopper les distributions conditionnelles et leur mise jour.
1. Lapproche baysienne et la prdiction (ou prvision)
Soit un chantillon x1, ..xn gnr partir dune distribution
fi(xi|x1,x2, .., xi-1, ) o f est connu et le paramtre est
inconnu. On crit x f(x| ). Pour un chantillon x=(x1, ..xn),
f(x| )= i=1,n f(xi| )
(1)
Le problme de lanalyse statistique consiste estimer ou
infrer . On utilise les observations pour connatre la valeur
de .
Plus gnralement on peut avoir pour objectif dvaluer la
distribution dune observation future dune variable y
dpendant de (ou de et de x) soit
y= g(y|,x)
Il sagit alors de prdire y.
1

Le principe de vraisemblance stipule que toute linformation


provenant dans lchantillon concernant est contenue dans la
fonction de vraisemblance l(|x). La vraisemblance nest autre
que la densit crite comme une fonction de (inconnue) en
fonction des observations x.
l(|x) = i=1,n f(xi| )
Le principe suppose que inclut tout ce qui est inconnu dans
le modle.
On suppose quon dispose dune distribution a priori () qui
reprsente lincertitude sur avant deffectuer les
observations. Dans la dmarche baysienne, les observations
x1, ..xn permettent damliorer la connaissance de . On
construit la distribution a postriori (|x) qui renseigne sur
une fois que lchantillon a t pris.
(|x) = f(x|) () / f(x|) () d

(2)

(|x) est proportionnel f(x|) (la vraisemblance) multiplie


par () (la distribution a priori).
- Soit f(x, ) la distribution jointe de x et
f(x, ) = f(x|) ()
La distribution marginale de x est
f(x)= f(x,) d= f(x|) () d
La distribution prdictive de y o y= g(y|, x) est :
g(y|x) = g(y|,x) (|x) d
Remarque : dans certains cas la distribution a priori est telle
que
2

(|x) d est infinie


On parle da priori impropre. Cest le cas o la dtermination
de est effectue sur une base subjective ou thorique.
Distributions conjugues
Une famille de distribution de est dite conjugue dune
fonction de vraisemblance f(x|) si la distribution a posteriori
(|x) appartient la mme famille que la distribution a priori

Quelques distributions conjugues


f(x,)
()
(|x)
Normale
N(,)
N(1,) ; 1=+
N(,) ;
1=(+x)
connu
Normale
|
suit (,)
N(,)
N(0|) avec -1 ()-(1+ 0/2)
inconnu
= /0
exp(-1/(2 )[ 0 0 + 0(0 suit Inv- )])
KhiDeux
(0,0)
Gamma(,)
Gamma (,) Gamma(+ ,+x)
Normale
Gamma (,) Gamma(+0.5 , +(x)/2)
N(,1/)
Loi Gamma G(,) : f(x|
,)
, = x-1 exp(-x) / ()
Avec E(X)= / ; Var(X)= / ; Cs(X)=2 / (0.5)
paramtre de forme ; paramtre dchelle ; Cs(X)
coefficient dasymtrie
Si =1, loi Gamma standard G(,1) :
f(x|,1) = x-1 exp(-x)/() ; E(X)= ; Var(X)=
Distribution du Chi-deux: : G(/2,1/2) o degr de libert
3

|
=1/2 ; =/2
Loi Gamma inverse (dmonstration)
IG(,) : f(x|,) = (1/x+1) exp(-/x)/()
Avec E(X)= /( 1) ( >1); Var(X)= / (1)
y=1/x ; dy/dx=-1/x; x=1/y
f(y) dy= f(x) dx
f(y)= f(x) /|(dy/dx) |
f(y|,) = ((1/y) -1exp(-/y)/())/ | -1/x| = y 1- /y exp(/y)/() = y -(+1) exp(-/y)/()
f(y|,) =y -(+1) exp(-/y)/()
Loi Beta
f(x)=(a+b)/( (a) (b)) x(a-1) (1-x)(b-1) o 0<x<1; a, b >0
E(X)= a/(a+b)
Var(X)=ab/((a+b)(a+b+1))
Mode(X)=(a-1)/(a+b-2)

2. Distribution prdictive
La distribution prdictive peut servir prdire une valeur
centrale, ou la dispersion, ou un intervalle de confiance la
valeur prdite.
On note
Esprance de la variable u : E(u)= u (u) du
Variance de la variable u : Var(u)= (u-E(u)) (u) du
Si u est un vecteur, on a la covariance
Cov(u)= (u-E(u)) (u-E(u))T (u) du o (.)T est la transpose
Si u est conditionnelle v:
E(u)= E(u|v) (v) dv = E(E(u|v))
Ce qui signifie que la moyenne est la moyenne des moyennes
conditionnelles
De mme on montre que:
Var(u)= E(Var(u|v)) + Var (E(u|v))
Ce qui signifie quen moyenne, la variance conditionnelle est
plus faible que la variance a priori
E(Var(u|v))= Var(u) - Var (E(u|v))
Dmonstration:
E(Var(u|v)) + Var (E(u|v))=E(E(u|v)-E(u|v)) + E((E(u|v)))(E (E(u|v)))= E(u)- (E(u)) = Var(u)
La connaissance de la distribution prdictive permet de
construire un intervalle de confiance au seuil (1-) not HPD.
Cest lintervalle [u-/2, u/2] o Prob(u u/2)= 1- /2 ;
Prob(uu-/2)= /2

3. Cas dune distribution normale


3.a distribution normale de moyenne inconnue et variance
connue
On considre une observation x issue dune distribution
Normale de moyenne inconnue x0 et de variance connue:
f(x| x0)N(x0,)
f(x| x0) = (1/2) -1 exp{-0.5[(x-x0)/]}
Dans le cas o on suppose que la moyenne x0 est a priori
Normalement distribue avec les paramtres 0,0 :
x0N(0,0 )
La distribution a priori de x0 est :
(x0)=(1/2) 0-1 exp{-0.5[(x0-0)/0]}
La posteriori est proportionnelle :
(1/2) -1 exp{-0.5[(x-x0)/]} * (1/2) 0-1 exp{-0.5[(x00)/0]}
La posteriori est proportionnelle :
-1 0-1 exp{-0.5([(x-x0)/]+ [(x0-0)/0])}
On montre que la distribution a posteriori de la moyenne x0:
f (x0|x) est une N(1,1) avec
1 = ( 0- 0 + - x) / (- + 0-)
1/ 1= 1/ 0 + 1/
______________
Pour la dmonstration (voir Box and Tiao, 1992, Bayesian
inference in statistical analysis Annexe I) on utilise :
A(z-a)+B(z-b)= (A+B)(z-c)+[AB/(A+B)](a-b)
O:
c=(Aa+Bb)/(A+B)
avec
z= x0
a=x
6

b=0
A= -
B= 0-
________
f(x0| x) = (1/2) 1-1 exp{-0.5[(x0- 1)/ 1]}
ou encore
1 = [ 0- / (- + 0-) ] 0 + [-/(- + 0-)] x =
1 = 0 0 + 1 x
La valeur a posteriori de la moyenne de la distribution est un
compromis entre la valeur a priori et la mesure x, les poids
attribus 0 et 1 sont proportionnels linverse des variances
a priori et de la mesure. (Linverse de la variance est ici une
mesure de la prcision).
1 =( 0- + -)-1
0= [ 0- / ( - + 0-) ]
1= [ - / ( - + 0-)]
La distribution prdictive dune valeur future xpred sachant
lobservation x est
f(xpred |x)= f(xpred |x0) f(x0 |x) dx0
o:
f(xpred |x0) est la fonction qui lie la valeur prdite x0 lorsque
x0 est donn.
On calcule :
f(xpred |x)= (1/2) -1 exp{-0.5[(xpred-x0)/]} (1/2) 1-1
exp{-0.5[(x0- 1)/ 1]} dx0
f(xpred |x) exp{-(0.5[(xpred-x0)/] +0.5[(x0- 1)/ 1])} dx0
Cest une distribution normale de moyenne E(xpred |x)= 1
Qui est la moyenne a posteriori de x0.
7

et de variance Var (xpred |x)= E() + Var (1) = + 1


qui est la somme de la variance de X et de la variance due
lincertitude a posteriori de x0.
3.b on dispose dun chantillon dobservations de taille n et
de moyenne xmoy.
f (x0|x) (1/2) 0-1 exp{-0.5[(x0-0)/0]} i=1,n (1/2) -1
exp{-0.5[(xi-x0)/]}
f (x0|x) exp{-0.5([(x0-0)/0]-i=1,n[ (xi-x0)/])}
On montre que la distribution a posteriori de la moyenne x0 est
Normale avec :
f (x0|xi=1,n) est une N(n,n) avec
n = ( 0- 0 + n
- xmoy) / (n - + 0-)

1/ n= 1/ 0 + n/
Si n est grand la distribution a posteriori dpend surtout de
et xmoy
Si la connaissance a priori est trop vague avec 0 tend vers
linfini, on dit que cest une distribution non informative ;
dans ce cas, f (x0|xi=1,n) est une N(n,n) avec
n = xmoy
n= /n
3.c Cas dune distribution normale de moyenne connue x0
et variance inconnue
f(x| x0, )= f(x| ) -nexp{-0.5i=1,n[ (xi-x0)/])}
on pose =1/n i=1,n(xi-x0)/

est la moyenne des carrs de la variable standardise de X.


la distribution a priori (conjugue) de est une Gamma
inverse deux paramtres (,)
p() (2)-(+1) exp(-/)
la distribution a posteriori se construit en faisant un
changement de variable de manire faire passer p() dune
Gamma (,) une inverse Chi-deux (0,0). En dautres
termes la variable 0 0/
suit une Chi-Deux 0 degrs de
libert.
On utilise le symbole pour dire : est proportionnel .
f (|xi=1,n) =f(x| ) p()
(0/)(0/2+1) exp(-0 (0/)/2) (0)-n/2 exp(-n (/)/2)
f (|xi=1,n) ()-((n+ 0)/2+1) exp( -(/2) (00 + n ) )
La distribution a posteriori de est une Chi-deux inverse de
paramtres : 1= n+ 0 et 1 = (0 0+ n )/( 0+ n )
Si la distribution a priori est non informative si la
distribution a priori est exprime en fonction de .
p() -1
La vraisemblance est proportionnelle
f(| x)= -1 i=1,n (1/2) -1 exp{-0.5[(xi-x0)/]}
-(n+1)exp{-0.5i=1,n[ (xi-x0)/]}
Soit s=i=1,n(xi-x0)/n (cest dire que =s/)
La distribution a posteriori est:
f (|xi=1,n) -(n+1)exp{-0.5 ns/}
le coefficient de normalisation est
k= (ns)n/2 /(2(n/2)-1 (n/2))

on sait que la distribution Chi-deux n degrs de libert


scrit :
f(u)= 1/(2(n/2) (n/2)) u(n/2)-1 exp (-0.5 u) ; (u>0)
do ns/ suit une Chi-deux n degrs de libert.
4. Modle AR(1) de sries temporelles des dbits
Trs utilis pour la prvision des dbits (ou parfois des
erreurs).
(Xt )= 1 (Xt-1 ) + x (1-1)0.5Wt
O moyenne stationnaire
Wt suit N(0,1)
at = x (1-1)0.5Wt
at est un terme alatoire avec
at = x (1-1)0.5
Les paramtres du modle sont estims par la mthode des
moments
est= xmoy
xest = (xi-xmoy)/N
r1est= (xi-xmoy) (xi+1-xmoy) /xest
Ce modle prserve les deux premiers moments du processus.
Pour prserver le moment dordre 3, on utilise le modle
(Xt )= 1 (Xt-1 ) + x (1-1)0.5t
O t est un processus distribu selon une loi Gamma de
coefficient dasymtrie
Cs( )= Cs(x ) (1-13)/(1-1)1.5
La gnration de t peut tre approxime par
t= (2/ Cs( ) )[( 1+ Cs( )Wt /6 + Cs( )/36)] (2/ Cs( ))
O Wt suit N(0,1)
Gnration de Wt

10

Mthode de Box et Muller (1958) consiste gnrer deux


variables normales centres rduites indpendantes partir de
deux variables uniformes sur [0,1]
- gnrer U1, U2
- x1= (-2log(U1))1/2 cos(2U2)
- x2= (-2log(U1))1/2 sin(2U2)
On a :
E(Xt| xt-1)= + 1 (xt-1 )
Var(Xt| xt-1)= x (1 1)
(la variance est rduite avec un facteur (1 1) lorsque la
valeur prcdente xt-1est connue)
Approximation de la fonction (x) (selon une srie de
Stirling)
x(x-0.5)
exp(-x)
(1+1/(12x)+(1/288x)(x)=
(2
)1/2
139/(51840x3)- (571/248320x4))

11

You might also like