You are on page 1of 43

POLYTECHLILLE

DPARTEMENT G.I.S.
5ME ANNE
Introduction aux sries temporelles
Julien JACQUES
Table des matires
1 Introduction et premires dnitions 4
1.1 Tendances et composantes saisonnires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Indices descriptifs dune srie temporelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.1 Indices de tendances centrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.2 Indices de dispersion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.3 Indices de dpendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Mise en oeuvre sous R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2 Lissages exponentiels 10
2.1 Lissage exponentiel simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2 Lissage exponentiel double . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3 Mthode de Holt-Winters . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3.1 Mthode non saisonnire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3.2 Mthode saisonnire additive . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3.3 Mthode saisonnire multiplicative . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.4 Mise en oeuvre sous R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3 Estimation et limination de la tendance et de la saisonnalit 18
3.1 Bruit blanc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2 Processus stationnaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.3 Une estimation paramtrique de la tendance (trend) . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.4 Estimation non paramtrique : moyenne mobile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.5 Elimination de la tendance et de la saisonnalit par la mthode des diffrences . . . . . . . . . . . . . 22
3.6 Test sur la srie rsiduelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.6.1 Comment tester si on est en prsence dun bruit blanc ? . . . . . . . . . . . . . . . . . . . . . 24
3.7 Mise en oeuvre sous R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4 Modlisation des sries stationnaires 25
4.1 Auto-corrlation partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.2 Les processus auto-rgressifs AR
p
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.2.1 Exercice : cas particulier de lAR
1
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.2.2 Illustrations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.3 Les processus en moyenne mobile MA
q
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.3.1 Exercice : cas particulier du MA
1
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.3.2 Illustrations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.4 Les processus mixtes ARMA
p,q
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.4.1 Exercice : le processus ARMA
1,1
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.4.2 Illustrations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.5 Rcapitulatif des proprits des processus MA
q
, AR
p
et ARMA
p,q
. . . . . . . . . . . . . . . . . . 37
4.6 Estimation, choix de modle et prvision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.6.1 Estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.6.2 Choix de modle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.6.3 Prvision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
5 Processus non stationnaire : ARIMA et SARIMA 39
5.1 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
5.2 Les processus ARIMA et SARIMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
5.3 Mise en oeuvre sous R : processus ARMA, ARIMA, SARIMA . . . . . . . . . . . . . . . . . . . . . 40
2
6 Processus ARCH et GARCH 41
6.1 Dnitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
6.2 Quelques rappels de probabilits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
6.3 Proprits des processus ARCH . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
6.4 Processus GARCH et proprits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
6.5 Mise en oeuvre sous R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
Ce document est uniquement un support de cours, et ne constitue pas lui seul un cours sur les sries temporelles.
Les diffrentes dmonstrations, applications et exercices ncessaires la comprhension des notions prsentes dans
ce document ny gurent pas (ou alors sous la forme dexercice), mais seront dvelopps en cours.
A la n de chaque chapitre gurent les commandes R ncessaires lapplication des notions du chapitre.
1 Introduction et premires dnitions
Une srie temporelle (ou srie chronologique) temps discret est une suite relle nie (x
t
)
1tn
, o t reprsente
le temps (en minute, jour, anne...).
Voici quelques exemples de sries temporelles :
Ex. 1 : Nombre de morts accidentelles aux Etats-Unis de 1973 1978 (gure 1).
Time
U
S
A
c
c
D
e
a
th
s
1973 1974 1975 1976 1977 1978 1979
7
0
0
0
8
0
0
0
9
0
0
0
1
0
0
0
0
1
1
0
0
0
FIG. 1 Nombre de morts accidentelles aux Etats-Unis de 1973 1978
Ex. 2 : Nombre de passagers par mois (en milliers) dans les transports ariens, de 1949 1960 (gure 2).
Time
A
ir
P
a
s
s
e
n
g
e
r
s
1950 1952 1954 1956 1958 1960
1
0
0
2
0
0
3
0
0
4
0
0
5
0
0
6
0
0
FIG. 2 Nombre de passagers (en milliers) dans les transports ariens
4
Ex. 3 : Nombre annuel de tches solaires observes la surface du soleil de 1700 1980 (gure 3).
Time
s
u
n
s
p
o
t.y
e
a
r
1700 1750 1800 1850 1900 1950
0
5
0
1
0
0
1
5
0
FIG. 3 Nombre annuel de tches solaires
Ex. 4 : Taille de la population franaise (en milliers) de 1985 2005 (gure 4).
FIG. 4 Population franaise de 1985 2005
Ex. 5 : Valeurs de cltures journalires du CAC40 de 1991 1998 (gure 5).
Time
E
u
S
to
c
k
M
a
r
k
e
ts
[, 3
]
1992 1993 1994 1995 1996 1997 1998
1
5
0
0
2
0
0
0
2
5
0
0
3
0
0
0
3
5
0
0
4
0
0
0
FIG. 5 Valeurs de cltures journalires du CAC40 de 1991 1998
Except lexemple 4, ces donnes sont disponibles dans le logiciel R sous les noms : EuStockMarkets, USAccDeaths,
AirPassengers et sunspot.year.
5
Exercice 1. Reprer les tendances (croissance, dcroissance, linaire, quadratique...) et saisonnailits (priodicits)
de chacune de ces sries.
Un des objectifs principaux de ltude dune srie temporelle est la prvision des ralisations futures, trs souvent
pour des raisons conomiques (prvoir lvolution de la vente dun produit pour ajuster au mieux les moyens de pro-
duction, prvoir lvolution dun march nancier ...).
Bien entendu, aucun modle ne correspond exactement la ralit, et il est impossible de prvoir parfaitement le de-
venir dune srie temporelle. Lorsque cela sera possible, nous donnerons des intervalles de prvisions, an de pouvoir
apporter une information quant la prcision de la prvision.
Pour ce faire, il existe un large choix de modle utilisable :
les modles de rgression, comme par exemple :
x
t
=
1
t
2
+
2
t +
3
+
t
, t = 1, . . . , n.
Une fois les coefcients de ce modle estims, la prvision de x
t+1
sera x
t+1
=
1
(t + 1)
2
+
2
(t + 1) +
3
.
les lissages exponentiels qui sont trs simples mettre en oeuvre, et qui feront lobjet dun chapitre suivant,
les modles de type ARMA, qui consistent enlever de la srie les tendances et saisonnalits (ou priodicits)
videntes et modliser le rsidu restant. Ces mthodes sont plus sophistiques et plus lourdes numriquement
(temps de calcul) que les prcdentes, mais galement plus performantes.
Parmi les 5 exemples prcdents, celui relatif au nombre de passagers dans les transports ariens (gure 2) est une
srie assez typique de ce que lon rencontre en conomtrie, et elle donne lieu de bonnes prvisions pour toutes les
mthodes classiques. Au contraire, lvolution des marchs boursiers (gure 5) est beaucoup plus difcile prvoir.
Les ds que nous allons devoir relever sont les suivants :
dnir un modle avec un nombre ni de paramtres,
estimer les paramtres de ce modle,
vrier la qualit dajustement du modle, comparer diffrents modles (partage de lchantillon dobservations
en 80% pour lapprentissage et 20% pour le test),
effectuer des prdictions.
1.1 Tendances et composantes saisonnires
On parle de tendance lorsque la srie (x
t
)
1tn
peut scrire, une erreur dajustement
t
prs, comme une
combinaison linaire de m fonctions du temps, choisies a priori (par exemple fonction puissance, exponentielle, loga-
rithmique...) :
x
t
=
m

j=1

j
f
j
(t) +
t
1 t n.
Lorsque x
t
= t + +
t
la tendance est linaire (m = 1 et f(t) = t +).
Une tendance polynomiale se traduira par x
t
=
1
t
p
+
p1
t
p1
+. . . +
p+1
+
t
.
Exercice 2. Comment semble tre la tendance dans lexemple 5 ?
On parle de composante priodique lorsque la srie (x
t
)
1tn
peut se dcomposer en :
x
t
= s
t
+
t
1 t n,
o s
t
est priodique, cest--dire s
t+T
= s
t
, avec T la priode (suppose entire).
Lorsque la priode est de 6 mois ou 1 an, on parle gnralement de composante saisonnire.
Enn, il est frquent quune srie comporte la fois une tendance et une composante priodique (cf. exemple 2).
6
1.2 Indices descriptifs dune srie temporelle
1.2.1 Indices de tendances centrales
Nous utilisons comme indicateur de la tendance centrale la moyenne :
x
n
=
1
n
n

t=1
x
t
.
1.2.2 Indices de dispersion
Nous utilisons comme indicateur de dispersion la variance empirique (et sa racine carre, lcart-type empirique) :

n
(0) =
1
n
n

t=1
(x
t
x
n
)
2
.
1.2.3 Indices de dpendance
Ces notions, plus spciques ltude de srie temporelle, renseignent sur la dpendance entre les donnes x
t
.
Auto-covariance Lauto-covariance empirique dordre 1 renseigne sur la dpendance entre deux donnes succes-
sives :

n
(1) =
1
n 1
n1

t=1
(x
t
x
n
)(x
t+1
x
n
),
lauto-covariance empirique dordre 2 renseigne sur la dpendance entre deux donnes cartes de deux pas de temps :

n
(2) =
1
n 2
n2

t=1
(x
t
x
n
)(x
t+2
x
n
),
et ainsi de suite. Pour des raisons de bon sens statistique, nous ne considrerons les covariances empiriques que jusqu
un ordre h pas trop grand.
On appelle fonction dauto-covariance (empirique) la fonction qui h associe
n
(h).
Auto-corrlation Les auto-corrlations empiriques sont les quotients des covariances empiriques par la variance
empirique :

n
(h) =

n
(h)

n
(0)
.
Ce sont les auto-corrlations empiriques que nous utiliserons pour caractriser la dpendance entre les variables.
On appelle fonction dauto-corrlation (empirique) la fonction qui h associe
n
(h).
Visualisation de lauto-corrlation dordre 1 La reprsentation graphique des nuages de points (x
t
, x
t+1
), pour
t = 1, . . . , n 1, est une bonne illustration de la valeur de lauto-corrlation dordre 1
n
(1) : plus le nuage sera
arrondi, plus
n
(1) sera proche de 0, et plus le nuage sera allong, plus
n
(1) sera proche de 1. Ceci est vrai pour
toutes les auto-corrlations
n
(k), 1 k n.
7
7000 9000 11000
7
0
0
0
9
0
0
0
1
1
0
0
0
x[1:(length(x) 1)]
x
[
2
:
l
e
n
g
t
h
(
x
)
]
7000 9000 11000
7
0
0
0
9
0
0
0
1
1
0
0
0
x[1:(length(x) 2)]
x
[
3
:
l
e
n
g
t
h
(
x
)
]
7000 9000 11000
7
0
0
0
9
0
0
0
1
1
0
0
0
x[1:(length(x) 3)]
x
[
4
:
l
e
n
g
t
h
(
x
)
]
7000 9000 11000
7
0
0
0
9
0
0
0
1
1
0
0
0
x[1:(length(x) 4)]
x
[
5
:
l
e
n
g
t
h
(
x
)
]
7000 9000 11000
7
0
0
0
9
0
0
0
1
1
0
0
0
x[1:(length(x) 5)]
x
[
6
:
l
e
n
g
t
h
(
x
)
]
7000 9000 11000
7
0
0
0
9
0
0
0
1
1
0
0
0
x[1:(length(x) 6)]
x
[
7
:
l
e
n
g
t
h
(
x
)
]
7000 9000 11000
7
0
0
0
9
0
0
0
x[1:(length(x) 7)]
x
[
8
:
l
e
n
g
t
h
(
x
)
]
7000 9000 11000
7
0
0
0
9
0
0
0
x[1:(length(x) 8)]
x
[
9
:
l
e
n
g
t
h
(
x
)
]
0.0 0.5 1.0 1.5

0
.
4
0
.
0
0
.
4
0
.
8
Lag
A
C
F
Series x
FIG. 6 Nuages de points (x
t
, x
t+k
) pour k = 1, . . . , 8 et auto-corrlation pour la srie temporelle du nombre de
morts accidentelles aux Etats-Unis de 1973 1978
8
Premire analyse de la srie laide des auto-corrlations
Proposition 1. Si la srie (x
t
)
1tn
est une tendance linaire pure x
t
= at +b, t = 1, . . . , n, alors on a pour h x :

n
(h)
n
1.
Exercice 3. Faire la preuve.
Proposition 2. Si la srie (x
t
)
1tn
est une srie priodique pure x
t
= a cos
2t
T
, t = 1, . . . , n, on a pour h x :

n
(h)
n
cos
2h
T
.
En interprtant lauto-corrlation grce ces deux propositions, il sera possible de deviner si une srie tem-
porelle admet une tendance (lauto-corrlation tend vers 1) ou une saisonnalit (la saisonnalit se voit sur lauto-
corrlation).
1.3 Mise en oeuvre sous R
Quelques fonctions R utiles ltude des sries temporelles :
Lire un chier de donnes en sautant les k premires lignes : data=scan(file=donnee.dat,skip=k).
Crer un objet de type srie temporelle : serie <- ts (data,start,end,frequency).
data contient le vecteur des donnes (un chier contenant les donnes peut tre mentionn en remplaant
data par file=donnees.dat), start et end mentionne les dates de dbut et de n de la srie (ex :
start=c(1990,1)et end=c(1999,6)pour des donnes allant de janvier 90 juin 99), et enn frequency
mentionne le nombre de donnes par unit de temps (par exemple, si les dates de dbut et de n sont des annes,
et que les donnes sont mensuelles, il faudra indiquer frequency=12).
Reprsenter graphiquement un objet de type srie temporelle : plot.ts(serie)
La fonction
acf(x, lag.max = 10, type = c("correlation", "covariance"), plot = TRUE)
calcule (et trace si loption plot est TRUE) les lag.max premires auto-corrlations et auto-covariances.
Quelques conseils utiles pour les graphiques en R :
pour reprsenter plusieurs courbes sur le mme graphique, tracer la premire laide de la commande plot qui
cr la fentre graphique et y insre la courbe, puis tracer les autres courbes laide de la commande lines
qui trace une courbe sur une fentre graphique existante.
pour partager la fentre graphique en plusieurs (np) sous-graphes, utiliser la commande par(mfrow=c(n,p)).
prciser les limites des axes des graphiques : plot(...,xlim=c(0,10),ylim=c(-10,10)).
pour exporter les graphiques en jpeg (idem pour bmp, png), il faut lui procder de la sorte
1. jpeg(filename=nomfichier%d.jpeg),
2. raliser le graphique,
3. la commande dev.off()permet enn de rediriger le dernier graphique trac vers le chier nomfichier1.jpeg,
et ainsi de suite aprs chaque graphique. Le nom de chier sera automatiquement incrment.
9
2 Lissages exponentiels
Les mthodes de lissages exponentiels constituent un outil permettant de raliser des prvisions partir de lob-
servation dune srie temporelle. Ces mthodes tant relativement basiques et simples de mise en oeuvre, elles sont
souvent utilises dans lindustrie, notamment lorsque le nombre de prvisions raliser est important (par exemple,
prvisions des ventes de centaines de produits dans une grande surface).
Nous prsentons trois types de lissage exponentiel :
le lissage exponentiel simple qui consiste ajuster localement la srie temporelle une constante,
le lissage exponentiel double qui ajuste quant lui une droite,
le lissage exponentiel de Holt-Winters qui considre des fonctions plus complexes (polynomiales, priodiques...).
2.1 Lissage exponentiel simple
Disposant dune srie temporelle x
1
, . . . , x
n
, lobjectif du lissage exponentiel est destimer la valeur x
n+h
non
encore observe. Nous noterons x
n,h
cette prvision.
Etant donne une constante de lissage 0 < < 1, on dnit la prvision par lissage exponentiel simple :
x
n,h
=
n1

j=0
(1 )
j
x
nj
. (1)
La prvision est une moyenne de toutes les observations passes, pondre de sorte ce que plus lobservation soit
ancienne moins elle ait dimportance.
Une constante de lissage proche de 0 ( 0.3) donne une importance signicative aux observations loignes, tandis
quun proche de 1 ( 0.7) tend ngliger ces observations loignes.
Remarque : la prvision x
n,h
ne dpend pas de h!
Formules rcursives de mise jour La dnition (1) vriant la formule rcursive suivante
x
n,h
= x
n
+ (1 ) x
n1,h
,
la prvision x
n,h
peut tre obtenue immdiatement partir de la connaissance de :
1- la prvision x
n1,h
base sur les n 1-mes premires observations,
2- lobservation x
n
.
Lutilisation de cette rcurrence permet de raliser des algorithmes trs rapides destimation de la prvision par lissage
exponentiel (en initialisant x
1,h
= x
1
).
Exercice 4. Ecrire et interprter la valeur de x
n,1
partir de lquation de rcurrence.
Exercice 5. Montrer que x
n,h
dni en (1) est solution asymptotique dun problme de moindres carrs pondrs.
Choix de la constante de lissage Pour choisir la constante de lissage, une solution pragmatique consiste tester
plusieurs valeurs et choisir celle minimisant un critre derreur minimale. Pour cela on partage lchantillon dobser-
vations en un chantillon dapprentissage (les 80% premires observations : x
1
, . . . , x
m
o m est par exemple lentier
le plus proche de
8
10
n) et un chantillon test (les 20% dernires : x
m+1
, . . . , x
n
), on estime le modle de lissage
exponentiel partir de lchantillon dapprentissage, et on value lerreur sur lchantillon test :
erreur =
nm

h=1
( x
t,h
x
t,h
)
2
On rpte cette opration pour plusieurs valeurs de la constante de lissage , et on choisit celle conduisant lerreur
la plus petite.
10
2.2 Lissage exponentiel double
On ajuste au voisinage de linstant n une droite dquation y
t
= a
1
+a
2
(t n).
La prvision par lissage exponentiel double est :
x
n,h
= a
1
+ a
2
h
o a
1
et a
2
sont solution de
inf
a1,a2R
n1

j=0
(1 )
j
(x
nj
(a
1
+a
2
j))
2
.
Les solutions de cette quation sont
a
1
= 2L
1
(n) L
2
(n) et a
2
=

1
(L
1
(n) L
2
(n))
o L
1
(n) =

n1
j=0
(1 )
j
x
nj
et L
2
(n) =

n1
j=0
(1 )
j
L
1
(n j) sont deux lissages exponentiels simples
successifs.
Remarque : comme pour le lissage exponentiel simple, lestimateur de la prvision est la meilleure approximation au
sens des moindres carrs pondrs.
Formules rcursives de mise jour
a
1
(n) = a
1
(n 1) + a
2
(n 1) +(2 )(x
n
x
n1,1
),
a
2
(n) = a
2
(n 1) + (2 )(x
n
x
n1,1
),
o a
1
(n) et a
2
(n) sont les estimations des paramtres a
1
et a
2
lorsque lon a observ la srie jusqu la n-me
ralisation. Les valeurs intiales tant a
1
(0) = x
1
et a
2
(0) = x
2
x
1
.
2.3 Mthode de Holt-Winters
2.3.1 Mthode non saisonnire
Comme la mthode de lissage exponentiel double, celle de Holt-Winters non saisonnire revient estimer au
voisinage de linstant n une droite
y
t
= a
1
+a
2
(t n).
La prvision prend la forme
x
n,h
= a
1
+ a
2
h.
La variante par rapport la mthode de lissage exponentiel double est au niveau des formules de mise jour dans
lestimation des paramtres a
1
et a
2
.
Soient deux constantes de lissages 0 < < 1 et 0 < < 1. Les formules de mise jour sont :
a
1
(n) = x
n
+ (1 )[ a
1
(n 1) + a
2
(n 1)],
a
2
(n) = [ a
1
(n) a
1
(n 1)] + (1 ) a
2
(n 1).
Exercice 6. Montrer que les formules de mise jour du lissage exponentiel double sont un cas particulier de ces
dernires.
Remarque :
lintroduction de deux constantes rend la mthode plus souple que le lissage exponentiel double : la constante
joue un rle dans lestimation de lordonne lorigine de la droite, a
1
, et la constante dans celle de la pente
de la droite, a
2
.
si et sont petits le lissage est important car on tient compte du pass lointain.
11
2.3.2 Mthode saisonnire additive
On cherche maintenant ajuster au voisinage de linstant n une droite dquation
y
t
= a
1
+a
2
(t n) +s
t
,
o s
t
est une composante priodique de priode T.
Les formules rcursives de mise jour sont :
a
1
(n) = (x
n
s
nT
) + (1 )[ a
1
(n 1) + a
2
(n 1)],
a
2
(n) = [ a
1
(n) a
1
(n 1)] + (1 ) a
2
(n 1),
s
n
= [x
n
a
1
(n)] + (1 ) s
nT
.
Les prvisions sont de la forme :
x
n,h
= a
1
+ a
2
h + s
n+hT
1 h T,
x
n,h
= a
1
+ a
2
h + s
n+h2T
T + 1 h 2T.
et ainsi de suite pour h 2T.
Les trois constantes de lissages, , et ont le mme effet que prcdemment, plus elles sont petites et plus limpor-
tance des donnes loignes est signicative. Elles agissent respectivement sur les paramtres a
1
, a
2
et s
t
.
Se rfrer Gouriroux et Monfort 1983 [4] pour les valeurs dinitialisation.
2.3.3 Mthode saisonnire multiplicative
On ajuste au voisinage de linstant n une droite dquation
y
t
= [a
1
+a
2
(t n)] s
t
,
o s
t
est une composante priodique de priode T.
Les formules rcursives de mise jour sont :
a
1
(n) =
x
n
s
nT
+ (1 )[ a
1
(n 1) + a
2
(n 1)],
a
2
(n) = [ a
1
(n) a
1
(n 1)] + (1 ) a
2
(n 1),
s
n
=
x
n
a
1
(n)
+ (1 ) s
nT
.
Les prvisions sont de la forme :
x
n,h
= [ a
1
+ a
2
h] s
n+hT
1 h T,
x
n,h
= [ a
1
+ a
2
h] s
n+h2T
T + 1 h 2T.
Se rfrer galement [4] pour les valeurs dinitialisation.
12
2.4 Mise en oeuvre sous R
Les mthodes de lissages exponentiels sont disponibles sous R, grce la fonction HoltWinters.
Pour une srie temporelle x, cette procdure permet :
un lissage exponentiel simple :
xlisse <- HoltWinters(x,alpha=,beta=0,gamma=0),
un lissage de Holt-Winters sans composante saisonnire :
xlisse <- HoltWinters(x,alpha=,beta=,gamma=0),
un lissage Holt-Winters additif :
xlisse <- HoltWinters(x,alpha=,beta=,gamma=,seasonal=add),
un lissage Holt-Winters multiplicatif :
xlisse <- HoltWinters(x,alpha=,beta=,gamma=,seasonal=mul).
A noter que pour un lissage de Holt-Winters avec composante saisonnire la srie temporelle x doit tre un objet de
type srie temporelle, dni avec la fonction ts en prcisant la saisonnalit.
Lafchage et la visualisation des rsultats peuvent tre raliss laide des commandes :
summary(xlisse): description de lobjet xlisse obtenu prcdemment par la procdure HoltWinters,
plot(xlisse) : reprsentation des valeurs observes et des valeurs lisses,
plot(xlisse$fitted[,1]) : reprsentation de lajustement de la srie remis jour chaque observation.
Les prvisions lhorizon h sont ralises laide de la fonction predict :
p<-predict(xlisse,n.ahead=h).
Un intervalle de conance (dont le fondement thorique na pas t tudi dans ce cours) peut tre obtenu en validant
( TRUE) loption prediction.interval.
Remarque : lorsquaucune valeur nest prcise pour les constantes de lissage, un algorithme interne la procdure
HoltWinters se charge destimer la meilleur constante possible partir de la srie des observations.
13
FIG. 7 Lissage et prvision par lissage exponentiel double dun bruit blanc gaussien
14
FIG. 8 Lissage et prvision par lissage exponentiel double de la srie X(t) = 0.5t + 2
t
avec
t
N(0, 1)
15
FIG. 9 Lissage et prvision par lissage exponentiel double de la srie X(t) = 0.5t+
t
+3 cos
_
t

6
_
avec
t
N(0, 1)
16
Time
b
b
2 4 6 8 10
0
1
0
2
0
3
0
4
0
5
0
Lissage Exponentiel Simple
Time
b
b
2 4 6 8 10
0
1
0
2
0
3
0
4
0
5
0
Lissage Exponentiel Double, alpha=0.5
Time
b
b
2 4 6 8 10
0
1
0
2
0
3
0
4
0
5
0
HoltWinters Seasonal
FIG. 10 Lissage et prvision par lissage exponentiel simple, double, et Holt-Winters avec composante saisonnire de
la srie X(t) = 0.5t +
t
+ 3 cos
_
t

6
_
avec
t
N(0, 1)
17
3 Estimation et limination de la tendance et de la saisonnalit
Une srie temporelle (x
t
)
1tn
est lobservation des n premires ralisations dun processus stochastique (X
t
)
t
.
Cest ce processus que lon cherche dsormais modliser. Pour cela, la dmarche suivante doit tre adopte :
reprsenter graphiquement la srie an de reprer les tendances et saisonnalits,
estimer et supprimer les tendances et saisonnalits (partie dterministe du processus stochastique),
choisir un modle pour les rsidus (partie alatoire du processus stochastique) et lestimer,
prdire les ralisations futures laide de ce modle.
Lobjectif de cette section est de donner quelques mthodes pour estimer et supprimer les tendances et saisonnalits.
La n de ce cours sera concentr sur la modlisation de processus stationnaires.
3.1 Bruit blanc
Dnition 1. Un processus de bruit blanc est une suite de variables alatoires (X
t
)
t
indpendantes, desprance et de
variance constantes. Si lesprance est nulle, le bruit blanc est centr, et si les variables alatoires sont gaussiennes,
le bruit blanc est gaussien.
3.2 Processus stationnaire
Un processus alatoire (X
t
)
t
est stationnaire sil est desprance constante
E[X
t
] := t,
et si les covariances sont stables par translation dans le temps, cest--dire, pour tout h
Cov(X
t
, X
t+h
) := (h) t.
On appelle fonction dauto-covariance du processus stationnaire la suite (h), et fonction dauto-corrlation du
processus stationnaire la suite (h) :=
(h)
(0)
.
Exercice 7. Montrer que (h) = (h).
3.3 Une estimation paramtrique de la tendance (trend)
Nous supposons que la srie temporelle tudie soit la ralisation dun processus stochastique compos dune
tendance dterministe m
t
et dune partie alatoire
t
(suppose de moyenne nulle) :
X
t
= m
t
+
t
.
Une mthode simple consiste supposer que cette tendance est linaire :
m
t
= a +bt,
et destimer les paramtres a et b par moindres carrs.
Ainsi, si on observe la srie x
1
, . . . , x
n
, il faut trouver a et b qui minimisent la quantit :
n

t=1
(x
t
a bt)
2
Les solutions de ce problme sont :
a =
6
n(n 1)
_

t=1
tx
t
+
2n + 1
3
n x
_
,

b =
12
n(n
2
1)
_
n

t=1
tx
t

n + 1
2
n x
_
.
18
Exercice 8. Ecrire le problme sous forme matricielle... et le rsoudre.
Lhypothse de linairit de la tendance convient trs bien certaines sries temporelles : par exemple, celles des
gures 1, 2 (et encore...), 4... Mais ce nest pas le cas de toutes les sries : voir par exemple celle reprsentant le cours
du CAC40, gure 5.
Il est alors possible de supposer que la tendance soit de forme polynomiale :
m
t
= a +bt +ct
2
et destimer les paramtres a, b et c par moindres carrs.
Mais il est parfois difcile destimer le degr du polynme, et lorsque le degr est trop important, le nombre de para-
mtres estimer devient grand et les calculs fastidieux. Dans cette situation, on a recourt une mthode destimation
non paramtrique.
3.4 Estimation non paramtrique : moyenne mobile
Tendance Supposons que la tendance m
t
soit linaire dans un petit intervalle [t q, t +q] autour de t. Dans ce cas,
un bon estimateur de la tendance est la moyenne sur cet intervalle :
m
t
=
1
2q + 1
q

k=q
x
t+k
.
On peut donc estimer la tendance chaque temps t en calculant la moyenne sur les observations tant dans une fentre
de largeur 2q + 1 autour de t : cest ce que lon appelle une estimation par moyenne mobile.
Pour viter les problmes de bord, on suppose que x
t
= x
1
si t < 1 et x
t
= x
n
si t > n.
Tendance et saisonnalit Supposons dsormais que le processus ne comporte pas uniquement une tendance, mais
galement une saisonnalit :
X
t
= m
t
+s
t
+
t
,
avec s
t
une fonction T-priodique.
Le principe destimation est (en simpliant lgrement) le suivant : on estime la tendance moyenne sur une priode,
puis on estime la composante saisonnire en moyennant sur toutes les priodes les carts la tendance moyenne de la
priode.
Application la srie du nombre de morts accidentelles aux Etats-Unis La gure 11 reprsente la srie du
nombre de morts accidentelles aux Etats-Unis de 1973 1978 (dj prsente en introduction), la gure 12 reprsente
la tendance (estime par moyenne mobile) et la gure 13 reprsente la composante saisonnire.
La gure 14 reprsente la srie aprs limination de la tendance et la gure 15 reprsente la srie aprs limination de
la tendance et de la composante saisonnire.
La srie 15 ainsi obtenue est une srie (suppose) stationnaire, sur laquelle nous chercherons plus tard ajuster un
modle.
19
Time
U
S
A
c
c
D
e
a
th
s
1973 1974 1975 1976 1977 1978 1979
7
0
0
0
8
0
0
0
9
0
0
0
1
0
0
0
0
1
1
0
0
0
FIG. 11 Srie USAccDeaths : nombre de morts accidentelles aux Etats-Unis de 1973 1978
Time
m
$
tr
e
n
d
1973 1974 1975 1976 1977 1978 1979
8
4
0
0
8
6
0
0
8
8
0
0
9
0
0
0
9
2
0
0
9
4
0
0
9
6
0
0
FIG. 12 Tendance de la srie USAccDeaths
Time
m
$
s
e
a
s
o
n
a
l
1973 1974 1975 1976 1977 1978 1979

1
5
0
0

1
0
0
0

5
0
0
0
5
0
0
1
0
0
0
1
5
0
0
FIG. 13 Composante saisonnire de la srie USAccDeaths
20
Time
U
S
A
c
c
D
e
a
th
s

m
$
tr
e
n
d
1973 1974 1975 1976 1977 1978 1979

2
0
0
0

1
0
0
0
0
1
0
0
0
2
0
0
0
FIG. 14 Srie USAccDeaths aprs limination de la tendance
Time
U
S
A
c
c
D
e
a
th
s

m
$
tr
e
n
d

m
$
s
e
a
s
o
n
a
l
1973 1974 1975 1976 1977 1978 1979

4
0
0

2
0
0
0
2
0
0
4
0
0
FIG. 15 Srie USAccDeaths aprs limination de la tendance et de la composante saisonnire
21
3.5 Elimination de la tendance et de la saisonnalit par la mthode des diffrences
Cette mthode permet de supprimer les tendance et saisonnalit dune srie temporelle sans les estimer.
Soit
T
loprateur qui associe (X
t
X
tT
) (X
t
) :

T
X
t
= X
t
X
tT
.
On note loprateur
1
, et
k
T
loprateur
T
. . .
T
. .
k fois
.
Proposition 3. Soit un processus admettant une tendance polynomiale dordre k :
X
t
=
k

j=0
a
j
t
j
. .
mt
+
t
.
Le processus X
t
admet une tendance polynomiale dordre k 1.
Exercice 9. Faire la preuve.
Ainsi, en appliquant k fois , on limine la tendance.
Remarque : il est important de remarquer que si lon applique
t
quelque soit t, le rsultat est le mme quant lli-
mination de la tendance.
Comme en pratique il nest pas vident de connatre le degr k, on appliquera loprateur jusqu ce que la moyenne
du processus soit nulle (k sera gnralement 1, 2 ou 3).
Proposition 4. Soit un processus admettant une tendance m
t
et une saisonnalit, de priode T :
X
t
= m
t
+s
t
+
t
.
Dans ce cas,

T
X
t
= (m
t
m
tT
) + (
t

tT
)
est un processus dsaisonnalis.
De plus, si la tendance du processus est linaire, elle est galement supprime.
Exercice 10. Faire la preuve.
Si la tendance est plus que linaire, il suft dappliquer la procdure prcdente pour nir de supprimer la ten-
dance, et obtenir ainsi un processus que lon supposera stationnaire.
La gure 16 illustre llimination de la tendance linaire et de la saisonnalit de la srie x
t
=
t
2
+ 3 cos
t
6

t
avec

t
N(0, 1).
3.6 Test sur la srie rsiduelle
Lobjectif des techniques prsentes dans la section 3.5 est dobtenir une srie stationnaire (ou tout au moins le
plus stationnaire possible), et en particulier sans tendance ou saisonnalit. Ltape suivante consiste modliser la
srie rsiduelle obtenue. La premire chose faire est donc de tester sil y a dpendance entre les termes de cette srie.
Si ce nest pas le cas, on dit que la srie rsiduelle (stationnaire) est un bruit blanc (dnition 1).
Si la srie rsiduelle obtenue aprs dsaisonalisation et limination de la tendance, est un bruit blanc, il nest donc pas
utile daller plus loin dans la modlisation si ce nest destimer la moyenne et variance du bruit blanc.
22
Time
b
b
0 20 40 60 80 100
0
1
0
3
0
5
0
Serie avec tendance lineaire et saisonnalit (priode 12)
Time
b
b
_
d
i
f
f
1
0 20 40 60 80 100

2
0
2
4
Serie avec la tendance elimine par la mthode des diffrences
Time
b
b
_
d
i
f
f
1
2
0 20 40 60 80
2
4
6
8
Serie avec la saisonnalit (et la tendance) elimines par la mthode des diffrences
FIG. 16 Elimination de la tendance et de la saisonnalit par la mthode des diffrences (gure du haut : srie
x
t
=
t
2
+ 3 cos
t
6

t
avec
t
N(0, 1) ; gure du milieu : srie x
t
x
t1
; gure du bas : srie x
t
x
t12
23
3.6.1 Comment tester si on est en prsence dun bruit blanc ?
Par ltude de la fonction dauto-corrlation empirique Lorsque n est assez grand, les auto-corrlations dun
bruit blanc sont approximativement indpendantes et de loi N(0,
1
n
). Ainsi, 95% des auto-corrlations devraient se
trouver dans lintervalle [
1.96

n
,
1.96

n
], et en traant les 40 premires auto-corrlations il ne devrait pas y en avoir plus
de 2 voir 3 en dehors de ces limites.
A noter que ces bornes sont traces lorsque lon demande R de reprsenter graphiquement les auto-corrlations.
A laide du test du portemanteau Plutt que de regarder si chaque auto-corrlation est dans les bornes de linter-
valle prcdent, nous considrons la statistique dnie par la somme des h premires auto-corrlations au carr
Q = n
h

j=1

2
(j).
Daprs la remarque prcdente sur la normalit des auto-corrlations, la statistique Q suit une loi du
2
h degrs de
libert. Il est donc possible de construire un test qui consistera rejeter lhypothse nulle (la srie est un bruit blanc)
si Q est suprieur au quantile
2
h,1
.
Ljung et Box (1978) ont amlior ce test en considrant la statistique
Q
LB
= n(n + 2)
h

j=1

2
(j)
n j
,
dont la distribution est mieux approxime que la prcdente par une loi du
2
h degrs de libert. Cest ce test qui
est implment dans la fonction Box.test de R.
3.7 Mise en oeuvre sous R
La fonction decompose permet dextraire dune srie temporelle (via la mthode de la moyenne mobile) :
serie_decomp<-decompose(serie,type=c(additive,mutliplicative))
la composante saisonnire : serie_decomp$seasonal, que lon suppose additive ou multiplicative dans
loption type,
la tendance : serie_decomp$trend,
le partie alatoire stationnaire de la srie : serie_decomp$random.
La fonction diff.ts(serie,lag=T,difference=k)permet dappliquer loprateur de diffreciation
k
T
.
La fonction Box.test(serie,lag=H) examine lhypothse nulle de nullit des H premire auto-covariance,
laide du test du portemanteau. Par dfaut H est x 1, et seule la nullit de lauto-covariance dordre 1 est teste.
Pour tester si la srie peut-tre apparente un bruit blanc, nous xerons arbitrairement un H de lordre de 20 (nous
considrerons abusivement que si les 20 premires auto-corrlations sont nulles, la srie est indpendante).
24
4 Modlisation des sries stationnaires
Nous prsentons dans cette section comment modliser une srie, qui une fois tendance et saisonnalit supprimes,
est stationnaire. A noter que le seul fait de supprimer la tendance et la saisonnalit ne rend pas la srie ncessairement
stationnaire, puisque cela naffecte pas la variance et lauto-covariance, qui dovient tre constantes pour un processus
stationnaire.
4.1 Auto-corrlation partielle
Le coefcient de corrlation partielle entre les deux variables X
1
et X
n
dun processus stochatistique (X
t
)
t
est
le coefcient de corrlation entre les deux variables auxquelles on a retranch leurs meilleures explications en terme
de X
2
, . . . , X
n1
:
r
X2,...,Xn1
(X
1
, X
N
) = corr(X
1
P
X2,...,Xn1
(X
1
), X
n
P
X2,...,Xn1
(X
n
)),
o corr est le coefcient de corrlation classique (quotient de la covariance par le produit des carts-types), et o
P
X2,...,Xn1
(X
1
) est la projection
1
de la variable X
1
dans lespace vectoriel engendr par les variables X
2
, . . . , X
n1
.
Ce coefcient exprime la dpendance entre les variables X
1
et X
n
qui nest pas due aux autres variables X
2
, . . . , X
n1
.
La fonction dauto-corrlation partielle r(h) dun processus stationnaire est dnie par :
r(h) = r
X2,...,X
h
(X
1
, X
h+1
) h 2
r(h) = r(h) h = 0
r(1) = (1)
Lalgorithme de Durbin-Watson, que nous ne prsentons pas ici, permet destimer les auto-corrlations partielles dun
processus stationnaire.
Dans le logiciel R, la fonction pacf permet ces estimations.
4.2 Les processus auto-rgressifs AR
p
Les premiers modles que nous prsentons sont les processus auto-rgressifs, construits partir de lide que
lobservation au temps t sexplique linairement par les observations prcdentes.
Dnition 2. On dit que (X
t
) est un processus auto-rgressif dordre p (centr) sil scrit
X
t
=
t
+
p

j=1
a
j
X
tj
, (2)
o
t
est un bruit blanc centr de variance
2
.
Lobservation X
t
au temps t est alors la somme dun choc alatoire linstant t,
t
, indpendant de lhistorique,
et dune fonction linaire de son pass

p
j=1
a
j
X
tj
, qui peut tre vue comme la prdiction de X
t
partir des p
dernires observations passes.

t
est linnovation contenue dans le processus au temps t. On dit que (
t
) est le processus dinnovation.
Les coefcients a
j
doivent vrier la contrainte suivante pour assurer la stationnarit du processus : le polynme
caractristique du processus (2), A(z) = 1 a
1
z . . . a
p
z
p
, ne doit avoir que des racines (relles ou complexes)
de module strictement suprieur 1. La dmonstration sort du cadre de ce cours.
Remarque 1 : en prenant lesprance de (2) et en utilisant la stationarit du processus, on obtient que lesprance du
processus vrie (1

p
j=1
a
j
) = 0. Comme 1 ne peut tre racine du polynme A(z), on a ncessairement = 0.
Remarque 2 : dans ce cours, conformment la dnition (2), nous ne considrons que des processus AR
p
centrs.
Un processus AR
p
non centr serait dni par X
t
= +
t
+

p
j=1
a
j
X
tj
.
1
la projection P
X
2
,...,X
n1
(X
1
) =
2
X
2
+. . .+
n1
X
n1
peut tre interprte comme la meilleure explication linaire de X
1
en fonction
de X
2
, . . . , X
n1
.
25
Exercice 11. Vrier la stationnarit et expliciter lexpression du processus autorgressif de polynme caractristique
A(z) = 1 z
1
2
z
2
.
Proposition 5. La variance du processus AR
p
dni en (2) est :
(0) =
2
+
p

j=1
a
j
(j)
et lauto-covariance, pour tout h > 0 :
(h) =
p

j=1
a
j
(h j).
Exercice 12. Faire la dmonstration.
Lauto-covariance dun processus AR
p
vrie donc la formule de rcurrence dordre p suivante :
(h) a
1
(h 1) . . . a
p
(h p) = 0. (3)
Le polynme caractristique de cette relation de rcurrence est :
z
p
a
1
z
p1
. . . a
p1
z a
p
= z
p
_
1
a
1
z
. . .
a
p
z
p
_
= z
p
A
_
1
z
_
.
Les racines
i
de ce polynme sont les inverses des racines du polynme A, et sont donc de module strictement
infrieur 1. En supposant que A a toute ses racines distinctes, les solutions de lquation de rcurrence prcdente
sont de la forme :
(h) =
p

i=1
c
i

h
i
.
Ainsi, puisque |
i
| < 1, lauto-covariance dcroit exponentiellement avec h.
Ces rsultats stendent immdiatement lauto-corrlation dun processus AR
p
.
Quant lauto-corrlation partielle, elle est nulle tout ordre strictement suprieur p, et vaut a
p
lordre
p :
r(h) = 0 h > p,
r(p) = a
p
.
La dmonstration de ce rsultat trs utile ne sera pas aborde dans ce cours.
4.2.1 Exercice : cas particulier de lAR
1
Soit le processus AR
1
(centr) suivant
X
t
= aX
t1
+
t
,
o
t
est un bruit blanc centr de variance
2
.
1. Quelle condition sur a doit on imposer pour que ce processus soit stationnaire ?
2. Calculer la variance de ce processus.
3. Montrer que lauto-covariance dun tel processus est
(h) =
2
a
h
1 a
2
4. En dduire la dcroissance vers 0 de lauto-covariance lorsque h tend vers linni.
5. Calculer lauto-corrlation partielle.
26
4.2.2 Illustrations
Voici quelques simulations de processus ainsi que leurs auto-corrlation et auto-corrlation partielle empiriques :
AR
1
avec coefcient positif puis ngatif : gures 17 et 18,
AR
2
: gures 19 et 20.
4.3 Les processus en moyenne mobile MA
q
La seconde catgorie de modles classiques regroupe les processus en moyenne mobile.
Dnition 3. On appelle moyenne mobile (Moving Average) dordre q un processus de la forme
X
t
=
t
+b
1

t1
+. . . +b
q

tq
,
o les
j
pour t q j t sont des bruits blancs centrs de variance
2
.
On notera parfois X
t
=

q
j=0
b
j

tj
en imposant b
0
= 1.
A noter que pour linstant aucune condition nest ncessaire sur les b
i
pour que le processus stationnaire
2
.
Un processus moyenne mobile est ncessairement centr, et son auto-covariance vrie la proposition suivante.
Proposition 6. Lauto-covariance dun processus moyenne mobile X
t
=
t
+b
1

t1
+. . . +b
q

tq
est
(h) =
_

2
qh

k=0
b
k
b
k+h
h q
0 h > q
o b
0
= 1
Exercice 13. Faire la dmonstration (simple).
Lauto-corrlation est donc galement nulle au dessus de lordre q. On retrouve le mme comportement que lauto-
corrlation partielle dun AR
p
.
Lauto-corrlation partielle dun processus moyenne mobile est complique calculer, et sans grand intrt. Nan-
moins, il est important de savoir quelle tend vers 0 vitesse exponentielle lorsque h tend vers linni.
Ce comportement symtrique entre les processus moyenne mobile et auto-rgressif est du la proprit suivante :
Proposition 7. Un processus auto-rgessif est un processus moyenne mobile dordre inni, et rciproquement un
processus moyenne mobile est un processus auto-rgressif dordre inni.
Exercice 14. De la dnition dun processus moyenne mobile, extraire la valeur de linnovation au temps t, puis
r-crire la dnition dun MA
q
en remplaant les innovations par leur valeur. Conclure.
4.3.1 Exercice : cas particulier du MA
1
Calculer les coefcients dauto-corrlation dun tel processus.
4.3.2 Illustrations
Voici quelques simulations de processus ainsi que leurs auto-corrlation et auto-corrlation partielle empiriques :
MA
1
avec coefcient positif puis ngatif : gures 21 et 22,
MA
3
: gure 23.
2
pour des questions de prvision, nous serons amen supposer que le polynme caractristique B(z) = 1 + b
1
z + . . . + bqz
q
a toute ses
racines de module strictement suprieurs 1.
27
Time
a
r
1
0 200 400 600 800 1000

2
0
2
4
0 5 10 15 20 25 30
0
.
0
0
.
4
0
.
8
Lag
A
C
F
Series ar1
0 5 10 15 20 25 30
0
.
0
0
.
4
0
.
8
Lag
P
a
r
t
i
a
l

A
C
F
Series ar1
FIG. 17 Simulation dun AR1 : X
t
= 0.8X
t1
+
t
, auto-corrlation et auto-corrlation partielle.
28
Time
a
r
1
0 200 400 600 800 1000

4
0
2
4
0 5 10 15 20 25 30

0
.
5
0
.
0
0
.
5
1
.
0
Lag
A
C
F
Series ar1
0 5 10 15 20 25 30

0
.
8

0
.
4
0
.
0
Lag
P
a
r
t
i
a
l

A
C
F
Series ar1
FIG. 18 Simulation dun AR1 : X
t
= 0.8X
t1
+
t
, auto-corrlation et auto-corrlation partielle.
29
Time
a
r
2
0 200 400 600 800 1000

2
2
4
6
0 5 10 15 20 25 30

0
.
2
0
.
2
0
.
6
1
.
0
Lag
A
C
F
Series ar2
0 5 10 15 20 25 30

0
.
2
0
.
2
0
.
6
Lag
P
a
r
t
i
a
l

A
C
F
Series ar2
FIG. 19 Simulation dun AR
2
: X
t
= 0.9X
t2
+
t
, auto-corrlation et auto-corrlation partielle.
30
Time
a
r
2
0 200 400 600 800 1000

5
0
5
0 5 10 15 20 25 30

0
.
5
0
.
0
0
.
5
1
.
0
Lag
A
C
F
Series ar2
0 5 10 15 20 25 30

0
.
8

0
.
4
0
.
0
Lag
P
a
r
t
i
a
l

A
C
F
Series ar2
FIG. 20 Simulation dun AR
2
: X
t
= 0.5X
t1
0.9X
t2
+
t
, auto-corrlation et auto-corrlation partielle.
31
Time
m
a
1
0 200 400 600 800 1000

2
0
2
4
0 5 10 15 20 25 30

0
.
5
0
.
0
0
.
5
1
.
0
Lag
A
C
F
Series ma1
0 5 10 15 20 25 30

0
.
5

0
.
3

0
.
1
Lag
P
a
r
t
i
a
l

A
C
F
Series ma1
FIG. 21 Simulation dun MA
1
: X
t
=
t
0.8
t1
, auto-corrlation et auto-corrlation partielle.
32
Time
m
a
1
0 200 400 600 800 1000

2
0
2
4
0 5 10 15 20 25 30
0
.
0
0
.
4
0
.
8
Lag
A
C
F
Series ma1
0 5 10 15 20 25 30

0
.
2
0
.
2
0
.
4
Lag
P
a
r
t
i
a
l

A
C
F
Series ma1
FIG. 22 Simulation dun MA
1
: X
t
=
t
+ 0.8
t1
, auto-corrlation et auto-corrlation partielle.
33
Time
m
a
3
0 200 400 600 800 1000

1
0
0
5
1
0
0 5 10 15 20 25 30
0
.
0
0
.
4
0
.
8
Lag
A
C
F
Series ma3
0 5 10 15 20 25 30

0
.
2
0
.
2
0
.
4
Lag
P
a
r
t
i
a
l

A
C
F
Series ma3
FIG. 23 Simulation dun MA
3
, auto-corrlation et auto-corrlation partielle.
34
4.4 Les processus mixtes ARMA
p,q
Cette classe plus gnrale de modles dnit des processus sous la forme dune rcurrence auto-rgressive avec un
second membre de type moyenne mobile.
Dnition 4. Un processus auto-rgressif moyenne mobile dordres p et q est de le forme :
X
t
=
p

k=1
a
k
X
tk
+
q

j=0
b
j

tj
.
o les
j
pour t q j t sont des bruits blancs centrs de variance
2
.
La stationnarit dun ARMA
p,q
est assure lorsque toutes les racines du polynme A(z) = 1 a
1
z . . . a
p
z
p
sont de module strictement suprieur 1. Ce polynme forme avec B(z) = 1 +b
1
z +. . . +b
q
z
p
les deux polynmes
caractristiques du processus. On supposera galement que les polynmes A et B nont pas de racine commune, an
de sassurer quil ny a pas de reprsentation plus courte.
Exercice 15. Soit le processus ARMA
1,1
dni par X
t
+aX
t1
=
t
+a
t1
.
Est-ce un processus stationnaire ? Existe-t-il une criture plus simple de ce processus ?
On peut crire le processus ARMA
p,q
sous la forme suivante
X
t
a
1
X
t1
. . . a
p
X
tp
=
t
+b
1

t1
+. . . +b
q

tq
.
Ainsi,
Cov(X
t+h
a
1
X
t+h1
. . . a
p
X
t+hp
, X
t
) = (h) a
1
(h 1) . . . a
p
(h p)
= Cov(
t+h
+b
1

t+h1
+. . . +b
q

t+hq
, X
t
)
qui est nulle ds que h > q. Lauto-covariance dun processus ARMA
p,q
volue selon la mme rcurrence quun
AR
p
(cf. quation (3)). Ainsi, lauto-covariance (et lauto-corrlation) dun processus ARMA
p,q
vont tendre expo-
nentiellement vers 0 lorsque h tend vers linni, partir de lordre q + 1.
4.4.1 Exercice : le processus ARMA
1,1
Considrons le processus
X
t
= aX
t1
+
t
+b
t1
.
1. Montrer que la variance du processus est (0) =
2 1+b
2
+2ab
1a
2
.
2. Montrer que lauto-covariance dordre 1 est (1) =
2 a+b+ab
2
+a
2
b
1a
2
.
3. En dduire les auto-corrlations (1) =
(a+b)(1+ab)
b
2
+2ab+1
et (h) = a
h1
(1).
4.4.2 Illustrations
Voici une simulation dun processus ARMA
2,2
(gure 24) ainsi que ses auto-corrlation et auto-corrlation par-
tielle empiriques.
35
Time
a
r
m
a
2
2
0 200 400 600 800 1000

5
0
5
0 5 10 15 20 25 30

0
.
5
0
.
0
0
.
5
1
.
0
Lag
A
C
F
Series arma22
0 5 10 15 20 25 30

0
.
8

0
.
4
0
.
0
0
.
4
Lag
P
a
r
t
i
a
l

A
C
F
Series arma22
FIG. 24 Simulation dun ARMA
2,2
, auto-corrlation et auto-corrlation partielle.
36
4.5 Rcapitulatif des proprits des processus MA
q
, AR
p
et ARMA
p,q
La tableau 4.5 rcapitule les principales proprits des processus MA
q
, AR
p
et ARMA
p,q
.
modle MA
q
AR
p
ARMA
p,q
auto-covariance (h) = 0 h > q lim
h
(h) = 0 h > q, lim
h
(h) = 0
auto-corrlation (h) = 0 h > q lim
h
(h) = 0 h > q, lim
h
(h) = 0
auto-corrlation partielle lim
h
r(h) = 0 r(h) = 0 h > p et r(p) = a
p
TAB. 1 Rcapitulatif des proprits des processus MA
q
, AR
p
et ARMA
p,q
.
4.6 Estimation, choix de modle et prvision
Les principaux modles de sries temporelles ont t dnis. A partir dune srie observe, il faut maintenant
choisir un modle, ventuellement plusieurs, estimer ses paramtres et enn faire des prvisions pour les ralisations
futures. Dans le cas o lon hsite entre plusieurs modles, des critres de choix de modles seront utiliss pour
slectionner le meilleur dentre eux.
4.6.1 Estimation
Exemple Considrons le processus AR
2
suivant :
X
t
= a
1
X
t1
+a
2
X
t2
+
t
.
On peut montrer que les auto-covariances dordre 1 et 2 sont les suivantes :
(1) =
a
1
1 a
2
(0) et (2) = a
1
(1) +a
2
(0).
Exercice 16. Montrez-le !
Ainsi, les paramtres du modle a
1
et a
2
peuvent tre xprims en fonction de la variance et des 2 premires
auto-covariance du processus :
a
1
=
(1)
(0)
(0)
2
(0)(1)
(0)
2
(1)
2
et a
2
=
(0)(2) (1)
2
(0)
2
(1)
2
Exercice 17. Montrez-le galement !
En estimant les auto-covariances du processus laide des auto-covariances empiriques, on en dduit des estima-
teurs des paramtres du modle AR
2
.
Comme de plus (0) =
2
+ a
1
(1) + a
2
(2), il est possible dobtenir galement un estimateur de la variance du
bruit dinnovation.
Cas gnral En ralit, les estimateurs prcdents peuvent tre amliors : ainsi, dans le cas gnral, lestimation des
paramtres des modles ARMA (AR, MA) est faite par maximumde vraisemblance. Lexpression de la vraisemblance
tant gnralement trop complexe pour que lon puisse obtenir un maximum explicite, des algorithmes numriques
(type Newton) sont utiliss.
4.6.2 Choix de modle
Comme on la vu prcdemment (cf. tableau rcapitulatif 4.5) ltude des auto-covariances, auto-corrlations et
auto-corrlations partielles peut conduire certaines hypothses sur la nature du modle. Une fois quelques modles
choisis, et leur paramtres estims, des critres vont tre utiliss pour choisir le modle qui effectue le meilleur com-
promis entre :
37
ajustement la srie de donnes,
complexit du modle.
Il est en effet trs important de prendre en compte ce compromis, car si on ne sintressait qu coller au mieux aux
donnes, on serait tenter de choisir un modle ARMA avec un trs grand nombre de paramtres. Or, plus il y a de
paramtres, plus il faut de donnes pour les estimer. Et donc pour un nombre dobservations x de la srie, plus le
modle sera complexe, moins bien seront estims les paramtres.
Les critres de choix de modles les plus courants sont :
le critre AIC (Akake Information Criterion), qui sera gnralement prfr si lobjectif de ltude est de faire
de la prvision, et qui est dni par :
AIC = 2 log L() + 2,
o L(.) est la vraisemblance du modle, reprsente les paramtres du modle et le nombre de ces paramtres.
le critre BIC (Bayesian Information Criterion) sera quant lui gnralement prfr si lobjectif de ltude est
de sajuster la srie observe, et est dni par :
BIC = 2 log L() +n
o n est le nombre dobservations de la srie.
Les modles ayant la plus petite valeur du critre devront tre choisis.
Ces deux critres conduisent donc slctionner des modles dont la vraisemblance est grande, en la pnalisant par la
complexit du modle.
4.6.3 Prvision
Lobjectif est de prvoir la valeur que va prendre la variable alatoire X
n+h
, h tant appel lhorizon de la prvi-
sion, ayant observ la ralisation des variables alatoires X
1
, . . . , X
n
.
Dans le cadre dune modlisation ARMA, on choisit destimer X
n+h
par une combinaison linaire des X
j
prcdents
(1 j n) :

X
n,h
= c
1,h
X
1
+. . . +c
n,h
X
n
.
Les coefcients c
j,h
sont estims de sorte ce quil minimise :
E[(X
n+h
c
1,h
X
1
. . . c
n,h
X
n
)
2
].
Lestimateur

X
n,h
ainsi dni nest autre que la projection de X
n+h
sur lespace vectoriel engendr par les variables
X
1
, . . . , X
n
.
Exercice 18. Montrer que la prvision au rang 1 dun processus AR
p
dni par lquation 2 nest autre que

X
n+1
=
a
1
X
n
+. . . +a
p
X
n+1p
. En dduire que lerreur de prvision horizon 1 est le bruit dinnovation.
Nous ne dtaillerons pas plus en dtail cette partie dans ce cours, mais nous citons nanmoins, sans dmonstrations,
deux proprits intressantes.
Proposition 8. Lerreur de prvision horizon 1 pour un processus ARMA est le bruit dinnovation
n+1
.
La variance de lerreur de prvision horizon h dans un processus ARMA crot depuis la variance du bruit
dinnovation (valeur prise pour h = 1) jusqu la variance du processus lui-mme.
Intervalle de conance sur la prvision Enn, si on suppose que le bruit dinnovation
t
est gaussien, les variables
alatoires X
t
sont elles aussi gaussiennes, tout comme lerreur de prdiction. Ainsi, il sera possible de construire des
intervalles de conances sur la prdiction, ce que permettent les fonctions du logiciel R dcrites plus loin.
38
5 Processus non stationnaire : ARIMA et SARIMA
Les modles ARMA sont destins modliser des processus stationnaires. En pratique, les sries temporelles sont
gnralement non stationnaires, et un pr-traitement est ncessaire pour supprimer les tendances et saisonnalits. Une
fois la srie stationnarise analyse, et les valeurs futures prdites, il est ensuite ncessaire de revenir la srie initiale.
5.1 Exemple
Considrons une srie temporelle (x
t
)
1tn
qui prsente une saisonnalit de priode 12. An de supprimer cette
saisonnalit, cest la srie suivante que nous tudions :
y
t
= x
t
x
t12
pour t = 13, . . . , n (4)
Lajustement dun modle ARMA et les prvisions sont ralises sur la srie (y
t
). Il est donc ncessaire de revenir
la srie initiale, car ce sont les prvisions de (x
t
) qui nous intressent.
De lquation (4) on obtient :
x
t
= y
t
+x
t12
= y
t
+y
t12
+x
t24
.
.
.
= y
t
+y
t12
+y
t24
+. . . + y
r(t)+12
+x
r(t)
o r(t) est le reste de la division euclidienne de t par 12.
Puisque lon connait les x
t
pour t n ainsi que les prvisions y
n+h
, on peut en dduire les prvisions de x
n+h
.
Exercice 19. Ecrire pour cet exemple la prvision lhorizon 1 de la srie (x
t
)
1tn
.
5.2 Les processus ARIMA et SARIMA
Les processus ARIMA et SARIMA sont la gnralisation des modles ARMA pour des processus non station-
naires, admettant une tendance (ARIMA), ou encore une tendance et une saisonnalit (SARIMA). En pratique, et dans
le logiciel R notamment, ce sont ces processus qui sont directement utiliss.
Soit lopration de diffrenciation prcdemment dni (section 3), qui associe au processus (X
t
)
tN
le processus
(X
t
X
t1
)
tN
. Nous rappelons que le processus obtenu en diffrenciant deux fois de suite, (X
t
2X
t1
+X
t2
)
tN
,
est not
2
. Et ainsi de suite.
Dnition 5. Un processus (X
t
) est un processus ARIMA
p,d,q
si le processus
Y
t
=
d
X
t
est un processus ARMA
p,q
.
Les processus ARIMA
p,d,q
sont donc bien adapts aux sries temporelles prsentant une tendance polynmiale
de degr d 1.
Soit
T
loprateur prcdemment dni (section 3), qui fait passer de (X
t
) (X
t
X
tT
).
Dnition 6. Un processus (X
t
) est un processus SARIMA
p,d,q,T
si le processus
Y
t
=
T

d
X
t
est un processus ARMA
p,q
.
Les processus SARIMA
p,d,q,T
sont bien adapts aux sries temporelles prsentant une priode de longueur T et
une tendance polynmiale de degr d.
Remarque : en ralit, les processus SARIMA sont plus complexes et comportent dautres paramtres. Nous
ne considrerons que cette version SARIMA
p,d,q,T
dans ce cours, se rfrer [4] pour des complments sur ces
processus.
39
5.3 Mise en oeuvre sous R : processus ARMA, ARIMA, SARIMA
La fonction arima.sim(modele,n) permet de simuler un processus ARMA
p,q
dni par
X
t

p

k=1
a
k
X
tk
=
t
+
q

j=1
b
j

tj
.
Les paramtres a
k
et b
j
du processus sont prciss dans le paramtre modele de la fonction :
modele<-list(ar=c(a
1
, . . . , a
p
),ma=c(b
1
, . . . , b
q
)).
Pour simuler un modle ARIMA
p,d,q
il faut ajouter le composant order=c(p,d,q) dans le paramtre modele
de la fonction arima.sim.
La fonction ar permet destimer les paramtres dun processus AR
p
:
out<-ar(data,aic=TRUE,order.max=NULL)
Lordre p du processus auto-rgressif est choisi (infrieur order.max) laide du critre AIC (si loption aic est
valide).
La fonction arima permet destimer les paramtres :
dun ARMA
p,q
: out<-arima(serie,order=c(p,0,q))
dun ARIMA
p,d,q
: out<-arima(serie,order=c(p,d,q))
dun SARIMA
p,d,q,T
:
out<-arima(serie,order=c(p,d,q),seasonal=list(order=c(P,D,Q),period=T)
Les paramtres P, D, Q du modle SARIMA ne sont pas abords dans ce cours, nous leur donnerons par dfaut la
valeur des paramtres p, d, q (pas trop grands).
Parmi les sorties de cette fonction, on peut obtenir :
out$coef : estimation des coefcients,
out$aic : valeur du critre AIC,
out$resid : estimation des rsidus.
La fonction p=predict(out,h) permet deffectuer une prvision lhorizon h. Parmi les sorties de cette fonction,
p$pred contient les prvisions, et p$se contient lcart-type de lerreur de prvision. Il nexiste pas de fonction
prdnie pour calculer un intervalle de conance sur les prvisions, mais cela peut tre fait manuellement grce ces
deux sorties de la fonction predict.
40
6 Processus ARCH et GARCH
Les sries prcdemment tudies taient supposes stationnaires. Si besoin, tendances et saisonnalits taient
supprimes pour obtenir une srie rsiduelle stationnaire. Nanmoins, toutes les sries rsiduelles obtenues de la sorte
ne sont pas ncessairement stationnaires.
Cest le cas par exemple de la srie reprsente par la gure 25, qui contient les volutions journalires de la bourse
des valeurs de New-York (NYSE) du 19 octobre 1984 au 31 dcembre 1991.
0 500 1000 1500 2000

0
.1
5

0
.1
0

0
.0
5
0
.0
0
0
.0
5
Index
x
FIG. 25 Evolution journalire de la bourse des valeurs de New-York (1984-1991)
La gure 26 reprsente la simulation dun processus ARCH
2
.
Time
x
0 200 400 600 800 1000

1
0
1
2
3
FIG. 26 Simulation dun ARCH
2
Comme on peut le voir, la moyenne semble constante alors que la variance change au cours du temps (on qualie ce
comportement d htroscdastique ). De plus, les moments de grande variabilit semblent regroups. Les modles
de type ARIMA qui supposent un comportement homoscdastique (variance constante), ne sont pas adapts ce
type de srie.
Nous prsentons dans cette section des modles adapts ce type de srie : les processus ARCH (AutoRegressive
Conditionally Heteroscedastic) introduits pas Engle vers 1982, ainsi que leur gnralisation, les processus GARCH.
41
6.1 Dnitions
Un processus ARCH
p
est dni par :
X
t
=
t

t
|X
t1
, X
t2
, . . . N(0,
2
t
)

2
t
=
0
+
1
X
2
t1
+. . . +
p
X
2
tp
La variance condionnelle dpend du temps : si les valeurs prcdentes sont grandes (en valeur absolue), la variance
sera grande, et inversement. Ainsi, si on observe un choc dans la srie (valeur anormalement grande), elle sera suivi
dune priode de haute volatilit, dont la dure dpend de lordre p du modle ARCH.
Exercice 20. Pensez-vous que cela correspond la srie NYSE (gure 25) ?
6.2 Quelques rappels de probabilits
Soit un couple de variables alatoires continues (X, Y ), de dentsit f(., .). Soit f
Y
(.) la densit marginale de Y .
La densit conditionnelle de X sachant que Y = y est dnie par :
f
X|Y
(x, y) =
f(x, y)
f
Y
(y)
si f
Y
(y) > 0
Lesprance conditionelle est donc lesprance par rapport cette loi :
E[X|Y = y] =
_
R
xf
X|Y
(x, y)dx
La variance conditionnelle est

2
t
= V(X
t
|I
t1
) = E[X
2
|Y = y] E[X|Y = y]
2
Soit I
s1
= {X
s1
, X
s2
, . . .} lensemble des observations prcdant linstant s.
On a :
E[X
t
|I
s
] = X
t
t s
E[X
t
|I
r
] = E[E[X
t
|I
s
]|I
r
] r s
et en particulier E[X
t
] = E[E[X
t
|I
s
]].
6.3 Proprits des processus ARCH
Si X
t
est un processus ARCH, alors :
E[X
t
] = 0
E[X
t
|I
t1
] = 0 o I
t1
= X
t1
, X
t2
, . . .
V(X
t
) =

0
1

p
i=1

i
si
p

i=1

i
< 1
V(X
t
|I
t1
) =
0
+
1
X
2
t1
+. . . +
p
X
2
tp
Cov(X
t
, X
t+h
) =
h
= 0 h > 0
Cov(X
t
, X
t+h
|I
t1
) = 0
Remarque : un processus ARCH est conditionnellement htroscdastique mais inconditionnellement homoscdas-
tique !
Condition sufsante de stationnarit :

p
i=1

i
< 1.
On peut montrer galement, ce qui peut tre intressant pour dtecter un ARCH en pratique, que la distribution dun
processus ARCH a
un skewness nul (moment centr dordre 3) : la distribution est donc symtrique,
un kurtosis (moment centr dordre 4) suprieur 3 : la distribution est donc plus applatie quune gaussienne.
42
6.4 Processus GARCH et proprits
Un processus GARCH
p,q
est dni par :
X
t
=
t

t
|X
t1
, X
t2
, . . . N(0,
2
t
)

2
t
=
0
+
1
X
2
t1
+. . . +
p
X
2
tp
+
1

2
t1
+. . . +
q

2
tq
avec
0
> 0,
i
0 pour i = 1, . . . , p et
j
0 pour j = 1, . . . , q.
Un processus GARCH peut tre vu comme un processus ARCH dordre inni, et peut ainsi reprsenter formellement
de faon plus parcimonieuse un processus ARCH comprenant un nombre lev de paramtres.
Remarque vidente : un GARCH
p,0
est un ARCH
p
.
Si X
t
est un processus GARCH
p,q
, alors :
E[X
t
] = 0
E[X
t
|I
t1
] = 0
Cov(X
t
, X
t+h
) =
h
= 0 h > 0
Cov(X
t
, X
t+h
|I
t1
) = 0
Proprit : soit X
t
un processus GARCH
p,q
, et soit m = max(p, q). Le processus X
2
t
admet une reprsentation
ARMA(m, q).
Ainsi, pour identier un GARCH
p,q
, on identiera tout dabord le processus ARMA(m, q) qui modlise X
2
t
. Pour
identier p dans le cas o m = q (p q), il faut effectuer des tests de signicativit des coefcients
q
, . . . ,
1
du
processus ARMA(m, q) (sont-ils signicativement non nuls ?).
6.5 Mise en oeuvre sous R
Pour utiliser les fonctions spciques ltude des modles ARCH et GRACH, il faut avant tout charger le package
tseries laide de la commande library(tseries).
La fonction garch permet destimer un GARCH
p,q
: serie<-garch(data,order=c(q,p))
Parmi les sorties de cette fonction : coef, residuals, fitted.values.
La prdiction se fait de la mme faon que pour les modles de type ARMA.
Rfrences
[1] Bensaber A. et Bleuse-Trillon B.. Pratique des chroniques et de la prvision court terme, Masson, Paris, 1989.
[2] Bosq D. et Lecoutre J-P. Analyse et prvision des sries chronologiques, Masson, Paris, 1992.
[3] Brockwell P.J. et Davis R.A. Introduction to Time Series and Forecasting, Springer, 2001.
[4] Gouriroux C. et Montfort A. Cours de sries temporelles, Economica, Paris, 1983.
[5] Shumway R.H. et Stoffer D.S. Times Series Analysis and Its Applications, With R Example, Springer, 2006.
Ce cours est en partie inspir du cours de M.-Cl. Viano disponible ladresse suivante :
http ://math.univ-lille1.fr/ viano/economcours.pdf
43

You might also like