You are on page 1of 98

Capitulo 9: Modelos unvariados

de series temporales
Procesos estocsticas
Funcin de autocovarianza, autocorrelacin y autocorrelacin parcial.
Procesos de ruido blanco y paseo aleatorio
Teorema de Wold
Procesos AR(p)
Procesos MA(q)
Procesos ARMA(p,q)
Procesos ARIMA(p,d,q)

Procesos estocsticos
Definicin: Un proceso estocstico es una
sucesin de variables aleatorias ordenadas
en el tiempo (en el caso de series
temporales).
Definicin: Una serie temporal es una
realizacin del proceso estadstico, es decir,
es una observacin de T variables aleatorias
ordenadas en el tiempo.

Restricciones a la heterogeneidad
temporal del proceso.
Restricciones de Estacionaridad
Definicin: Un proceso estocstico es
estacionario en sentido estricto o fuerte cuando
la distribucin de probabilidad conjunta de
cualquier parte de la secuencia de variables
aleatorias es invariante del tiempo.

F ( xt , xt 1 ,..., xt k ) F ( xt , xt 1 ,..., xt k )

Restricciones a la heterogeneidad
temporal del proceso.
Definicin: Un proceso estocstico es
estacionario en sentido dbil si los
momentos del primero y segundo orden
de la distribucin (esperanzas, varianzas,
covarianzas) son constantes a largo del
tiempo.
E ( xt ) ,
para todos los t .

E ( xt t ) 2 2

E xt t xt t ,

t y .
para
todos

Restricciones a la heterogeneidad
temporal del proceso.
Restricciones de memoria del proceso, ergodicidad.

lim 0

La relacin entre dos variables aleatorios de un proceso


es ms dbil cuando las variables son ms lejanas en el
tiempo.
Al aumentar el nmero de observaciones de la serie
temporal aumenta el nmero de covarianzas, pero no el
nmero de parmetros de estimar.

Restricciones a la heterogeneidad
temporal del proceso.
Definicin: Homogenizacin de una serie
temporal es cuando a travs de una
transformacin el serie temporal es
estacionar.
Queremos tener una serie temporal con
una media y varianza (ms o menos)
constante a largo del tiempo.

Restricciones a la heterogeneidad
temporal del proceso.
Transformacin Box-Cox:
xt( )

xt 1

si 0

ln xt si 0

Restricciones a la heterogeneidad
temporal del proceso.

Las funciones de autovarianza y


autocorrelacin
Funciones de autocorrelacin miden la
relacin lineal entre variables aleatorias
de procesos separadas de una cierta
distancia en el tiempo.
Estimacin de estas funciones permiten
determinar la forma del procesos
estocstico.

Las funciones de autovarianza y


autocorrelacin
La funcin de autocovarianza
t , Cov( xt , xt ) E[( xt t )( xt t )]
...,1,0,1,...

Si el proceso es estacionario, su esperanza


es constante a largo del tiempo, y la
funcin de autocovarianza no depende del
momento en tiempo, slo la distancia
temporal.
E[( xt )( xt )]

Las funciones de autovarianza y


autocorrelacin
Para cada retardo hay un valor diferente
para la funcin de autocovarianzas,
autocovarianza de orden .
Funcin de autocorrelacin simple (FAS),
t ,
E[( xt t )( xt t )]
t ,

2
2
t t
E ( xt t ) E ( xt t )

Las funciones de autovarianza y


autocorrelacin
Si el proceso es estacionario, los
momentos de segunda orden no depende
de t .
E[( xt )( xt )]

0
E ( xt ) 2

Una correlograma ensea la FAS en


funcin de .

Las funciones de autovarianza y


autocorrelacin
La funcin de autocorrelacin parcial
(FAP) ensea la relacin lineal cuando se
ha eliminado la correlacin que estas
variables tienen con otras variables.
kk Corr ( xt , xt k | xt 1 ,..., xt k 1 )

Las funciones de autovarianza y


autocorrelacin
Cov (( xt xt ), ( xt k xt k ))
kk
Var ( xt xt )Var ( xt k xt k )

Se puede obtener los coeficientes de FAS a


travs regresiones. x x v
t

11 t 1

xt 21 xt 1 22 xt 2 vt

xt k1 xt 1 k 2 xt 2 ... kk xt k vt

xt

Nota: Si la esperanza de
no es cero, hay
que aadir una constante en cada regresin.

Las funciones de autovarianza y


autocorrelacin
Se puede demostrar que los coeficientes
de FAS se pueden escribir como una
funcin de coeficientes de FAP. Esta
relacin se llama el sistema de
ecuaciones de Yule-Walker.

Estimacin de los momentos


mustrales
Para un proceso estocstico estacionario con
ergodicidad, con una sola serie temporal, podemos
estimar;

La funcin de autocovarianza
La funcin de autocovarianza se puede
estimar a travs de la funcin de
autocovarianza muestral:
T

T 1 ( xt x )( xt x )
t 1

Funcin de autocorrelacion simple


Funcin de autocorrelacion simple
muestral,
T

(x
t 1

x )( xt x )

2
(
x

x
)
t
t 1

Funcin de autocorrelacion simple

1
1
2
V (r ) 1 2 ri
T
i 1

funcin de autocorrelacin parcial


Para hacer la funcin de autocorrelacin parcial
muestral se puede aplicar MCO.

xt c 11 xt 1 vt
x c x x v
t
21 t 1
22 t 2
t

xt c k1 xt 1 k 2 xt 2 ... kk xt k vt

Procesos de ruido blanco


Definicin:
T

t t 1 es un proceso estocstico de ruido


blanco si;
E ( t ) 0

2
2
E ( t ) V ( t )
E ( ) 0
t t

para todos t
para todos t
para todos t y 0

Es un proceso con media = 0, varianza


constante, y sin autocorrelacin. No se
puede predecir a partir de su pasado.

Procesos de paseo aleatorio


Definicin (18)
Un proceso estocstico sigue un paseo
aleatorio si; xt xt 1 t
donde t es ruido blanco

El valor en un momento es el valor del


periodo anterior ms un efecto aleatorio
ruido blanco. xt xt 1 xt (1 L) xt t

Procesos de paseo aleatorio

Procesos de paseo aleatorio


Se puede generalizar el modelo e
incorporar una deriva.

xt t
xt xt 1 t

Procesos de paseo aleatorio


Memoria permanente; todo los efectos
aleatorios tienen un efecto permanente.
xt xt 1 t ( xt 2 t 1 ) t ...
t 1

x0 t t j
j 0

es una pendiente de una tendencia


determinista.
xt est formado por la suma de todo las
perturbaciones pasadas.

Procesos de paseo aleatorio


El primero momento;

t 1

E ( xt ) E x0 t t j x0 t
j 0

Si 0 el proceso no es estacionario en
media.

Procesos de paseo aleatorio


La varianza;

E ( xt E ( xt )) E

t ,0

t 1

j 0

2
t j

t 1

t 1

j 0

t j

t 1

E
(

t j t j'
t j )
j , j ' 0
j 0

j j'

2t

No es estacionario en varianza; tiene una tendencia


(incrementa linealmente). Paseo aleatorio tiene una
tendencia en varianza o tendencia estocstica.

Procesos de paseo aleatorio


Otra manera de llegar al mismo resultado;

Procesos de paseo aleatorio


Autocovarianza;
t , E ( xt E ( xt ))( xt E ( xt ))

t 1

E t j
j 0

2 (t )

t 1

t j

j 0

t 1

2
E
(

t j )
j 0

La autocovarianza tampoco es constante

Procesos de paseo aleatorio


Conclusin: Paseo aleatorio no es
estacionar. Esto complica la inferencia. De
todos modos, hay un camino definida de
variacin a largo del tiempo.

Procesos de paseo aleatorio


Si transformamos el proceso a travs de una
diferencia, la transformacin sera estacionaria.

wt xt t

Procesos de paseo aleatorio


Es importante detectar si un serie est generada
por un pasea aleatorio.
1) La funcin de autocorrelacin simple puede
dar una indicacin.
t ,

t ,
2 (t )
(t )

1
2
2
t
t , 0 t , 0
t (t )
t (t )

Una correlograma presentar los primeros


coeficientes muy cerca de 1, y esta va
decreciendo suavemente.

Procesos de paseo aleatorio


xt c 11 xt 1 ut
x c x x u
t
21 t 1
22 t 2
t

xt c k 1 xt 1 k 2 xt 2 ... kk xt k ut

La FAP, resultara en un primero


coeficiente significativo y cerca de uno,
mientras los siguientes coeficientes sern
cero.

Procesos de paseo aleatorio


Normalmente un FAS que est
decreciendo muy lento con un primer FAP
cerca uno y los restos cero, indica que
podemos diferenciar para conseguir un
serie temporal estacionario.

Procesos de paseo aleatorio


Otra manera para saber si se debe diferenciar
una serie temporal son los contrastes de races
unitarias.
Constaste de races unitarias. unit roots.
Estima la ecuacin;

xt xt 1 t

Procesos lineales
T

Definicin: Un proceso estocstico t t 1

es lineal cuando lo podemos escribir


como una funcin de una combinacin
lineal (posiblemente infinita) de variables
aleatorios de ruido blanco.
xt t 1 t 1 2 t 2 ...

j t j
j 0

Procesos lineales
Hay tres tipos de procesos estocsticos lineales;
Autoregresivas (AR)
Media mvil (MA)
ARMA (la combinacin de AR y MA)

AR( p );

xt 1 xt 1 2 xt 2 ... p xt p t

MA(q );

xt t 1 t 1 2 t 2 ... q t q

ARMA( p, q );

xt 1 xt 1 ... p xt p t 1 t 1 ... q t q

Procesos lineales
Se puede introducir una constante para tener
procesos con una media 0 .
Se puede expresar los procesos con un
polinomio de operadores de retardos. El
operador de retardos L esta definido por;
Lxt xt 1

Lk xt xt k

Este operador retarda la serie tantas periodos


como el exponente k indica.

Procesos lineales
Utilizando el operador de retardos y la
generalizacin con el constante, ,
podemos escribir los procesos:
AR( p ); p ( L) xt t
MA(q );

xt q ( L) t

ARMA( p, q ); p ( L) xt q ( L) t
p ( L) 1 1 L 2 L2 ... p Lp

polinomio autoregres sivo

p ( L) 1 1 L 2 L2 ... q Lq

polinomio media mvil

Se puede transformar procesos AR y ARMA


en procesos MA.

Procesos lineales
Teorema de Wold. Cualquier proceso
estocstico estacionario se puede
representar con una suma de dos
procesos.
xt d t ut

Donde d t es linealmente determinista y ut


es un proceso MA() : u t ( L) t

Donde t es ruido blanco.

j 0

t j

Procesos lineales
El proceso MA() se puede aproximar a travs
modelos lineales, cuando el polinomio infinito (L)
se puede aproximar bien con un cociente de
dos polinomios en
q ( L)
L : ( L )
p ( L)
Transformaciones puede hacer series
estacionarios y la teorema permite crear
modelos relativamente sencillas a partir de
modelos lineales.

Procesos autoregresivos (AR)


Un proceso autoregresivo se puede
escribir,
p ( L) xt t
(1 1L 2 L2 ... p Lp ) xt t
xt 1 xt 1 2 xt 2 ... p xt p

Procesos autoregresivos (AR)


Para que un proceso AR sea estacionario el
polinomio en el operador de retardos p (L)
asociados al proceso tiene que ser estable, es
decir, al calcular las races del polinomio,

p ( L) (1 1 L 2 L ... p L ) 0
2

estas tienen de caer fuera del crculo unidad. Los


valores de L que satisfacen esto cumple L 1 .

Procesos autoregresivos (AR)


Si hay alguno raz igual a 1 (raz unitario)
el proceso AR no es estacionario, y no se
pueden expresar como procesos MA() . Si
hay alguna raz inferior a 1 el proceso
ser explosivo y tampoco estacionario.

Procesos autoregresivos (AR)


Las condiciones para estacionariedad
son:
p

(necesaria, pero no suficiente):

j 1

(suficiente, pero no necesario):

j 1

Procesos autoregresivos (AR)


AR(1) estacionariedad
xt 1 xt 1 t
(1 L) xt t

Condicin necesaria y suficiente:

Procesos autoregresivos (AR)


Un proceso AR(1) estacionario se puede
escribir como un proceso MA() .
t
(1 L 2 L2 ...)( t )
(1 L)

j t j
1 j 0

xt

Se puede llegar a la misma solucin a


travs de substitucin recursiva.
xt xt 1 t .

Procesos autoregresivos (AR)


La solucin se usa para calcular los momentos
del proceso. Tambin se puede usar para
ensear el siguiente resultado, valido por h 0 .

E ( xt t h ) E

2
t t 1 t 2 ... t h 0
1

Procesos autoregresivos (AR)


El momento de primer orden es;

j
E ( xt ) E
t j
1 j 0
1

( E ( xt ) E ( xt 1 ) )
Con estacionariedad
tenemos el mismo resultado;

E ( xt ) E ( xt 1 t ) (1 ) 1

Procesos autoregresivos (AR)


La varianza del proceso es;

0 E ( xt ) 2 E

j 0

t j

2 j 2 2
1
j 0

Tambin se puede llegar a este resultado


a travs;
0 V ( xt ) V ( xt 1 t ) 2 0 2 2 (1 2 ) 1

Procesos autoregresivos (AR)


La autocovarianza del proceso es,
~
donde; xt indica la desviacin con
respecto a la media.
1 E(~
xt ~
xt 1 ) E ((~
xt 1 t ) ~
xt 1 ) 0
2 E(~
xt ~
xt 2 ) E ((~
xt 1 t ) ~
xt 2 ) 1 2 0

E ( ~x ~
x ) E ((~
x )~
x )

t t

t 1

Procesos autoregresivos (AR)


La funcin de autocorrelacin simple es;

y tiene un decrecimiento exponencial.


FAP, al otro lado, slo tiene un coeficiente
diferente de cero. Se puede demostrar con las
ecuaciones de Yule-Walker.

Procesos autoregresivos (AR)

Procesos autoregresivos (AR)


AR(2):

xt 1 xt 1 2 xt 2 t
(1 1 L 2 L2 ) xt t

2 ( L ) xt t
donde 2 ( L) (1 1 L 2 L2 )

Al calcular las races del polinomio


(1 1L 2 L2 ) 0
tendramos dos soluciones
y hay los siguientes requisitos
(simultneamente) para tener un
1
polinomio estable.
1
2

2 1

Procesos autoregresivos (AR)


Los resultados para la covarianza de
AR(1) se puede generalizar.

Procesos autoregresivos (AR)

Procesos media mviles (MA(q))


Un proceso media mvil de orden q;

xt t 1 t 1 2 t 2 ... q t q
q ( L) t
Estos procesos siempre son estacionarios (los
momentos de primer y segundo orden son
siempre finitas y constantes a largo del tiempo).
Una condicin (que hay que comprobar) para
estos procesos es que son invertibles.

Procesos media mviles (MA(q))


Esta condicin implica que las races del
polinomio q (L) estn fuera del crculo de
unidad. Los procesos MA no invertibles no
permiten una representacin
autoregresiva convergente.

Procesos media mviles (MA(1))


MA(1):

xt t 1 t 1

La condicin de invertibilidad es para un


proceso MA(1) es 1 .
Esperanza:
E ( xt ) E ( t 1 t 1 )

Procesos media mviles (MA(1))


Varianza:
0 E ( xt ) 2 E ( t 1 t 1 ) 2 E ( t2 ) 12 E ( t21 ) 21E ( t t 1 )
1 12 2

Autocovarianza:
1 E ( xt )( xt 1 ) E ( t 1 t 1 )( t 1 1 t 2 ) 1 2
2 E ( xt )( xt 2 ) E ( t 1 t 1 )( t 2 1 t 3 ) 0
0 2

Procesos media mviles (MA(1))


FAS es:

1
1
2
(1 1 )
0
2

La FAP presenta un decrecimiento exponencial;

1k (1 12 )
kk
1 12 ( k 1)

Se puede llegar a este resultado general con las


ecuaciones de Yule-Walker.

Procesos media mviles (MA(1))


11

1
1 12

2 12
12
22

2
1 1
1 12 14
3 13 1 22 2 1 2 12 3
13
33

2
2
2
1 2 1 2 2 1 2
1 2 12

2
1 1

1 2
2
1 1

13

1 12 14 16

Procesos media mviles (MA(1))

Procesos media mviles (MA(2))

Calcular las races del polinomio.

(1 1L 1L ) 0
2

Procesos media mviles (MA(2))


Para tener un modelos estable;

Procesos media mviles (MA(2))

Procesos media mviles (MA(2))

Procesos media mviles (MA(2))


Funcin de autocorrelacin simple

Procesos media mviles (MA(2))

Procesos media mviles (MA(2))

Procesos media mviles (MA(q))


MA(q) con deriva:
E ( xt ) E ( t 1 t 1 2 t 2 q t q )
0 E ( xt ) 2 E ( t 1 t 1 2 t 2 q t q ) 2

1 12 22 q2 2

(el mismo resultado)

Procesos media mviles (MA(q))


1 E ( xt )( xt ) E ( t 1 t 1 2 t 2 q t q )( t 1 t 1 2 t 1 q t q )
( 11 q q ) 2 si q

si q
0

Procesos media mviles (MA(q))

Procesos autoregresivos media


mviles (ARMA(p,q))
Un modelo autoregresivo media mvil
(ARMA(p,q)) sigue la forma;

Es decir, tiene una parte autoregresivo y otra


parte media mvil.

Procesos autoregresivos media


mviles (ARMA(p,q))
Debemos comprobar si la parte
autoregresiva es estacionaria y la parte
media mvil es invertible.
Si la parte AR es estacionario, se puede
escribir como un MA()

Procesos autoregresivos media


mviles (ARMA(p,q))
Si la parte MA es invertible, se puede
expresarlo como un AR()

Procesos autoregresivos media


mviles (ARMA(p,q))
Los procesos ARMA tienen un FAS como
la de su parte AR y una
FAP como su parte MA.
ARMA tiene FAS y FAP que decrecen
exponencialmente en valor absoluta hacia
cero.
No se puede determinar el orden.

Procesos autoregresivos media


mviles (ARMA(p,q))

ARMA(1,1)
xt xt 1 t 1 t 1
(1 1 ) 1
1 211 12 2
0

1 12

FAS:

(1 11 )(1 1 )

1 211 12
1 1

1
1

ARMA(1,1)

ARMA(p,q)
p (1) 1

Representar con

xt j t j ( L) t
j 0

0 E ( xt ) 2 2 2j
j 0

MA()

Procesos autoregresivos
integrados media mvil;
ARIMA(p,d,q)

Procesos ARIMA presentan races


unitarias en el polinomio autoregresivo; no
*

son estacionarios. Se puede factorizar r ( L)


a partir de las races unitarias. Podemos
escribir; * ( L) (1 L) d ( L)
r

r* d ( L)

r d

Donde
no incluye races unitarias y d
es el nmero de races unitarias.

Procesos autoregresivos
integrados media mvil;
ARIMA(p,d,q)

Recuerda el operador de diferencias;

ARIMA(p,d,q)
Por ejemplo, ARIMA(0,1,0) es un paseo
aleatorio.

ARIMA(p,d,q)
Si una serie presenta un correlograma
como un AR(1) con 1 ; FAS est muy
cerca 1, y no caen rpidamente.

ARIMA(p,d,q)
Si aplicamos el operador de diferencia
cuando no es necesario (sobrediferenciar), tendremos un MA(1) que no
es invertible.
Por ejemplo: Ruido blanco;

ARIMA(p,d,q)
Cuando el orden de diferencia se ha
decidido
, se puede escribir un
procesos ARIMA como AR() o un MA() .

Procesos estacinales
Si tenemos datos con informacin de varias ocasiones
durante un ao, podemos observar estacionalidad, es
decir, un comportamiento econmico que depende del
tiempo durante un ao. (Ejemplos; temperaturas,
vacaciones, movimientos tursticos). Los procesos
anteriores estn pensados para series con slo una
observacin cada ao, o series sin estacionalidad.
El numero de estaciones durante el ao llamamos s. Por
ejemplo, S=12 para datos mensuales, o 4 para
trimestrales. Se puede generalizar los procesos explicas
arriba para captar estacionalidad.

Procesos estacinales

Procesos estacinales

Procesos estacinales

Procesos estacinales
Una serie temporal con estacionalidad puede
tener una estructura de dependencia estacional
y otra parte regular (no estacional) que sigue un

Normalmente estos partes pueden interactuar


en una especificacin multiplicativa. Este es un
modelo

Procesos estacinales
En estos modelos hay efectos satlites.
Por ejemplo

Nota el trmino
que se nota en
FAP y FAS asociados los retardos prximos a los
mltiples de S, pero esto no significa que
tengamos procesos adicionales de MA(0,1) y
SMA(0,1).

Procesos estacinales

FAS: Se reproduce la parte regular de la FAS


alrededor de los coeficientes estacinales.
FAP: Se reproduce la parte regular de la FAS a
la izquierda de los coeficientes estacinales y
la parte de FAP a la derecha.
Signos:

En FAS se multiplica el signo del coeficientes


estacional por el de regular.
En FAP, si el signo del coeficiente estacional es
positivo se inversa el signo a la parte derecha (FAP
regular) mientras si es negativo, se inversa el de la
izquierda (FAS regular).

Procesos estacinales

You might also like