You are on page 1of 16

Macroeconometría

Ch.3: Análisis Descriptivo de las Series de Tiempo

Profesor: Juan Manuel Rivas Castillo


Contenido
La Naturaleza de las Series de Tiempo .................................................................................................................................................................................. 3

Estacionariedad ................................................................................................................................................................................................................................ 7

Pruebas de Autocorrelación........................................................................................................................................................................................................ 14
La Naturaleza de las Series de Tiempo

Cuando trabajamos con datos de corte transversal, usualmente empleamos la media y


la desviación estándar para describir la tendencia central y la dispersión de una
variable.

También usamos las covarianzas y las correlaciones para describir el grado en que dos
o más variables se mueven de manera conjunta.

Algunas consideraciones a tener en cuenta:

 En series de tiempo el valor de 𝑿𝒕 se encuentra correlacionado con 𝑿𝒕−𝟏 ,


𝑿𝒕−𝟐 ,𝑿𝒕+𝟏 y asi sucesivamente.
 Muchas series de tiempo tienen tendencia; por lo que si regresamos variables
con tendencia, las dos variables nos darán la impresión de estar altamente
correlacionadas a pesar de no existir una relación entre ellas.
 Con datos de corte transversal, asumimos que la media muestral es un
estimador de la media poblacional, pero en series de tiempo la media
poblacional no necesariamente existe.

Una serie de tiempo deterministica es aquella en la que no existe incertidumbre


acerca de sus niveles en cualquier momento del tiempo. Por ejemplo, consideremos una
función seno 𝑦𝑡 = 𝑠𝑒𝑛𝑜(𝑡) . Entonces si sabemos el valor de t podemos conocer con
total certidumbre el valor de 𝑦𝑡 . Sin embargo, la series de tiempo que habitualmente
analizamos es estadística, lo cual significa que existe un elemento de incertidumbre
que resulta inherente a ella.

Cuando estamos trabajando con datos de corte transversal, el concepto de población


y muestra se encuentra directamente relacionado. ¿Qué ocurre en series de tiempo?.
Si viviéramos de manera infinita, podríamos observar una serie 𝑒𝑡 correspondiente a
un ruido blanco Gausiano para el periodo 𝑡 = −∞ 𝑎 𝑡 = ∞. Esta secuencia representa la
realización de un proceso generador de datos. Nosotros observamos un subconjunto
de esa realización 𝑇 < ∞, resultando ese conjunto de datos en nuestra muestra. Una
discusión paralela es sobre si este subconjunto realmente representa una muestra que
permita realizar inferencia respecto de la población objeto de interés.

Con datos de corte transversal el valor esperado o media de una serie 𝑦𝑡 resulta en:

𝐸 (𝑦𝑡 ) = 𝜇 = ∫ 𝑦𝑡 𝑓(𝑦𝑡 )𝑑𝑦𝑡
−∞

De manera análoga, mediante la muestra se obtiene:


1 𝑡=𝑇
𝑦̅ = ∑ 𝑦𝑡
𝑇 𝑡=1

La varianza se obtiene de la siguiente forma:



𝐸 [(𝑦𝑡 − 𝜇 )2 ] = 𝜎 = ∫ (𝑦𝑡 − 𝜇)2 𝑓(𝑦𝑡 )𝑑𝑦𝑡
2
−∞
Y su muestra análoga es:
1 𝑡=𝑇
𝑆 = ∑ (𝑦𝑡 − 𝑦̅)2
2
𝑇 𝑡=1

La covarianza entre dos variables 𝑢𝑖 y 𝑣𝑖 es definida como:

𝐶𝑜𝑣(𝑦𝑡 , 𝑦𝑡+1 ) = 𝐸 [(𝑦𝑡 − 𝜇)(𝑦𝑡+1 − 𝜇)]

De manera muestral se puede definir como:


𝑡=𝑇−𝑗
1
𝛾𝑗 = ∑ (𝑦𝑡 − 𝑦̅)(𝑦𝑡+1 − 𝑦̅)
𝑇
𝑡=1

Dado que la covarianza depende de la escala de medida, se define la función de


autocorrelacion (ACF) de la siguiente forma:
𝛾𝑗
𝜌𝑗 =
𝛾0

Estacionariedad

Con anterioridad hemos asumido que la media, la varianza y la autocovarianza son


independientes del tiempo, cuando ello se cumple lo que decimos es que el proceso es
débilmente estaconario o estacionario en covarianza.

Probemos ello:

𝑋1 = 𝑏2 𝑋0 + 𝜀1
𝑋2 = 𝑏2 𝑋1 + 𝜀2
𝑋2 = 𝑏2 [𝑏2 𝑋0 + 𝜀1 ] + 𝜀2

𝑋2 = 𝑏22 𝑋0 + 𝑏2 𝜀1 + 𝜀2
𝑋3 = 𝑏2 𝑋2 + 𝜀3
𝑋3 = 𝑏2 [𝑏22 𝑋0 + 𝑏2 𝜀1 + 𝜀2 ] + 𝜀3

𝑋3 = 𝑏23 𝑋0 + 𝑏22 𝜀1 + 𝑏2 𝜀2 + 𝜀3

𝑋𝑡 = 𝑏2𝑡 𝑋0 + 𝑏2𝑡−1 𝜀1 + 𝑏2 𝜀𝑡−1 + 𝜀3

Tomamos la esperanza matemática

𝐸 (𝑋𝑡 ) = 𝑏2𝑡 𝑋0 + 𝑏2𝑡−1 𝐸 (𝜀1 ) + ⋯ . . +𝑏2 𝐸(𝜀𝑡−1 ) + 𝐸 (𝜀3 )


E(Xt ) = bt2 X0

Si 𝑋0 = 0

E (X t ) = 0

Si 𝑋0 ≠ 0, dado que |𝑏2 | < 1

E(Xt ) = bt2 X0 tiende a cero


𝑉𝑎𝑟(𝑋𝑡 ) = 𝑉𝑎𝑟(𝑏2𝑡 𝑋0 + 𝑏2𝑡−1 𝜀1 + 𝑏2 𝜀𝑡−1 + 𝜀3 )

𝑉𝑎𝑟(𝑋𝑡 ) = 𝑉𝑎𝑟(𝑏2𝑡 𝑋0 ) + 𝑣𝑎𝑟(𝑏2𝑡−1 𝜀1 ) + 𝑣𝑎𝑟(𝑏2 𝜀𝑡−1 ) + 𝑣𝑎𝑟(𝜀3 )


2(𝑡−1)
𝑉𝑎𝑟(𝑋𝑡 ) = 0 + 𝑏2 𝑣𝑎𝑟(𝜀1 ) + 𝑏22 𝑣𝑎𝑟(𝜀𝑡−1 ) + 𝑣𝑎𝑟(𝜀3 )

𝑉𝑎𝑟(𝑋𝑡 ) = 𝑏22(𝑡−1) 𝜎 2 + 𝑏22 𝜎 2 + 𝜎 2

𝑉𝑎𝑟(𝑋𝑡 ) = (𝑏22(𝑡−1) + 𝑏22 + 1)𝜎 2

𝑆 = 𝑏22(𝑡−1) + 𝑏22 + 1

𝑆𝑏22 = 𝑏22𝑡 + 𝑏24 + 𝑏22

𝑆 − 𝑆𝑏22 = 1 − 𝑏22𝑡

𝑆(1 − 𝑏22 ) = 1 − 𝑏22𝑡


1 − 𝑏22𝑡
𝑆=
(1 − 𝑏22 )

1 − 𝑏22𝑡 2
𝑉𝑎𝑟(𝑋𝑡 ) = 𝜎
(1 − 𝑏22 )

Dado que |𝑏2 | < 1, entonces si t tiende al infinito se tiene que:


1
𝑉𝑎𝑟(𝑋𝑡 ) = 2 𝜎2
(1 − 𝑏2 )

Por ende la varianza no depende del tiempo.

Respecto a la covarianza

𝐸 (𝑋3 ) = 𝑏23 𝑋0

𝑋3 − 𝑏23 𝑋0 = 𝑏22 𝜀1 + 𝑏2 𝜀2 + 𝜀3

𝐸 (𝑋2 ) = 𝑏22 𝑋0
𝑋2 − 𝑏22 𝑋0 = 𝑏2 𝜀1 + 𝜀2

𝐶𝑜𝑣(𝑋2 𝑋3 ) = 𝐸 ([𝑏2 𝜀1 + 𝜀2 ][𝑏22 𝜀1 + 𝑏2 𝜀2 + 𝜀3 ])

𝐶𝑜𝑣(𝑋2 𝑋3 ) = 𝐸 (𝑏23 𝜀12 + 𝑏2 𝜀22 )

𝐶𝑜𝑣(𝑋2 𝑋3 ) = 𝑏23 𝜎 2 + 𝑏2 𝜎 2

𝐶𝑜𝑣(𝑋2 𝑋3 ) = 𝜎 2 (𝑏23 + 𝑏2 )

La covarianza no depende del tiempo, pues si t tiende al infinito se tendría 𝑏2 𝜎 2

Ahora consideremos la serie:

𝑦𝑡 = 𝛽𝑡 + 𝑒𝑡

Donde 𝑒𝑡 es un ruido blanco y 𝛽 es un coeficiente distinto de cero. Por ejemplo, si


asumimos que este coeficiente es igual a 0.5 y que la varianza del ruido blanco es uno
y generamos un tamaño de muestra de 50 observaciones.
25
20
15
y
10
5
0

0 10 20 30 40 50
t

clear

set obs 50

set seed 1

generate t = _n

tsset t

generate y = 0.5*t + invnorm(uniform())

tsline y
Esta serie es claramente no estacionaria pues si primer momento muestral depende
del tiempo. Pero si tomamos su primera diferencia podemos obtener una serie
débilmente estacionaria.

𝑦𝑡 = 𝛽𝑡 + 𝑒𝑡
𝑦𝑡−1 = 𝛽(𝑡 − 1) + 𝑒𝑡−1
𝐸 (𝑦𝑡 − 𝑦𝑡−1 ) = 𝐸 (𝛽𝑡 + 𝑒𝑡 − [𝛽(𝑡 − 1) + 𝑒𝑡−1 ])
𝐸 (𝑦𝑡 − 𝑦𝑡−1 ) = 𝐸 (𝛽𝑡 + 𝑒𝑡 − 𝛽𝑡 + 𝛽 + 𝑒𝑡−1 )
𝐸 (𝑦𝑡 − 𝑦𝑡−1 ) = 𝛽
𝑣𝑎𝑟(𝑦𝑡 − 𝑦𝑡−1 ) = 𝑣𝑎𝑟(𝑒𝑡 + 𝛽 + 𝑒𝑡−1 )

𝑣𝑎𝑟(𝑦𝑡 − 𝑦𝑡−1 ) = 2𝜎 2

𝐶𝑜𝑣(∆𝑦𝑡 − ∆𝑦𝑡−1 ) = 𝐸 ([𝑒𝑡 + 𝑒𝑡−1 ] [𝑒𝑡−1 + 𝑒𝑡−2 ]) = 𝜎 2


Pruebas de Autocorrelación

Existen métodos que permiten determinar la existencia de autocorrelación hasta un


determinado orden.

Ho : ρ1 = ρ2 = ρ3 = ⋯ … . ρm = 0

2
Box-Pierce(Q) = 𝑛 ∗ ∑𝑚 2 𝑚
𝑗=1 𝜌𝑗 = ∑𝐽=1(√𝑛 ∗ 𝜌𝑗 )

2 2
𝑚 𝜌𝑗 𝑛+2
Ljung-Box(Q) = 𝑛 ∗ (𝑛 + 2) ∗ ∑𝑗=1
𝑛−𝑗
= ∑𝑚
𝐽=1 𝑛−𝑗 (√𝑛 ∗ 𝜌𝑗 )

Ejemplo: Asuma que el número de observaciones es igual a 50 y que el nivel de


confianza deseado es del 90% y que las correlaciones estimadas han sido: ρ1 =
1.25, ρ2 = 0.22 y ρ3 = 0.02
2 2 2
Box-Pierce(Q)= (√50 ∗ 1.25) + (√50 ∗ 0.22) + (√50 ∗ 0.02) = 80.565

50+2 2 50+2 2 50+2 2


Ljung-Box(Q)= 50−1 (√50 ∗ 1.25) + 50−2 (√50 ∗ 0.22) +50−3 (√50 ∗ 0.02) = 85.55
Dado que ambos estadísticos se distribuyen con 3 grados de libertad para una
distribución Chi2, se tiene un valor crítico de 7.8148 por lo que se concluye que existe
autocorrelación significativa hasta el tercer rezago.

Procesos Autorregresivos y de Medias Móviles

MA(1)

𝑦𝑡 = 𝑢𝑡 + 𝑒𝑡 + 𝜃𝑒𝑡−1

La media del proceso es

𝐸 (𝑦𝑡 ) = 𝑢𝑡

La varianza del proceso es

𝐸 (𝑦𝑡 − 𝑢𝑡 )2 = 𝐸 (𝑒𝑡 + 𝜃𝑒𝑡−1 )2


2
𝐸 (𝑦𝑡 − 𝑢𝑡 )2 = 𝐸 (𝑒𝑡2 + 𝜃 2 𝑒𝑡−1 + 2𝑒𝑡 𝜃𝑒𝑡−1 )

(1 + 𝜃 2 )𝜎 2

You might also like