You are on page 1of 24

Cap.

5
Regresiones con variables no
estacionarias

1
5.1. Conceptos Básicos
TBILL
8

0
1954 1956 1958 1960 1962 1964 1966 1968 1970

2
Proceso Estocástico
Es una colección de variables ordenadas en el
tiempo:

Y(t) – si la variable es aleatoria y


continua.

Yt – si es discreta

3
Proceso Estocástico Estacionario

4
Proceso Estocástico No
Estacionario

5
Proceso Estocástico No
Estacionario con variaciones

6
Proceso Estocástico de Raiz
Unitaria

Si rho es igual a 1 se convierte en un Modelo


de Caminata Aleatoria.

situación de no estacionariedad
7
Proceso Estocástico Integrado

Se llama al MCA sin variaciones, proceso


integrado de orden d I(d) cuando se
realizan d diferencias hasta obtener un
proceso estacionario.

8
Proceso Estacionario con
tendencia

Cuando convertimos una serie de tiempo en


estacionaria incluyendo una variable de
tiempo.

9
Regresión Espuria

Regla práctica – cuando R2 > d, debemos


sospechar de una possible regresión espuria.

Se produce en la regresión entre dos variables


no estacionarias.
Al aplicar primeras diferencias se observa que
no existe una relación real entre ambas.

10
Prueba de Estacionariedad
1. Prueba gráfica.
2. Correlograma:

Función de
Autocorrelación
ACF

11
Prueba de Estacionariedad
2. Correlograma:

Prueba de
Significancia

12
5.2. Probando Raíces Unitarias
AR(1): yt = a + ryt-1 + et
Si H0: r = 1,
Define q = r – 1 y sustrayendo yt-1 a ambos
lados obtenemos Dyt = a + qyt-1 + et
El test simple t es inapropiado porque podría
existir un proceso I(1)
El test de Dickey-Fuller utiliza el estadístico t,
pero con valores críticos diferentes

13
Probando Raices Unitarias
Agregamos p rezagos a Dyt a fin de permitir más
dinamismo en el proceso.
Todavía calculamos el estadístico t para q
Ahora se llama Test Aumentado de
Dickey-Fuller mantiene los mismos
valores críticos.
Los rezagos se utilizan para asegurar que no existe
correlación serial si son muy pocos se podría
cometer un error. 14
Probando Raíces Unitarias con
tendencia
Si existe claramente una tendencia en las
series ajustar para evitar el error de
confundir una tendencia estacionaria con una
raiz unitaria.
Solo agregamos una tendencia en el modelo.
Seguimos utilizando el estadístico t para
q, pero con los valores críticos para el
cambio del test de Dickey-Fuller.
15
Regresión Espuria
Una regresión simple de yt sobre xt , donde yt
y xt son series independientes I(1).
El t estadístico usual será por lo general
estadísticamente significativo, indicando
una relación , cuando en realidad no existe.

Problema de regresión espúria.

16
5.3. Cointegración
La regresión de una variable I(1) contra otra
I(1) generan el problema de regresión
espuria .

La combinación lineal de dos procesos


integrados generan a un proceso no
estacionario.
cointegración
17
Cointegración
Si b es desconocido, entonces estimamos
primero b (lo que nos agrega una
complicación)
Después de estimar b corremos una
regresión de Dût sobre ût-1 y comparamos el
t-estatistico de ût-1 con los valores críticos
especiales.
Si existen tendencias, necesitamos agregarla a
la regresión inicial en la que se estima el b y
usamos valores críticos diferentes para el t-
estatidístico sobre ût-1 18
Cointegración
Sean dos procesos I(1): yt y xt, y existe un b
tal que: yt – bxt es un proceso I(0)
Decimos que y y x están cointegrados,
b el parámetro de cointegración.
Si conocemos b, testear la cointegración se
realiza directamente si definimos :
st = yt – bxt Aplicamos el test de
Dickey-Fuller si rechazamos
la raiz unitaria, entonces
están cointegradas. 19
Cointegración
Prueba para cointegración

Prueba Dickey Fuller (DF) o


(DFA) – Engle Granger (EG)
(EGA).

Prueba Durbin Watson (RCDW)

20
Mecanismo de Corrección de
Errores MCE
Si dos variables están cointegradas entonces
la relación entre las dos se expresa como
MCE.

Ej. Δy = b0 + b1 Δx1 + b2εt-1 + u


≠0 э equilibrio
b2εt-1 tomará valores positivos o negativos para restaurar el
equilibrio del modelo.
21
5.4. Pronóstico
Una vez que hemos corrido una regresión de
serie de tiempo la podemos utilizar para
pronosticar el futuro.
Podemos calcular un punto pronóstico y
pronosticar un intérvalo de la misma forma
que tomamos una predicción con un corte
transversal
En lugar de usar un criterio dentro de la
muestra como el R2 ajustado, usualmente
usamos un criterio de fuera de la muestra
para juzgar que tan bueno es el pronóstico. 22
Criterio fuera de muestra
La idea es usar toda la información disponible
en estimar la ecuación, pero guardar alguna
para verificar que tan bien pronostica nuestro
modelo.
Si el total de observaciones es: n + m y
usamos n de ellas para estimar el
modelo.
Usa el modelo para predecir las próximas m
observaciones, y calcula la diferencia entre
nuestra predicción y la verdadera. 23
Criterio fuera de muestra
Llamamos a esta diferencia: el error de
predicción el cual se denota como ên+h+1
para h = 0, 1, …, m
Calcula el error promedio de la raíz y observa
cual es menor:
12
 1 m 1

RECM   m  eˆn  h 1 
2

 h 0 

24

You might also like