You are on page 1of 23

DETECCIN DE LA

AUTOCORRELACIN
PRUEBA DE DURBIN-WATSON
PRUEBA DE BREUSCH-GODFREY (BG)
INTEGRANTES:
WLADIMIR HEREDIA
CARLOS LPEZ

Prueba d de Durbin-Watson

El estadstico d de Durbin-Watson se define como:

=
2
=2 ( 1 )
2
=

=1

SUPUESTOS EN LOS CUALES SE BASA:


1.

El modelo de regresin incluye el termino de intercepto.

2.

Las variables X son no estocsticas.

3.

Las perturbaciones se generan bajo el esquema autorregresivo de


primer orden:
= 1 +

4.

Distribucin normal del termino de error .

5.

El modelo de regresin no incluye valor(es) rezagado(s) de la variable


dependiente como una explicativa.
= 1 + 2 2 + 3 3 + + + 1 +

6.

No hay observaciones faltantes en los datos.

No hay un valor crtico nico para rechazar o aceptar la Ho de que no hay


correlacin serial de primer orden en la perturbaciones .
Se propone un limite inferior y un limite superior , cuando el valor cae
por fuera de estos valores se puede decidir correlacin serial positiva o
negativa.

Estos limites dependen del numero de observaciones n y del numero de


variables explicativas, siendo los lmites de d 0 y 4.
Resolviendo la ecuacin del valor de d:
=

2 +

1 2 2

Como 2 y 1 2 difieren solo en una observacin, son aproximadamente


iguales, entonces tenemos:
1
2(1
2 )

Definimos :
=

1
2

Reemplazando en la ecuacin anterior tenemos:


2(1 )
Sabemos que 1 1, esto implica que: 0 4.

Mecanismo para la prueba Durbin-Watson:


1.

Correr la regresin por MCO y obtener sus residuos.

2.

Calcular d.

3.

Determinar los valores crticos y .

4.

Reglas de decisin:
Ho: No hay autocorrelacin positiva.
Ho*: No hay autocorrelacin negativa.

Esta prueba tiene una gran desventaja, cuando cae en la zona de indecisin no
se puede concluir si hay o no autocorrelacin.

En el caso de que el valor d estimado cae en la zona de indecisin, se propone la


prueba d modificada:
Con el nivel de significancia ,

1. 0 : = 0 frente a 1 : > 0 si el valor estimado < rechace Ho.


Correlacin positiva estadsticamente significativa.

2. 0 : = 0 frente a 1 : < 0 si el valor estimado (4 ) < rechace Ho.


Autocorrelacin negativa estadsticamente significativa.

3. 0 : = 0 frente a 1 : 0 Rechace Ho en el nivel 2 si < o


(4 ) < . Autocorrelacin positiva o negativa estadsticamente
significativa.

Un estadstico d significativo no necesariamente indica autocorrelacin mas


bien este puede indicar omisin de variables.
Si un modelo contiene valores rezagados de la regresada, el valor d a menudo se
aproxima a 2 lo cual indicara que no hay autocorrelacin. (Prueba h)
Si los trminos del error no son NIID (normalmente distribuidos) esta prueba d
no es tan confiable, sin embargo si la muestra es grande se puede utilizar esta
prueba, por lo que se demuestra que:
1
(1 ) (0,1)
2
El estadstico d sigue una distribucin normal estandarizada, se deduce que:
(0,1)

Finalmente el problema mas grave de la prueba d es el supuesto de que las


regresoras son no estocsticas(valores fijos en muestras repetidas), por lo tanto la
prueba d no es valida en muestras finitas o pequeas y grandes.

Ejemplo:
Utilizamos 33 datos para un anlisis en el Ecuador se corre la siguiente regresin:
= 1 + 2 + 3 +
Donde:

= Logaritmo de las exportaciones con precios actuales de mercado.


= Logaritmo del PIB Real.
= Logaritmo del Tipo de Cambio Real.

Procedimiento:
1.

Corremos la regresin y obtenemos sus residuos.


= 46,9428 + 2,7676 + 0,5368
2 = 0,692449
1 = 0,2345066

2.

Calculamos d.
2(1

1
2

0,2345066
2(1
)
0,692449
1,235963
3.

Determinamos los valores crticos.


= 1,321 y = 1,577

4.

Regla de Decisin:
Ho: No hay autocorrelacin positiva.
Ho*: No hay autocorrelacin negativa.
<

Conclusin:

Dado un nivel de significancia del 5%, existe evidencia estadstica suficiente para
rechazar la Ho de que no existe autocorrelacin positiva, debido a que el d
estimado es menor que el inferior.

Dependent Variable: LOG(X)


Method: Least Squares
Date: 04/07/14 Time: 21:19
Sample: 1980 2012
Included observations: 33
Variable

Coefficient

Std. Error

t-Statistic

Prob.

LOG(Y)
LOG(TCR)
C

2.767621
0.536795
-46.94278

0.107001
0.108824
2.851936

25.86550
4.932679
-16.45997

0.0000
0.0000
0.0000

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
F-statistic
Prob(F-statistic)

0.960321
0.957676
0.151926
0.692449
16.93150
363.0370
0.000000

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
Hannan-Quinn criter.
Durbin-Watson stat

22.48845
0.738483
-0.844333
-0.708287
-0.798558
1.209176

Prueba de Breusch-Godfrey (BG)

Generalidades
Es conocida tambien como prueba ML (se basa en el principio de
multiplicador de Lagrange).
Es vlida asintticamente.
Evita algunas limitaciones que tiene la prueba de Durbin-Watson.

Caractersticas
Es una prueba ms general que la de Durbin-Watson ya que permite:
El uso regresoras no estocsticas.

Esquemas autorregresivos AR de orden mayor.


Esquemas MA (promedios mviles) de orden mayor de trminos de
error con ruido blanco.

Ejemplo
Suponemos un modelo de 2 variables por simplicidad solamente.
= 1 + 2 +

(1)

Supngase que sigue el siguiente esquema AR(p):


= 1 1 + 2 2 + + +
Donde, es un trmino de error de ruido blanco

(2)

Ejemplo
La hiptesis nula 0 a ser probada es:
0 = 1 = 2 = = = 0
Es decir, no existe correlacin serial de ningn orden.

Pasos a seguir
1)

Estmese (1) por MCO y obtngase

2)

Hgase la siguiente regresin y obtenga su 2 :


= 1 + 2 + 1 1 + 2 2 + + +

Con n observaciones debido a los rezagos.


Ntese que se introducen las regresoras originales( en este caso solo hay una). Se
las introduce para permitir que las sean no estocsticas.

Pasos a seguir
3)

Si el tamao de la muestra es grande, Breusch y Godfrey han demostrado


que:
2 ~2

Con grados de libertad.


Si 2 > : Existe evidencia de autocorrelacin ya que al
menos uno de los coeficientes es significativamente diferente de cero.

Puntos Prcticos sobre la Prueba BG


1)

Los regresores incluidos en el modelo pueden ser valores rezagados de la


variable dependiente: 1 , 2 , etc.

2)

La prueba BG es aplicable an si el trmino de perturbacin sigue un


proceso MA de orden p. Es decir que los tienen la forma:
= 1 1 + 2 2 + + +

Puntos Prcticos sobre la Prueba BG


3)

Si = 1en la ecuacin (2) significando autocorrelacin de primer orden,


entonces la prueba BG se conoce con el nombre de prueba M de Durbin.

4)

Una desventaja de BG es que el valor de no puede especificarse a priori.


Hay que experimentar y usar los criterios de informacin para encontrar la
longitud del rezago.

Breusch-Godfrey Serial Correlation LM Test:


F-statistic
Obs*R-squared

4.128630
4.112599

Prob. F(1,29)
Prob. Chi-Square(1)

0.0514
0.0426

Test Equation:
Dependent Variable: RESID
Method: Least Squares
Date: 04/07/14 Time: 23:41
Sample: 1980 2012
Included observations: 33
Presample missing value lagged residuals set to zero.
Variable

Coefficient

Std. Error

t-Statistic

Prob.

LOG(Y)
LOG(TCR)
C
RESID(-1)

-0.030659
-0.061808
1.028482
0.367989

0.102935
0.107933
2.760728
0.181106

-0.297851
-0.572647
0.372540
2.031903

0.7679
0.5713
0.7122
0.0514

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
F-statistic
Prob(F-statistic)

0.124624
0.034068
0.144575
0.606153
19.12768
1.376210
0.269696

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
Hannan-Quinn criter.
Durbin-Watson stat

8.17E-15
0.147102
-0.916829
-0.735434
-0.855795
1.673150

El Ejercicio con STATA:


. rename var8 tiempo

. tsset tiempo
time variable:
delta:

tiempo, 1980 to 2012


1 unit

. regress lnX lnY lnTCR


Source

SS

df

MS

Model
Residual

16.7589748
.692444227

2
30

8.37948741
.023081474

Total

17.451419

32

.545356845

lnX

Coef.

lnY
lnTCR
_cons

2.767621
.536796
-46.94277

Std. Err.
.1070001
.108824
2.851926

Number of obs
F( 2,
30)
Prob > F
R-squared
Adj R-squared
Root MSE

P>|t|

25.87
4.93
-16.46

0.000
0.000
0.000

=
=
=
=
=
=

33
363.04
0.0000
0.9603
0.9577
.15193

[95% Conf. Interval]


2.549098
.3145479
-52.76718

2.986144
.7590442
-41.11836

. estat bgodfrey
Breusch-Godfrey LM test for autocorrelation
lags(p)
1

chi2
6.988

df
1

H0: no serial correlation

Prob > chi2


0.0082

You might also like