Professional Documents
Culture Documents
1.
2.
3.
Heterocedasticidad
Multicolinealidad
Ejercicios de prueba (pizarra)
Gabriel Moraga
Primer Trimestre 2015
1
1. Heterocedasticidad
VARIABLES DUMMY
El supuesto RLM.5 de homocedasticidad implicaba que la varianza
de los errores no observados del modelo de regresin lineal son
contantes en x.
= 2
Si ese supuesto no se cumple, es decir, la varianza de los errores
dependen de las variables explicativas x, la varianza va a ser
heterocedstica.
Ejemplo: En el modelo de ingresos y nivel educacional, la habilidad
no es observable (es difcil recoger una variable que mida habilidad)
por tanto queda medida en el termino de error. En este modelo
habra heterocedasticidad si la varianza de la habilidad es diferente
para distintos aos de educacin.
3
HETEROCEDASTICIDAD
Cmo lucen las distribuciones?
(|)
Y=Ingreso
.
x1
.
x2
.
(|) = 0 + 1
x3
X=Educ
4
2 2
(
=1
2
=1( )
2 2
(
=1
(1 ) =
2
(
=1
2
=1
2
( )
Prueba de Breush-Pagan
El supuesto clave de esta prueba es que existe una relacin lineal
entre y las del tipo: 2 = 0 + 1 1 + + +
Los pasos para esta prueba son:
1.
2.
2 = 0 + 1 1 + + +
Y se obtiene los valores de bondad de ajuste del modelo 2
10
Prueba de Breush-Pagan
3.
0 : 1 , , = 2
1 : 1 , , 2
Lo que dado el supuesto de linealidad es equivalente a testear:
0 : 1 = 0, 2 = 0, , = 0
El estadstico F:
2 /
=
(1 2 )/( 1)
Prueba de White
Es similar a la prueba de Breush-Pagan, pero agrega en la regresin
de los residuos trminos cuadrados e interacciones no lineales de
todas las variables explicativas.
Lo anterior con el objetivo de incluir otras formas de
heterocedasticidad.
Ejemplo de pasos con un modelo de 2 variables explicativas:
1.
2.
2 = 0 + 1 1 + 2 2 + 3 12 + 4 22 + 5 2 1 +
12
Prueba de White
3.
0 : 1 , , = 2
1 : 1 , , 2
Lo que dado la relacin supuesta ente u y x es equivalente a testear:
0 : 1 = 0, 2 = 0, 3 = 0, 4 = 0, 5 = 0
El estadstico F:
2 /
=
(1 2 )/( 1)
0 : 1 = 0, 2 = 0
Si se rechaza 0 se rechaza homocedasticidad, por tanto habra evidencia
para determinar la existencia de heterocedastisidad en el modelo.
14
2. Multicolinealidad
15
MULTICOLINEALIDAD
Como vimos, bajo los supuestos RLM.1 a RLM.5 la varianza de los
coeficientes del modelo de regresin mltiple estn dados por.
Var j
STC j (1 R 2j )
16
MULTICOLINEALIDAD
De la expresin para la varianza de los coeficientes estimados se
puede concluir lo siguiente:
La varianza de es mayor cuanto mayor es la varianza del error 2
(parte no observable u). Agregando ms variables explicativas es la
nica forma de reducir la varianza del error.
La varianza de es menor cuanto mayor es la variacin muestral
de ( ). Esto se podra conseguir simplemente aumentando
el tamao muestral.
La varianza de es mayor cuanto mayor es el coeficiente de
determinacin 2 , es decir, cuanto ms relacionada est la
variable con el resto de variables explicativas.
17
MULTICOLINEALIDAD
Grficamente cuanto mayor es la correlacin entre las variables
explicativas del modelo, mayor es la varianza de este.
18
MULTICOLINEALIDAD
Cuando existe esta correlacin fuerte pero no perfecta entre las
variables explicativas, esto se conoce como multicolinealidad.
Sabemos que no est permitida la multicolinealidad perfecta entre
dos variables explicativas del modelo ya que esto violara el
supuesto RLM.3. Sin embargo, no es conveniente que exista una alta
multicolinealidad entre las variables dado que esto aumenta la
incertidumbre o la varianza de los estimadores.
19
MULTICOLINEALIDAD
Lamentablemente el problema de la multicolinealidad es complejo ya
que al sacar variables altamente correlacionadas en un modelo es
posible que los estimadores sean sesgados dado que estaramos
excluyendo una variable relevante. En definitiva, la mayor herramienta
para liderar con este tipo de problemas es aumentar el tamao
muestral
20