You are on page 1of 18

TEMA 8

MULTICOLINEALIDAD

Contenidos del tema 8

8.1 Concepto y causas


8.2 Multicolinealidad exacta: efectos
8.3 Multicolinealidad aproximada:efectos
8.4 Deteccin de la multicolinealidad
8.5 Soluciones

Objetivos del tema 8


Mostrar que hay contextos en las cuales el
MLG puede dar problemas debido a que
las variables explicativas muestran entre
s altas correlaciones.
Analizar el comportamiento del modelo
bajo esta circunstancia.
Estudiar posibles soluciones.

Organizacin conceptual del tema


8
Exacta

Funciones
estimables

Colinealidad

Aproximada

Sntomas y
efectos

Algunas
soluciones

8.1 Concepto y causas


Se dice que hay multicolinealidad cuando
se presentan altas correlaciones entre las
variables explicativas del modelo.
Aparece multicolinealidad en un modelo
Cuando hay relaciones de causa-efecto entre
las variables explicativas.
Cuando se trabaja con datos temporales y los
movimientos estacional y tendencial son muy
fuertes entre las variables explicativas
(correlacin espuria)

8.2 Multicolinealidad exacta: efectos


Se dice que hay colinealidad exacta cuando el
vector de datos de una o ms variables
explicativas es combinacin lineal de los
restantes. Es decir cuando el coeficiente de
determinacin, de al menos una variable
explicativa por las restantes, vale uno. En este
caso

r ( X ) < k XX = 0 ( XX )

no existe

8.2 Multicolinealidad exacta: efectos


Sea el modelo

Yt = 1 + 2 X t ,2 + 3 X t ,3 + 4 X t ,4 + ut

Supongamos que hay multicolinealidad exacta porque

X t ,4 = X t ,2 + X t ,3

Dada una muestra de datos, es evidente que

r ( X ) = 3 < 4 XX = 0 ( XX )

no existe

8.2 Multicolinealidad exacta: efectos


Si en el modelo

sustituimos

Yt = 1 + 2 X t ,2 + 3 X t ,3 + 4 X t ,4 + ut
X t ,4 = X t ,2 + X t ,3

Yt = 1 + 2 X t ,2 + 3 X t ,3 + 4 ( X t ,2 + X t ,3 ) + ut
queda

Yt = 1 + ( 2 + 4 ) X t ,2 + ( 3 + 4 ) X t ,3 + ut

8.2 Multicolinealidad exacta: efectos


Yt = 1 + ( 2 + 4 ) X t ,2 + ( 3 + 4 ) X t ,3 + ut

Llamamos

1 1

= 2 = 2 + 3
+
3 3
4

Yt = 1 + 2 X t ,2 + 3 X t ,3 + ut

8.2 Multicolinealidad exacta: efectos


Yt = 1 + 2 X t ,2 + 3 X t ,3 + ut

1 = 1
2 = 2 + 3
3 = 3 + 4

1.- El modelo ha perdido la variable que es combinacin lineal de las otras


dos.
2.- Los nuevos parmetros son combinaciones lineales de los antiguos.
3.- Estas combinacionesl lineales se llaman funciones estimables.
4.- Los parmetros iniciales no pueden estimarse.

8.2 Multicolinealidad exacta: efectos


Otro ejemplo
1

1
1
X=
1
1

6 2 4 2
15 3 6 5

21 4 8 7
27 5 10 9

18 6 12 6
9

Obsrvese que la columna 2 es


triple de la 5 y la 4 doble de la 3.

r ( X) = 3

X t ,2 = 3 X t ,5

X t ,4 = 2 X t ,3

Yt = 1 + 2 X t ,2 + 3 X t ,3 + 4 X t ,4 + 5 X t ,5 + ut
Yt = 1 + 2 ( 3 X t ,5 ) + 3 X t ,3 + 4 ( 2 X t ,3 ) + 5 X t ,5 + ut

8.2 Multicolinealidad exacta: efectos


Ejemplo

Yt = 1 + 2 ( 3 X t ,5 ) + 3 X t ,3 + 4 ( 2 X t ,3 ) + 5 X t ,5 + ut
Yt = 1 + ( 3 + 2 4 ) X t ,3 + ( 5 + 3 2 ) X t ,5 + ut
Yt = 1 + 2 X t ,3 + 3 X t ,5 + ut

= 2 + 25
+ 3
4
3

8.3 Multicolinealidad aproximada:


efectos
El principal efecto de la multicolinealidad es el aumento
de las varianzas de los estimadores de los coeficientes de
regresin
Las estimaciones son poco precisas y se hace difcil
conocer que variables son explicativas y cuales no lo son
porque los contrastes son poco potentes
La multicolinealidad no afecta a la capacidad de
determinacin del modelo ni a las predicciones. Solo
hace difcil el anlisis estructural

8.3 Multicolinealidad aproximada: efectos


Segn se vio para el modelo en desviaciones
1
* = V ( Xexpl ) Cov ( Xexpl , Y )

( )

1
V * = ( x*x* ) 2 = nV ( X expl ) 2

Supongamos el modelo Yt = 1 + 2 X t ,2 + 3 X t ,3 + ut
El coeficiente de correlacin lineal entre las dos
variables explicativas es
=

Cov ( X 2 , X 3 )
V ( X 2 )V ( X 3 )

Cov ( X 2 , X 3 ) = V ( X 2 ) V ( X 3 )

V ( X2 )
V ( X 2 )V ( X 3 )
Como

V ( Xexpl ) =
consecuencia
V ( X )V ( X )

V ( X3 )
2
3

8.3 Multicolinealidad aproximada: efectos


1

V
X
( 2 ) (1 2 )

1
V ( Xexpl ) =

V ( X 2 ) V ( X 3 ) (1 2 )

( )

V ( X 2 ) V ( X 3 ) (1 )

V ( X 3 ) (1 2 )

V * = nV ( X expl ) 2

V ( X 2 ) (1 2 )

1
V * =
n
2
V ( X )V ( X ) (1 2 )
2
3

( )

V ( X 2 ) V ( X 3 ) (1 )

V ( X 3 ) (1 2 )

8.3 Multicolinealidad aproximada: efectos

V ( X 2 ) (1 2 )
1

V * =
n
2
V ( X )V ( X ) (1 2 )
2
3

( )

V ( X 2 ) V ( X 3 ) (1 )

V ( X 3 ) (1 2 )

Conforme aumenta la correlacin entre las variables


explicativas aumentan las varianzas (diagonal principal)
de los estimadores con lo cual se tiene:
-Peores estimaciones
-Poca potencia de los contrastes

8.3 Multicolinealidad aproximada: efectos


En general, para un modelo con k-1 variables explicativas

( )

V i =

2
nV ( X i ) (1 RX2

Obsrvese que

( )

MinV i =

2
nV ( X i )

cuando RX2 i = 0

( )

lim V i = +

2
RXi
1

8.3 Multicolinealidad aproximada: efectos

Un alto grado de determinacin


de una variable explicativa por
las restantes genera una enorme
varianza en el estimador del
correspondiente coeficiente de
regresin

8.4 Deteccin de la multicolinealidad


Sntomas claros de colinealidad en un modelo son:
-Coeficiente de determinacin alto y la varianza
estimada del estimador de algn coeficiente de regresin,
alta en comparacin con las restantes.
- Al sacar del modelo determinadas variables
explicativas que son significativas, el coeficiente de
determinacin permanece casi inalterado y alguna
variable explicativa no significativa anteriormente pasa a
ser significativa.
- Cuando se aaden o quitan unos pocos datos del
modelo el resultado es disparatadamente distinto.

8.4 Deteccin de la Multicolinealidad

( )

V i =

nV ( X i ) 1 RX2 i

( )

V0 i =

2
nV ( X i )

Llamaremos Factor de Inflacin de la


Varianza (FIV) y Tolerancia (T), respectivamente a

( )

FIV i =

( )= 1
V ( ) 1 R
V i
0

2
Xi

( )

T i =

( )

FIV i

= 1 RX2 i

10

8.4 Deteccin de la multicolinealidad

La colinealidad es grave cuando

( )

FIV i > 10

RX2 i > 0,9

( )

T i < 0,1

***3

8.4 Deteccin de la multicolinealidad


Autovalores y nmero de condicin de XX para detectar la
colinealidad

XX = 1 2 3 ... k (producto de los autovalores)


Cuando aumenta la colinealidad el determinante
disminuye hasta hacerse cero en el caso de colinealidad
exacta.
Algunos autovalores deben ser pequeos cuando hay
colinealidad aproximada pero intensa

11

Diapositiva 22
***3

La multicolinealidad es un problema de clculo numrico. Concretamente de estasbilidad de las


soluciones de un sistema lineal de ecuaciones (ecuaciones normales). Consecuentemente las
unidades en las que se miden las variables afectan a la calidad de las soluciones del sistema as como
trabajar o no en desviaciones? Si esto es as no hay por que empearse en hacer las variables
adimensionales dividiendo por sus desviaciones tpicas ni nada por el estilo. Afirma Johnston (1987)
lo contrario?
*.*; 13/01/2007

8.4 Deteccin de la multicolinealidad


Se definen el ndice y el nmero de condicin XX
respectivamente, como

IC ( XX ) =

10 IC =

100 < K =

K ( XX ) =

max
= IC 2
min

max
30 Multicolinealidad moderada
min

max
= IC 2 < 1000 Multicolinealidad moderada
min

IC =

K=

max
min

max
> 30 Multicolinealidad grave
min

max
= IC 2 > 1000 Multicolinealidad grave
min

12

Ejemplo 8.2
Ao
1971
1972
1973
1974
1975
1976
1977
1978
1979
1980
1981
1982
1983
1984
1985
1986
1987
1988
1989
1990
1991
1992
1993
1994
1995
1996
1997

Valor
aadido
bruto a
precios de
mercado sin
IVA
2853852
3344372
4025549
4950496
5823184
7013045
8881915
10875974
12704388
14609880
16395608
18855353
21484454
24262248
26773462
30527043
33831103
37533690
42038532
47003587
51520116
55233623
57488714
60946951
65728344
69371235
73138753

P.3A
Consumo
R.21 IVA que Empleos
privado
grava los
finales
nacional
productos
nacionales
1925642
88666
2942972
2245298
104679
3476329
2694358
129751
4232901
3332920
145828
5390259
3919514
162663
6269366
4817083
190107
7589705
6050257
248584
9408257
7272408
300109
11196112
8581442
372963
13161686
9991461
400451
15523886
11301418
479338
17399531
12939220
653630
20102401
14604224
792929
22725380
16304611
989914
24984259
18079989
1115782
27653771
20437730
1467795
31636728
22855769
1916485
36083261
25179579
2184633
40606399
28366939
2592379
46514328
31303377
2768295
51840718
34268769
3056819
56655191
37277131
3587395
60747911
38481942
3331601
61292128
40723458
3732622
64700325
43313579
3910987
69708515
45668198
4256207
73147951
48276817
4627999
76962730

Ejemplo 8.2
Salida de SPSS
Coeficie ntesa

Modelo
1

(Constante)
VAB
CPN
IV A

Coef icientes no
es tandarizados
B
Error tp.
336528,0
327469,2
-,402
,377
1,985
,549
2,401
,702

Coef icientes
es tandarizad
os
Beta
-,375
1,226
,149

t
1,028
-1,067
3,613
3,419

Sig.
,315
,297
,001
,002

Es tadsticos de
colinealidad
Tolerancia
FIV
,000
,000
,013

4940,837
4606,481
76,415

a. Variable dependiente: Empleos


a
Diagns ticos de coline alidad

Modelo
1

Dimensin
1
2
3
4

A utovalor
3,669
,327
,004
3,77E-005

Indice de
condic in
1,000
3,352
30,541
312,042

Proporciones de la varianza
(Constante)
VAB
CPN
,01
,00
,00
,32
,00
,00
,65
,00
,00
,02
1,00
1,00

IV A
,00
,00
,92
,08

a. V ariable dependiente: Empleos

13

8.5 Soluciones
Cuando se relacionan series de datos como PIB, inflacin
paro y consumo, suelen aparecer correlaciones espurias
debidas a la tendencia y a la estacionalidad. Una posible
solucin, en este, caso es desestacionalizar las series y
quitarles la tendencia antes de hacer el ajuste.
Diferenciar las series o, equivalentemente, trabajar con
variaciones porcentuales por periodo de los datos tambin
suelen aminorar los problemas de multicolinealidad.
Una tercera va para mitigar la colinealidad es trabajar con
las series previamente logaritmizadas.
Si se puede plantear el mismo problema con datos de corte
transversal se evita el problema de colinealidades por
correlacin espuria

8.5 Soluciones
Si una variable explicativa queda muy
determinada por el resto de variables
explicativas, se puede intentar excluirla del
modelo; sobre todo si el coeficiente de
determinacin del modelo permanece casi
igual despus de la exclusin.
El proceso puede repetirse de forma
ordenada y secuencial hasta eliminar un
nmero suficiente de variables.

14

8.5 Soluciones: Regresin alomada o en cresta (Ridge


Regression)
1
= ( XX + I ) XY

Delta es un parmetro con valores generalmente generalmente pequeos.


Estos estimadores fueron propuestos por Hoerl y Kennard (1970). Un primer
problema para su clculo es la determinacin del parmetro que puede
hacerse de la siguiente forma:
Para un enrejado de valores de (normalmente entre 0 y 1) se calculan los
estimadores i y se dibuja el grfico de estos valores frente a , para todos
los i = 1,..,k. En base a este grfico se escoge el menor valor de en el que
se observa que los estimadores i se estabilizan (toman aproximadamente el
mismo valor).

15

Resumen del tema 8

Multicolinealidad: Altas correlaciones entre las variables


explicativas.
-Debido a relaciones de causa-efecto entre ellas
-Debido a la tendencia y movimiento estacional
cuando los datos son series temporales

Resumen del tema 8


Colinealidad exacta: los datos de una o ms variables
(columnas de X) son combinaciones lineales de las otras.
-Rango(XX) < k y el modelo no se puede estimar
por MCO puesto que no existe la matriz inversa de XX
-Se puede intentar aadir ms datos y posiblemente
transformar la situacin en una de colinealidad aproximada
-Se pueden eliminar las variables establecidas como
combinacin lineal de las restantes.
-Para ello se sustituyen por dichas combinaciones
lineales y se obteniene un nuevo modelo cuyos parmetros
son combinaciones lineales de los antiguos llamadas
funciones estimables

16

Resumen tema 8
Colinealidad aproximada: Las
varianzas de los estimadores pueden
aumentar ostensiblemente
Las estimaciones son ms imprecisas.
Los contrastes son poco potentes y se
hace difcil el anlisis estructural.
No afecta a la determinacin del modelo
ni a su capacidad de prediccin.

Bibliografa

Johnston (1987:286-301); Mtodos de Econometra; Vicens


Vives
http://www.hrc.es/bioest/Reglin_15.html
http://www.monografias.com/trabajos10/promu/promu.shtml

17

You might also like