You are on page 1of 116

Anlisis de Regresin

Alfonso Novales
Departamento de Economa Cunatitativa
Universidad Complutense
20 de Septiembre de 2010
@Copyright Alfonso Novales
Contents
1 Momentos poblacionales: momentos de una distribucin de probabilidad. 4
1.1 Distribuciones marginales y condicionadas: Un ejemplo . . . . . . . . . . . . . . . . 8
1.2 Media, Varianza, Desviacin Tpica, Covarianza y Coeciente de correlacin muestrales: 8
1.3 Distribuciones condicionales e incondicionales en procesos temporales: El caso del
proceso autoregresivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2 El modelo de regresin lineal 11
2.1 El modelo de regresin lineal simple. . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2 Componentes del modelo de regresin . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.3 Supuestos del modelo de regresin lineal . . . . . . . . . . . . . . . . . . . . . . . . . 16
3 El estimador de Mnimos Cuadrados Ordinarios 19
3.1 Estimador de Mnimos Cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.1.1 Ecuaciones normales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.1.2 Expresiones para el estimador de Mnimos Cuadrados . . . . . . . . . . . . . 24
3.1.3 Regresin inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.1.4 Interpretacin del estimador de Mnimos Cuadrados . . . . . . . . . . . . . . 25
3.2 Ejemplo: Peso de bebs recin nacidos
1
. . . . . . . . . . . . . . . . . . . . . . . . . 25
3.2.1 Descripcin del ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.2 Caractersticas muestrales de las variables (archivo bwght.wf1) . . . . . . . . 27
3.2.3 Asociacin con la variable dependiente, peso del recin nacido. . . . . . . . . 28
3.2.4 Anlisis de regresin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.3 Ejemplo: Discriminacin salarial
2
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.3.1 Descripcion de los datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.3.2 Estadsticos descriptivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.3.3 Anlisis de regresin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1
Fichero de trabajo de EVIEWS: Bwght.wf1
2
Fichero de trabajo: Bwages.wf1. La base de datos Bwages.txt est tomada de los archivos que acompaan a
Kuleuven
1
4 Medidas de bondad de ajuste del modelo de regresin 35
4.1 Error Estndar de la Regresin (EER) . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.2 El coeciente de determinacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.3 Correlacin en el modelo de regresin lineal . . . . . . . . . . . . . . . . . . . . . . . 39
4.3.1 Propiedades de los residuos de Mnimos Cuadrados . . . . . . . . . . . . . . . 43
4.4 Esperanza matemtica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.4.1 Ausencia de sesgo del estimador de mnimos cuadrados . . . . . . . . . . . . 44
4.5 Matriz de covarianzas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.5.1 Varianza del estimador de mnimos cuadrados de la pendiente del modelo de
regresin lineal simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.6 Estimacin de la varianza del trmino de error o perturbacin aleatoria del modelo . 46
4.7 El modelo de regresin lineal en desviaciones respecto de la media . . . . . . . . . . 47
4.8 El modelo constante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.9 Eciencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.10 Cambios de escala y de origen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.10.1 Cambios de escala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.10.2 Cambios de origen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.11 Apndice: Varianza del estimador de mnimos cuadrados de la constante del modelo
de regresin lineal simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.11.1 Covarianza entre los estimadores de mnimos cuadrados de la constante y la
pendiente del modelo de regresin lineal simple . . . . . . . . . . . . . . . . . 55
4.11.2 Argumento alternativo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5 Contrastacin de hiptesis 56
5.1 Contrastes de hiptesis acerca del valor numrico de un slo coeciente . . . . . . . 57
5.1.1 Contrastes de dos colas (bilaterales) acerca del valor numrico de un solo
coeciente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.1.2 Contrastes de una cola (unilaterales) acerca del valor de un solo coeciente . 59
5.2 Signicacin estadstica versus relevancia econmica: . . . . . . . . . . . . . . . . . . 61
5.3 Apndice: Contrastacin de hiptesis . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
6 El estimador de Mnimos Cuadrados del modelo de regresin mltiple 64
6.1 Ejemplo: Ventas de un bien en funcin del precio propio y del gasto en publicidad
3
. 67
6.1.1 Algunas caractersticas de las variables . . . . . . . . . . . . . . . . . . . . . . 67
6.1.2 Qu variable explicativa es ms relevante? . . . . . . . . . . . . . . . . . . . 69
6.2 Grado de ajuste del modelo de regresin lineal mltiple . . . . . . . . . . . . . . . . 71
6.3 Coeciente de determinacin ajustado . . . . . . . . . . . . . . . . . . . . . . . . . . 73
6.3.1 Ejemplo: peso de bebs recin nacidos . . . . . . . . . . . . . . . . . . . . . . 73
6.4 Ejemplo: Discriminacin salarial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
6.4.1 Capacidad explicativa adicional . . . . . . . . . . . . . . . . . . . . . . . . . . 76
6.4.2 Aporta la variable Experiencia informacin acerca de la determinacin salar-
ial, adicional a la que continen el nivel educativo y el sexo del trabajador? . . 77
6.5 Ejemplo 15.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
6.6 Relacin entre estimadores de Mnimos Cuadrados en la regresin simple y la regre-
sin mltiple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3
Fichero de trabajo: Ventas.wf1. Fichero de Excel: Ventas.xls.
2
6.7 Coecientes de correlacin (o de determinacin) y estadsticos t . . . . . . . . . . . . 79
6.7.1 Aplicacin: Adicin de variables a un modelo de regresin . . . . . . . . . . . 80
6.8 Estimacin de efectos individuales en una regresin mltiple . . . . . . . . . . . . . . 80
6.9 Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6.9.1 Extraccin de tendencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6.9.2 Desestacionalizacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6.10 Correlacin parcial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
6.11 Relacin entre coecientes de correlacin (y de determinacin) simple y parcial . . . 85
6.12 Ejemplo: Ventas de un bien en funcin del precio y del gasto en publicidad . . . . . 86
7 Colinealidad entre variables explicativas en el modelo de regresin 88
7.1 Consecuencias de la colinealidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
7.2 Deteccin de la colinealidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
7.3 Qu hacer en presencia de colinealidad? . . . . . . . . . . . . . . . . . . . . . . . . . 90
7.4 Ejemplo: Ventas de un bien en funcin del precio y del gasto en publicidad . . . . . 90
7.4.1 Regresiones simples cruzadas . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
7.4.2 Tratamiento de la colinealidad . . . . . . . . . . . . . . . . . . . . . . . . . . 91
8 Efectos individuales y efectos globales 93
8.1 Omisin de variables relevantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
8.2 Inclusin de variables irrelevantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
8.3 Estimacin insesgada de efectos parciales y totales . . . . . . . . . . . . . . . . . . . 95
8.4 Ejemplo: Ventas de un bien en funcin del precio propio y del gasto en publicidad . 96
9 Contrastes de restricciones generales 98
9.1 Contraste de signicacin global del modelo (Anlisis ANOVA) . . . . . . . . . . . . 101
10 Contrastes de cambio estructural 101
10.1 Test de estabilidad estructural de Chow . . . . . . . . . . . . . . . . . . . . . . . . . 102
10.2 Variables cticias en la modelizacin del cambio estructural . . . . . . . . . . . . . . 103
10.3 Variables cticias y cambio estructural . . . . . . . . . . . . . . . . . . . . . . . . . . 104
10.4 Estadsticos CUSUM y CUSUMSQ
4
. . . . . . . . . . . . . . . . . . . . . . . . . . . 105
10.5 Ejemplo: Discriminacin salarial: contraste de discriminacin salarial mediante vari-
ables cticias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
10.5.1 Aspectos concretos de discriminacin salarial . . . . . . . . . . . . . . . . . . 107
10.5.2 Existe evidencia de desigual remuneracin de la educacin entre hombres y
mujeres? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
10.5.3 Discriminacin salarial como cambio estructural . . . . . . . . . . . . . . . . 111
10.5.4 Especicaciones con variables cticias: contrastes de homogeneidad salarial
entre grupos de trabajadores . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
10.5.5 Homogeneidad del modelo de salarios para distintos niveles educativos . . . . 112
10.5.6 Variables cticias y colinealidad perfecta . . . . . . . . . . . . . . . . . . . . . 116
4
En el caso de una regresin mltiple, las expresiones de la varianza del residuo recursivo que aparecen en esta
seccin son ms complejas. Sin embargo, la construccin de los estadsticos, su interpretacin y la resolucin de los
contrastes de estabilidad son iguales a los que aqu se presentan.
3
1 Momentos poblacionales: momentos de una distribucin
de probabilidad.
Toda variable aleatoria est caracterizada por su distribucin de probabilidad, que no es sino el
conjunto de valores posibles de la variable aleatoria, acompaados de sus respectivas probabilidades.
El modo en que se representa la distribucin de probabilidad depende de que la variable aleatoria
en cuestin sea de naturaleza discreta o continua.
Si denotamos por 1(r
I
) la masa de probabilidad en cada punto r
I
del soporte de la distribucin
de probabilidad de una variable aleatoria A, (conjunto de valores posibles de la variable aleatoria
A), y por )(r
I
) la funcin de densidad que la representa, cuando sta existe (distribuciones de tipo
continuo), la esperanza matemtica de la variable A se dene:
1(A) = j
r
=
_
1
1
r)(r)dr;
si la medida de probabilidad es continua, o:
1(A) = j
r
=

ri
r
I
d1(r
I
)
si la medida de probabilidad es discreta. En este ltimo caso, r
I
denota cada uno de los valores
posibles de la variable aleatoria A, en nmero nito o no.
La mediana : est denida por el punto del soporte valor numrico para el cual se cumple:
_
n
1
)(r)dr =
1
2
en el caso de una variable aleatoria o distribucin de probabilidad continuas, y:
'cd(A) = inf
_
: [
n

ri
d1(r
I
) =
1
2
_
en el caso de una variable discreta. Esta formulacin de la denicin se debe a que en distribu-
ciones discretas puede aparecer alguna ambigedad en su clculo.
La moda es el valor ms probable de una distribucin, es decir, el punto r
1
del soporte de
la distribucin, tal que:
1(A = r
1
) _ 1(A = r) \r ,
La moda puede no ser nica. No existen condiciones bajo las cuales la mediana o la moda deban
preferirse a la esperanza matemtica como medida representativa de la distribucin, pero hay que
considerar tal posibilidad, dependiendo de las caractersticas de la distribucin de probabilidad.
La esperanza matemtica [suma de los valores numricos ponderada por probabilidades] de las
desviaciones entre los valores del soporte de la distribucin y su esperanza matemtica es igual a
cero:
1(A j
r
) = 1(A) 1(j
r
) = j
r
j
r
= 0
4
El valor numrico que minimiza la expresin: 1
_
(A a)
2
_
es: a = j
r
. El valor minimizado es
la varianza de A.
El valor numrico que minimiza la expresin: E([ A a [) es: a = :.
La varianza de una variable aleatoria (cuando existe), es la esperanza matemtica del cuadrado
de las desviaciones entre los valores de la variable y su esperanza matemtica:
o
2
r
= 1 (A j
r
)
2
=
_
1
1
(r j
r
)
2
)(r)dr
o
2
r
=

ri
(r
I
j
r
)
2
d1(r
I
)
en distrib uciones continuas y discretas, respectivamente.
La varianza puede escribirse tambin:
o
2
r
= 1
_
(A j)
2
_
= 1
_
A
2
2jA +j
2
_
= 1
_
A
2
_
j
2
o
2
r
=

ri
(r
I
j
r
)
2
d1(r
I
) =

ri
r
2
I
d1(r
I
) 2

ri
r
I
j
r
d1(r
I
) +

ri
j
2
r
d1(r
I
) =
=

ri
r
2
I
d1(r
I
) 2j
r

ri
r
I
d1(r
I
) +j
2
r

ri
d1(r
I
) = 1(r
2
I
) 2j
2
r
+j
2
r
= 1(r
2
I
) j
2
r
Como en muchas ocasiones se quiere poner dicho indicador en relacin con el valor medio de la
variable, se preere un indicador que tenga unidades comparables a las de la rentabilidad por lo
que, cuando hablamos de volatilidad solemos referirnos a la desviacin tpica: raz cuadrada de la
varianza, tomada con signo positivo:
1T(A) = o
r
=
_
o
2
r
Otros momentos poblacionales son:
Coc)icic:tc dc ariaci o: = 100
o
r
j
r
que considera la desviacin tpica (volatilidad) como porcentaje del nivel alrededor del cual
ucta la variable, lo cual es til al comparar la volatilidad de variables que tienen una esperanza
matemtica diferente; por ej., al comparar la volatilidad de dos ndices burstiles distintos.
Coc)icic:tc dc a:i:ctria =
1
_
(r j
r
)
3
_
o
3
r
que es positivo cuando la distribucin es asimtrica hacia la derecha, en cuyo caso la moda es
inferior a la mediana, y sta es, a su vez, inferior a la media aritmtica. El coeciente de asimetra
es negativo cuando la distribucin es asimtrica hacia la izquierda, en cuyo caso la moda es mayor
que la mediana, y sta es, a su vez, superior a la media aritmtica. Toda distribucin simtrica
tiene coeciente de asimetra igual a cero.
Coc)icic:tc dc cnrto:i: =
1
_
(r j
r
)
4
_
o
4
r
5
tambin llamado coeciente de apuntamiento, es un indicador del peso que en la distribucin
tienen los valores ms alejados del centro. Toda distribucin Normal tiene coeciente de curtosis
igual a 3. Un coeciente de curtosis superior a 3 indica que la distribucin es ms apuntada que la
de una Normal teniendo, en consecuencia, menos dispersin que dicha distribucin. Se dice entonces
que es leptocrtica, o apuntada. Lo contrario ocurre cuando el coeciente de curtosis es superior a
3, en cuyo caso la distribucin es platicrtica o aplastada. A veces se utiliza el Coeciente de exceso
de curtosis, que se obtiene restando 3 del coeciente de curtosis.
La covarianza entre dos variables mide el signo de la asociacin entre las uctuaciones que
experimentan ambas. Esencialmente, nos dice si, cuando una de ellas est por encima de su valor
de referencia, p.ej., su media, la otra variable tiende a estar por encima o por debajo de su respectiva
media:
Co(A, 1 ) = 1 [(A 1A)(1 11 )] = 1(A1 ) 1(A)1(1 )
Siempre se cumple que:
Co(A, 1 ) = 1 [A(1 11 )] = 1 [(A 1A)1 ]
Cuando alguna de las dos variables tiene esperanza cero, entonces:
Co(A, 1 ) = 1 (A1 )
El coeciente de correlacin lineal entre dos variables es el cociente entre su covarianza, y el
producto de sus desviaciones tpicas:
Corr(A, 1 ) =
Co(A, 1 )
_
\ ar(A)
_
\ ar(1 )
Mientras que la covarianza puede tomar cualquier valor, positivo o negativo, el coeciente de
correlacin solo toma valores numricos entre -1 y +1. Esto ocurre porque, por la desigualdad de
Schwarz, la covarianza est acotada en valor absoluto por el producto de las desviaciones tpicas de
las dos variables.
Un caso importante es el de la covariacin entre los valores de una variable con sus propios
valores pasados. As, tenemos, para cada valor entero de /:

|
= Co(A
|
, A
||
), / = 0, 1, 2, 3, ...
sucesin de valores numricos que congura la funcin de autocovarianza de la variable A
|
, as
como su funcin de autocorrelacin:
j
|
=
Co(A
|
, A
||
)
\ ar(A
|
)
=

|

0
El primer valor de la funcin de autocovarianza,
0,
es igual a la varianza de la variable. El
primer valor de su funcin de autocorrelacin, j
0
, es siempre igual a 1.
Dos variables aleatorias son independientes si su funcin de densidad conjunta es igual al pro-
ducto de sus funciones de densidad marginales:
)(r, j) = )
1
(r).)
2
(j)
6
dentro del rango de variacin de ambas variables.
En el caso de distribuciones discretas (aqullas en las que la variable en estudio toma valores en
un conjunto discreto de puntos, que puede ser innito), dos distribuciones son independientes si:
1(A = r, 1 = j) = 1(A = r).1(1 = j)
En general, en el caso continuo, la funcin de densidad de una variable 1 , condicionada en otra
variable A viene dada por:
)(j,r) =
)(r, j)
)
2
(r)
pudiendo denirse de modo similar la funcin de densidad de la variable A, condicionada por
la variable 1 .
En el caso discreto, se tiene:
1(1 = j,A = r) =
1
Y
(A = r, 1 = j)
1
Y
(1 = j)
Ver Ejemplo 1.
Es fcil probar que si dos variables aleatorias son independientes, entonces su covarianza es cero.
La varianza de una suma o de una diferencia de dos variables aleatorias es:
\ ar(A +1 ) = \ ar(A) +\ ar(1 ) + 2Co(A, 1 )
\ ar(A 1 ) = \ ar(A) +\ ar(1 ) 2Co(A, 1 )
de modo que solo si ambas variables son independientes se tiene que la varianza de su suma es
igual a la varianza de su diferencia:
\ ar(A +1 ) = \ ar(A) +\ ar(1 )
En tal caso, el riesgo (medido por la desviacin tpica) de una cartera sera funcin de las
ponderaciones con que entran en ella cada uno de los activos que la conguran y del riesgo de cada
uno de dichos activos, pero no dependera de si la posicin adoptada en cada activo es corta o larga,
es decir, de si estamos comprados o vendidos en cada uno de ellos.
Estas expresiones pueden extenderse anlogamente a cualquier combinacin lineal de: variables.
Un ejemplo sera la suma de dichas : variables.
Desigualdad de Chebychev:
1 [q(A)] =
_
1
1
q(r))(r)dr _ -
2
_
S
)(r)dr
siendo o el conjunto de puntos del soporte de A donde la funcin q es superior o igual a -
2
. Por
tanto,
1 [q(A)] _ -
2
_
S
)(r)dr = -
2
1
_
q(A) _ -
2

y, nalmente:
1
_
q(A) _ -
2

_
1 [q(A)]
-
2
7
1.1 Distribuciones marginales y condicionadas: Un ejemplo
Consideremos la distribucin de probabilidad bivariante,
A
1
2 1 0 1 2
A
2
1 2,24 0 2,24 4,24 0
0 0 1,24 2,24 0 2,24
2 0 3,24 2,24 0 6,24
donde A
1
puede tomar valores -2,-1,0,1,2, mientras que A
2
puede tomar valores -1, 0,2. El
cuadro recoge probabilidades; por ejemplo, 1 [A
1
= 1, A
2
= 0] = 1,24. Las 15 probabilidades del
cuadro suman 1.
La distribucin marginal de A
1
es,
\ a|orc: dc A
1
2 1 0 1 2
Pr o/a/i|idadc: 2,24 4,24 6,24 4,24 8,24
con 1(A
1
) = 1,2, \ ar(A
1
) = 1,28,siendo la distribucin de A
2
,
\ a|orc: dc A
2
1 0 2
Pr o/a/i|idadc: 8,24 5,24 11,24
con 1(A
2
) = 7,12, \ ar(A
2
) = 263,144.
La distribucin d eprobabilidad de A
1
condicional en un valor numrico de A
2
es,
\ a|orc: dc A
1
2 1 0 1 2
Si A
2
= 1 1,4 0 1,4 1,2 0
Si A
2
= 0 0 1,5 2,5 0 2,5
Si A
2
= 2 0 3,11 2,11 0 6,11
con 1(A
1
,A
2
= 1) = 0, 1(A
1
,A
2
= 0) = 3,5, 1(A
1
,A
2
= 2) = 9,11.
Luego 1(A
1
,A
2
) es una variable aleatoria que toma valores 0, 3/5, 9/11, con probabilidades
respectivas: 8/24, 5/24, 11/24. Por tanto, su esperanza matemtica es 1/2, que coincide con 1(A).
Este es un resultado general, pues siempre se tiene,
1 [1 (A
1
,A
2
)] = 1(A
1
)
Las dos variables que hemos analizado no son independientes, pues ninguna de ellas satisface la
condicin de que su distribucin marginal coincida con su distribucin condicionada en cualquier
valor de la otra. Dicho de otro modo, el valor que toma una variable A
2
es informativo acerca de
los posibles valores de la otra variable A
1
.
1.2 Media, Varianza, Desviacin Tpica, Covarianza y Coeciente de
correlacin muestrales:
En general, contamos con observaciones histricas acerca de una o varias variables (precios, rentabil-
idades, etc.) y queremos calcular medidas de posicin central, de dispersin y de correlacin con el
objeto de resumir las propiedades bsicas de dichos datos.
El conjunto de datos observados dene un histograma de frecuencias, o distribucin muestral
de frecuencias, que contiene toda la informacin disponible acerca de la variable considerada. Un
histograma de frecuencias es similar a una distribucin de frecuencias, pero es diferente de ella.
Para entender la diferencia entre ambos, hemos de comprender el concepto de proceso estocstico,
y el modo de utilizarlo en el anlisis de datos de series temporales.
8
Un proceso estocstico A
|
, t = 1, 2, 3, ...es una sucesin de variables aleatorias, indexadas por la
variable tiempo. Las variables aleatorias pueden ser independientes entre s o no, y pueden tener
la misma distribucin de probabilidad, o una distribucin de probabilidad diferente.
Cada dato de una serie temporal debe interpretarse como una muestra de tamao 1 de la
distribucin de probabilidad correspondiente a la variable aleatoria de ese instante. Por ej., el
dato de cierre del IBEX35 (suponiendo que disponemos de datos de cierre diarios) de hoy es una
realizacin, es decir, una muestra de tamao 1 de la variable aleatoria precio de la cesta IBEX35
(como ndice) el da de hoy. La distribucin de probabilidad de esta variable puede ser diferente
de la variable aleatoria IBEX35 hace un ao por tener, por ejemplo, una esperanza matemtica
menor, una volatilidad mayor, o no ser Normal, mientras que hace un ao s lo era.
Vamos a suponer inicialmente que las variables A
|
tienen todas la misma distribucin de prob-
abilidad, y son independientes entre s. Este es el caso ms sencillo, y constituye un proceso de
ruido blanco. Slo en este caso est totalmente justicado la utilizacin de momentos muestrales
como caractersticas de la variable A. Esta observacin debe servir como llamada de atencin
al lector, dada la excesiva frecuencia con que se calculan estadsticos muestrales, calculados con
datos histricos, para representar caractersticas de una variable; por ej., la desviacin tpica de la
rentabilidad burstil de un determinado mercado.
Las medidas de posicin central y dispersin anlogas a la esperanza, varianza y desviacin
tpica son:
r =

n
I=1
r
I
:
; o
2
r
=

n
I=1
(r
I
r)
2
: 1
; 1T
r
= o
2
r
mientras que la covarianza y coeciente de correlacin muestrales son:
Co(A, 1 ) =
1
T
T

|=1
(r
|
r) (j
|
j) =
1
T
T

|=1
r
|
j
|
r j
La media, varianza, mediana, covarianza y coeciente de correlacin muestrales satisfacen
propiedades similares a las ya mencionadas para sus anlogos poblacionales. Entre ellas:
La suma de las desviaciones de la variable respecto de su media, es igual a cero:
n

I=1
(r
I
r) =
n

I=1
r
I

I=1
r = : r : r = 0
Como consecuencia de lo anterior, la media muestral de las diferencias r
I
r, i = 1, 2, ..., : es
igual a cero.
Si una de las dos variables, A o 1 tiene esperanza cero, tenemos:
Co(A, 1 ) =
1
T
T

|=1
r
|
j
|
= 1(A1 )
La varianza de A puede escribirse:
1
:
n

I=1
(r
I
r)
2
=
1
:
n

I=1
r
2
I
2
1
:
n

I=1
r
I
r +
1
:
n

I=1
r
2
=
1
:
n

I=1
r
2
I
r
2
9
Al igual que en el caso de una distribucin de probabilidad, otras medidas utilizadas en la
representacin de una muestra son:
Coc)icic:tc dc ariaci o: = 100
1T
r
r
Coc)icic:tc dc a:i:ctria =
1
T

T
|=1
(r
|
r)
3
1T
3
r
Coc)icic:tc dc cnrto:i: =
1
T

T
|=1
(r
|
r)
4
1T
4
r
siendo T el tamao muestral.
El recorrido o rango es la diferencia entre el mayor y el menor valor observados de una variable.
Los cuartiles son los datos que dividen a la muestra, una vez ordenada crecientemente, en cuatro
submuestras de igual tamao (aproximadamente). El segundo cuartil es la mediana. El rango
intercuartlico es la distancia entre los cuartiles primero y tercero. Estos estadsticos tienen la
virtud de no verse afectados por la presencia de valores atpicos. De modo anlogo se denen los
deciles y percentiles.
En una variable temporal, las funciones de autocovarianza y autocorrelacin muestrales se de-
nen:

|
= Co(A
|
, A
||
) =
1
T
T

|=|+1
(r
|
r) (r
||
r)
j
|
= Corr(A
|
, A
||
) =
Co(A
|
, A
||
)
_
o
2
r
_
o
2
r
=
1
T

T
|=|+1
r
|
r
||
r
2
o
2
r
siendo siempre:
0
= \ ar(A
|
) y j
0
= 1.
1.3 Distribuciones condicionales e incondicionales en procesos tempo-
rales: El caso del proceso autoregresivo
Especialmente interesante en el anlisis de datos nancieros es el modelo autoregresivo,
j
|
= c
0
+c
1
j
|1
+n
|
, 1 < c
1
< 1
donde suponemos que n
|
es un proceso sin autocorrelacin (correlacin temporal consigo mismo).
Es decir, Corr(n
|
, n
||
) = 0 \/.
En estas condiciones, si n
|
sigue una distribucin Normal n
|
~ (0, o
2
u
), entonces j
|
sigue una
distribucin
j
|
~ (
c
0
1 c
1
,
o
2
u
1 c
2
1
)
Esta es la distribucin marginal o incondicional, de j
|
.
Por otra parte, condicional en la historia pasada de j
|
, sin incluir el dato de fecha t, la dis-
tribu8in de probabilidad condicional de j
|
es,
10
j
|
~ (c
0
+c
1
j
|1
, o
2
u
)
que tiene una menor varianza. De hecho, la varianza incondicional de j
|
es tanto mayor cuanto
ms se acerque el parmetro c
1
a 1, creciendo dicha varianza sin lmite. Sin embargo, la varianza
condicional es siempre o
2
u
, con independencia del valor numrico del parmetro c
1
.
La varianza condicional de j
|
es igual a la varianza de n
|
, o
2
u
, mientras que la varianza incondi-
cional de j
|
es siempre mayor que o
2
u
.
Adems,
1(j
|
,j
|1
) = c
0
+c
1
j
|1
; 1(j
|
) =
c
0
1 c
1
2 El modelo de regresin lineal
El objeto bsico de la Econometra consiste en especicar y estimar un modelo de relacin
entre las variables econmicas relativas a una determinada cuestin conceptual. Por ejemplo, para
conocer en profundidad el comportamiento del consumo privado agregado de un pas, ser preciso
especicar y estimar un modelo de relacin entre observaciones temporales de consumo privado
y renta disponible. De modo similar, para analizar si la expansin monetaria en un pas ha sido
inacionista, ser preciso especicar y estimar un modelo de relacin entre las tasas de inacin y
las tasas de crecimiento histricas de algn agregado monetario. En su forma ms general y, por
tanto, ms abstracta, tal modelo de relacin puede representarse como:
1 = )(A
1
, A
2
, A
3
, ..., A
|
; ,)
donde 1 es la variable cuyo comportamiento se pretende explicar, y A
1
, A
2
, ..., A
|
son las dis-
tintas variables que se suponen potencialmente relevantes como factores explicativos de la primera.
El vector denota una lista de parmetros que recogen la magnitud con que las variaciones en los
valores de las variables A
I
se transmiten a variaciones en la variable 1 .
Vamos a limitarnos aqu al estudio de modelos de relacin o modelos de regresin lineales,
es decir, del tipo:
1 = ,
0
+,
1
A
1
+,
2
A
2
+,
3
A
3
+... +,
|
A
|
en el que resulta evidente que los parmetros transmiten directamente efectos inducidos por los
valores de las variables A
I
sobre la variable 1 , que se pretende explicar.
La estimacin de tales relaciones se efecta a partir de informacin muestral acerca de los
valores tomados por 1, A
1
, A
2
, ..., A
|
, y trata de cuanticar la magnitud de la dependencia entre
ellas.
Con objeto de ganar precisin y aprender ms acerca del proceso de relacin entre las variables
consideradas querremos evaluar crticamente la validez de las hiptesis propuestas por la Teora
Econmica acerca de las relaciones estimadas que, en ocasiones, consistirn en si determinada
variable explicativa entra o no en la relacin que se analiza, o si aparece con un determinado
coeciente, por ejemplo, 1 -1. Ejemplos del primer tipo son las cuestiones:
1) Inuye el dcit sobre los tipos de inters?
2) Afecta el precio de la competencia a la demanda de nuestro producto?
mientras que ejemplos del segundo tipo son:
11
3) Es el crecimiento monetario neutral, es decir, incide con coeciente unitario sobre la
inacin?
4) Tiene la demanda de nuestro producto elasticidad-precio unitaria? es decir, el efecto
de un aumento de un 10% en el precio es una cada del 10% en la demanda?
Estos son problemas de inferencia estadstica, similares a los que resolvimos para contrastar
hiptesis acerca de la esperanza o la varianza, desconocidas, de una determinada distribucin de
probabilidad. Por ltimo, especialmente en cuestiones macroeconmicas, estaremos interesados en
efectuar un ejercicio de seguimiento coyuntural y de previsin de las variables analizadas. Todo
ello puede realizarse de modo riguroso mediante la utilizacin de procedimientos economtricos que
vamos a estudiar en ste y en los dos prximos captulos.
As, mediante mtodos economtricos, el analista econmico puede tratar de responder a
preguntas como:
1) cules son los determinantes de la tasa de inacin?
2) sobre la base de la informacin histrica disponible, cul es la importancia cuantitativa
de cada uno de dichos determinantes?
3) podemos contrastar algunas de las implicaciones de la Teora Econmica acerca del efecto
que variables como el crecimiento monetario tienen sobre la tasa de inacin?
4) qu sugiere el modelo que hemos estimado para la tasa de inacin acerca del compor-
tamiento de esta variable durante el prximo ao?
Es crucial que el analista econmico:
a) comience delimitando muy claramente la cuestin terica que va a ser el centro de su
ejercicio emprico,
b) a continuacin, debe tratar de identicar cul es la variable cuyo comportamiento pre-
tende explicar, y cules son sus determinantes potenciales. Denominamos a este proceso especi-
cacin de un modelo de relacin entre variables econmicas. Como parte del proceso de especi-
cacin, el investigador toma posicin acerca de qu variable inuye sobre cul, es decir, propone
una relacin causal. A diferencia del anlisis que pudo efectuarse mediante un coeciente de cor-
relacin, que no descansa en una determinada direccin en la relacin entre dos variables, un anlisis
de regresin en Econometra supone que una variable A inuye sobre otra variable 1 , y no al revs;
c) luego, el analista debe escoger cuidadosamente la informacin estadstica relevante para
cuanticar tal relacin, y
d) debe proceder a su cuanticacin, es decir, debe estimar los parmetros desconocidos que
aparecen en la relacin antes especicada;
e) por ltimo, utilizar el modelo de relacin estimado, ya sea a efectos de contrastacin de
algn supuesto terico, mediante un proceso de inferencia, o como elemento de anlisis y seguimiento
de la variable cuyo comportamiento escogi explicar.
2.1 El modelo de regresin lineal simple.
Vamos a limitarnos inicialmente al estudio del denominado modelo de regresin lineal simple,
que considera una sola variable explicativa A:
1 = ,
0
+,
1
A (1)
En aplicaciones prcticas disponemos de una muestra de observaciones de ambas variables,
y el modelo anterior sugiere que la relacin entre las dos variables se satisface para cada una
de las observaciones correspondientes. En algunas ocasiones especicaremos modelos de relacin
12
como (1) con el objeto de estimar el comportamiento de determinados agentes econmicos. Un
ejemplo importante consiste en entender la evolucin del consumo agregado del sector privado de
una economa real. En algunos casos se tratar de una muestra de datos temporales, y tendremos
una relacin del tipo (1) para cada instante de tiempo. Para ello, consideraramos el modelo:
C
|
= ,
0
+,
1
1
|
, t = 1, 2, ..., T
donde 1
|
denota el PIB del pas, o la renta disponible del sector privado (renta total, menos
impuestos, ms transferencias), segn el alcance que se quiera dar al anlisis. Los subndices t hacen
clara referencia al hecho de que ste ser un modelo a estimar con datos de series temporales. El
coeciente ,
1
indica la variacin que experimenta el consumo privado del pas al variar, a lo largo
del ciclo econmico, la variable renta que hayamos incorporado como variable explicativa en (1).
En otros casos se dispondr de una muestra de seccin cruzada o de datos transversales, y
tendremos una relacin como (1) para cada una de las unidades muestrales que, en datos transver-
sales, estn constituidas por familias, empresas, pases, comunidades autnomas, etc.. Por ejemplo,
si disponemos de datos de observaciones de consumo y renta disponible de un conjunto de familias,
podramos especicar:
C
I
= ,
0
+,
1
1
I
, i = 1, 2, ..., : (2)
siendo ste un modelo en que la interpretacin del coeciente ,
1
sera ahora diferente de la
que hicimos con datos de series temporales; en tal caso, ,
1
nos proporciona el incremento que se
produce en el gasto en consumo de una familia cuando aumenta su renta. No tendra ninguna
connotacin temporal, pues no hemos utilizado datos de tal tipo. De hecho, si dispusisemos de dos
muestras de seccin cruzada, de las mismas familias, pero obtenidas en distintos momentos de un
ciclo econmico, bien podra ocurrir que la estimacin del coeciente ,
1
variase signicativamente
entre ambas muestras.
En otras ocasiones, se pretende estimar una relacin que no es de comportamiento, sino
que reeja, ms bien, un determinado proceso econmico, como pueda ser la produccin de bienes.
As, un modelo como:
C
|
= ,
0
+,
1
1
|
+,
2
1
|
, t = 1, 2, ..., T
podra interpretarse como la linealizacin de una funcin de produccin agregada del tipo Cobb-
Douglas para una determinada economa real, en la que los coecientes ,
1
y ,
2
seran las elastici-
dades de produccin de ambos inputs. En este caso, necesitaramos un modelo de regresin algo
ms complejo que el modelo de regresin simple, que incluya varias variables explicativas.
El problema que nos interesa en economa estriba en la estimacin de los valores numricos
de los dos coecientes del modelo de regresin, por ejemplo, ,
0
y ,
1
en (2), as como en la posibilidad
de contrastar hiptesis acerca de sus verdaderos valores numricos, que son desconocidos.
2.2 Componentes del modelo de regresin
Por razones de exposicin, y sin prdida alguna de generalidad, suponemos en lo sucesivo que
disponemos de una muestra de seccin cruzada, y mantenemos el criterio notacional que venimos
utilizando, designando con maysculas las variables genricas con las que trabajamos: 1, A, y
por minsculas las observaciones numricas incluidas en las muestras: j
1
, j
2
, ..., j
n
, r
1
, r
2
, ..., r
n
.
Denotamos el modelo de regresin, como relacin entre las variables: 1 = ,
0
+,
1
A, mientras que
13
denotamos la relacin entre cada par de observaciones por: j
I
= ,
0
+ ,
1
r
I
. Resulta evidente que
es imposible que una relacin como (1) se satisfaga para todas y cada una de las observaciones:
i = 1, 2, ..., :. Si ello ocurriese, podramos sustituir las dos primeras observaciones muestrales de
ambas variables en (1), y determinar exactamente los valores de los coecientes ,
0
y ,
1
:
j
1
= ,
0
+,
1
r
1
j
2
= ,
0
+,
1
r
2
obteniendo las estimaciones de dichos coecientes con tan slo estas dos observaciones mues-
trales. Sin embargo, no debe sorprendernos que al incorporar los valores numricos de ambos
coecientes, junto con los de las variables 1 y A correspondientes a la tercera observacin en (1),
j
3
= ,
0
+,
1
r
3
, la relacin no se cumpla, salvo por una enorme casualidad.
Queda claro, por tanto, que no es obvio cmo obtener estimaciones de los coecientes
del modelo lineal simple a partir de una determinada muestra de T observaciones temporales, o
n observaciones de seccin cruzada. A ello dedicaremos algunas de las siguientes secciones. En
cualquier caso, nos enfrentamos a una aparente paradoja: el modelo (1) no se satisfar para todas
las observaciones muestrales, no importa qu valores numricos asignemos a sus coecientes ,
0
y
,
1
. Por ello, no consideramos exactamente el modelo (1), sino una variante del mismo:
j
I
= ,
0
+,
1
r
I
+n
I
, i = 1, 2, 3, ..., :
donde la ltima variable, n
I
, denominada perturbacin estructural o trmino de error del modelo
de regresin no es observable, y permite explicar las diferencias entre los dos miembros de la igualdad
en (1). El problema de inters estriba en la estimacin de los dos coecientes en el modelo (2),
cuando se dispone de una muestra de observaciones para las variables 1
I
y A
I
, aunque sin disponer
de observaciones de la variable n
I
.
La variable cuyo comportamiento se pretende explicar, 1
I
, recibe el nombre de variable
dependiente, mientras que la variable A
I
recibe el nombre de variable independiente. En ocasiones,
tambin se denomina a 1
I
variable endgena o variable a explicar, mientras que a A
I
se le denomina
variable exgena o explicativa. Los coecientes ,
0
y ,
1
se denominan trmino constante y pendiente
del modelo de regresin simple, respectivamente.
La perturbacin aleatoria o trmino de error del modelo economtrico es una variable
no observable para la que, en consecuencia, no dispondremos nunca de observaciones muestrales.
Suponemos que su distribucin de probabilidad, que puede ser diferente para distintas observaciones
muestrales, es independiente de los valores tomados por la variable A
I
. Su interpretacin es diversa:
a) en primer lugar, puede contener otras variables explicativas que, aun siendo relevantes,
no acertamos a especicar;
b) tambin pudiera ser que, aun siendo conscientes de la existencia de tales variables, no
dispusiramos de observaciones muestrales para las mismas;
c) por ltimo, el trmino de error puede estar reejando errores de medida en la variable
dependiente 1
I
, que suelen surgir porque las variables que utilizamos en la estimacin reejan
aproximadamente, pero no exactamente, los conceptos que querramos incorporar en el modelo.
En el caso de la funcin de consumo anterior, es difcil en la prctica disponer de datos
precisos acerca de los gastos en consumo de una determinada familia: en primer lugar, el consumo
es un ujo, y la recogida de datos en un determinado instante de tiempo puede producir todo tipo
de distorsiones en dicha variable. Para evitar este tipo de dicultades, en ocasiones, se utiliza como
14
variable de consumo el resultado de sustraer de los ingresos declarados por la familia, el ahorro
realizado durante el perodo.
Una vez estimados los coecientes ,
0
y ,
1
en (2), tendramos una ecuacin lineal, una recta,
entre el gasto en consumo y la renta de un conjunto de familias, denominada recta de regresin.
La recta de regresin proporciona la mejor relacin existente entre las variables 1 y A,
en el caso de una regresin simple, o entre la variable dependiente, 1 y el conjunto de variables
explicativas, en una regresin lineal mltiple. Es tentador interpretar la recta de regresin como
si nos proporcionase el valor esperado de 1 condicional en los valores que pueda tomar la variable
A. El concepto de esperanza condicional es, desde luego, muy importante en el anlisis estadstico
de datos econmicos. Por ejemplo, un banco central puede estar interesado en un determinado
momento en estimar la trayectoria que seguira la tasa de inacin condicional a que dicho banco
siga una poltica monetaria restrictiva. Querra asimismo caracterizar la trayectoria esperada de la
inacin condicional a que se ponga en prctica una poltica monetaria expansiva, y as comparar
ambas trayectorias esperadas, y escoger la poltica monetria acorde a la senda de inacin preferible.
De modo simple, este es un ejemplo del importante problema de diseo de poltica monetaria.
Los modelos economtricos pueden ayudar en este tipo de situaciones. Una vez estimados los
coecientes ,, disponemos de valores numricos para ellos, y jando una senda numrica para A
(tasa de crecimiento monetario) podemos calcular una senda numrica para 1 (tasa de inacin).
Este ejercicio tambin se conoce como prediccin por escenarios. Se trata de establecer sendas o
escenarios alternativos para A, cuyos efectos se quieren comparar entre s, estimar la senda de 1
bajo cada uno de dichos escenarios, y calcular el resultado econmico o de cualquier otro tipo.
El mismo esquema aplica a la gestin de la empresa, o en muchos contextos nancieros. Por
ejempo, una empresa se est planteando la conveniencia de dos polticas de publicidad alternativa,
una de bajo y otra de alto coste. Si, utilizando datos histricos, estima un modelo de regresin que
explique las cifras de ventas (1 ) utilizando el gasto en publicidad (A) durante los ltimos 40 aos,
puede utilizar el modelo estimado para calcular aproximadamente las ventas que puede esperar
bajo cada una de las dos polticas de publicidad. A continuacin, un sencillo clculo, aplicando
los mrgenes con que opera a las cifras de ventas estimadas y sustrayendo el coste de la campaa
publicitaria, podr decidir la preferencia por una u otra de las dos campaas.
Existe una limitacin, sin embargo, y es que si recordamos el concepto de esperanza condicional,
sabemos que dicha esperanza condicional es, en general, una funcin no lineal. Es decir, para
calcular el valor esperado de 1 para un determinado valor numrico de A, deberamos utilizar la
esperanza de la distribucin de 1 condicional en A , y sta es, en general, una funcin no lineal.
Cuando ambas variables, 1 y A, tienen una distribucin conjunta Normal, entonces, la esperanza
condicional es una funcin lineal, pero no lo es en cualquier caso. Si no aceptamos la Normalidad
de la distribucin conjunta, entonces la regresin slo se puede entender como una aproximacin a
la esperanza condicional de 1, dado A.
Por tanto, en este captulo imponemos una forma funcional lineal para la dependencia de 1
respecto de A y no hay ningn razn para pensar que la recta de regresin es una esperanza
condicional. Para cada nivel de renta concreto como 1
I
= j

, la recta estimada nos proporciona


una estimacin o prediccin de gasto en consumo, C
I
= c

. Si hay alguna familia en la muestra


con dicha renta, su gasto en consumo observado no coincidir, salvo por casualidad, con el nivel
previsto por la recta estimada. La diferencia:
^ n
I
= C
I
(
^
,
0

^
,
1
1
I
),
15
que puede ser positiva, si el gasto en consumo excede del estimado por la recta, o negativa, si
el gasto observado es inferior al estimado, se conoce como residuo de dicha observacin muestral,
denotado por ^ n
I
y, como veremos en la seccin 2, juega un papel fundamental en la estimacin
del modelo de regresin. Es importante observar que la recta de regresin estimada proporciona el
nivel de consumo que deberamos prever para cualquier nivel de renta, incluso si j

no coincide con
el de ninguna familia en la muestra. En tal caso tenemos un verdadero ejercicio de prediccin.
En resumen, cuando se lleva a cabo un ejercicio emprico como la estimacin del modelo de
consumo (2), se tiene en mente un argumento del siguiente tipo: con el modelo (2) no se pretende
explicar el comportamiento de la renta disponible de las familias, sino de su nivel de gastos en
consumo. Para ello, consideramos las observaciones de la variable explicativa, la renta 1
I
, como
jas: es decir, creemos que si hubisemos entrevistado a otras : familias, hubiramos generado
los mismos datos para dicha variable. Sin embargo, las observaciones muestrales de la variable
dependiente, el consumo C
I
, habran sido diferentes, como consecuencia de: a) aspectos especcos,
no observables, de las familias encuestadas, b) errores de medida de diferente cuanta a aquellos
en los que hemos incurrido en la muestra actualmente disponible, etc., y que aparecen recogidos
en la perturbacin aleatoria. El trmino de error es una variable aleatoria, diferente para cada
observacin muestral, y su realizacin no es observable. Por el contrario, el residuo es observable,
puesto que se construye a partir de las estimaciones y de los datos de las variables dependiente e
independiente. Trmino de error y residuo son entes de diferentes naturaleza.
Desde el punto de vista puramente estadstico, el modelo de regresin no tiene necesaria-
mente una connotacin de causalidad en la relacin entre variables. Del mismo modo que podemos
estimar una regresin de una variable 1 sobre otra variable A, podemos estimar una regresin en el
orden inverso. Sin embargo, el anlisis de este modelo elemental no trata a ambas variables de igual
modo: las variables explicativas se consideran deterministas, mientras que la variable dependiente
se considera de naturaleza aleatoria. El papel que juega cada una de las variables debe decidirse en
funcin del aspecto terico que est siendo objeto de estudio. En el ejemplo de consumo y renta,
es evidente que queremos explicar los gastos en consumo en funcin de la renta, y no al revs; el
consumo es la variable dependiente, y la renta es la variable independiente. Por eso, el investigador
debe decidir de antemano el papel que juega cada una de estas dos variables, porque el tratamiento
estadstico del modelo de regresin no concluye nada a este respecto. Sin embargo, su utilizacin
en Econometra se efecta condicional en una determinada hiptesis acerca de la direccin de la
relacin, y no al revs.
El modelo de regresin presupone que los valores numricos de la variable dependiente gastos
de consumo, C
I
, se generan, en la realidad, a partir de los valores tomados por la variable renta 1
I
y
precisamente a travs de la relacin (2). En general, creemos que los procesos econmicos son algo
ms complejos, y que se precisa ms de una causa para explicar adecuadamente el comportamiento
de una variable como el consumo, C
I
, o bien formas funcionales ms complicadas que la lineal. Sin
embargo, el modelo de regresin simple es tambin una herramienta til, al menos en una primera
aproximacin, desde la que no es muy complejo pasar al anlisis del modelo de regresin lineal
mltiple, cuyo estudio en profundidad dejamos para temas posteriores.
Comentemos un poco ms en detalle estos aspectos:
2.3 Supuestos del modelo de regresin lineal
1. Linealidad en las variables: en algunos casos, el supuesto de que la determinacin de los valores
del gasto en consumo, C
I
, a partir de los de la renta, 1
I
, se produce a travs de un modelo lineal
16
es excesivamente restrictiva, pues creemos que el modelo de relacin es ms bien no lineal.
Examinaremos en el prximo captulo una variedad de modelos alternativos al lineal que aqu
analizamos. Sin embargo, en la mayora de estos casos, el modelo lineal es nuevamente una
buena aproximacin al verdadero modelo, no lineal, de relacin entre variable dependiente e
independiente. El caso quiz ms paradigmtico de no linealidad, surge cuando se cree que el
porcentaje de aumento en renta disponible que se transmite a consumo, no es constante, sino
que decrece con el nivel de renta. Ntese que el modelo lineal tiene la propiedad de que el
cociente de incrementos consumo/renta disponible o, si se preere, la derivada del consumo
con respecto a la renta disponible, es 1, constante y, por ello, independiente del nivel de renta.
Se tendra una relacin muy distinta con un modelo del tipo:
C
I
= ,
0
+,
1
1
I
,
2
1
2
+n
I
, i = 1, 2, ..., :
Este tipo de no linealidad en las variables puede incorporarse al anlisis sin gran dicultad,
del modo que veremos en el prximo captulo,
2. Linealidad en los parmetros: muy diferente es la situacin en que los parmetros entran en
la relacin entre variable dependiente e independientes de modo no lineal. El tratamiento
que requieren tales modelos, con excepcin de algunos casos sencillos, es sustancialmente ms
complejo, por lo que no es discutido en este texto,
3. Esperanza matemtica nula: suponemos que la esperanza matemtica del trmino de error n
I
del modelo es cero: 1(n
I
) = 0, i = 1, 2, ..., :. Si, por el contrario, tuvisemos: 1(n
I
) = a ,= 0
, ste sera un efecto constante sobre 1
I
y, por ello, determinista, y debera incluirse como
parte del trmino constante ,
0
en (1). Una situacin en que este supuesto no se cumplira es
cuando el investigador, por error, omite del modelo una variable explicativa relevante. As,
supongamos que en vez de especicar el modelo:
j
|
= ,
0
+,
1
r
|
+,
2
r
2|
+n
|
, t = 1, 2, 3, ..., T
se especica el modelo:
j
|
= ,
0
+,
1
r
|
+
|
, t = 1, 2, 3, ..., T
en el que, inadvertidamente, se ha omitido la variable explicativa A
2
. En este ltimo modelo,
errneamente especicado, el trmino de error
|
sera igual a:
|
= ,
2
r
2|
+n
|
, y su esperanza
matemtica: 1(
|
) = 1(,
2
r
2|
+n
|
) = 1(,
2
r
2|
)+1(n
|
) = ,
2
1(r
2|
)+0, donde 1(A
2
) denota
la esperanza matemtica de los valores que toma la variable omitida, A
2
, que suponemos
constante a travs del tiempo. Como consecuencia, 1(
|
)ser distinta de cero en general,
4. Varianza constante del trmino de error (Homocedasticidad): suponemos que la varianza del
trmino de error, que denotamos por \ ar(n
I
) = o
2
u
para todo i = 1, 2, ..., :, es la misma para
todas las observaciones muestrales, ya sean stas de naturaleza temporal o de seccin cruzada,
5. Ausencia de autocorrelacin: adems, suponemos que los trminos de error correspondientes
a dos observaciones muestrales cualesquiera, que son dos variables aleatorias diferentes, son
estadsticamente incorrelacionadas (autocorrelacin espacial en un corte transversal de datos
ordenados geogrcamente).
17
6. Estabilidad temporal: otro supuesto incorporado en el modelo es que sus coecientes, ,
0
y
,
1
, son constantes en el tiempo; igualmente, creemos que el modelo es el mismo para todas las
observaciones muestrales. Si disponemos de datos de series temporales, no hay submuestras
de tiempo en las cuales los modelos sean diferentes; si estamos explicando los hbitos de
consumo de las familias espaolas, creemos que la dependencia consumo/renta es igual para
familias de renta alta y renta baja, o para familias que habitan en un medio rural y para las
que viven en un medio urbano,
7. Causalidad unidireccional: tambin suponemos que existe una relacin causal desde la variable
explicativa A hacia la variable endgena 1 , es decir, cambios en A inuyen sobre cambios en
1 , pero no al revs. Ello debe basarse en la naturaleza de la cuestin conceptual que se est
analizando, y el investigador siempre debe tener buenos argumentos al respecto, pues sta no
es una cuestin emprica, sino terica. De aqu surge la denominacin de variable exgena
para A, es decir, determinada fuera del modelo, y variable endgena, es decir, determinada
dentro del modelo, para 1 .
En el ejemplo de relacin entre inacin y crecimiento monetario, si durante el perodo mues-
tral se ha seguido una poltica monetaria consistente en jar un determinado crecimiento
anual para la cantidad de dinero y seguirlo estrictamente, el crecimiento monetario ser una
variable exgena en el modelo que pretende explicar la tasa de inacin. Si, por el contrario,
se ha seguido una poltica monetaria en la que el crecimiento monetario se ha decidido en cada
perodo como funcin de las tasas de inacin que hasta entonces se han registrado, entonces,
no estara justicado calicar de exgeno al crecimiento monetario a la inacin de endgena;
quiz ambas deberan ser consideradas variables endgenas, para cuyo necesitaramos otro
tipo de modelos con varias ecuaciones.
8. Variables explicativas deterministas: el modelo incorpora el supuesto, claramente restrictivo,
acerca de que la variable explicativa A es determinista. La variable endgena 1 no lo es, pues
depende de la evolucin de una variable aleatoria: el trmino de error del modelo, n.
En el ejemplo de relacin entre expansin monetaria e inacin, este supuesto signica la
creencia de que, si pudisemos volver al ao inicial en las mismas condiciones econmicas
entonces existentes, y recoger otra muestra para el mismo perodo, obtendramos los mismos
valores del crecimiento monetario. Desde este punto de vista, las tasas de crecimiento de
la oferta monetaria que se han observado en este perodo son las nicas que pudieron haber
ocurrido, con independencia de la informacin de que dispuso la autoridad monetaria, y de los
objetivos de poltica econmica que se trazaron. Sin embargo, ntese que, en esta hipottica
situacin, las tasas de inacin observadas para el perodo seran diferentes entre distintas
muestras, debido a su componente estocstica n
|
.
En un anlisis ms general (y ms realista) del modelo de regresin, que precisa de un in-
strumental tcnico ms complejo que el que presentamos en este texto, se considera que las
variables explicativas son tambin estocsticas, como sin duda queremos creer en la realidad.
En estas condiciones ms generales, el modelo de regresin lineal simple est plenamente
justicado bajo el supuesto de que las dos variables que en l aparecen, A e 1 , tienen una
distribucin de probabilidad conjunta de carcter Normal o Gaussiano. En efecto, ya vimos
al estudiar esta familia de distribuciones que la esperanza de la variable 1 condicional en la
variable A, es una expresin del tipo (1), donde las constantes ,
0
y ,
1
estn relacionadas con
los momentos de primer y segundo orden de la distribucin bivariante Normal. De hecho, en
18
tal caso, trabajamos generalmente bajo el supuesto de distribucin Normal conjunta de todas
las variables que aparecen en el modelo de regresin, e interpretamos ste como la esperanza
condicional ya mencionada, lo cual puede extenderse al caso de varias variables explicativas.
3 El estimador de Mnimos Cuadrados Ordinarios
Supongamos que queremos estimar el modelo:
j
I
= ,
0
+,
1
r
I
+n
I
, i = 1, 2, 3, ..., :
donde suponemos que: 1) n
I
es una variable aleatoria con 1(n
I
) = 0 y \ ar(n
I
) = o
2
u
para
todo i, 2) los valores r
I
son jos, 3) ,
0
y ,
1
son constantes desconocidas. Esta es la especicacin
del modelo de regresin lineal simple. Para ello, el investigador dispone de una muestra de 16
observaciones acerca de dos variables A e 1 , la ltima de las cuales queremos explicar por medio
de la primera:
Cuadro 1
Producto de
Desviaciones Desviaciones
Valor Residuo en X al en X e Y respecto
explicado Residuo cuadrado cuadrado de sus medias
n Y X X2 XY Y-ajustada u Xu u2 (X-mX)2 (Y-mY)(X-mX)
1 16 15 225 240 16.3 -0.33 -5.0 0.11 20.8 15.1
2 18 13 169 234 14.7 3.26 42.4 10.66 6.6 13.6
3 8 11 121 88 13.1 -5.14 -56.5 26.39 0.3 -2.6
4 9 8 64 72 10.7 -1.74 -13.9 3.03 5.9 9.0
5 9 6 36 54 9.1 -0.14 -0.9 0.02 19.7 16.4
6 10 8 64 80 10.7 -0.74 -5.9 0.55 5.9 6.6
7 12 9 81 108 11.5 0.46 4.1 0.21 2.1 1.0
8 14 12 144 168 13.9 0.06 0.8 0.00 2.4 2.1
9 13 10 100 130 12.3 0.66 6.6 0.44 0.2 -0.1
10 10 5 25 50 8.3 1.66 8.3 2.75 29.6 14.6
11 7 9 81 63 11.5 -4.54 -40.9 20.60 2.1 8.2
12 15 12 144 180 13.9 1.06 12.8 1.13 2.4 3.6
13 16 13 169 208 14.7 1.26 16.4 1.60 6.6 8.5
14 18 18 324 324 18.7 -0.73 -13.1 0.53 57.2 40.2
15 15 10 100 150 12.3 2.66 26.6 7.09 0.2 -1.0
16 13 8 64 104 10.7 2.26 18.1 5.11 5.9 -0.8
Sumas : 203 167 1911 2253 203.00 0.00 0.00 80.22 167.94 134.19
Medias : 12.69 10.44 119.44 140.81 12.69 0.00 0.00 5.01 10.50 8.39
Varianzas: 11.71 10.50 6.70 5.01
11
As, tenemos un sistema de ecuaciones:
19
16 =
^
,
0
+ 15
^
,
1
+ ^ n
1
,
18 =
^
,
0
+ 13
^
,
1
+ ^ n
2
,
8 =
^
,
0
+ 11
^
,
1
+ ^ n
3
,
...
13 =
^
,
0
+ 8
^
,
1
+ ^ n
16
que no puede resolverse, pues contiene 18 incgnitas, ,
0
y ,
1
, junto con los 16 residuos ^ n
I
pero slo 16 ecuaciones. Podramos jar los residuos igual a cero en dos ecuaciones y utilizarlas
para obtener estimaciones
^
,
0
y
^
,
1
. Pero dichas estimaciones dependern del par de ecuaciones
seleccionadas, por lo que tal procedimiento no es adecuado. El mtodo apropiado consiste en
obtener valores numricos para ,
0
y ,
1
que satisfagan de la manera ms aproximada posible,
simultneamente, las 16 ecuaciones del sistema anterior.
Una vez estimados los coecientes, se puede calcular para cada observacin i:
^ j
I
=
^
,
0
+
^
,
1
A
I
(3)
en el que las estimaciones
^
,
0
y
^
,
1
han sustituido a los verdaderos valores, desconocidos. La
expresin (3) representa la estimacin, de acuerdo con el modelo economtrico, del valor que deba
haber tomado la variable dependiente 1 . Habr siempre una discrepancia entre el valor realmente
observado j
I
y la estimacin anterior, el residuo correspondiente a dicha observacin muestral:
^ n
I
= j
I
(
^
,
0
+
^
,
1
r
I
),
20
Grco 1
Nube de puntos, recta de regresin,
valores ajustados, residuos
0

Y
0 0 0 0

( ) u Y Y Y X = = +
0 0
( , ) Y X
*
*
*
*
*
*
*
*
X
Y
0
Y
0
X

( ) Y X = +
0
Y
*
*
*
*
Hay muchos modos posible sde utilizar la informacin muestral para asignar valores numricos
a los dos parmetros desconocidos del modelo, ,
0
y ,
1
. Parece razonable que queramos utilizar un
procedimiento que genere unos residuos o errores de ajuste que sean reducidos, en algn sentido que
hemos de denir. Pero tenemos tantos residuos como observaciones muestrales, y no cabe pensar
que podamos conseguir que todos y cada uno de ellos sea pequeo. Generalmente, preferiremos
no tener ningn residuo muy grande, sea positivo o negativo, por lo que supondra de tener un
importante error de ajuste para la observacin muestral correspondiente. Entonces, la posibilidad
ms inmediata sera utilizar un estimador que consiga que la suma de los residuos sea igual a cero.
Pero enseguida vemos que esta idea no funciona:
21
Grco 2
*
*
X
Y
X
1
X
2
Y
1
Y
2
A
B
B
A
un posible criterio que dena a un estimador sea la minimizacin de la magnitud de los residuos
que dicho estimador genera. Tal idea es correcta, pero hay varias dicultades para hacerla prctica:
en primer lugar, tenemos no un residuo, sino un conjunto de n residuos, por lo que no se trata de
minimizar un residuo determinado, sino una medida conjunta del tamao global de todos ellos.
Una vez obtenidas unas estimaciones numricas de los coecientes, podra pensarse en
sumar los : residuos generados:

n
I=1
^ n
I
, y escoger como estimacin el par de valores
^
,
0
y
^
,
1
que produce la menor suma de residuos. Una dicultad con tal procedimiento es la cancelacin
de residuos negativos con residuos positivos. Adems, si realmente se pretendiese minimizar la
suma de residuos, bastara generar residuos de tamao muy grande, pero negativos, lo cual no es
adecuado.
3.1 Estimador de Mnimos Cuadrados
El estimador de mnimos cuadrados que introducimos en esta seccin utiliza como criterio la
minimizacin de la Suma de los Cuadrados de los Residuos (oC1), o tambin Suma Residual,
aunque hay que recordar que es una suma de cuadrados. Se trata, por tanto, de seleccionar valores
de los coecientes ,
0
y ,
1
que resuelvan el problema:
'i:i:i.ar
^
o
0
,
^
o
1
oC1 =
n

I=1
^ n
2
I
Ntese que el residuo asociado a cada observacin i, i = 1, 2, ..., :, depende de los valores de los
coecientes escogidos, porque:
22
^ n
I
= j
I
(
^
,
0
+
^
,
1
r
I
)
de modo que el problema anterior puede escribirse:
'i:i:i.ar
^
o
0
,
^
o
1
oC1 =
n

I=1
_
j
I

^
,
0

^
,
1
r
I
_
2
La solucin a este problema de optimizacin se denota por:
^
,
0
,
^
,
1
, y se denomina estimador
de Mnimos Cuadrados Ordinarios (que abreviaremos como MCO) de los coecientes del modelo
de regresin lineal simple. El estimador MCO escoge, de entre todas las posibles, la recta que
minimiza la suma de los cuadrados de las distancias entre cada punto de la nube generada por las
observaciones muestrales y el asignado por la recta.
Derivando oC1 con respecto a ambas variables (,
0
y ,
1
) e igualando dichas derivadas a
cero, tenemos:
0oC1
0,
0
= 2
n

I=1
_
j
I

^
,
0

^
,
1
r
I
_
= 0 (4)
0oC1
0,
1
= 2
n

I=1
_
j
I

^
,
0

^
,
1
r
I
_
r
I
= 0 (5)
con matriz de derivadas segundas:
0
2
oC1
0,
0
0,
1
=
2: 2

n
I=1
r
I
2

n
I=1
r
I
2

n
I=1
r
2
I
que tiene por determinante:
11T = 4
_
_
:
n

I=1
r
2
I

_
n

I=1
r
I
_
2
_
_
= :
2
_
n
I=1
r
2
I
:
r
2
_
= :
2

n
I=1
(r
I
r)
2
:
= :
2
o
2
r
siendo o
2
r
la varianza muestral de A : o
2
r
=

n
I=1
(r
I
r)
2
,:. Como el primer menor, el
elemento (1,1) de esta matriz, que es 2:, es tambin positivo, podemos armar que la solucin
al sistema de ecuaciones (4) y (5) sern, los valores numricos de los coecientes ,
0
y ,
1
que,
efectivamente, alcanzan un mnimo de la Suma Residual.
3.1.1 Ecuaciones normales
Si resolvemos dicho sistema, obtenemos:
n

I=1
j
I
= :
^
,
0
+
^
,
1
n

I=1
r
I
(6)
n

I=1
j
I
r
I
=
^
,
0
n

I=1
r
I
+
^
,
1
n

I=1
r
2
I
(7)
23
que constituyen un par de ecuaciones simultneas en las incgnitas,
^
,
0
,
^
,
1
. Este sistema se
conoce como sistema de ecuaciones normales.
Utilizando los estadsticos que aparecen en la ltima la del Cuadro 1, tendramos:
203 = 16,
0
+ 167,
1
2253 = 167,
0
+ 1911,
1
que resuelto, proporciona las estimaciones MCO:
^
,
0
= 4, 348;
^
,
1
= 0, 799
con dichos datos. La sexta columna del cuadro presenta los valores previstos por el modelo para
la variable dependiente. La columna siguiente muestra los residuos, es decir, la diferencia entre los
valores de 1 y los valores previstos por el modelo.
3.1.2 Expresiones para el estimador de Mnimos Cuadrados
En general, si primero despejamos
^
,
0
en (6), tenemos:
^
,
0
=

n
I=1
j
I

^
,
1

n
I=1
r
I
:
= j
^
,
1
r (8)
que podremos utilizar para obtener el estimador MCO de ,
0
, una vez que tengamos el estimador
de 1. Substituyendo en (7), tenemos:
^
,
1
=

n
I=1
j
I
r
I

1
n
(

n
I=1
r
I
) (

n
I=1
j
I
)

n
I=1
r
2
I

1
n
(

n
I=1
r
I
)
2
=

n
I=1
(r
I
r) (j
I
j)

n
I=1
(r
I
r)
2
=
:o
r
:o
2
r
= j
r
o

o
r
(9)
donde o
r
, o
2
r
, o
2

, o
r
, o

, denotan, respectivamente, la covarianza, varianzas y desviaciones


tpicas muestrales de A e 1 . Las expresiones (8) y (9) son tiles, pues proporcionan directamente
las estimaciones MCO como funcin de estadsticos muestrales, sin necesidad de resolver el sistema
de ecuaciones normales. Primero se calcula
^
,
1
y, luego, se obtiene:
^
,
0
= j
^
,
1
r. Ello demuestra
una propiedad del estimador MCO: la recta estimada pasa por el punto ( j, r).
3.1.3 Regresin inversa
Supongamos ahora que estimamos la regresin lineal inversa de la anterior, es decir, la regresin
que tiene a 1 como variable explicativa, y a A como variable dependiente:
r
I
= c
0
+c
1
j
I
+
I
El estimador de mnimos cuadrados de la pendiente en este modelo es:
^ c
1
=
o
r
o
2

que es distinta de la que estimamos en la primera regresin. Sin embargo, el estimador de


la pendiente de esta regresin no es el inverso del estimador de la pendiente en el modelo de
24
regresin original. Sin embargo, existe una relacin entre ambos. En efecto, si multiplicamos
ambos estimadores, tenemos:
^
,
1
^ c
1
=
o
r
o
2
r
o
r
o
2

=
(o
r
)
2
o
2
r
o
2

=
_
j
r
_
2
luego el producto de ambos estimadores es igual al cuadrado del coeciente de correlacin lineal
entre ambas variables.
3.1.4 Interpretacin del estimador de Mnimos Cuadrados
Podemos ahora deducir la relacin que existe entre el estimador MCO de la pendiente ,
1
del modelo
de regresin lineal simple y el coeciente de correlacin de A e 1 :
^
,
1
=
o
r
o
2
r
=
o
r
o
r
o

o
r
= j
r
o

o
r
Es decir, el estimador de ,
1
, el coeciente que proporciona la relacin entre la variables A e 1
del modelo de regresin lineal simple, est muy relacionado con el coeciente de correlacin entre
ambas variables, siendo una modicacin del mismo por el cociente de las desviaciones tpicas.
Como la desviacin tpica es una medida del tamao de la uctuacin que experimenta una
variable a lo largo de la muestra, si A e 1 tienen igual desviacin tpica, experimentan uctuaciones
de igual tamao. En tal caso, una variacin de una unidad en A se traducir, de acuerdo con
^
,
1
en una variacin en 1 igual a j
r
. Si, a lo largo de la muestra, las uctuaciones en 1 son de
un tamao aproximadamente doble del de las uctuaciones en A, entonces el modelo de regresin
implicar que una variacin unitaria en esta ltima variable se traducir en una variacin de dos
veces j
r
en 1 . Por ejemplo, si ambas variables tienen igual varianza, y j
r
= 0, 50,entonces una
elevacin de 2 unidades en A vendr acompaada, en media, de una elevacin de 1 unidad en 1.
Si la varianza (o volatilidad) de A es doble de la volatilidad de 1, entonces la elevacin de dos
unidades en A slo generar, en media, una elevacin de 0, 5 unidades en 1. Evidentemente, si el
signo de la correlacin fuese negativo, entonces una elevacin en una de las dos variables vendra
acompaada de un desenso (no una elevacin) en la otra variable.
3.2 Ejemplo: Peso de bebs recin nacidos
5
Analizamos en este ejemplo datos tomados de Wooldridge, Introduccin a la Econometra: un
enfoque moderno, primera edicin. Partiendo de un modelo de regresin estimado en dicho texto,
discutimos el modo de llevar a cabo un anlisis descriptivo, tanto de tipo grco como de tipo
estadstico, acerca de la capacidad explicativa que un conjunto de variables tiene sobre una
determinada variable dependiente, y
describimos cmo el habitual uso mecnico de los estadsticos tipo t de Student y 1 puede con-
ducir a conclusiones errneas sobre la capacidad explicativa de una variable o de un conjunto
de ellas.
5
Fichero de trabajo de EVIEWS: Bwght.wf1
25
3.2.1 Descripcin del ejemplo
Consideramos en este ejemplo la especicacin de un modelo de regresin para tratar de caracterizar
factores que pueden afectar al peso de bebs al nacer. La base de datos
6
, tomada de Wooldridge
(2001), contiene informacin sobre el peso de los bebs, recogido en 1.388 nacimientos, la renta
de la familia en la que se produce el nacimiento (rc:ta
I
), el nmero medio de cigarrillos fumados
diariamente por la madre durante el embarazo (ciqarri||o:
I
), el nmero medio de cajetillas de
tabaco fumados diariamente por la madre durante el embarazo, el nmero de orden que ocupa el
recin nacido dentro de los hijos de la familia (ordc:ac
I
), los aos de educacin del padre (cdncj
I
) y
de la madre (cdnc:
I
), el sexo del beb y si ste es blanco o de otra raza. Estas dos ltimas variables
son cticias, y aparecen en el archivo como variables dicotmicas, es decir, tomando dos valores
nicamente. La variable sexo ha sido denida mediante ocro = 1 si el recin nacido es varn,
ocro = 0 en caso contrario, mientras que la variable que recoge el grupo tnico se ha denido
1a.a = 1 si el beb es de raza blanza, 1a.a = 0 en caso contrario. Falta informacin acerca del
nivel educativo del padre del reci nacido en 196 nacimientos, faltando informacin acerca del nivel
educativo de la madre en un caso ms, por lo que las regresiones que incluyen estas variables como
explicativas utilizan un mximo de 1191 observaciones.
En Wooldridge (2001) se estima el modelo de regresin,
1c:o
I
= 114, 52
(3,73)
0, 596
(0,110)
ciqari||o:
I
+ 0, 056
(0,037)
rc:ta
I
+ 1, 788
(0,659)
ordc:ac
I
+
+0, 472
(0,283)
cdncj
I
0, 370
(0,320)
cdnc:
I
+n
I
, i = 1, 2, ...,

1
2
= 0, 035, ^ o
u
= 19, 789
donde se muestran entre parntesis las desviaciones tpicas estimadas de cada uno de los co-
ecientes. El autor contrasta la signicacin conjunta de los niveles educativos de ambos padres
mediante el estadstico 1, en la forma del 1
2
, no rechazando la hiptesis nula de ausencia de ca-
pacidad explicativa de ambas variables, conjuntamente consideradas. Por tanto, el nivel educativo
de los padres no parece ser un condicionante signicativo del peso de los bebs al nacer.
La discusin que llevamos a cabo en la Seccin XX ya sugiere que, en cualquier caso, la inter-
pretacin de este resultado no debe hacerse con carcter absoluto. El investigador debera decir
que una vez incluidas considerados como posibles factores explicativas del peso del recin nacido la
renta de la familia, el nmero de cigarrillos fumados por la madre durante el embarazo y el nmero
de orden del recin nacido entre sus hermanos, los indicadores educativos de los padres no aportan
informacin adicional relevante.
El segundo matiz que hemos de hacer es que podra darse el caso de que los indicadores educativos
contengan informacin relevante incluso una vez que ya se ha tenido en cuenta la informacin
aportada por las variables mencionadas pero, por alguna razn, la informacin muestral disponible
no permite medir con suciente precisin el impacto que sobre el peso del beb tiene el nivel
educativo de los padres. Una reducida precisin podra conducir a un estadstico-t reducido y, con
ello, a no rechazar la hiptesis nula de ausencia de relacin entre nivel educativo de los padres y
peso del beb.
6
El archivo Bwght.des contiene la descripcin de las variables incluidas en el archivo Bwght.raw, algunas de las
cuales se han utilizado en el ejemplo.
26
La tercera consideracin a efectuar es que el contraste tipo 1 efectuado para analizar conjunta-
mente la informacin proporcionada por las dos variables educativas descansa sobre el supuesto de
Normalidad del trmino de error del modelo de regresin, cuestin que habramos de analizar.
Comenzamos nuestro anlisis indagando la informacin que cada una de las potenciales variables
explicativas contiene sobre el peso del recin nacido. Al hacerlo individualmente, estamos ignorando
el hecho de que distintas variables pueden contener informacin comn; debemos interpretar que se
trata de un anlisis que trata de detectar la ausencia de capacidad explicativa en alguna variable.
Si, como es habitual, nos limitsemos al anlisis de los estadsticos tipo t, diramos que, entre las
variables consideradas, el nmero de cigarrillos fumados por la madre afecta al peso del recin
nacido, habiendo asimismo un efecto estadsticamente signicativo en relacin con el nmero de
orden que el recin nacido ocupa entre los hijos de la familia. Los indicadores de educacin no
parecen aportar informacin relevante, al igual que tampoco parece haber relacin con la renta de
la familia en la que se produce el nacimiento.
3.2.2 Caractersticas muestrales de las variables (archivo bwght.wf1)
Los histogramas
7
de las variables revelan caractersticas interesantes (ver HIS_nombre variable en
el chero bwght.wf1): la variable dependiente peso es una variable continua, cuyo exceso de curto-
sis genera un comportamiento no Normal en la muestra, rechazndose claramente dicha hiptesis
mediante el test de Jarque-Bera. Este resultado despierta dudas acerca del uso de las distribu-
ciones habituales tipo t de Student y 1 de Fisher-Sendecor para los estadsticos utilizados en la
contrastacin de hiptesis.
Las variables cigarrillos y paquetes tienen una correlacin exactamente igual a 1,0. Esto signica
que se han construido una a partir de la otra, pues si se hubiera encuestado sobre ambas existira una
relacin algo menos que perfecta entre ellas. Examinando sus valores, vemos que la primera es igual
a 20 veces el valor numrico de la segunda en todos los casos, por lo que utilizaremos nicamente la
variable cigarrillos. Esta es una variable discreta, con un valor mnimo de 0 y un valor mximo de
50; la mediana es 0, reejando el hecho de que en casi un 85% de los 1.388 nacimientos recogidos en
la muestra, la madre declar no haber fumado durante el embarazo
8
. Slo en 212 casos, la madre
del recin nacido declar haber fumado un nmero medio de cigarrillos por da mayor que cero. Esto
sugiere que disponemos de una informacin relativamente reducida para estimar la contribucin al
peso del beb de un cigarrillo adicional, lo que podra hacer que dicha estimacin se obtenga con
una precisin no muy alta, salvo si la diferencia entre el peso de los bebs de madres fumadoras y
no fumadoras es muy sistemtica.
La educacin de la madre toma valores entre 2 y 18 aos, con una mediana de 12 aos; sta es
tambin la moda, recogiendo el 40,5% de las observaciones muestrales. La educacin del padre toma
valores entre 1 y 18 aos, tambin con una mediana y moda igual a 12 aos; valor que aparece en un
37,2% de los nacimientos. El elevado nmero de observaciones en el nivel educativo correspondiente
a 12 aos segmenta la muestra de padres y madres entre los que alcanzan el grado medio y los que
continan con estudios superiores.
La informacin numrica sobre la renta familiar, en miles de dlares, tiene el aspecto de haber
sido redondeada, apareciendo nicamente valores numricos entre 0,5 y 19,5, adems de 22,5, 27,5,
32,5, 37,5, 42,5, 47,5, 65,0. Por tanto, la variable renta tiene naturaleza discreta, tomando un
nmero relativamente alto de valores igualmente espaciados en el primer rango mencionado, para
7
Los nombres en cursivas, entre parntesis, denotan elementos del archivo de trabajo Bwght.wf1.
8
Por tanto, la moda de esta variable es cero.
27
pasar a tomar valores ms dispersos posteriormente. Un 38% de las observaciones estn en el
rango (0, 5; 19, 5) de renta, estando el 62% restante en niveles de renta superiores, por lo que el
proceso de redondeo afecta a un alto nmero de observaciones. Si hubiera una relacin continua
entre la renta de la familia y el peso del recin nacido, tal proceso de simplicacin numrica podra
dicultar notablemente su estimacin. Aunque ignoramos el modo en que la concentracin de valores
numricos ha sido hecha, imaginemos que se ha asignado un dato de renta de 65,0 a las familias con
renta en (56, 75, 65, 0) , asignando renta de 47,5 a aquellas familias con renta en (47, 5; 56, 75) . El
peso del recn nacido podra crecer suavemente con la renta, pero sta se ha colapsado en los dos
extremos del intervalo, generando una importante cantidad de errores en cualquier relacin lineal
entre peso y renta. Por tanto, tenderamos apensar que dicha relacin no existe.
La variable ordenaci
I
, que recoge el orden del recin nacido entre los hijos de la familia, toma
valores entre 1 y 6, siendo la moda igual a 1, con una frecuencia relativa de 57,3%. Por tanto, la
mediana de esta variable es asimismo igual a 1.
El 48% de los recin nacidos (665) son mujeres y el 52% (723) varones, por lo que la muestra
est bastante equilibrada en este sentido; por el contrario, el 78% son de raza blanca y el 22%
restante de otras razas. Los posibles efectos del sexo y la raza del recin nacido sobre su peso no
han sido considerados en la regresin anterior, pero los consideraremos ms adelante. Es asimismo
interesante observar que de las 212 madres que declararon haber fumado durante el embarazo, 165
eran de raza blanca, mientras que de las 1089 madres que declararon no haber fumado durante
el embarazo, 924 eran de raza blanca.
9
Como se muestra en Bwght.xls, haber fumado durante el
embarazo es independiente de la raza de la madre.
3.2.3 Asociacin con la variable dependiente, peso del recin nacido.
Los coecientes de correlacin habituales son reducidos (Tabla correlaciones), siendo el ms ele-
vado numricamente (-0,16) el del nmero de cigarrillos fumados, que es de signo negativo, como
esperaramos. Recurdese que una desviacin tpica aproximada del coeciente de correlacin es el
inverso de la raz cuadrada del tamao muestral, que estara en torno a 0,027. Ello hara que la
correlacin mencionada, aun siendo reducida, fuese estadsticamente signicativa. Sin embargo, el
resto de las correlaciones recogidas en la tabla sugiere que la bsqueda de capacidad explicativa del
peso del recin nacido en las variables disponibles puede resultar poco fructfera. Entre las variables
explicativas, la renta de la familia tiene coecientes de correlacin superiores a 0,40 con los niveles
educativos del padre y la madre que, a su vez, muestran una correlacin de 0,64 entre ellos.
Sin embargo, las variables explicativas tienen naturaleza discreta, por lo que los coecientes de
correlacin habituales no estn plenamente justicados. Esto mismo hace que las nubes de puntos
con la variable dependiente no sean tan informativas como en otros casos; como muestra, recogemos
en el chero de trabajo la nube de puntos entre el peso y el orden que el recen nacido ocupa entre
los hijos. Un efecto negativo, por ejemplo, vendra dado por una reduccin del peso al aumentar
el valor de la variable ordenac
I
. La nube de puntos nos da un intervalo de pesos observados entre
los recin nacidos que comparten un mismo valor de la variable ordenac
I
, y se tratara de ver si el
valor representativo de cada intervalo de pesos es decreciente al aumentar ordenac
I
.
9
Esto se muestra en Bwght.xls, multiplicando las columnas de variables dicotmicas {0,1} Fuma y Blanco, y
hallando la suma de dicho producto, y repitiendo el clculo con Blanco y 1-Fuma. Suponemos aqu que la raza
de la madre y del recin nacido son las mismas. De modo anlogo, puede verse que de las 212 madres que declararon
haber fumado, 100 tuvieron un hijo varn. Esta divisin aproximada entre hijos varones y mujeres es, por supuesto,
muy razonable.
28
Esto nos dirige a estimar la asociacin entre variables mediante tablas de clasicacin de sus
valores, as como contrastando la igualdad de medias y medianas entre clases. Por ejemplo, para
analizar la posible asociacin entre el peso del beb y la educacin de la madre, calculamos la
mediana del peso de los bebs para cada uno de los posibles niveles educativos de la madre, con-
trastando la igualdad de dichos valores mediana. Si estas dos variables no estuvieran relacionadas,
las medidas de posicin central (mediana o media) de la variable peso seran similares para los
distintos niveles educativos; si existe una asociacin positiva entre ambas variables, esperaramos
que la media o mediana de peso fuese creciente con el nivel educativo, y lo contrario ocurrira si
existiera una relacin negativa entre ambas. En ambos casos se rechazara la hiptesis nula de
igualdad de medias as como la de igualdad de medianas. Para ello, debe calcularse la media o
mediana de la variable dependiente para cada uno de los distintos rangos de valores numricos de
la variable explicativa que se considera. Nos centramos en las medianas y no en las medias debido
a la fuerte desviacin que muestran las distribuciones de estas variables respecto de la Normalidad,
tanto por razn de la muy elevada frecuencia observada en el valor modal, como de su asimetra. El
lector interesado puede reproducir nuestro anlisis contrastando la igualdad de medias muestrales
del peso para los distintos niveles educativos de la madre o el padre.
Al comparar las variables peso y educm, los contrastes Kruskal-Wallis y van der Waerden de
igualdad de medianas rechazan la igualdad de medianas, sugiriendo asociacin entre ambas vari-
ables ('11_11oO_11lC'). Repetimos el contraste llevando a cabo cierta agrupacin
de los niveles educativos, para eliminar el problema de que algunos niveles educativos recogen un
nmero muy reducido de observaciones: para algunos niveles educativos hay una sla observacin
muestral. La agrupacin proporciona indicios an ms claros en contra de la igualdad de medianas.
Los valores numricos de las medianas por clases de niveles educativos
10
despus de la agregacin,
recogidas en ('11_11oO_11lC'2) sugiere cierta asociacin positiva entre ambas vari-
ables, puesto que la mediana del peso parece ser creciente con el nivel educativo de la madre. As
lo sugieren asimismo los valores j de los contrastes de la chi-cuadrado, de Kruskal-Wallis y de van
der Waerden que aparecen en la tabla. Tal asociacin podra reejarse en un grco de barras
que mostrase los pesos medianas que aparecen debajo del rtulo Category Statistics en la tabla
'11_11oO_11lC'2 como funcin de los valores centrales de los intervalos que aparecen
para la variable cdnc:
I
. Sin embargo, tal como muestra el grco de barras de Med_peso_educm2,
la asociacin, si existe, es dbil.
Tambin en la relacin con el nivel educativo del padre, hemos efectuado dos veces el contraste
de igualdad de medianas: una, sin agrupar los niveles educativos ('11_11oO_11lC1), y
otra, agrupndolos ('11_11oO_11lC12); la segunda es preferible, a pesar de que el nivel
de agrupacin es relativamente arbitrario. En casos como los que estamos analizando, 15 clases
parece un nmero razonable, pues permite que aore cierta disparidad entre medianas, a la vez que
permite recoger una mnima frecuencia dentro de cada clase. Si juzgamos por los valores j de los
contrastes, la evidencia contraria a la hiptesis nula de igualdad de medianas, lo que sugerira una
posible asociacin entre las variables peso y educp, es claramente menor que en el caso del nivel
10
Para obtener una clasicacin de la variable Peso utilizando como clasicador los niveles educativos de la madre,
seleccionar Peso y entrar en Descriptive Statistics/Stats by Classication escribiendo EDUCM en la ventana
Series/Group for Classify. Para contrastar la igualdad de medianas entre grupos a la vez que se lleva a cabo la
clasicacin, entrar en Tests for Descriptive Statistics/ Equality Tests by Classication, escribiendo EDUCM en
Series/Group for Classify, y marcando Mediana, en vez de Media bajo Test Equality of . Para obtener
una clasicacin con agrupacin de niveles educativos, a la derecha, donde aparece Group into Bins if marcar
un nmero reducido (por ej., 10) en la ventana # of values, que se reere al nmero de rangos de valores que se
quieren utilizar para la variable que se utiliza como clasicador, en este caso, EDUCM.
29
educativo de la madre, sugiriendo que el nivel educativo del padre podra no ser muy relevante para
explicar el peso del beb. Sin embargo, no hemos de olvidar que estamos comparando nicamente
una medida de posicin central de la variable peso para los distintos grupos denidos para educm
o educp; no examinamos el conjunto de todos los valores de peso observados dentro de cada nivel
educativo, lo que podra arrojar ciertas diferencias entre distintos niveles de cdnc:
I
. Por ejemplo,
podramos observar que los rangos observados para jc:o
I
se amplan o se estrechan al aumentar
cdnc:
I
, sugiriendo que la varianza de la variable jc:o
I
es funcin del nivel educativo de la madre.
Una evolucin creciente de los pesos mnimo y mximo sugerira asimismo una relacin positiva,
siendo negativa si si se observase la evolucin contraria; esto podra ocurrir sin observar variaciones
signicativas en los valores mediana.
La evidencia a favor de asociacin es bastante ms clara en la comparacin de peso y renta
('11_11oO_11T), y todava ms clara en el caso de peso y cigarrillos ('11_11oO_C1Go2).
Un diagrama de barras de las medianas de peso por clases de renta sugiere una asociacin posi-
tiva ('11_11oO_11T), mientras que un diagrama de medianas de peso por clases de
valores de cigarrillos sugiere una asociacin negativa ('11_11oO_C1Go2), si bien esta ltima
clasicacin est contaminada por el elevado porcentaje muestral con un valor cero de la variable
cigarrillos. En el chero de trabajo se incluye asimismo la variable 1l', que hemos denido de
modo que el valor 0 si la madre no fum durante el embarazo, y el valor 1 si lo hizo. El valor medi-
ana de los pesos de los bebs fue de 111 y 120 onzas, respectivamente, en cada caso, lo que sugiere
cierta dependencia negativa entre el peso y el hbito de fumar. Los valores j de los contrastes en
'11_11oO_1l' son bastante concluyentes respecto a la existencia de tal dependencia.
La igualdad de medianas no se rechaza cuando se clasica la variable peso de acuerdo con los
valores de la variable ordenac, sugiriendo que el orden del recin nacido entre sus hermanos podra
no ser informacin relevante para explicar su peso. Este anlisis descriptivo es preliminar, habiendo
relacionado, alternativamente, cada una de las variables explicativas, con la variable dependiente.
No hemos considerado, por tanto, la posible colinealidad entre variables explicativas, es decir,
que stas puedan proporcionar informacin comn. A ttulo preliminar, podramos concluir con
una ordenacin de variables por niveles de capacidad explicativa, comenzando con el nmero de
cigarrillos y la renta familiar, junto con una posible dependencia dbil respecto del nivel educativo
de la madre, mientras que el orden del recin nacido dentro de los hijos de la familia parece no
aportar informacin relevante acerca de su peso. Esta evidencia es coherente con la obtenida en la
regresin mostrada al inicio en lo relativo al efecto del nmero de cigarrillos fumados, pero no en
cuanto a los posibles efectos de las variables rc:ta
I
, ordc:ac
I
, o cdnc:
I
.
3.2.4 Anlisis de regresin
Nuevamente hay que hacer notar que aunque esta seccin debera comenzar presentando las nubes
de puntos de las variables de la regresin pero, debido a la naturaleza de las variables explicativas,
no lo hacemos. Si lo desea, el lector puede utilizar el chero de trabajo para construir dichos
grcos. Estimamos regresiones individuales sobre las dos variables aparentemente ms relevantes,
cigarrillos y renta, obteniendo,
30
1c:o
I
= 119.77
(0,57)
(209.3)
0, 514
(0,090)
(5,68)
ciqarri||o:
I
+ ^ n
I
, (10)

1
2
= 0, 022, ^ o
u
= 20, 13, 1atio = 0, 011 (11)
1c:o
I
= 115, 27
(1,00)
(115.0)
+ 0, 118
(0,029)
(4,08)
rc:ta
I
+ ^ n
I
, (12)

1
2
= 0, 011, ^ o
u
= 20, 24, 1atio = 0, 005 (13)
donde Ratio denota el cociente entre la desviacin tpica muestral de los residuos, y la de la
variable peso, que es de 20,35.
Estos modelos de regresin simple puedan estar incorrectamente especicados por omitir algn
efecto signicativo. Si as fuese, el coeciente estimado (la pendiente del modelo de regresin) en
la primera estara sesgado, en el sentido de no medir el efecto que sobre el peso tiene la nica
variable explicativa includa en la regresin, ciqarri||o:; la estimacin de dicho coeciente estara
recogiendo asimismo los efectos de variables omitidas que no sean independientes de la variable
incluida, por ejemplo, la renta de la familia, o la ordenacin del recin nacido entre sus hermanos.
Sabemos algo ms: de acuerdo con la discusin terica relativa al sesgo por variables omitidas, al
omitir una variable explicativa negativamente correlacionada con ciqarri||o:, el coeciente de sta
se subestimar,sobreestimndose si la variable omitida tiene correlacin positiva con ciqarri||o:
pues, en ambos casos, asignaramos a ciqarri||o: el efecto combinado de ambas variables. Esto es
precisamente lo que dira nuestra intuicin.
El primer parntesis debajo de cada coeciente estimado contiene la desviacin tpica de la
estimacin, mientras que el segundo contiene el estadstico tipo-t, cociente entre la estimacin y su
desviacin tpica. En muestras amplias de seccin cruzada es habitual obtener un valor numrico
muy reducido para el coeciente de determinacin, si bien desearamos que fuese algo mayor del
obtenido en estas regresiones individuales. En todo caso, los niveles obtenidos del

1
2
en absoluto
indican ausencia de relacin.
Este es un caso en el que el uso habitual de los estadsticos tipo-t sugerira que ambas variables
tienen capacidad explicativa relevante, siendo estadsticamente signicativas; de acuerdo con tal
criterio, nadie dudara en incluirlas en un modelo de regresin. Sin embargo, las desviaciones
tpicas residuales, y los 1atio: indican que la capacidad explicativa de cada una de estas variables
por separado es, verdaderamente, muy reducida. El coeciente estimado para cigarrillos, implica
que, para el valor mediana de los cigarillos fumados durante el embarazo (cuando no son cero),
que es de 10, la diferencia en peso de bebs de madres fumadoras y madres no fumadoras sera
de 5 onzas, menor que la diferencia observada en la muestra, de 112 a 121 onzas, a que antes nos
referimos.
Evidencia adicional acerca de la reducida informacin que cigarrillos y renta proporcionan sobre
peso aparece en 11G_11o_C1Go y 11G_11o_11T, que representan los valores ajustados
y los residuos de ambas regresiones. Este es un tipo de grcos que siempre hemos de examinar, tras
estimar un modelo de regresin. Estos grcos son la evidencia ms clara acerca de la reducidsima
capacidad explicativa de las dos variables, ya que la mayor parte de la uctuacin en peso de unos
bebs a otros permanece en los esiduos, npo habiendo sido explicada por las variables utilizadas
como explicativas en la regresin.
Indicios adicionales acerca de la baja capacidad explicativa aparecen en CO11_11oO_JloT1,
31
que muestra coecientes de correlacin entre peso y los residuos de las dos regresiones, as como
de la regresin que incluye ambas variables, cigarrillos y renta, como variables explicativas, y de
otras regresiones que analizaremos posteriormente. Las variables mencionadas son las que han sido
incluidas como explicativas en cada regresin. Todas las correlaciones son muy elevadas, lo que
signica que la parte de la variable Peso que queda sin explicar por las variables renta y cigarrillos
es muy similar a la propia variable Peso, es decir, que las regresiones apenas explican las diferencias
en peso entre bebs. Es interesante que la correlacin sea algo menor cuando se utilizan ambas
variables, lo que sugiere que la informacin que contienen no es exactamente comn, si bien es
reducida en ambos casos.
Correlaciones tan elevadas pueden interpretarse asimismo en el sentido de que, si utilizsemos las
regresiones estimadas para predecir el peso de un recin nacido utilizando las variables cigarrillos y
renta como predictores, la correlacin entre la previsin resultante y el peso observado del beb sera
muy pequea o, lo que es equivalente, la calidad de la prediccin sera muy baja. Por ejemplo, para
el nivel mediana de renta, 27,5, el modelo (12) predice un peso de 118,52 onzas. En la muestra se
observa
11
, para dicho nivel de renta, un rango de pesos entre 80 y 167 onzas; demasiada dispersin
para poder prever con precisin, lo que explica el bajo ajuste del modelo.
3.3 Ejemplo: Discriminacin salarial
12
Este ejemplo tiene como objetivo describir la utilizacin de variables cticias para contrastar la
estabilidad del modelo de regresin entre submuestras. En la primera parte del ejercicio, utilizamos
un modelo de determinacin de salarios en funcin del nivel educativo y la experiencia laboral del
trabajador, y se examinan las posibles diferencias en el modelo estimado entre las submuestras de
hombres y mujeres. Tras detectar evidencia consistente con la existencia de discriminacin salarial
en contra de las mujeres, se profundiza en analizar si la dscriminacin se debe a una menor valoracin
del nivel educativo, la experiencia laboral, o de ambos factores. En la segunda parte explicamos
diversas maneras en que el uso de variables citicias, convenientemente denidas e introducidas en
el modelo economtrico, permite contrastar la homogeneidad salarial entre trabajadores de distintas
caractersticas. En esta segunda parte nos centramos en caracterizar el posible impacto diferencial
que sobre el salario tengan la experiencia laboral y el nivel educativo.
3.3.1 Descripcion de los datos
El archivo Bwages.wf1 contiene datos relativos a 1.472 personas encuestadas en Blgica en 1994,
como parte del European Community Household Panel, a las que se ha preguntado por: a) su
salario en Bef. (40 Bef. equivalen aproximadamente a 1 euro), b) su nivel de educacin, indicando
uno entre cinco niveles posibles, y c) su experiencia laboral, en trminos del nmero de aos que el
encuestado ha trabajado hasta el momento. El salario es una variable de naturaleza continua, si bien
toma nicamente valores positivos; la experiencia profesional es una variable discreta, observable
numricamente, por lo que no se trata de una variable cticia. Por el contrario, el nivel educativo
es una variable cualitativa, para la que hay que denir un variable cticia. Esto podra hacerse
de muchas formas distintas, pero lo ms natural es utilizar los cinco primeros nmeros enteros,
asignndolos a cada nivel educativo, en orden creciente. Hay que entender, sin embargo, que
cualquier otra asignacin numrica sera asimismo posible.
11
Ver Bwght.xls
12
Fichero de trabajo: Bwages.wf1. La base de datos Bwages.txt est tomada de los archivos que acompaan a
Kuleuven
32
A priori, es logico considerar que ambas variables, experiencia y educacin, pueden incidir
positivamente sobre el nivel salarial del trabajador. Un aspecto a tener en cuenta en la interpretacin
del modelo es que, a diferencia de la experiencia laboral, cuyos valores numricos sucesivos estn
separados siempre por un ao ms de experiencia, los valores sucesivos de la variable educacin
recogen distintos niveles educativos, no siendo en absoluto evidente que la diferencia entre dos
cualesquiera de dichos niveles sucesivos haya de tener siempre un mismo efecto sobre el salario.
Por ltimo, disponemos asimismo de informacin acerca de si el encuestado es hombre o mujer;
sta es tambin una variable cualitativa, para la que el investigador debe construir, por tanto, una
variable cticia. Dicha variable, con el nombre male, ya est incluida en el chero de trabajo. En
la descripcin del archivo (1naqc:.trt)se nos dice que el valor :a|c = 1 corresponde a varones;
en la base de datos, la variable solo toma valores 0 1, por lo que se ha asociado :a|c = 0 a las
mujeres encuestadas.
3.3.2 Estadsticos descriptivos
El clculo de estadsticos de la variable :a|c, en la tabla de clasicacin proporcionada por
Eviews,
13
revela que hay en la encuesta 579 individuos con valor cero de esta variable (mujeres),
siendo varones el resto, 893. Podemos calcular la media muestral (0,606) y la mediana (1,000) de
esta variable pero, evidentemente, estos estadsticos carecen de inters, salvo que quisiramos calcu-
lar, de modo muy indirecto, utilizando la media muestral, el porcentaje de personas de uno y otro
sexo dentro de la muestra. La mediana nicamente nos dice en este caso que hay ms individuos
en la muestra con valor :a|c = 1 que con valor :a|c = 0; la media nos dice que el 60,6% de los
encuestados son varones.
Los estadsticos muestrales, recogidos en H1oT_\G1o, H1oT_11lC, H1oT_1A111
nos revelan asimismo que los niveles educativos observados en la muestra son 1, 2, 3, 4, 5, con media
muestral de 2,38 y mediana de 3,0, mientras que los niveles de experiencia oscilan entre 0 y 47,
siendo nicamente nmeros enteros, con una media de 17,22 aos y una mediana de 16,5 aos.
Vamos a utilizar estos datos para efectuar un doble anlisis: por un lado, caracterizar los
determinantes del salario que recibe un trabajador; por otro, contrastar si existe discriminacin
salarial entre hombres y mujeres en el mercado de trabajo de donde provienen los datos.
Para analizar los determinantes salariales, comenzamos calculando el salario medio por nivel
educativo, obteniendo, respectivamente, 340,03; 371,74; 411,60; 461,13; 563,20, para los cinco suce-
sivos niveles educativos.
14
Que dichos salarios medios sean crecientes sugiere que el nivel educativo
es un posible determinante del salario. La evidencia similar para la experiencia profesional es ms
difcil de obtener, entre otras cosas, porque en este caso hay 48 niveles de experiencia diferentes, en
muchos de los cuales hay un nmero reducido de encuestados, lo que hace que el salario medio de
dicho grupo se mida con poca precisin. Estrictamente hablando, el salario medio no es creciente
con cada ao de experiencia profesional
15
, aunque se observa una clara tendencia a aumentar con
dicha variable; en todo caso, la evidencia muestral acerca de que el salario aumenta con la experi-
encia profesional es ms tenue que respecto al nivel educativo. El coeciente de correlacin entre
salario y experiencia es de 0,307, sugiriendo que existe cierta relacin entre estas variables. La
13
Tras marcar la variable male, marcar las pestaas: View_Descriptive Statistics_ Stats by classication, y en la
ventana Series/Group for classify, indicar: male.
14
Para ello, utilizamos la variable educ como clasicador al calcular los estadsticos descriptivos de la varible wage,
obteniendo WAGE_BY_EDUC.
15
Como se puede ver clasicando la variable WAGE utilizando EXPER como clasicador, lo que da lugar a la
taba WAGE_BY _EXPER.
33
nube de puntos (nube_wage_exper) que representa el salario en funcin de la experiencia arroja
asimismo una cierta imagen de dependencia, aunque dbil, especialmente para los trabajadores de
mayor experiencia.
Para obtener una primera evidencia acerca de una posible discriminacin salarial, calculamos
el salario medio por sexos, obteniendo 413,95 Bef. para las mujeres, frente a 466,42 Bef. para
los hombres, y un salario medio global, para todos ellos, de 445,78 Bef. que est, lgicamente,
comprendido entre el promedio de uno y otro grupo. Este dato inicial ya es favorable a la posible
existencia de discriminacin salarial, por cuanto que el salario medio de los hombres es superior al
de las mujeres, supuesto que todos ellos desempean tareas laborales comparables. Otro aspecto
interesante es que el histograma de la variable salarios revela una fuerte curtosis, que conduce al
rechazo de la hiptesis de Normalidad de acuerdo con el test de Bera-Jarque. Esto signica que
no es muy razonable creer que dicha variable quede determinada mediante la suma de un conjunto
de variables deterministas y un trmino estocstico con distribucin Normal, como se supone en el
modelo de regresin lineal habitualmente.
Antes de armar categricamente la existencia de discriminacin salarial, sin embargo, debemos
considerar la posibilidad de que la diferencia entre los salarios medios de ambos grupos pueda
obedecer a que las caractersticas de los hombres y mujeres encuestados, en trminos de educacin
y experiencia, sean diferentes: que el salario medio de los varones fuera ms elevado no indicara
necesariamente discriminacin salarial, si su nivel educativo y experiencia profesional fuesen ms
altos. La experiencia profesional media es de 15,2 aos entre mujeres y de 18,5 aos entre hombres
16
,
con una media global de 17,2 aos. Los valores mediana son 14 y 18, respectivamente, para ambos
grupos. El nivel educativo medio es de 3,59 entre mujeres, y de 3,24 entre hombres, con una
media muestral global de 3,38. Los niveles educativos mediana son de 4 y 3, respectivamente,
para mujeres y hombres. As, en esta muestra los hombres tienen, en media, mayor experiencia
laboral pero menor nivel educativo que las mujeres. Al no ser ambas variables ms elevadas entre
hombres que entre mujeres, la diferencia en salarios entre ambos grupos puede estar indicando,
efectivamente, discriminacin salarial contra las mujeres.
3.3.3 Anlisis de regresin
Comenzamos el anlisis de regresin utilizando separadamente el nivel educativo y la experiencia
laboral como variables explicativas del salario,
oa|ario
I
= 249, 51 + 58, 10
(3, 58)
(16, 22)
1dncaci o:
I
+n
I
,

1
2
= 0, 151, ^ o
u
= 165, 4. (14)
Las desviaciones tpicas y los estadsticos t aparecen entre parntesis, bajo el valor estimado de
la pendiente de la recta de regresin. Como la desviacin tpica muestral de la variable salario es
179,53, el Ratio 1
^ cu
cy
= 0, 08. El salario parece aumentar, en media, en algo ms de 58 Bef. por
ao de educacin; por el modo en que se ha denido la variable Educacin, la regresin estimada
sugiere, adems, que el incremento salarial por ao de educacin adicional es siempre el citado,
con independencia de que se trate del paso del nivel educativo 1 al 2, o del nivel 4 al nivel 5. La
regresin,
16
Como se puede ver clasicando la variable EXPER utilizando MALE como clasicador. View_Descriptive
statistics_Stats by classication, escribiendo male en la ventana de Series/Group for Classify.
34
oa|ario
I
= 352, 36 + 5, 43
(0, 44)
(12, 38)
1rjcric:cia
I
+n
I
,

1
2
= 0, 094, ^ o
u
= 170, 9. (15)
proporciona una estimacin de que el salario aumenta en unos 5,4 Bef. por ao de experiencia
laboral. Nuevamente, la regresin estimada restringe a que el incremento salarial por ao de
experiencia adicional sea el mismo tanto si el aumento se produce a un nivel reducido como a
un nivel elevado de experiencia.
4 Medidas de bondad de ajuste del modelo de regresin
Hasta aqu, hemos propuesto un criterio, de entre los muchos posibles, para obtener estimadores
de los coecientes del modelo de regresin lineal simple: minimizar la suma de los cuadrados
de los residuos, y hemos obtenido las expresiones analticas de los estimadores resultantes, as
como de sus varianzas y su covarianza. Cada uno de estos estimadores es una funcin de las
observaciones muestrales de ambas variables, X e Y, y son, por tanto, variables aleatorias; por
eso hemos calculado sus esperanzas matemticas y varianzas. Si alguno de ellos fuese funcin
nicamente de las observaciones de la variable X tendra naturaleza determinista, y su valor no
cambiara si en vez de utilizar en la estimacin del modelo la muestra de que disponemos, pudisemos
utilizar otra muestra diferente de igual tamao.
Sin embargo, ste no es el caso: ambos estimadores dependen tambin de las observaciones
de la variable Y, por lo que tienen naturaleza estocstica, es decir, su valor numrico sera distinto
con muestras diferentes. Variando la muestra, obtendramos distintos valores de 0 y 1, todos los
cuales nos describiran el histograma de frecuencias correspondiente a su distribucin de probabil-
idad. En los prrafos anteriores hemos demostrado que la esperanza matemtica de cada uno de
estos estimadores es el verdadero valor, que es desconocido, del parmetro que pretende estimar,
y hemos deducido las expresiones analticas de las varianzas de cada una de sus distribuciones de
probabilidad.
El procedimiento MCO que hemos utilizado garantiza que la recta de regresin obtenida es
la que proporciona la menor Suma de Cuadrados de Residuos que es posible obtener trazando rectas
a travs de la nube de puntos. Sin embargo, en unas ocasiones tal mejor ajuste puede ser excelente,
en otras, el mejor ajuste puede no ser muy bueno. Necesitamos, en cualquier caso, disponer de
criterios que puedan resumir en un indicador el grado de ajuste de la regresin MCO a la nube de
puntos de que partimos.
Recordemos que:
^ n
I
= j
I
^ j
I
= j
I
(
^
,
0
+
^
,
1
r
I
)
Si la perturbacin aleatoria sigue una distribucin de probabilidad Normal, entonces j
I
= ,
0
+
,
1
r
I
+n
I
tambin sigue una distribucin Normal, pues es igual a una constante, ms una variable
con distribucin Normal. Adems:
1(j
I
) = 1(,
0
+,
1
r
I
+n
I
) = ,
0
+,
1
r
I
\ ar(j
I
) = \ ar(,
0
+,
1
r
I
+n
I
) = \ ar(n
I
) = o
2
u
35
de modo que, de acuerdo con el modelo, todas las observaciones de la variable endgena tienen
la misma varianza, pero diferente esperanza matemtica, pues sta depende del valor numrico de
la variable A, que vara a lo largo de la muestra.
Puede probarse que el residuo correspondiente a cada observacin es una combinacin lineal
de todos los trminos de error del modelo y, por tanto, si la perturbacin aleatoria del modelo es
Normal, el residuo tambin tiene distribucin Normal. Su esperanza matemtica es:
1(^ n
I
) = 1(j
I
^ j
I
) = 1(j
I
) 1(
^
,
0
+
^
,
1
r
I
) = 1 (,
0
+,
1
r
I
+n
I
) 1(
^
,
0
) 1(
^
,
1
r
I
) =
= ,
0
+,
1
r
I
+1(n
I
) ,
0
,
1
r
I
= 0
Teniendo en cuenta que, entre ,
0
, ,
1
,
^
,
0
,
^
,
1
y r
I
, slo
^
,
0
y
^
,
1
son aleatorios, puede obtenerse la
siguiente expresin para la varianza de cada residuo:
\ ar(^ n
I
) = \ ar(j
I
^ j
I
) = \ ar
_
(,
0
+,
1
r
I
+n
I
) (
^
,
0
+
^
,
1
r
I
)
_
=
=
o
2
u
:

n
=1
(r

r
I
)
2

n
=1
(r

r)
2
Al tener esperanza cero, la varianza del residuo es un adecuado indicador de su tamao. Podemos
ver que la varianza es tanto mayor (lo cual no es deseable), cuanto mayor es o
2
u
, pero es menor
cuanto mayor sea el tamao muestral. Tambin es menor cuanto mayor es la varianza muestral de la
variable explicativa, lo cual es, por tanto, un aspecto deseable: un apreciable grado de uctuacin
en A no es negativo, sino positivo. Por ltimo, ntese que la observacin r
I
correspondiente al
residuo i aparece en el numerador. Cuanto ms se separe sta de la media de todas las r
I
, mayor
ser la varianza del residuo correspondiente a dicha observacin muestral.
4.1 Error Estndar de la Regresin (EER)
No slo es cierto que la esperanza matemtica de la distribucin de probabilidad de cada uno
de los residuos MCO es igual a cero. Tambin se cumple que su media muestral es igual a cero,
puesto que la suma de todos ellos lo es, como vimos en las ecuaciones normales. Esta es una
peculiaridad del mtodo de estimacin MCO, que otro procedimiento de estimacin no tiene. Si,
considerados a lo largo de toda la muestra, los residuos tienen media cero, entonces su desviacin
tpica muestral ser un indicador del tamao promedio de cada uno de ellos. Esto es importante,
porque si la recta estimada se ajusta bien a la nube de puntos, entonces los residuos deberan ser
pequeos en algn sentido. Utilizar la desviacin tpica muestral de los residuos parece un criterio
razonable de ajuste. Adems, sabemos que si utilizamos : 2 en el denominador, su cuadrado
es un estimador insesgado de o
2
u
. La ausencia de sesgo en este estimador puede demostrarse sin
necesidad de obtener previamente los residuos de la regresin, tomando esperanzas en la expresin:
^ o
2
u
=
oC1
: 2
=
n

I=1
^ n
2
I
: 2
=
1
: 2
n

I=1
^ n
I
_
j
I

^
,
0

^
,
1
r
I
_
=
=
1
: 2
n

I=1
^ n
I
j
I
=
1
: 2
_
n

I=1
j
2
I

^
,
0
n

I=1
j
I

^
,
1
n

I=1
r
I
j
I
_
36
Su raz cuadrada, la desviacin tpica estimada, recibe el nombre de error estndar de la regresin
EER:
111 =
_

n
I=1
^ n
2
I
: 2
=
_
^ o
2
u
= ^ o
u
Es claro que minimizar la varianza residual equivale a minimizar el error estndar de la regresin,
EER. Sin embargo, recordemos que la desviacin tpica tiene, respecto a la varianza, la ventaja de
estar medida en las mismas unidades que la variable a la que se reere, el residuo, que tiene, a su
vez, las mismas unidades que la variable endgena j
I
. Para valorar si el ajuste obtenido por la recta
MCO a la nube muestral de puntos es bueno, es conveniente utilizar el valor numrico del EER en
relacin con alguna referencia, y la media muestral de la variable endgena es un buen indicador.
Ello nos permite presentar el porcentaje que de la media de j
I
representa el EER, pudiendo decir,
por ejemplo: el modelo estimado es bueno, puesto que el EER es tan slo un 4% de la media de
la variable endgena o, por el contrario: "el ajuste obtenido no es muy bueno, porque el tamao
medio de los residuos, indicado por el EER, es de un 65% de la media de 1 ".
4.2 El coeciente de determinacin
El inters del EER como indicador del grado de ajuste de un modelo de regresin disminuye
cuando queremos comparar la bondad del ajuste de dos modelos que tienen una variable dependiente
diferente. En tal caso, no es en absoluto cierto que el modelo con menor EER sea el modelo con
mejor ajuste; de hecho, no podremos armar nada al respecto, salvo que establezcamos alguna
medida relativa de grado de ajuste, que es lo que hacemos en esta seccin. A diferencia del EER, el
coeciente de determinacin que ahora denimos, denotado por 1
2
, es un indicador sin unidades,
que no es preciso ni tiene sentido poner en relacin con ninguna de las variables del modelo.
En primer lugar, escribamos para cada observacin i :
j
I
j = (^ j
I
j) + (j
I
^ j
I
) = (^ j
I
j) + ^ n
I
que muestra que la distancia entre una observacin j
I
y su media j puede escribirse como la
distancia entre su valor ajustado ^ j
I
y dicha media, ms el residuo correspondiente. La distancia
a la media del valor ajustado puede ser mayor o menor que la de la observacin j
I
, por lo que
el residuo puede ser negativo o positivo. La regresin estimada por MCO proporciona el valor
numrico de ^ j
I
j, que es una aproximacin a la distancia j
I
j. El resto es la parte no explicada,
o residuo. Como hemos mencionado, la explicacin puede exceder o no de j
I
j. La igualdad
anterior muestra cmo la desviacin total respecto a la media puede escribirse como la suma de la
desviacin explicada y el residuo.
Si elevamos al cuadrado ambos miembros, tenemos:
(j
I
j)
2
= (^ j
I
j)
2
+ ^ n
2
I
+ 2 (^ j
I
j) ^ n
I
y sumando a lo largo de toda la muestra:
n

I=1
(j
I
j)
2
=
n

I=1
(^ j
I
j)
2
+
n

I=1
^ n
2
I
+ 2
n

I=1
(^ j
I
j) ^ n
I
(16)
Pero:
37
n

I=1
^ n
I
(^ j
I
j) =
n

I=1
^ n
I
^ j
I
j
n

I=1
^ n
I
=
n

I=1
^ n
I
^ j
I
=
n

I=1
^ n
I
(
^
,
0
+
^
,
1
r
I
) =
=
^
,
0
n

I=1
^ n
I
+
^
,
1
n

I=1
^ n
I
r
I
=
^
,
0
(0) +
^
,
1
(0) = 0
donde hemos utilizado repetidamente el hecho de que la suma de los residuos MCO es igual a
cero, as como que la suma de sus productos por r
I
tambin es igual a cero. Ambas condiciones
provienen de las ecuaciones normales.
Finalmente, substituyendo en (16), llegamos a:
n

I=1
(j
I
j)
2
=
n

I=1
(^ j
I
j)
2
+
n

I=1
^ n
2
I
es decir:
:o
2

= :o
^
2 +:o
^ u
2
que expresa cmo la variacin muestral total en la variable 1 , que es : veces su varianza,
puede descomponerse como la suma explicada por la regresin estimada, :o
^
2 =

n
I=1
(^ j
I
j)
2
,
el primero de los sumandos del miembro derecho, ms la suma no explicada, que es la suma de los
cuadrados de los residuos. Si dividimos la suma explicada por la variacin total en 1 , tenemos la
denicin de coeciente de determinacin:
1
2
=
:o
^
2
:o
2

=
o

2 o
^ u
2
o
2

= 1

n
I=1
^ n
2
I

n
I=1
(j
I
j)
2
=

n
I=1
(^ j
I
j)
2

n
I=1
(j
I
j)
2
de modo que:
1
2
= 1
Variacin no explicada en 1
Variacin total en 1
=
Variacin explicada en 1
Variacin total en 1
Proposition 1 El coeciente de determinacin de todo modelo de regresin toma siempre valores
numricos entre 0 y 1.
Proof. El miembro derecho de la ecuacin es el cociente de dos trminos positivos, luego es positivo.
Adems, hemos visto que el numerador es uno de los dos componentes del denominador, luego su
valor numrico es inferior al de ste. En consecuencia, el cociente, que es positivo, es inferior a la
unidad.
El coeciente de determinacin, a veces denominado 1cnadrado, nos indica el porcentaje
de la variacin total en la variable 1 que la regresin estimada es capaz de explicar. La idea es que
si la regresin tiene un ajuste sucientemente bueno, ser debido a que la variable A explica buena
parte de la variacin que 1 experimenta a lo largo de la muestra, los residuos sern generalmente
pequeos, la variacin explicada en 1 ser un porcentaje elevado de su variacin muestral total, y
el coeciente de determinacin ser prximo a la unidad. Lo contrario ocurrir cuando el ajuste
de la recta MCO a la nube de puntos no sea sucientemente bueno, en cuyo caso el coeciente de
determinacin ser prximo a cero.
38
As pues, un coeciente de determinacin prximo a 1 signica que las estimaciones obtenidas
para los coecientes del modelo de regresin hacen a ste capaz de explicar un elevado porcentaje de
las variaciones que experimenta la variable endgena. El modelo proporciona en tal caso un buen
ajuste a los datos, por lo que puede utilizarse con conanza para efectuar evaluaciones e inferencias
acerca de la cuestin conceptual que lo motiv inicialmente. En el extremo contrario, un coeciente
de determinacin prximo a cero signica que las estimaciones obtenidas apenas explican las varia-
ciones que experimenta la variable endgena, por lo que el modelo no puede utilizarse con una gran
abilidad.
Hay que tener bastante cuidado, sin embargo, con la interpretacin del coeciente de de-
terminacin de una regresin. En ocasiones, si la muestra consta de pocas observaciones, quiz uno
o dos residuos elevados pueden generar un coeciente de determinacin reducido y, por ello, con-
ducir a creer que la regresin estimada es mala, cuando excepto por dichas observaciones, el ajuste
puede ser excelente. Por otra parte, si la muestra consta de muy pocas observaciones, y ningn
residuo es especialmente alto, se tendr un coeciente de determinacin muy elevado, sin que deba
interpretarse como un excelente ajuste, sino ms bien como un indicador de escasa informacin
muestral.
Otro caso delicado se reere al uso del coeciente de determinacin con muestras de series
temporales que muestran una tendencia similar. En tales casos, el coeciente de determinacin se
aproxima a la unidad, aunque la relacin entre ambas variables, excepcin hecha de sus tendencias,
pueda ser pobre. Esto viene indicado por dos ejercicios relacionados: a veces, basta estimar y extraer
una tendencia determinista de dos series temporales A e 1 para que un coeciente de determinacin
en torno a 0,90 antes de la extraccin de tendencias, se reduzca a 0,3 0,4. El otro ejercicio, casi
reverso del anterior, puede efectuarse tomando dos variables con poca relacin, y aadindoles una
tendencia, es decir, el producto de un detemrinado coeciente, como , = 0, 27, , = 3, 45, por una
variable de tendencia, que toma valores 1,2,3,... . Pues bien, si el coeciente de determinacin antes
de aadir la tendencia estaba en torno a 0,20, por ejemplo, podra pasar a ser de 0,80 tras aadir la
misma tendencia a ambas variables. Estos ejercicios son importantes, porque no querramos decir
en ninguno de los dos casos que las dos variables estn muy relacionadas y que, en consecuencia,
el modelo de regresin estimado es bueno, slo porque el coeciente de determinacin sea elevado
debido a la presencia de la tendencia comn a ambas variables. Este aspecto, de suma importancia,
es conocido como el problema de regresin espria, y es estudiado en detalle ms adelante.
Todo esto hace que, entre otras cosas, se exija un coeciente de determinacin superior en
regresiones estimadas con datos de series temporales que con datos de seccin cruzada. En todo
caso, es imprescindible acompaar toda estimacin de un modelo de regresin, con los estadsticos
que permitan evaluar la bondad del ajuste entre modelo y datos. Estos incluirn el coeciente de
determinacin 1
2
, el EER, as como estadsticos que examinaremos en las prximas secciones.
4.3 Correlacin en el modelo de regresin lineal
Correlacin es el grado de dependencia que existe entre variables. Cuando se trata de slo dos
variables, existe una medida, el coeciente de correlacin, introducido por K.Pearson:
j
r
=
Co(r, j)
_
\ ar(r)
_
\ ar(j)
cuya justicacin estamos ahora en condiciones de comprender. Vamos a demostrar que el
coeciente de correlacin de Pearson mide el grado de dependencia lineal que existe entre dos
39
variables, A e 1 .
Para ello, partimos del coeciente de determinacin de una regresin lineal simple, y ex-
traemos su raz cuadrada, denotando por r
r
al estadstico que as se obtiene:
r
r
=
_
1
2
=
_
1
o
^ u
2
o
2

Ahora bien, puesto que:


^ j
I
=
^
,
0
+
^
,
1
r
I
=
_
j
^
,
1
r
_
+
^
,
1
r
I
= j +
^
,
1
(r
I
r)
tenemos:
o
^ u
2 =
1
:
n

I=1
(j
I
^ j
I
)
2
=
1
:
n

I=1
_
j
I

_
j +
o
r
o
2
r
(r
I
r)
__
2
=
=
1
:
n

I=1
_
(j
I
j)
2
+
(o
r
)
2
(o
2
r
)
2
(r
I
r)
2
2
o
r
o
2
r
(r
I
r) (j
I
j)
_
=
= o
2

+
(o
r
)
2
(o
2
r
)
2
o
2
r
2
(o
r
)
2
o
2
r
= o
2


(o
r
)
2
o
2
r
y, en consecuencia:
r
r
=
_
1
2
=
_
1
o
^ u
2
o
2

_
1
o
2


(Sxy)
2
S
2
x
o
2

=
_
(o
r
)
2
o
2
r
o
2

=
o
r
o
r
o

= j
r
obteniendo, precisamente, el coeciente de correlacin lineal. Es decir, por haber demostrado
que el coeciente de correlacin de Pearson no es sino la raz cuadrada del coeciente de deter-
minacin en un modelo de regresin lineal, podemos armar que el coeciente de correlacin de
Pearson mide el grado de relacin entre dos variables, A e 1 , supuesto que la relacin entre ambas
sea de tipo lineal. Por tanto, su interpretacin slo est realmente justicada en la medida que la
regresin ptima entre ambas variables, es decir, la esperanza condicional de 1 dado A, sea lineal,
y no en otro caso.
Asimismo, puesto que ya hemos probado que el coeciente de determinacin est comprendido
entre 0 y 1, podemos obtener ahora como corolario que el coeciente de correlacin de Pearson est
siempre comprendido entre -1 y +1, resultado bien conocido de cursos de Estadstica.
Es importante destacar que si la verdadera relacin entre dos variables no es lineal, y utilizamos el
coeciente de correlacin de Pearson como un indicador del grado en que ambas estn relacionadas,
podemos cometer todo tipo de errores. En tal situacin, habra que tratar de identicar qu forma
funcional adopta el mejor modelo de relacin entre ambas variables con el objeto de proceder a su
estimacin y posterior evaluacin de los correspondientes residuos. No es difcil encontrar ejemplos
de relacin no lineal exacta entre dos variables a pesar de que ambas presentan un coeciente de
correlacin igual a cero.
Como sabemos, si dos variables son independientes, entonces su covarianza es igual a cero. Pero
el coeciente de Pearson es el cociente entre sta y el producto de las desviaciones tpicas de A e 1 ,
40
por lo que, si dos variables son independientes, entonces su coeciente de correlacin lineal es igual
a cero. Ello no puede sorprendernos en modo alguno: estamos armando que si dos variables A e
1 son independientes, y ajustamos una recta de regresin, es decir, un modelo lineal, a un conjunto
de observaciones muestrales de ambas variables, entonces detectaremos un grado de asociacin nulo
entre ambas.
Tambin podramos ajustar modelos de otro tipo, con funciones no lineales; aunque no los
hemos examinado aqu, existen procedimientos de estimacin de tales modelos. Hecho tal ejercicio,
volveramos a detectar una capacidad nula del modelo no lineal, para relacionar A e 1 , si bien es
cierto que deberamos utilizar algn estadstico adecuado, que relacionase la suma de cuadrados
de los residuos con la suma de cuadrados de la variable 1 . En resumen, si dos variables son
independientes, no podemos estimar ninguna forma funcional de relacin entre ellas que genere
capacidad explicativa alguna; en particular, una recta no explicar ninguna asociacin.
Por el contrario, si el coeciente de correlacin de Pearson es nulo, slo podremos armar
que la relacin lineal entre ambas variables no es muy buena, pues no se detecta un grado apreciable
de asociacin entre ambas, supuesto que la forma funcional de tal hipottica relacin sea lineal. Sin
embargo, ello no excluye la posibilidad de que otra forma funcional, no lineal, reejase un grado
de asociacin notable entre ambas variables que, en tal caso, seran dependientes. Por tanto,
ausencia de correlacin lineal entre dos variables, o incorrelacin, que es lo que mide el coeciente
de correlacin de Pearson, no implica en modo alguno su independencia.
Ahora que conocemos la estrecha relacin entre coeciente de correlacin de Pearson y
coeciente de determinacin, podemos apreciar que el primero nos proporciona una informacin
acerca de la relacin entre las variables que el coeciente de determinacin no consigue transmitirnos.
Ello se debe a que el coeciente de determinacin es el cuadrado del coeciente de correlacin,
por lo que pierde la informacin concerniente a su signo; sta es relevante, excepto en algunas
situaciones en que es perfectamente conocido a priori, dada la naturaleza de las variables A e 1 .
Por ejemplo, si estimamos una regresin de la cantidad vendida de un producto en un mercado
con cierto poder de monopolio, sobre su precio, sabemos a priori que sta ser una relacin de
signo negativo: un coeciente ,
1
negativo implicar que variaciones positivas, es decir, aumentos
en el precio del producto, se transmiten en variaciones negativas, es decir, descensos, en la cantidad
vendida, y viceversa. En este ejemplo, nos interesar tan slo tratar de estimar el grado en que el
precio explica la cantidad vendida: si lo hace en gran medida o si, por el contrario, la capacidad
explicativa no es muy elevada y debemos encontrar otros factores explicativos (quiz precios de otros
productos con cierto grado de sustitucin del nuestro, la renta de las familias, etc.) que aadir al
modelo de regresin.
Cuando no contamos con esta informacin, queremos estimar no slo la capacidad que A
tiene para explicar las variaciones que experimenta 1 , sino tambin el signo de su relacin. Para
ello, observemos que el signo del coeciente de correlacin es el mismo que el de la covarianza,
de modo que si sta es positiva, la relacin entre ambas variables es positiva o creciente, siendo
negativa o decreciente en el caso alternativo. Por otra parte, los valores numricos absolutos del
coeciente de correlacin de Pearson evolucionan muy en relacin con los que toma el coeciente
de determinacin: si uno es cero, lo es el otro, mientras que si el valor absoluto del coeciente de
correlacin es uno, tambin es igual a uno el coeciente de determinacin. Adems, puesto que el
coeciente de determinacin slo toma valores numricos entre 0 y 1, necesariamente el coeciente
de correlacin toma valores numricos entre -1 y +1.
As, decimos que cuando el coeciente de correlacin lineal es prximo a +1, la relacin entre
ambas variables es estrecha y directa, o de signo positivo, es decir, cuando una aumenta, tambin
41
lo hace la otra, y tambin tienden a disminuir simultneamente. Cuando una de las variables
est por encima de su media, la otra variable tiende a estar tambin por encima de su media, y
cuando una est por debajo, tambin tiende a estarlo la otra. Si fuese exactamente igual a +1, lo
que es prcticamente imposible cuando se trabaja con datos reales, diramos que la relacin entre
ambas variables es perfecta, y positiva o directa. Cuando el coeciente de correlacin es prximo
a -1, entonces la relacin es muy estrecha, pero inversa, o de signo negativo, es decir, cuando una
variable aumenta la otra tiende a disminuir, y viceversa. Cuando una variable est por encima de
su media, la otra avriable tiende a estar por debajo de su media. Si fuese exactamente igual a -1,
diramos que la relacin entre las variables es perfecta y negativa, o inversa. Cuando el coeciente
de correlacin es prximo a cero, tambin lo es el coeciente de determinacin, por lo que decimos
que la relacin lineal entre las variables A e 1 es prcticamente inexistente.
No debe olvidarse, sin embargo que, a diferencia del coeciente de determinacin, el coe-
ciente de correlacin no es estrictamente cuantitativo: si tenemos dos modelos de regresin para una
misma variable dependiente, con coecientes de correlacin de .35 y .70, no podemos decir que el
segundo tiene un ajuste doblemente mejor que el primero, si bien podemos armar que muestra un
ajuste claramente mejor. Tales armaciones acerca de comparaciones estrictamente cuantitativas
slo pueden hacerse para el coeciente de determinacin, por su signicado como porcentaje de la
variacin en la variable dependiente que el modelo es capaz de explicar. Si los anteriores valores
numricos correspondiesen a los coecientes de determinacin de ambos modelos, entonces s que
podramos armar que el segundo muestra un ajuste doblemente superior al primero.
En denitiva, los anlisis de correlacin y de regresin proporcionan respuestas similares
acerca de la evolucin conjunta de dos variables (o ms de 2 variables, en el caso de la regresin
mltiple). El anlisis de correlacin, basado estrictamente en el clculo del coeciente de correlacin
de Pearson, facilita el grado y signo de la asociacin, pero no proporciona una idea acerca de la
forma funcional de dicha relacin, ni tampoco su direccin. Esta, que s se obtiene con el anlisis
de regresin, es una ventaja del mismo, pero est condicionada a que se satisfagan las hiptesis
del modelo de regresin lineal, que condicionan la validez del mtodo MCO para la estimacin del
modelo lineal de regresin: as, si a) la verdadera funcin de relacin entre variables, que el analista
desconoce, es realmente lineal, b) no se omiten variables explicativas relevantes, c) el trmino de
error del modelo no tiene media signicativa, d) ni sus valores para distintas observaciones estn
correlacionados entre s, e) si su varianza es la misma para todas las observaciones, y f) si no
existe una relacin causal de 1 hacia A, entonces el anlisis de regresin mediante la estimacin
MCO est plenamente justicada y ser conveniente utilizarlo, por cuanto que nos proporciona ms
informacin que el mero anlisis de correlacin.
Adems, el uso del estimador MCO en el modelo de regresin lineal simple est justicado
por sus propiedades de eciencia: es el estimador lineal de mnima varianza y si, adems de las
condiciones anteriores, las perturbaciones tienen distribucin Normal, entonces es eciente, pues su
varianza alcanza la cota de Cramer-Rao.
Por el contrario, si tenemos razones para creer que una o ms de tales hiptesis dejan
de cumplirse en un grado apreciable, podemos perder conanza en los resultados que el anlisis de
regresin pueda facilitarnos, preriendo efectuar un anlisis de correlacin, cuya validez no descansa
sobre tantas hiptesis, si bien precisa del supuesto acerca de que la verdadera funcin de relacin
entre X e Y sea lineal.
42
4.3.1 Propiedades de los residuos de Mnimos Cuadrados
Ntese que las ecuaciones anteriores pueden escribirse tambin:
n

I=1
^ n
I
= 0
n

I=1
r
I
^ n
I
= 0
que son dos propiedades del estimador de mnimos cuadrados:
1) la suma de los residuos que genera el estimador de mnimos cuadrados es igual a cero, lo
que no necesariamente ocurre con otro procedimiento de estimacin [ver suma de la columna 7 del
Cuadro 1], y
2) los residuos de mnimos cuadrados estn incorrelacionados con la variable explicativa del
modelo. Cuando se considera un modelo de regresin lineal general o mltiple, que incluye no una,
sino / variables explicativas, los residuos de mnimos cuadrados estn incorrelacionados con todas
las variables explicativas del modelo [ver suma de la columna 8 del Cuadro 1].
4.4 Esperanza matemtica
La expresin del estimador MCO de la pendiente del modelo de regresin lineal simple puede
escribirse:
^
,
1
=

n
I=1
(r
I
r) (j
I
j)

n
I=1
(r
I
r)
2
=

n
I=1
(r
I
r) j
I

n
I=1
(r
I
r)
2
=
n

I=1
_
r
I
r

n
I=1
(r
I
r)
2
_
j
I
=
n

I=1
c
I
j
I
(17)
como una combinacin lineal ponderada de las observaciones de la variable endgena, con pon-
deraciones:
c
I
=
r
I
r

n
I=1
(r
I
r)
2
En esta cadena de igualdades hemos utilizado el hecho de que la suma de las desviaciones de una
variable con respecto a su media muestral, es siempre igual a cero. Las ponderaciones en esta
expresin suman cero:
n

I=1
c
I
=
n

I=1
_
r
I
r

n
I=1
(r
I
r)
2
_
=

n
I=1
(r
I
r)

n
I=1
(r
I
r)
2
=
0

n
I=1
(r
I
r)
2
= 0
Adems:
n

I=1
c
I
r
I
=
n

I=1
_
r
I
r

n
I=1
(r
I
r)
2
_
r
I
=

n
I=1
(r
I
r) r
I

n
I=1
(r
I
r)
2
=

n
I=1
r
2
I
r

n
I=1
r
I

n
I=1
(r
2
I
2 rr
I
+ r
2
)
=
=

n
I=1
r
2
I
: r
2

n
I=1
r
2
I
2 r(: r) +: r
2
=

n
I=1
r
2
I
: r
2

n
I=1
r
2
I
: r
2
= 1
43
Y la suma de los cuadrados de las ponderaciones:
n

I=1
c
2
I
=
n

I=1
_
r
I
r

n
I=1
(r
I
r)
2
_
2
=

n
I=1
(r
I
r)
2
_

n
I=1
(r
I
r)
2
_
2
=
1

n
I=1
(r
I
r)
2
=
1
:o
2
r
Recordemos que estamos suponiendo que los valores r
1
,r
2
,... tomados por la variable A son jos, es
decir, no estn sujetos a ninguna incertidumbre, de modo que, si volvisemos a tomar otra muestra
de igual tamao, tendramos para dicha variable las mismas observaciones numricas, una por una,
que las que ya disponemos. Tan slo las observaciones j
1
, j
2
,... de la variable endgena 1 diferiran
de las actualmente disponibles, debido a que las realizaciones muestrales de la perturbacin aleatoria
n
I
, el nico componente aleatorio de 1 , seran diferentes de las actuales. Vamos a utilizar ahora
repetidamente el carcter determinista no aleatorio, de la variable A.
Si sustituimos en (17) j
I
por su expresin a travs del modelo de regresin, tenemos:
^
,
1
=
n

I=1
c
I
(,
0
+,
1
r
I
+n
I
) =
n

I=1
c
I
,
0
+
n

I=1
c
I
,
1
r
I
+
n

I=1
c
I
n
I
= (18)
= ,
0
n

I=1
c
I
+,
1
n

I=1
c
I
r
I
+
n

I=1
c
I
n
I
= ,
0
.0 +,
1
.1 +
n

I=1
c
I
n
I
=
= ,
1
+
n

I=1
c
I
n
I
donde hemos utilizado las dos propiedades antes demostradas. Esta es una representacin muy
til, que presenta el estimador de mnimos cuadrados de la pendiente como una combinacin lineal
de las perturbaciones del modelo, con coecientes c
I
, ms una constante desconocida, el verdadero
valor de dicha pendiente. Los coecientes c
I
en dicha combinacin lineal varan de una muestra
a otra con los valores de la variable explicativa, A, por lo que el valor numrico del estimador de
mnimos cuadrados tambin variara si dispusiramos de distintas muestras recogidas en distintos
perodos de tiempo, por ejemplo.
Es importante recordar que suponemos que la variable explicativa es determinista. Es decir, que
los valores numricos observados en la muestra para dicha variable son los nicos posibles, dadas las
unidades de observacin muestral, sean individuos, empresas, familias, o un conjunto de observa-
ciones de detemrinada frecuencia (diaria, mensual, trimestral anual) a lo largo de un determinado
intervalo de tiempo. Recordemos que de una muestra a otra, cambiaran los valores observados de
la variable dependiente, j
I
porque cambiara la realizacin numrica de las perturbaciones n
I
, pero
no porque cambiasen los valores de la variable explicativa r
I
, que seran los mismos entre distintas
muestras extradas de las mismas unidades de observacin.
A continuacin, vamos a obtener la esperanza matemtica y la varianza de los estimadores
de mnimos cuadrados de
^
,
0
y
^
,
1
. Esto es necesario para poder proceder a contrastar hiptesis
acerca de sus verdaderos valores que, recordemos, son desconocidos. Disponemos de una estimacin
numrica, obtenida con la muestra disponible, que sera diferente si pudisemos calcularla con otra
muestra distinta.
4.4.1 Ausencia de sesgo del estimador de mnimos cuadrados
Tomando esperanzas, y notando que:
44
1 (c
I
n
I
) = c
I
0 = 0
tenemos:
1
_
^
,
1
_
= ,
1
+1
_
n

I=1
c
I
n
I
_
= ,
1
+
n

I=1
1 (c
I
n
I
) = ,
1
+
n

I=1
c
I
1 (n
I
) = ,
1
lo que prueba que el estimador MCO del parmetro ,
1
es insesgado, puesto que su esperanza
matemtica coincide con el verdadero valor del parmetro que se pretende estimar, que es descono-
cido.
Por tanto, el supuesto 1(n
I
) = 0, i = 1, 2, ..., es suciente para garantizar la ausencia de sesgo
del estimador de mnimos cuadrados de la pendiente:
^
,
1
. Notemos que el supuesto de que la variable
explicativa no es aleatoria es crucial para probar la ausencia de sesgo del estimador de mnimos
cuadrados. En las expresiones anteriores nos hemos encontrado con 1 (c
I
n
I
) , y cada c
I
depende
de todas las observaciones r

, , = 1, 2, ..., :. Si fuese aleatoria, no sabramos decir nada acerca de la


esperanza matemtica 1(r
I
n
I
), salvo haciendo supuestos especcos acerca de la covarianza entre
ambas variables aleatorias, r
I
y n
I
, pero mucho menos acerca de la esperanza 1 (c
I
n
I
) .
Recordando que la expresin del estimador MCO del trmino independiente ,
0
es:
^
,
0
= j
^
,
1
r
notemos que:
1 ( j) = ,
0
+1
_
^
,
1
r
_
+1 ( n) = ,
0
+,
1
r
por lo que:
1
_
^
,
0
_
= 1( j) 1(
^
,
1
r) = (,
0
+,
1
r) 1(
^
,
1
). r = (,
0
+,
1
r) ,
1
r = ,
0
de modo que, al igual que ocurra con la estimacin de ,
1
, el estimador MCO de ,
0
es tambin
insesgado.
La recta de regresin estimada pasa por el punto ( r, j) . Es decir, el valor numrico que la recta
de regresin estimada asocia a la variable dependiente 1 cuando A = r es, precisamente, 1 = j.
En efecto:
j =
^
,
0
+
^
,
1
r =
_
j
^
,
1
r
_
+
^
,
1
r = j
El punto ( r, j) se conoce en ocasiones como el centro de gravedad de la nube de puntos
(r
I
, j
I
), i = 1, 2, ..., .
4.5 Matriz de covarianzas
Todo estimador puntual debe ir siempre acompaado de una medida de dispersin del mismo,
generalmente su varianza, de modo que podamos juzgar el grado en que se aproxima al verdadero
valor del parmetro que pretendemos estimar. Pero adems, para poder llevar a cabo un anlisis de
inferencia estadstica, es decir, para poder contrastar si alguno de los coecientes ,
0
,
1
, o ambos,
toman determinados valores tericos, es preciso disponer de desviaciones tpicas de sus estimaciones.
45
Estos no son sino un caso particular de los problemas de estimacin e inferencia estadsticos, y los
resolvemos de modo similar, mediante la construccin de intervalos de conanza, al nivel deseado,
alrededor del valor hipottico que se pretende contrastar.
4.5.1 Varianza del estimador de mnimos cuadrados de la pendiente del modelo de
regresin lineal simple
Recordemos el supuesto de que las perturbaciones aleatorias del modelo correspondientes a todas
las unidades muestrales tienen la misma varianza, o
2
u
. Por tanto, si partimos de la expresin (18)
que antes obtuvimos para el estimador de ,
1
, tenemos:
\ ar(c
I
n
I
) = c
2
I
\ ar(n
I
) = c
2
I
o
2
u
para cualquier i = 1, 2, ... . Entonces, puesto que la covarianza entre n
I
y n

es igual a cero, se
tiene:
1
_
n

I=1
c
I
n
I
_
=
n

I=1
1 (c
I
n
I
) =
n

I=1
c
I
1 (n
I
) =
n

I=1
c
I
0 = 0
\ ar
_
n

I=1
c
I
n
I
_
=
n

I=1
\ ar(c
I
n
I
) =
n

I=1
c
2
I
\ ar(n
I
) = o
2
u
_
n

I=1
c
2
I
_
=
=
1

n
I=1
(r
I
r)
2
=
1
:o
2
r
Como el estimador
^
,
1
es la suma de una constante (el verdadero valor ,
1
) y una variable
aleatoria (la suma ponderada de las perturbaciones) [ver (18)], la varianza de
^
,
1
ser igual tan slo
a la varianza de esta ltima suma:
\ ar
_
^
,
1
_
= \ ar
_
n

I=1
c
I
n
I
_
= o
2
u
_
n

I=1
c
2
I
_
=
o
2
u

n
I=1
(r
I
r)
2
=
o
2
u
:o
2
r
Resaltemos que esta expresin es vlida bajo los supuestos de que todos los trminos de error
tienen la misma varainza (es decir, que la varianza es constante a lo largo de la muestra), y de
independencia entre dos cualesquiera de los trminos de error.
4.6 Estimacin de la varianza del trmino de error o perturbacin aleato-
ria del modelo
Conociendo las expresiones analticas de las varianzas de ambos estimadores, as como tambin
de su covarianza, podremos contrastar hiptesis acerca de valores tericos para alguno de los dos
coecientes, y tambin contrastar hiptesis conjuntas, acerca de ambos simultneamente. Pero en
ellas aparece la varianza del trmino de error o
2
u
, que es desconocida. Debemos, por tanto, estimar
este parmetro, y utilizar su estimacin en lugar de su verdadero valor, que es desconocido.
Por similitud, parece razonable utilizar la varianza muestral de los residuos como un estimador
de la varianza poblacional o
2
u
. Los residuos de mnimos cuadrados tienen media cero, como muestra
46
la primera ecuacin normal, por lo que su varianza muestral es: o
2
^ u
=
1
n

n
I=1
^ n
2
I
= oC1,:. Pero
estimamos con una pequea correccin:
^ o
2
u
=
1
: 2
n

I=1
^ n
2
I
=
:
: 2
o
2
^ u
Tomamos : 2 y no simplemente : en el denominador, pero que el estimador ^ o
2
u
sea insesgado
[ver Apndice]. Una vez que se dispone de una estimacin de la varianza, puede utilizarse en
las expresiones de la varianza de los estimadores de los coecientes, de manera que tenemos as
estimaciones de las varianzas de los coecientes estimados, lo que indicaremos con un circunejo
encima de la palabra "Varianza".
Ejemplo.- Con los datos del Cuadro 1, tenemos una Suma Residual, es decir, una suma de
cuadrados de residuos, de 80,2. Ello nos lleva a la estimacin de la varianza del trmino de error:
^ o
2
u
=
1
: 2
n

I=1
^ n
2
I
=
80, 2
16 2
= 5, 729 = ^ o
u
= 2, 393
1
2
= 1
on:a Cnadrado: Re :idno:
on:a Tota|
= 1
5, 014
11, 715
= 1 0, 428 = 0, 572
Podemos utilizar ahora la estimacin de o
2
u
en las expresiones de las varianzas de los estimadores
de Mnimos Cuadrados que aparecen en el Apndice:
\ ar
_
^
,
1
_
=
o
2
u

n
I=1
(r
I
r)
2
=
5, 729
167, 9
= 0, 03417 =1T
_
^
,
1
_
= 0, 185
\ ar
_
^
,
0
_
= o
2
u

n
I=1
r
I
2

n
I=1
(r
I
r)
2
=
5, 729
16
1911
167, 9
= 4, 075 =1T
_
^
,
2
_
= 2, 02
Co
_
^
,
0
,
^
,
1
_
=
ro
2
u

n
I=1
(r
I
r)
2
=
5, 729
167, 9
(10, 4) = 0, 354
Finalmente, el modelo estimado se representa escribindolo como la funcin lineal que es, ano-
tando debajo de los coecientes estimados sus desviaciones tpicas que son, asimismo, estimadas,
como acabamos de ver, pues sus verdaderos valores dependen de o
2
u
:
j
I
= 4, 35
(2,02)
+ 0.799
(0,185)
r
I
+n
I
, 1
2
= 0, 572; ^ o
u
= 2, 393
4.7 El modelo de regresin lineal en desviaciones respecto de la media
Como hemos visto en la seccin anterior, a partir del modelo de regresin lineal:
j
I
= ,
0
+,
1
r
I
+n
I
, i = 1, 2, 3, ..., :
se deduce que:
j = ,
0
+,
1
r + n
47
y, restando, tenemos un modelo en el que cada variable aparece en desviaciones respecto de su
media muestral:
j
I
j = ,
1
(r
I
r) + (n
I
n) , i = 1, 2, 3, ..., :
Ntese que la primera y tercera ecuaciones son vlidas para cada observacin muestral y tenemos,
en cada una de ellas, tantas relaciones como observaciones muestrales, mientras que la segunda
ecuacin aplica slo a las medias muestrales y constituye, por tanto, una nica relacin.
En el modelo en desviaciones no hay trmino independiente, y el trmino de error es distinto
del trmino de error del modelo original.
Si estimamos este modelo en diferencias por mnimos cuadrados, tendremos el mismo estimador
de ,
1
que en el modelo original, ya que:
\ ar (r
I
r) = \ ar (r
I
)
Co [(r
I
r) , (j
I
j)] = Co (r
I
, j
I
)
Aunque no habremos estimado ,
0
, puesto que dicho parmetro ha desaparecido del modelo,
podemos utilizar la relacin que obtuvimos antes para calcular
^
,
0
= j
^
,
1
r.
La varianza del trmino de error del modelo en diferencias es ligeramente distinta del modelo
original, puesto que:
\ ar (n
I
n) = 1 [n
I
(n
I
n)] = 1(n
2
I
) 1 (n
I
n) =
= 1(n
2
I
) 1
_
n
I
n

I=1
n
I
:
_
= o
2
u

1
:
o
2
u
=
: 1
:
o
2
u
Los residuos del modelo estimado con las variables en desviaciones respecto de la media son:
^
I
= (j
I
j)
^
,
1
(r
I
r) = j
I
( j
^
,
1
r)
^
,
1
r
I
y, por tanto, coinciden numricamente, con los que se obtienen estimando el modelo con las
variables originales.
4.8 El modelo constante
Consideremos un modelo muy sencillo:
j
I
= ,
0
+n
I
,
en el que aparece una constante como nica variable explicativa, por lo que se denoomina modelo
constante de regresin. El estimador MCO ser el estadstico muestral que minimice la suma de los
residuos, que en este caso es:
oC1 =
n

I=1
^ n
2
I
=
n

I=1
(j
I
,
0
)
2
,
por lo que se trata de minimizar la suma de las desviaciones al cuadrado entre los valores
muestrales de la variable Y y un estadstico. La solucin a dicho problema de minimizacin est dada
48
por la media muestral, y el valor minimizado es, por tanto, la varianza muestral. En consecuencia,
el estimador del modelo constante de regresin es la media muestral. Ello signica que la media
muestral es el estimador ptimo, cuando no se dispone de informacin acerca de ninguna otra
variable. En tal situacin, lo mejor que podemos hacer es aproximar cada valor potencialmente
observable de la variable Y por la media muestral de que dispongamos. Es, desde luego, un estimador
algo pobre, pero nos sirve de referencia a la que hay que mejorar; es decir, contando con informacin
muestral acerca de alguna otra variable, hemos de conseguir estimaciones MCO de un modelo de
regresin tales que la Suma de Cuadrados de Residuos que generan sea inferior a la varianza muestral
de Y. Pero ello va a ocurrir siempre. Cuando se estima el modelo constante, la Suma de Cuadrados
de Residuos, que es la varianza de Y, coincide con la Suma Total, por lo que el coeciente de
determinacin es igual a cero. Ningn otro modelo tendr un coeciente de determinacin inferior.
4.9 Eciencia
En el modelo de regresin, la aleatoriedad proviene del trmino de error, de quien suponemos
que tiene esperanza matemtica nula y varianza o
2
u
. La aleatoriedad se transmite a la variable
j
I
, que tiene esperanza 1(j
I
) = ,
0
+ ,
1
r
I
y varianza o
2
u
, igual a la de n
I
, de quien se diferencia
en una constante, ,
0
+ ,
1
r
I
. Por otra parte, (17) muestra que el estimador MCO de ,
1
depende
linealmente de las observaciones de la variable aleatoria 1 . Tambin
^
,
0
es una combinacin lineal
de las observaciones j
I
:
^
,
0
= j
^
,
1
r = j
_
,
1
+
n

I=1
c
I
n
I
_
r = j ,
1
r r
_
n

I=1
c
I
(j
I
,
0
,
1
r
I
_
=
= j ,
1
r r
n

I=1
c
I
j
I
+,
0
r
n

I=1
c
I
+,
1
r
n

I=1
c
I
r
I
= j ,
1
r r
n

I=1
c
I
j
I
+,
0
r.0 +,
1
r.1 =
= j r
n

I=1
c
I
j
I
=
1
:
n

I=1
j
I
r
n

I=1
c
I
j
I
=
n

I=1
_
1
:
rc
I
_
j
I
Pues bien, el estimador MCO es de mnima varianza dentro de la clase de estimadores lineales:
Theorem 2 (Teorema de Gauss-Markov).- Bajo los supuestos del modelo llineal de regresin, el
estimador MCO es el estimador lineal insesgado de mnima varianza de los coecientes del modelo
de regresin.
Proof. Consideremos un estimador lineal de la pendiente del modelo de regresin:
~
,
1
=
n

I=1
c
I
j
I
que supondremos distinto del estimador de mnimos cuadrados, es decir, que no todas las con-
stantes c
I
son iguales a las c
I
. Para que este estimador sea insesgado ha de cumplirse:
49
1
_
~
,
1
_
= 1
_
n

I=1
c
I
j
I
_
= 1
_
n

I=1
c
I
(,
0
+,
1
r
I
+n
I
)
_
= 1
_
,
0
n

I=1
c
I
_
+,
1
1
n

I=1
c
I
r
I
+1
n

I=1
c
I
n
I
=
= ,
0
n

I=1
c
I
+,
1
n

I=1
r
I
+ 0
que ser igual a ,
1
y, con ello, el estimador
~
,
1
ser insesgado slo si se cumple, simultneamente:
n

I=1
c
I
= 0
n

I=1
c
I
r
I
= 1
Suponemos, por tanto, que las constantes c
I
satisfacen ambas condiciones. Teniendo en cuenta
que tanto

n
I=1
c
I
como

n
I=1
c
I
r
I
son constantes, la varianza de este estimador es:
\ ar
_
~
,
1
_
= \ ar
_
n

I=1
c
I
n
I
_
=
n

I=1
\ ar (c
I
n
I
) = o
2
u
n

I=1
c
2
I
de modo que, para probar que el estimador de mnimos cuadrados tiene menor varianza que
este estimador lineal insesgado genrico, habremos de probar que:
1

n
I=1
(r
I
r)
2
_
n

I=1
c
2
I
con independencia de cules sean las constantes c
I
, i = 1, 2, ..., :.
Para ello, consideremos la expresin:
n

I=1
_
c
I

r
I
r

n
I=1
(r
I
r)
2
_
2
=
n

I=1
c
2
I
2
n

I=1
c
I
r
I
r

n
I=1
(r
I
r)
2
+
n

I=1
_
r
I
r

n
I=1
(r
I
r)
2
_
2
=
=
n

I=1
c
2
I
2
1

n
I=1
(r
I
r)
2
+
n

I=1
(r
I
r)
2
_

n
I=1
(r
I
r)
2
_
2
=
n

I=1
c
2
I
2
1

n
I=1
(r
I
r)
2
+

n
I=1
(r
I
r)
2
_

n
I=1
(r
I
r)
2
_
2
=
=
n

I=1
c
2
I

1

n
I=1
(r
I
r)
2
_ 0
donde la ltima desigualdad proviene del hecho de que el punto de partida es una suma de
cuadrados y por tanto, necesariamente positiva.
Pero esto signica que, como queramos mostrar:
n

I=1
c
2
I
_
1

n
I=1
(r
I
r)
2
50
El teorema de Gauss-Markov es importante, por cuanto que arma que la matriz de covar-
ianzas del estimador MCO es inferior a la de cualquier otro estimador lineal e insesgado. Es decir,
la diferencia entre ambas matrices, en el orden citado, es semidenida negativa. Ello tiene implica-
ciones ms tiles: la varianza del estimador MCO de ,
0
es inferior a la varianza de cualquier otro
estimador lineal e insesgado de dicho coeciente, y lo mismo ocurre con la varianza del estimador
MCO de ,
1
.
Cuando el trmino de error del modelo tiene una distribucin Normal, tenemos un resultado
an ms importante, que arma que el estimador MCO es eciente, es decir, tiene la menor varianza
posible (la menor matriz de covarianzas), dentro de la clase de los estimadores insesgados, sean estos
lineales o no.
Theorem 3 Teorema de Rao.- Si se cumplen las condiciones de la Seccin 13.1 y, adems, el
trmino de error del modelo tiene distribucin Normal, entonces el estimador MCO es el estimador
insesgado de mnima varianza de los coecientes del modelo de regresin.
La demostracin se basa en probar que, cuando el trmino de error del modelo de regresin tiene
distribucin Normal, n
I
~ (0, o
2
u
), entonces el estimador de Mnimos Cuadrados coincide con el
estimador de Mxima Verosimilitud. Como este ltimo es siempre (bajo condiciones muy generales
y, por tanto, fciles de satisfacer) el estimador de mnima varianza o eciente, habremos probado
que, en este caso especial, el estimador de mnimos cuadrados tambin lo es.
Consideremos el modelo de regresin con trmino de error Normal:
j
I
= ,
0
+,
1
r
I
+n
I
n
I
~ (0, o
2
u
)
del que escribimos la funcin de verosimilitud:
1(,
0
, ,
1
, o
2
u
,j
1
, r
1
, j
2
, r
2
, ..., j
n
, r
n
) =
n

I=1
1
o
u
_
2
c
u
2
i
/2c
2
u
y su logaritmo:
ln1(,
0
, ,
1
, o
2
u
,j
1
, r
1
, ..., j
n
, r
n
) =
:
2
lno
2
u

:
2
ln(2)
n

I=1
n
2
I
2o
2
u
=
=
:
2
lno
2
u

:
2
ln(2)
n

I=1
(j
I
,
0
,
1
r
I
)
2
2o
2
u
El estimador de Mxima Verosimilitud se obtiene derivando en la expresin anterior con respecto
a los parmetros desconocidos: ,
0
, ,
1
, o
2
u
, e igualando a cero dichas derivadas.
Pero sin necesidad siquiera de hacer dicho clculo, ya apreciamos que los valores numricos de
,
0
y ,
1
que maximizan ln1 son los mismos que minimizan la Suma de Cuadrados de los Residuos,
ya que sta entra con signo menos en la expresin de ln1. Por tanto, los estimadores de Mnimos
Cuadrados y de Mxima Verosimilitud de ambos parmetros coinciden, y el teorema quda probado.
Este resultado es importante, porque justica el uso del estimador de Mnimos Cuadrados, dado
que es un estimador eciente. Pero, como con cualquier teormea, es preciso entender el conjunto
de ocndiciones bajo las que puede armarse la conclusin que se ha obtenido. En nuestro caso, es
51
especilamente importante recordar que la eciencia del estimador de Mnimos Cuadrados se obtiene
si el trmino de error del modelo sigue una distribucin Normal, pero no necesariamente en otro
caso.
El estimador de Mxima verosimilitud de la varianza del trmino de error es:
^ o
2
1\
=
1
:
n

I=1
^ n
2
I
que es parecido, aunque no idntico, al estimador MCO de dicho parmetro. De hecho, como
sabemos [ver Apndice] que el estimador MCO de o
2
u
es insesgado, podemos asegurar que el
estimador de mxima verosimilitud es sesgado:
1
_
^ o
2
1\
_
= 1
_
: 2
:
^ o
2
1cO
_
=
: 2
:
1
_
^ o
2
1cO
_
=
: 2
:
o
2
u
Sin embargo, su sesgo desaparece al aumentar el tamao muestral por cuanto que el factor
(: 2),: tiende a uno. El estimador MV de la varianza es, por tanto, asintticamente insesgado.
4.10 Cambios de escala y de origen
4.10.1 Cambios de escala
En ocasiones, es conveniente multiplicar o dividir una variable por una constante. Por ejemplo, esto
sucede cuando los valores numericos de una variable son muy elevados, por estar dados en euros, y
para facilitar su lectura preferimos utilizar la variable en millones de euros, lo que equivale a dividir
sus datos por 1.000.000. En otras ocasiones, podemos estar interesados en multiplicar todos los
valores de una variable por una misma constante, por ejemplo, 100. Aunque habitualmente esto
afectar a una de las variables del modelo, puede suceder simultaneamente tanto con la variable
dependiente como con alguna de las variables explicativas. En el caso de un modelo de regresin
simple, se tratara de comparar el modelo:
j
I
=
^
,
1
+
^
,
2
r
I
+ ^ n
I
en el que aparecen las variables originales, con:
j

I
=
^
,

1
+
^
,

2
r
I
+ ^ n

I
donde: j

I
= `j
I
, r

I
= jr
I
, i = 1, 2, ..., , siendo ` y j constantes conocidas. Si solo la variable
r cambia, estaramos en una situacin con ` = 1, mientras que si es la variable j la que cambia,
entonces j = 1. Si lo que hacemos es pasar los valores de r de euros a millones de euros, entonces
` = 1 y j = 1,1000000. Como se ve, consideramos la posibilidad de que tanto la constante como
la pendiente del modelo se vean afectados por este cambio de escala. Tambin los residuos pueden
variar y, con ellos, el 1
2
, la Suma de cuadrados de residuos y la varianza residual, por lo que
tambin el valor numrico de los estadsticos de contraste t y 1 podran verse afectados.
Es sencillo analizar los posibles efectos de un cambio de escala, pues todo se basa en propiedades
conocidas de la covarianza y varianza. En este caso,
52
1(r

) = j1(r); 1(j

) = `1(j)
Co(r

, j

) = 1 [(r

) (j

)] = 1 [(jr j r) (`j ` j)] =


= 1 [j(r r) `(j j)] = j`1 [(r r) (j j)] = j`Co(r, j)
\ ar(r

) = 1
_
(r

)
2
_
= 1
_
(jr j r)
2
_
= 1
_
j
2
(r r)
2
_
= j
2
\ ar(r)
Por tanto,
^
,

2
=
Co(r

, j

)
\ ar(r

)
=
j`Co(r, j)
j
2
\ ar(r)
=
`
j
^
,
2
^
,

1
= j

^
,

2
r

= ` j
`
j
^
,
2
(j r) = `
_
j
^
,
2
r
_
= `
^
,
1
es decir, que la estimacin de la pendiente se ve afectada por ambas constantes, mientras que
la estimacin de la constante slo se ve afectada por un posible cambio de escala en la variable
dependiente. Por ejemplo, si dividimos los datos de r por 1000000, es decir, j = 1,1000000, y no
alteramos los datos de la variable dependiente, la estimacin de la pendiente queda multiplicada
por 1.000.000, mientras que la constante no cambiar.
Tambin tendremos:
^ n

I
= j

I

^
,

^
,

2
r

I
= `j
I
`
^
,
1

`
j
^
,
2
(jr
I
) = `j
I
`
^
,
1
`
^
,
2
r
I
= `^ n
I
oC1

I=1
(^ n

I
)
2
=

I=1
(`^ n
I
)
2
=

I=1
`
2
^ n
2
I
= `
2

I=1
^ n
2
I
= `
2
oC1
^ o
2

u
=
oC1

T /
= `
2
oC1
T /
= `
2
^ o
2
u
oT

I=1
(j

I
j

)
2
=

I=1
(`j
I
` j)
2
=

I=1
[`(j
I
j)]
2
=

I=1
`
2
(j
I
j)
2
= `
2
oT
1
2
= 1
oC1

oT

= 1
`
2
oC1
`
2
oT
= 1
oC1
oT
= 1
2
de modo que el ajuste del modelo no se ve afectado por posibles cambios de escala ni en la
variable dependiente ni en las variables explicativas. Como hemos visto, los coecientes en las
variables explicativas y la constante del modelos se modican con los posibles cambios de escala,
pero el grado del ajuste del modelo no se ve afectado por los posibles cambios de escala.
Cmo se vera afectado el estadstico t para le contraste de signicacin estadstica de la
pendiente del modelo? En el contraste de signicacin, el valor terico ,
0
2
que estamos contrastando
para la pendiente es cero, por lo que el estadstico t es igual a:
t

=
^
,

2
,
0
2
1T(
^
,

2
)
=
^
,

2
1T(
^
,

2
)
=
X

^
,
2
1T(
X

^
,
2
)
=
^
,
2
1T(
^
,
2
)
= t
por lo que el estadstico t tampoco vara.
53
4.10.2 Cambios de origen
Supongamos que el modelo transformado es:
j

I
=
^
,

1
+
^
,

2
r
I
+ ^ n

I
donde las variables transformadas vienen dadas por: j

I
= j
I
.`, r

I
= r
I
j, i = 1, 2, ..., , siendo `
y j constantes conocidas.
4.11 Apndice: Varianza del estimador de mnimos cuadrados de la
constante del modelo de regresin lineal simple
Para obtener la varianza del estimador MCO de
^
,
0
, notemos que:
\ ar
_
^
,
0
_
= \ ar( j) +\ ar(
^
,
1
r) 2Co( j,
^
,
1
r) = \ ar( j) + r
2
\ ar(
^
,
1
) 2 rCo( j,
^
,
1
)
donde aparece la varianza de la media muestral de la variable endgena, que podemos calcular,
del siguiente modo: si sumamos la expresin (1) del modelo lineal simple para todas las observaciones
muestrales, tenemos:
n

I=1
j
I
=
n

I=1
(,
0
+,
1
r
I
) +
n

I=1
n
I
= :,
0
+,
1
n

I=1
r
I
+
n

I=1
n
I
y, dividimos por el tamao muestral, ::
j = ,
0
+,
1
r + n
lo que puede utilizarse para probar que:
\ ar( j) = \ ar(,
0
+,
1
r + n) = \ ar(,
0
) +\ ar(,
1
r) +\ ar( n) = 0 + 0 +
o
2
u
:
=
o
2
u
:
Co
_
j,
^
,
1
_
= Co
_
j, ,
1
+
n

I=1
c
I
n
I
_
= Co ( j, ,
1
) +
n

I=1
c
I
Co ( j, n
I
) = 0 +
1
:
o
2
u
n

I=1
c
I
= 0
por lo que tenemos:
\ ar
_
^
,
0
_
= \ ar( j) + r
2
\ ar(
^
,
1
) 2 rCo( j,
^
,
1
) =
o
2
u
:
+ r
2
o
2
u

n
I=1
(r
I
r)
2
=
= o
2
u
_
1
:
+
r
2

n
I=1
(r
I
r)
2
_
= o
2
u

n
I=1
r
I
2

n
I=1
(r
I
r)
2
54
4.11.1 Covarianza entre los estimadores de mnimos cuadrados de la constante y la
pendiente del modelo de regresin lineal simple
Siguiendo un argumento similar, tenemos:
Co ( j, n
I
) = Co (,
0
+,
1
r + n, n
I
) = Co (,
0
, n
I
) + rCo (,
1
, n
I
) +Co ( n, n
I
) =
= 0 + 0 +
1
:
n

=1
Co(n

, n
I
) =
1
:
o
2
u
por lo que:
Co
_
^
,
0
,
^
,
1
_
= Co
_
j
^
,
1
r,
^
,
1
_
= rCo
_
j,
^
,
1
_
r\ ar
_
^
,
1
_
=
= 0 r
o
2
u

n
I=1
(r
I
r)
2
=
ro
2
u

n
I=1
(r
I
r)
2
que indica, entre otras cosas, que el signo de la covarianza entre
^
,
0
y
^
,
1
es el opuesto al signo
de la media muestral de la variable A.
Supongamos que dicha media fuese positiva, y tambin que el error de estimacin de ,
1
fuese
asimismo positivo, es decir, que hubisemos estimado (sin saberlo), un valor
^
,
1
superior al terico.
Su producto por la media de A generara, en promedio, una contribucin positiva del error de
estimacin a la explicacin de la variable 1 :
j = ,
0
+,
1
r + n = [,
0
+,
1
r] +
__
^
,
0
,
0
_
+
_
^
,
1
,
1
_
r
_
donde en el corchete de la derecha, el segundo sumando est teniendo una contribucin positiva.
Para compensarlo, la estimacin MCO de ,
0
estara por debajo de su valor verdadero: ,
0

^
,
0
. Es decir, si el estimador de Mnimos Cuadrados sobreestima ,
1
, entonces infraestima ,
1
. Si
infraestimamos ,
1
, entonces sobreestimamos ,
0
. Lo contrario ocurrira si la media muestral de A
fuese negativa.
55
4.11.2 Argumento alternativo
^
,
0
= j
^
,
1
r = (,
0
+,
1
r + n)
^
,
1
r = ,
0
+
_
,
1

^
,
1
_
r + n
^
,
0
1
^
,
0
=
_
,
1

^
,
1
_
r + n
\ ar
_
^
,
0
_
= 1
__
^
,
1
1
^
,
1
_
r + n
_
2
= 1
_
_
,
1

^
,
1
_
2
r
2
_
+1
_
n
2
_
+ 21
__
^
,
1
1
^
,
1
_
r n
_
=
= r
2
\ ar
_
^
,
1
_
+
o
2
u
:
2 r1
__
^
,
1
1
^
,
1
_
n
_
Pero : 1
__
^
,
1
1
^
,
1
_
n
_
= 1
_
_
_
n

I=1
c
I
n
I
_
_
_
1
:
n

=1
n

_
_
_
_
=
o
2
u
:
n

I=1
c
I
= 0
Luego: \ ar
_
^
,
0
_
= r
2
\ ar
_
^
,
1
_
+
o
2
u
:
= o
2
u
_
1
:
+
r
2

n
I=1
(r
I
r)
2
_
= o
2
u

n
I=1
r
I
2

n
I=1
(r
I
r)
2
Co
_
^
,
0
,
^
,
1
_
= 1
__
^
,
0
,
0
__
^
,
1
,
1
__
= 1
__
n
_
^
,
1
,
1
_
r
__
^
,
1
,
1
__
=
= 1
_
n
_
^
,
1
,
1
__
r1
_
_
^
,
1
,
1
_
2
_
= 0 r\ ar
_
^
,
1
_
=
ro
2
u

n
I=1
(r
I
r)
2
5 Contrastacin de hiptesis
En esta seccin describimos los procedimientos para la contrastacin de hiptesis acerca de los
valores numricos que toma uno o varios de los coecientes del modelo de regresin. Comenzamos
prestando atencin a los contrastes de hiptesis acerca del valor numrico de un slo parmetro, para
pasar despus a considerar hiptesis o restricciones sobre el valor numrico de varios parmetros y,
nalmente, hiptesis o restricciones acerca del valor numrico de una o ms combinaciones lineales
de parmetros. Para todo ello, utilizamos el siguiente resultado:
Una combinacin lineal de variables aleatorias con distribucin Normal, sigue tambin una
distribucin de probabilidad Normal: Si .
1
, .
2
, ..., .
n
son variables aleatorias independientes, cada
una de ellas con una distribucin (j
I
, o
2
I
), la combinacin lineal: n = a
1
.
1
+ a
2
.
2
+ ... + a
n
.
n
,
tambin sigue una distribucin Normal:
n ~ (a
1
j
1
+a
2
j
2
+... +a
n
j
n
; a
2
1
o
2
1
+a
2
2
o
2
2
+... +a
2
n
o
2
n
) =
_
n

I=1
c
I
j
I
;
n

I=1
a
2
I
o
2
I
_
Para este resultado no es necesario que las variables .
1
, .
2
, ..., .
n
sean independientes. Si no lo
son, entonces en la expresin de la varianza de n hay que aadir sumandos adicionales correspon-
dientes a la covarianza entre cada dos variables del conjunto: .
1
, .
2
, ..., .
n
.
El estimador de mnimos cuadrados de la pendiente del modelo de regresin simple puede es-
cribirse:
^
,
1
= ,
1
+

I=1
c
I
n
I
(19)
56
por lo que, si el trmino de error del modelo, que es una variable aleatoria distinta para cada
observacin muestral, sigue una distribucin Normal, entonces el estimador
^
,
1
tambin tendr una
distribucin Normal.
Tambin el estimador de mnimos cuadrados del trmino independiente de la regresin,
^
,
0
,
puede escribirse como combinacin lineal de los trminos de error del modelo. Para ello, notemos
que:
^
,
0
= j
^
,
1
r =
1

I=1
j
I

_

I=1
c
I
j
I
_
r =

I=1
_
1

c
I
r
_
j
I
.Por tanto, tambin este
estimador sigue una distribucin Normal, aunque pocas veces estaremos interesados en contrastar
hiptesis acerca del verdadero valor de dicho coeciente.
5.1 Contrastes de hiptesis acerca del valor numrico de un slo coe-
ciente
En secciones anteriores obtuvimos las condiciones bajo las cuales el estimador de mnimos cuadrados
de la pendiente del modelo de regresin simple es insesgado, y tiene por varianza \ ar
_
^
,
1
_
=
c
2
u
P
N
i=1
(ri r)
2
. Si, adems, los trminos de error correspondientes a cada observacin siguen una
distribucin Normal, entonces, vimos que
^
,
1
tambin seguir una distribucin Normal. Tipicando
la variable aleatoria
^
,
1
es decir, restando su esperanza matemtica y dividiendo por su desviacin
tpica, tenemos:
^
,
1
,
1
_
\ ar
_
^
,
1
_
=
^
,
1
,
1
_
c
2
u
P
N
i=1
(ri r)
2
~ (0, 1)
Este resultado podra utilizarse para llevar a cabo contrastes de hiptesis acerca del verdadero
valor numrico de la pendiente ,
1
, comparando el valor numrico obtenido en la muestra para el
estadstico
^
o
1
o
1
r

2
u
P
N
i=1
(x
i
x)
2
con las tablas de la distribucin (0, 1) al nivel de signicacin escogido.
El problema es que desconocemos el valor numrico del parmetro o
2
u
. Como se muestra en el
Apndice, podemos sustituir el verdadero valor del parmetro o
2
u
, desconocido, por su estimador,
y tenemos un estadstico con distribucin t
2
:
^
,
1
,
1
_
^ c
2
u
P
N
i=1
(ri r)
2
=
^
,
1
,
1
1T(
^
,
1
)
~ t
2
Lo importante es que la variable que acabamos de probar que sigue una distribucin t
2
es la
misma que antes probamos que segua una distribucin (0, 1), slo que sustituyendo la varianza
desconocida del trmino de error, o
2
u
, que hemos supuesto constante para todas las observaciones
muestrales, por su estimacin de mnimos cuadrados: ^ o
2
u
=
1
2

I=1
^ n
2
I
. En el denominador de
la expresin hemos hecho explcito el hecho de que la raiz cuadrada no es sino la estimacin de la
desviacin tpica del estimador de
^
,
1
. La propiedad
^
o
1
o
1
1T(
^
o
1
)
~ t
2
es la que utilizaremos para
disear contrastes de hiptesis en el modelo de regresin lineal simple, puesto que el valor numrico
del estadstico puede ahora calcularse con la informacin muestral.
Introducimos ahora el principio que regir el modo en que vamos a resolver todo tipo de con-
trastes de hiptesis:
57
En cualquier contraste de hiptesis, el estadstico muestral mide el grado de incumplim-
iento muestral de la hiptesis nula.
As sucede con el estadstico t anterior, en cuyo numerador aparece la diferencia
^
,
1
,
1
, entre
la estimacin obtenida con nuestra muestra, y el valor hipottico de dicho coeciente. PEro, como
sabemos si una discrepancia, digamos que de 0,40, por ejemplo, entre ambos valor numricos, el
estimado y el terico, es sucientemente grande? Hay que utilizar una unidad de medida, y eso
es lo que hacemos al dividir por la desviacin tpica del estimador. De este modo, evaluamos si
la discrepancia
^
,
1
,
1
es igual a una vez, dos veces, o una vez y media la desviacin tpica del
estimador
^
,
1
. Una vez calculado, queremos decidir si el grado de incumplimiento muestral es grande
o pequeo. En el primer caso, rechazaremos la hiptesis nula, no rechazndola si el grado de in-
cumplimiento muestral es pequeo. Para decidir acerca de esta importante cuestion, comparamos el
nmero resultante de calcular el cociente
^
o
1
o
1
1T(
^
o
1
)
, que resume el grado de incumplimiento muestral
de la hiptesis nula, con el valor crtico de las tablas de la distribucin t
2
al nivel de signicacin
escogido. Si el estadstico muestral es mayor que el valor crtico de las tablas, decimos que el in-
cumplimiento muestral es grande, por lo que rechazamos la hiptesis nula. Si, por el contrario, el
estadstico muestral es menor que el valor crtico de las tablas, decimos que el grado de incumplim-
iento muestral de la hiptesis nula es pequeo, y no rechazamos la hiptesis nula. Por ejemplo,
al nivel de signicacin del 5%, si el tamao muestral es sucientemente grande (mayor que 120
observaciones), el valor crtico de las tablas es de 1,96 (aproximadamente 2,0). En consecuencia, si
la diferencia entre la estimacin numrica y el valor terico contenido en la hiptesis nula es mayor
que dos veces la desviacin tpica del estimador de
^
,
1
, decimos que el incumplimiento muestral de
la hiptesis nula es sufucientemente grande, y rechazamos la hiptesis nula. Hacemos lo contrario
si la diferencia es menor de dos veces la desviacin tpica del estimador de
^
,
1
. En cada caso, para
el nivel de signicacin escogido, y el nmero de grados de libertad, 2, con que contemos, las
tablas nos darn el valor crtico con el que hemos de comparar.
5.1.1 Contrastes de dos colas (bilaterales) acerca del valor numrico de un solo coe-
ciente
En el caso de un contraste bilateral, por ejemplo, contrastando la hiptesis nula: H
0
: ,
1
= 1 frente
a la hiptesis alternativa: H
1
: ,
1
,= 1, tomaremos la diferencia
^
,
1
1, 0 en valor absoluto, porque
como en la hiptesis alternativa consideramos tanto la posibilidad de que el verdadero valor del
parmetro sea mayor que 1, como de que sea menor que 1. Compararemos con el valor crtico de
las tablas de la distribucin t
2
que deja en cada cola de la misma una probabilidad igual a c,2.
De lo expuesto se deduce otro principio fundamental:
Ninguna hiptesis nula es completamente correcta en una muestral. Por tanto, se trata
de ver si la informacin muestral aporta evidencia sucientemente contraria a H
0
como
para rechazarla o no. Pero la evidencia muestral nunca puede probar que una determi-
nada hiptesis nula es cierta. En consecuencia, las decisiones a considerar son Rechazar
H
0
, o No rechazar H
0
, pero nunca decidimos Aceptar H
0
.
Una vez que se toma una decisin, sea de Rechazar o de No rechazar la hiptesis nula, puede
ser interesante evaluar por cunto margen se ha tomado. Para eso, suele utilizarse el valor-p del
contraste, denido:
58
El valor-p de un contraste es la probabilidad de que una muestra de igual tamao que
la utilizada arroje una evidencia ms contraria a la hiptesis nula que la que hemos
encontrado.
Su clculo es muy sencillo, puesto que el grado en que la evidencia obtenida de nuestra muestra
es contraria a la hiptesis nula queda resumida en el valor numrico del estadstico
^
o
1
o
1
1T(
^
o
1
)
, en
valor absoluto. En consecuencia, el valor-p es la probabilidad que proporcionan las tablas de la
distribucin t
2
a valores numricos mayores que
^
o
1
o
1
1T(
^
o
1
)
, tomados ambos en valor absoluto.
5.1.2 Contrastes de una cola (unilaterales) acerca del valor de un solo coeciente
Otro principio fundamental de la contrastacin de hiptesis es el siguiente:
Para rechazar una hiptesis nula es preciso que se cumplan dos condiciones:
1. que la evidencia muestral sea contraria a la hiptesis nula
2. que la evidencia muestral sea favorable a la hiptesis alternativa.
Estas condiciones pueden parecer redundantes, porque en primera lectura parece que signican
lo mismo. Esto es cierto en contrastes bilaterales, en los que ambas condiciones son equivalentes
y, por tanto, basta con que se cumpla cualquiera de ellas. No sucede lo mismo en contrastes
unilaterales.
Supongamos que queremos contrastar la hiptesis nula H0 : , = 0 frente a la hiptesis alterna-
tiva: H1 : , 0. La evidencia muestral ser contraria a la hiptesis mnula si la estimacin numrica
de , es sucientemente diferente de cero, si bien deberemos aclarar que entendemos por esto ltimo.
Pero si
^
, = 2, 35 tendremos que si bien la evidencia muestral es contraria a la hiptesis nula, no
es favorable a la hiptesis alternativa, que considera nicamente valores positivos de ,. En un caso
as, no procede llevar a cabo el contraste. Ms bien deberemos preguntarnos cmo puede haberse
obtenido dicha estimacin. Puede ser que la informacin muestral sea imperfecta, por haber existido
algn sesgo en el modo en que se ha recogido. Tambin podra ser que la precisin es muy pequea,
por lo que aunque hemos estimado un valor negativo, su desviacin tpica estimada es an mayor,
por ejemplo: 1T(
^
,) = 5, 32. Pero ni siquiera en esta situacin procede contratar porque el hecho es
que, en tal situacin, no rechazaremos nunca la hiptesis nula. Tambin podra ser que el resultado
muestral nos hiciese considerar.lo adecuado de la hiptesis alternativa H1 : , 0, y prerisemos
realizar un contraste bilateral. Pero el hecho es que si, volviendo al caso de una reducida precisin,
llevamos a cabo el contraste, como no vamos a rechazar la hiptesis nula, concluysemos que dicha
hiptesis es cierta, con una estimacin
^
, = 2, 35 !!!. Esta ltima interpretacin, que se basa en
la idea de que si no se rechaza una hiptesis nula pasamos a creer que dicha hiptesis es cierta,
es totalmente equivocada, aunque se olbserva con demasiada frecuencia en trabajos de economa
aplicada. Es esto lo que nos lleva a recomendar que salvo que se cumplan las dos condiciones antes
enunciadas simultneamente, no se lleve a cabo el contrate de hiptesis unilateral.
Pero, supongamos que hemos obtenido una estimacin que se desva de la hiptesis nula en
la direccin correcta, y pasamos a contrastar la hiptesis nula H0 : , = 0 frente a la hiptesis
alternativa: H1 : , 0, al nivel de signicacin del 1% La regin crtica est formada por los
valores numricos del estimador positivos y sucientemente grandes, pues constituyen evidencia
muestral contraria a H0, a la vez que favorable a H1. Por tanto, la regin crtica es el intervalo de
59
H0
Regin crtica
= 0

0, 26

0, 26 / 0 / 0

( ) ( )
0, 26
(0,1) 2, 3636 1 0, 9910 0, 009
0,11
Valor p P P
DT DT
P N






= > = = > = =





= > = = =


valores a la derecha de un determinado margen de seguridad a la derecha de , = 0. Concretamente,
rechazaremos H
0
en favor de H
1
si la estimacin numrica est a la derecha de `.
Pero cmo se determina este margen de seguridad? Como siempre, tomando un nmero deter-
minado de veces la desviacin tpica del estimador. Dicho nmero de veces se obtiene acudiendo
a las tablas de la distribucin t
2
. Si suponemos que el nmero de observaciones muestrales es
sucientemente grande como para aproximar la distribucin t
2
.por una distribucin (0, 1), ob-
servamos en las tablas de esta distribucin que el valor numrico a la derecha del cual hay una
probabilidad de 0,01 es 2,33. Supongamos que hemos estimado
^
, = 0, 26, y que la desviacin tpica
de nuestro estimadorr ha sido 1T(
^
,) = 0, 11. Por tanto, ` = (2, 33)(0, 11) = 0, 2563. Nuestro
estimador cae a la derecha de este valor de `, luego dentro de la Regin Crtica, aunque por poco,
por lo que rechazamos la hiptesis nula, si bien por muy poco margen.
Si hubisemos utilizado un nivel de signicacin del 5%, el valor numrico de las tablas de la
(0, 1)sera 1,645, por lo que ` = (1, 645)(0, 11) = 0, 18, y rechazaramos H0 con relativa claridad.
Si hubisemos utilizado un nivel de signicacin del 10%, el valor numrico de las tablas de la
(0, 1) sera 1,28, por lo que ` = (1, 28)(0, 11) = 0, 14, y rechazaramos H0 con mayor claridad.
Es lgico que sea as.
Vamos a calcular el valor-j de este contraste, es decir, la probabilidad de que la evidencia
muestral pudiese ser ms desfavorable a H0 que la que hemos obtenido. Valores j muy reducidos
sugieren que es poco probable encontrar una muestra ms contraria a la hiptesis nula que la nuestra.
Por lo tanto, la nuestra es bastante contraria a H
0
, por lo que rechazaremos dicha hiptesis. Lo
contrario sucede si el valor-j es grande. Cmo decidimos si un valor-j es grande o pequeo?
Comparando con el nivel de signicacin. Si el valor-p es menor que el nivel de signicacin,
concluimos que la probabilidad de hallar una muestra ms contraria que la nuestra a H
0
es pequea,
y rechazamos la hiptesis nula. Hemos rechazado H
0
a un nivel de signicacin del 1% por poco,
y no hemos rechazado H
0
a niveles de signicacin del 5% o del 10%. Este anlisis sugiere que el
valor-j del contraste debe estar por debajo de 0,01, pero muy prximo a dicho nivel. En este caso,
una evidencia ms contraria a H
0
que la nuestra signica que el estimador fuese an mayor que el
nuestro, que es 0,26, bajo el supuesto de que H0 sea cierta. As:
que est, efectivamente, muy prximo a 1%.
60
5.2 Signicacin estadstica versus relevancia econmica:
Consideremos las dos hipotticas situaciones prcticas:
ln(Pr ccio
I
) =
^
,
0
+ 0.85
(0.50)
ln(1ot:i.c
I
) + ^ n
I
ln(Pr ccio
I
) =
^
,
0
+ 0.05
(0.02)
ln(1ot:i.c
I
) + ^ n
I
Son dos modelos que explican el precio de una vivienda en funcin nicamente del tamao de la
parcela que ocupa. Estamos interesados en saber si el tamao de la parcela condiciona el precio o
si, por el contrario, ste est determiando exclusivamente por las caractersticas de la construccin,
pero no por el tamao de la parcela. Por tanto, queremos contrastar: H
0
: ,
1
= 0, y supongamos
que consideramos como hiptesis alternativa:
17
H
1
: ,
1
,= 0. El estadstico t para el contraste de
una hiptesis acerca del valor de un nico coeciente es:
^
oo
0
1T(
^
o)
~ t
cot}s
. En este caso concreto,
,
0
= 0, por lo que el estadstico t se obtiene dividiendo la estimacin numrica por su desviacin
tpica, que aparece en parntesis. En el primer modelo, tenemos un valor numrico del estadstico
de contraste igual a 1, 70, mientars qeu en el segundo modelo, el estadstico es igual a 2, 50.Con una
muestra de 543 viviendas, el nmero de grados de libertad de la distribucin t es superior a 120,
por lo que sus valores crticos coinciden con los de la Normal(0,1). A un nivel de signicacin del
5%, dicho nivel crtco es 1, 96.
Siguiendo las pautas antes reseadas, no rechazamos la hiptesis nula en el primer modelo,
mientras que la rechazamos en el segundo modelo. Hasta aqu, todo es correcto desde el punto de
vista estadstico. el problema surge porque, en Economa, es habitual interpretar estos resultados
armando que el tamao de la parcela no es un determinante signicativo del precio en el primer
caso (ya que no rechazamos ,
1
= 0), mientras que s lo es en el segundo modelo (puesto que
rechazamos ,
1
= 0).
Esto es un grave error de interpretacin. el primer modelo predice que un aumento del 10% en
el tamao de la parcela genera un incremento del precio de la vivienda del 8,5%, mientras que en
segundo caso, el incremento en el precio sera de tan slo un 0,5%. Imaginemos que una vivienda
con una parcela de 2.000 tiene un precio de 40.000. Esto signica que el primer modelo predice que
una parcela de 2.200 tendr un precio de 43.400, mientras que de acuerdo con el segundo modelo, su
precio sera de 40.200. El incremento es de 3.400 dlares en el primer modelo, y de solo 200 dlares
en el segundo modelo. Es decir, el primer modelo sugiere un efecto cuantitativo del tamao de la
parcela sobre el precio de la vivienda, claramente mayor que el segundo modelo. Tiene sentido
eliminar el tamao de la parcela como determinante del precio en el primer modelo y no en el
segundo modelo, como sugieren los contrastes de signicacin? Evidentemente, no.
El problema surge porque identicamos, sin justicacin alguna, la signicacin estadstica de un
coeciente con la relevancia econmica de la variable a la que acompaa. Estas son dos propiedades
distintas (signicacin estadstica y relevancia econmica) de elementos diferentes (un coeciente, en
el primer caso, y una variable, en el segundo caso). No tiene nada que ver una con otra: podemos
tener un coecientes signicativo acompaando a una variable poco relevante econmicamente
(como podra ser el caso del segundo modelo), o un coecientes no signicativamente distinto de
17
Para ser rigurosos, la hiptesis alternativa debera ser: H
0
:
1
> 0;ya que no concebimos la posibilidad de que
el tamao de la parcela afecte negativamente al precio.
61
cero estadsticamente, acompaando a una variable econmicamente importante (como podra ser
el caso del primer modelo).
Tenemos que distinguir entre estos dos efectos.
Lo que sucede en el primer modelo es que estimamos con poca precisin, como se aprecia en el
hecho de que la desviacin tpica sea elevada, en relacin con la estimacin numrica del coeciente.
En consecuencia, no tenemos mucha seguridad en que 0,85 sea un valor de referencia muy exacto.
Asimismo, el intervalo de conanza que podamos construir ser muy amplio. Pero, si bien es cierto
que no podemos ser muy precisos acerca de su valor numrico concreto, es dudoso que debamos
suponer que puede aproximarse por cero.
En el segundo modelo, por las razones que sea (por ejemplo, esto suele suceder con muestras muy
grandes) hemos estimado con mucha precisin. La desviacin tpica es realmente muy reducida.
Pero es dudoso que queramos decir que el efecto antes descrito sea econmicamente relevante.
Debemos examinar siempre la situacin de la precisin de las estimaciones numricas que hemos
obtenido para los coecientes del modelo.Y no podemos olvidar que nos interesa pronunciarnos
acerca de la relevancia econmcia de las variables explicativas, no necesariamente acerca de la
signicacin estadstica de los coecientes asociados a ellas.
Otra manera de ver este efecto es apreciar que el estadstico t es el producto de dos factores:
por un lado, el incumplimiento muestral
_
^
, ,
0
_
; por otro, la precisin en la estimacin
del parmetro:
1
1T(
^
o)
. As, el estadstico t puede ser bajo (inferior a 2, 0) bien porque el in-
cumplimiento muestral sea pequeo, o porque, incluso siendo apreciable, la precisin es muy
reducida. En este segundo caso, con un incumplimieno alto, querramos rechazar la hiptesis
nula; sin embargo, puede que no lo hagamos porque el producto de los dos factores resulte
inferior a 2, 0.Este es el caso del primer modelo del ejemplo anterior.
Tambien podra resultar que el producto de un pequeo incumplimiento de la hiptesis nula y
una elevada precisin, produzcan un valor superior a 2, 0 del estadstico t, a pesar de que, en este
caso, no querramos rechazar la hiptesis nula. este es el caso del segundo modelo en el ejemplo
anterior.
Un modo alternativo de contrastar una hiptesis acerca de un nico coeciente consiste en
construir el intervalo de conanza, al nivel de conanza adecuado (recordemos que el nivel
de conanza es igual a 1, 0 menos el nivel de signicacin), y analizar si el valor hipottico,
el que aparece en la hiptesis nula, est dentro de dicho intervalo. Si es as, no podremos
rechazar dicha hiptesis nula, ya que el valor terico est dentro del rango de conanza que
hemos construido.Lo contrario sucede si en valor terico cae fuera del intervalo de conanza,
en cuyo caso rechzaremos la hiptesis nula. Este procedimiento es completamente equivalente
al uso dle estadstico t que antes describimos.
Contrastes unilaterales: Para rechazar una hiptesis nula se deben dar 2 condiciones si-
multneamente:
1. que la evidencia muestral sea contraria a la hiptesis nula
2. que la evidencia muestral sea favorable a la hiptesis alternativa.
En contrastes bilaterales como los que hemos visto hasta ahora, que son aquellos cuya hipte-
sis alternativa es del tipo: H
0
: ,
1
,= 0, ambas condiciones son equivalentes, por lo que basta
62
que se cumpla una cualquiera de ellas. Pero no sucede as en el caso de un contraste unilateral.
Consideremos el contraste:
H
0
: ,
1
= 1
H
1
: ,
1
< 1
Una estimacin numrica
^
,
1
= 0, 62 sera evidencia posiblemente contraria a la hiptesis nula,
a la vez que favorable a la hiptesis alternativa. En esta situacin, es posible que rechacemos
H
0
en favor de H
1
. Que nalmente lo hagamos o no, depender de la precisin con que hayamos
estimado el coeciente ,
1
. Por el contrario, una estimacin
^
,
1
= 1, 12 puede que satisfaga la primera
condicin, pero no satisface la segunda, por lo que no rechazaremos H
0
. Es importante puntualizar
que tampoco rechazaramos H
0
con una estimacin
^
,
1
= 2, 62, por mucho que es muy claramente
diferente de 1, 0.
En un contraste bilateral, la regin fuera del intervalo de conanza se denomina regin crtica.
Es aquella en la que si cae el valor terico, rechazaremos la hiptesis nula correspondiente. En
un contraste unilateral como el anterior, la regin crtica se contruye restando a la estimacin
numrica un nmero de veces su desviacin tpica. Dicho nmero de veces se obtiene de las tablas
correspondientes (por ejemplo, t
ncot}s
) al nivel de conanza elegido.
18
Supongamos que hemos estimado
^
,
1
= 1, 12(0, 10). Al 5% de signicacin, las tablas nos dan
(para el contraste unilateral) un valor numrico de 1,645. Por tanto, la regin crtica se elabora
sumando a la estimacin numrica, de 1, 12, el producto: (1, 645)(0, 10) = 0, 165, lo que nos lleva
a: 1, 12 + 0, 165 = 1, 285. La regin crtica es el intervalo abierto a la izquierda de este punto
(-, 1, 285), mientras que la regin de aceptacin es el intervalo abierto a la derecha de este punto
(1, 285, ). Rechazamos cualquier hiptesis terica que caiga en la regin crtica, mientras que no
rechazamos aquellas hiptesis que caigan en la regin de aceptacin. En concreto, en este caso
no rechazamos H
0
: ,
1
= 1. En general, es claro que no rechazaremos H
0
: ,
1
= 1 en favor de
H
1
: ,
1
< 1 si la estimacin es superior a 1, 0.
La situacin interesante surge si obtenemos una estimacin:
^
,
1
= 0, 92(0, 10). La regin crtica
es el intervalo a la izquierda de: 0, 92 + (1, 645)(0, 10) = 1, 08, por lo que tampoco rechazaremos
H
0
: ,
1
= 1 en favor de H
1
: ,
1
< 1. Por el contrario, rechazaramos H
0
: ,
1
= 1 en favor de
H
1
: ,
1
< 1 tanto si estimamos
^
,
1
= 0, 92(0, 03), como si estimamos
^
,
1
= 0, 82(0, 10), en todos los
casos, suponiendo que el nmero de grados de libertad es superior a 120.
5.3 Apndice: Contrastacin de hiptesis
Distribucin t de Student:
Nos basamos en una propiedad estadstica que damos sin demostracin:
1
o
2
u

I=1
^ n
2
I
=
^ o
2
u
o
2
u
~
2
2
18
Recordemos que en los contrastes bilaterales, buscamos en las tablas el valor numerico asociado a la mitad del
nivel de signicacin.
63
donde ^ o
2
u
denota el estimador de mxima verosimilitud de o
2
u
, que es igual a la oC1 dividida
por el tamao muestral , no por 2. Adems, la variable
2
2
anterior es independiente de
^
,
1
.
Recordemos que el cociente entre una (0, 1) y la raiz cuadrada de una variable
2
dividida
por su nmero de grados de libertad, se distribuye como una t de Student, si ambas variables, la
(0, 1) y la
2
son independientes. El nmero de grados de libertad de la variable t es el mismo
nmero que el de la variable
2
.
En consecuencia, si dividimos la distribucin (0, 1) por esta distribucin
2
2
, tenemos:
^
,
1
,
1
_
c
2
u
P
N
i=1
(ri r)
2
_
1
2
1
c
2
u

I=1
^ n
2
I
=
^
,
1
,
1
_
1
N2
P
N
i=1
^ u
2
i
P
N
i=1
(ri r)
2
=
^
,
1
,
1
_
^ c
2
u
P
N
i=1
(ri r)
2
~ t
2
Para entender (sin demostrar) que
1
c
2
u

I=1
^ n
2
I
~
2
2
, utilizamos la descomposicin:
n
I
= n +
_
^
,
1
,
1
_
(r
I
r) + ^ n
I
para probar la igualdad:

I=1
n
2
I
o
2
u
=
n
2
o
2
u
+
_
^
,
1
,
1
_
2
o
2
u
o
2
r
+
1
o
2
u

I=1
^ n
2
I
El trmino a la izquierda de la igualdad sigue una distribucin
2

, por ser la suma de cuadrados


de variables (0, 1) que suponesmo independientes. El primer trmino de la derecha sigue una
distribucin
2
1
, por ser el cuadrado de una variable (0, 1). Lo mismo sucede con el segundo
trmino de la derecha. Por ltimo, podemos utilizar el resultado de que el nmero de grados de
libertad de variables
2
independientes es aditivo, es decir, que si
2
n
y
2
n
son independientes,
entonces:
2
n
+
2
n
=
2
n+n
. Los trminos de la igualdad anterior son independientes, lo que aqu
no probamos.
6 El estimador de Mnimos Cuadrados del modelo de regre-
sin mltiple
Consideremos la estimacin del modelo de regresin lineal mltiple:
j
I
= ,
0
+,
1
r
1I
+,
2
r
2I
+n
I
, i = 1, 2, ...:
Si tratamos de minimizar la Suma de Cuadrados de los Residuos, tendramos:
'i:
o
0
,o
1
,o
2
oC1(,
0
, ,
1
, ,
2
) = 'i:
o
0
,o
1
,o
2
n

I=1
(j
I
,
0
,
1
r
1I
,
2
r
2I
)
2
Derivando en esta funcin de Suma de Cuadrados de Residuos oC1(,
0
, ,
1
, ,
2
) respecto de los
tres parmetros ,
0
, ,
1
, ,
2
e igualando a cero, se obtiene el sistema de ecuaciones normales:
64

j
I
= :
^
,
0
+
^
,
1

r
1I
+
^
,
2

r
2I

j
I
r
1I
=
^
,
0

r
1I
+
^
,
1

r
2
1I
+
^
,
2

r
1I
r
2I

j
I
r
2I
=
^
,
0

r
2I
+
^
,
1

r
1I
r
2I
+
^
,
2

r
2
2I
donde los circunejos denotan que la solucin al sistema de ecuaciones ser el estimador de
Mnimos Cuadrados. Una vez resuelto este sistema, la diferencia: ^ n
I
= j
I

^
,
0
+
^
,
1
r
1I
+
^
,
2
r
2I
ser
el residuo correspondiente a la observacin i-sima. Por tanto, aun antes de resolver el sistema de
ecuaciones normales:

^ n
I
= 0

^ n
I
r
1I
= 0

^ n
I
r
2I
= 0
que muestra propiedades similares a las que obtuvimos en el modelo de regresin lineal simple:
a) la suma de los residuos de mnimos cuadrados es igual a cero, y b) los residuos de mnimos
cuadrados estn incorrelacionados con las variables explicativas del modelo.
La segunda propiedad se deduce de la propiedad a), que implica que los residuos tienen media
cero. Entonces las sumas del tipo

^ n
I
r
1I
no son sino la covarianza entre ambas variables, multi-
plicada por el tamao muestral. Por tanto, la covarianza es cero, y tambin es cero el coeciente
de correlacin. Estas propiedades no se cumplirn con otro procedimiento de estimacin. Si en el
modelo hubiera k variables explicativas (/ 2), el razonamiento sera similar, y se tendran las
mismas propiedades.
Para resolver el sistema y hallar el estimador de Mnimos Cuadrados Ordinarios (MCO), primero
despejamos
^
,
0
en la primera ecuacin:
^
,
0
=
1
:

j
I

^
,
1
1
:

r
1I

^
,
2
1
:

r
2I
y sustituimos en las otras dos:

j
I
r
1I
=
_
1
:

j
I

^
,
1
1
:

r
1I

^
,
2
1
:

r
2I
_

r
1I
+
^
,
1

r
2
1I
+
^
,
2

r
1I
r
2I

j
I
r
2I
=
_
1
:

j
I

^
,
1
1
:

r
1I

^
,
2
1
:

r
2I
_

r
2I
+
^
,
1

r
1I
r
2I
+
^
,
2

r
2
2I
que pueden escribirse:
o
r1
=
^
,
1
o
2
r1
+
^
,
2
o
r1r2
(20)
o
r2
=
^
,
1
o
r1r2
+
^
,
2
o
2
r2
donde:
65
o
r1
=

(r
1I
r
1
)(j
I
j); o
r2
=

(r
2I
r
2
)(j
I
j);
o
2
r1
=

(r
1I
r
1
)
2
; o
2
r2
=

(r
2I
r
2
)
2
; o
r1r2
=

(r
1I
r
1
)(r
2I
r
2
);
El sistema (20) es lineal con dos ecuaciones en dos incgnitas, sencillo de resolver, que conduce
a:
^
,
1
=
o
r1
o
2
r2
o
r2
o
r1r2
o
2
r1
o
2
r2
(o
r1r2
)
2
;
^
,
2
=
o
r2
o
2
r1
o
r1
o
r1r2
o
2
r1
o
2
r2
(o
r1r2
)
2
;
^
,
0
= j
^
,
1
r
1

^
,
2
r
2
; (21)
Obtener las expresiones analticas de las varianzas y covarianzas de los estimadores de los coe-
cientes es complejo. Baste dar aqu las expresiones:
\ ar(
^
,
1
) = o
2
u
o
2
r2
o
2
r1
o
2
r2
(o
r1r2
)
2
;
\ ar(
^
,
2
) = o
2
u
o
2
r1
o
2
r1
o
2
r2
(o
r1r2
)
2
;
Co(
^
,
1
,
^
,
2
) = o
2
u
o
r1r2
o
2
r1
o
2
r2
(o
r1r2
)
2
\ ar(
^
,
0
) = o
2
u
_
1
:
+
r
2
1
o
2
r2
+ r
2
2
o
2
r1
2 r
1
r
2
o
r1r2
o
2
r1
o
2
r2
(o
r1r2
)
2
_
La expresin de la covarianza ser til para contrastar hiptesis que involucren simultneamente
a ambos parmetros, como veremos en ejercicios.
Proposition 4 El estimador de Mnimos Cuadrados es insesgado
Proof. El estimador MCO puede escribirse:
^
,
1
=
o
2
r2
o
2
r1
o
2
r2
(o
r1r2
)
2

(r
1I
r
1
)(j
I
j)
o
r1r2
o
2
r1
o
2
r2
(o
r1r2
)
2

(r
2I
r
2
)(j
I
j) =
=
o
2
r2
o
2
r1
o
2
r2
(o
r1r2
)
2

(r
1I
r
1
)(,
0
+,
1
r
1I
+,
2
r
2I
+n
I
j)

o
r1r2
o
2
r1
o
2
r2
(o
r1r2
)
2

(r
2I
r
2
)(,
0
+,
1
r
1I
+,
2
r
2I
+n
I
j) =
= ,
1
+
o
2
r2
o
2
r1
o
2
r2
(o
r1r2
)
2

(r
1I
r
1
)(n
I
n) +
o
r1r2
o
2
r1
o
2
r2
(o
r1r2
)
2

(r
2I
r
2
)(n
I
n)
y los dos ltimos sumandos tienen esperanza igual a cero.
66
Para llevar a cabo contrastes de hiptesis acerca de posibles valores numricos de los co-
ecientes del modelo, es preciso disponer de las varianzas de los estimadores, al igual que ocurra
en el modelo simple. Sin discutir aqu su deduccin analtica, que es compleja, baste decir que las
varianzas de los tres coecientes pueden escribirse:
Adems, el estimador MCO es el estimador lineal insesgado de mnima varianza, puesto que
el mismo Teorema de Gauss-Markov que enunciamos en el caso del modelo lineal simple contina
siendo vlido en este modelo ms general. Asimismo, el Teorema de Rao tambin se cumple,
de modo que el estimador de Mnimos Cuadrados es eciente cuando el trmino de error sigue
una distribucin Normal, es decir, tiene la menor varianza posible de entre todos los estimadores
insesgados, sean estos lineales o no lineales.
6.1 Ejemplo: Ventas de un bien en funcin del precio propio y del gasto
en publicidad
19
Este ejemplo utiliza 10 observaciones anuales sobre las ventas, gastos en publicidad y precio del
producto de una empresa. El inters del ejemplo es:
ilustrar el modo de interpretar los valores numricos estimados para coecientes individuales
en un contexto de colinealidad,
mostrar la manera de analizar el contenido informativo de las variables explicativas en un
contexto de alta colinealidad,
proponer un modo de tratar la colinealidad entre variables explicativas,
6.1.1 Algunas caractersticas de las variables
El archivo de trabajo contiene informacin acerca de la cifra de ventas anuales \
|
de una em-
presa, junto con sus gastos en publicidad, 1n/
|
, ambos en miles de euros, y el precio de venta de
su producto, 1
|
, asimismo en miles de euros por unidad. Son datos articiales, formados por 10
observaciones de cada variable, pero sern suciente para ilustrar las cuestiones que nos intere-
san. Las tres variables muestran, dentro del breve espacio de tiempo cubierto por la muestra, un
comportamiento tendencial, que es creciente en el caso de las ventas y los gastos en publicidad, y
decreciente en el caso del precio del producto.
Las nubes de puntos representan la relacin entre la cifra de ventas anual y cada una de las dos
potenciales variables explicativas, precio y gasto en publicidad (l11_\ 1T_111C1O, l11_\ 1T_1l1) ,
mostrando claramente una asociacin negativa entre \
|
y 1
|
, y positiva entre \
|
y 1n/
|
.
Las covarianzas y coecientes de correlacin entre las variables pueden resumirse en la matriz,
19
Fichero de trabajo: Ventas.wf1. Fichero de Excel: Ventas.xls.
67
=
_
_
_
_
Corrc|acio:c:,Coaria:.a: \ c:ta: 1n/|icidad Pr ccio
\ c:ta: o
2
\
o
\,1ub
o
\,1
1n/|icidad j
\,1ub
o
2
1ub
o
1ub,1
Pr ccio j
\,1
j
1ub,1
o
2
1
_
_
_
_
=
=
_
_
_
_
Corr.,Co. \ c:ta: 1n/|icidad Pr ccio
\ c:ta: 443, 5 124, 1 99, 0
1n/|icidad 0, 950 38, 5 26, 8
Pr ccio 0, 901 0, 829 27, 2
_
_
_
_
que muestra en su diagonal las varianzas de las tres variables; sus coecientes de correlacin
consigo mismas son igual a uno, por lo que no es preciso mostrarlos. Debajo de la diagonal aparecen
los coecientes de correlacin entre cada par de variables, todos ellos entre -1 y +1, mientras que
por encima de la diagonal aparecen las covarianzas. Como puede verse, los tres coecientes de
correlacin son muy elevados en valor absoluto.
Las desviaciones tpicas muestrales de las variables son,
1.T.(\
|
) =
_
443, 5 = 21, 06; 1.T.(1n/
|
) =
_
38, 5 = 6, 20; 1.T.(1
|
) =
_
27, 2 = 5, 22.
Para obtener una medida comparable entre variables, debe utilizarse el coeciente de variacin,
denido como cociente entre la desviacin tpica y media muestral de una variable.
20
El modelo de ventas estimado utilizando tanto los gastos en publicidad como el precio del bien
como variables explicativas es,
\
|
= 247, 6
(67,3)
+ 2, 204
(0,545)
1n/
|
1, 464
(0,649)
1
|
, (22)
con coeciente de determinacin y varianza residual,
1
2
\.[1ub,1]
= 1
o1
2
\.[1ub,1]
T.o
2
\
= 0, 943
^ o
2
u
=
o1
2
\.[1ub,1]
T 3
=
250, 6
10 3
= 35, 8 = ^ o
u
=
_
35, 8 = 5, 98
El coeciente de determinacin es elevado, indicando que ms de un 94% de las uctuaciones
en las cifras de ventas anuales est explicada por cambios en el precio del producto y en el gasto
en publicidad. El ajuste parece bastante bueno.
Otra manera de ver este hecho consiste en comparar la desviacin tpica de los residuos, 5,98,
que indica el tamao
21
del componente de las ventas no explicado por el modelo, y la desviacin
tpica de las propias ventas, que es de 21,2. El trmino de error parece pequeo en relacin con el
tamao medio de las uctuaciones anuales en las cifras de ventas, y el indicador de ajuste asociado
toma un valor numrico:
20
Que en todo caso, no tiene sentido en el caso de variables tendenciales, como ocurre en este ejemplo, por lo que
no calculamos dichos coecientes, renunciando a comparar entre s el grado de volatilidad de las variables del modelo.
21
Una vez ms, interpretamos la desviacin tpica de una variable aleatoria de esperanza matemtica cero como
inidicador de tamao de dicha variable.
68
1atio = 1
^ o
u
_
\ ar(\
|
)
= 1
5, 98
21, 1
= 0, 717
indicando que el 72% del tamao medio de las uctuaciones anuales en ventas ha quedado
explicada por el modelo anterior.
22
6.1.2 Qu variable explicativa es ms relevante?
Qu explica cada variable? En sus estudios sobre los ciclos econmicos, Tinbergen (1939)
propuso un interesante mtodo para reejar la informacin contenida en cada variable explicativa
a lo largo de la muestra.
23
Trabajando en desviaciones respecto de la media, Tinbergen sugera
mostrar un grco representando simultneamente los valores observados de j y los ajustados por
el modelo, un grco para cada producto
^
,
I
r
I
, y un grco de residuos. Para ello se utilizan
los coecientes estimados en el modelo de regresin llineal mltiple. Hemos optado por presentar
en Ventas_niveles.doc:
24
un grco de los valores anuales observados de j, junto con los valores
anuales ajustados por el modelo; dos grcos que confrontan los valores anuales observados para
j con los valores explicados por cada una de las variables explicativas por separado, y un ltimo
grco que representa los valores observados de j frente a los residuos del modelo.
Comparacin de coecientes: limitaciones Varias son las cuestiones que han de tenerse
en cuenta al tratar de evaluar, en trminos relativos, el contenido informativo que cada variable
explicativa tiene sobre la variable dependiente. En primer lugar, podramos utilizar el hecho de
que el coeciente estimado para 1n/ en (22) es mayor en valor absoluto que el estimado para 1
|
para decir que la primera variable es ms relevante al explicar las ventas de la empresa. Esto sera
incorrecto por dos razones: una de ellas ha sido explicada en la seccin anterior, donde hemos visto
que en un contexto de colinealidad, un coeciente individual no puede interpretarse como el impacto
que sobre la variable dependiente tiene una variacin unitaria en la variable que acompaa a dicho
coeciente estimado. La segunda razn es que, en todo caso, los coecientes individuales mediran
el impacto que sobre las ventas tiene una variacin unitaria, positiva o negativa, en cada una de las
variables explicativas; el problema es que una variacin de una unidad o de 100 unidades puede ser
muy grande para una variable, y muy pequea para otra. Ello depender de las variaciones medias
que cada una de las variables experimenta a lo largo de la muestra, lo que nos lleva al siguiente
epgrafe,
La volatilidad de la variable explicativa Para armar que la publicidad es ms importante
que las ventas porque el valor absoluto del coeciente estimado para la primera en (22) es mayor
que el de la segunda, deberamos tener en cuenta el tamao medio de la variacin anual media
en ambas variables, medido por sus respectivas desviaciones tpicas.
25
El efecto promedio de una
22
Recordemos que R
2
= 1
SR
2
ST
; por lo que SR
2
= (1 R
2
)ST; y ^
2
u
=
SR
2
Tk
= (1 R
2
)
ST
Tk
=
(1 R
2
)
T
Tk
V ar(yt); por lo que, Ratio = 1
^ u
p
V ar(V
t
)
= 1
q
(1 R
2
)
T
Tk
. Para valores grandes de T en
relacin con k; Ratio = 1
p
(1 R
2
); siendo siempre Ratio inferior a R
2
:
23
Este procedimiento, olvidado por mucho tiempo, ha sido recordado por Johnston y DiNardo (1997).
24
Recordamos nuevamente que utilizar desviaciones respecto de la media muestral en presencia de tendencias
temporales puede no tener mucho signicado. Puede conducir, adems, a conclusiones errneas.
25
De nuevo, esta interpretacin es correcta nicamente si las variaciones anuales son independientes entre s. Slo
en tal caso pueden interpretarse como uctuaciones alrededor del valor promedio de la variable.
69
variable explicativa sobre la variable endgena se obtendra multilpicando el coeciente estimado
por la variacin media enla variable explicativa. Utilizando los coecientes estimados en el modelo
de regresin mltiple (22), tendramos,
1)ccto(1n/ \ c:ta:) = 2, 204 + 6, 20 = 13, 665
1)ccto(Pr ccio \ c:ta:) = 1, 464 + 5, 22 = 7, 642
resultando superior en valor absoluto para los gastos en publicidad que para el precio del pro-
ducto. Los gastos en publicidad tienen asociado un mayor coeciente y, adems, sus variaciones
anuales son de mayor tamao; ambos efectos se agregan, en este caso, para sugerir que esta vari-
able es la ms relevante para explicar las cifras de ventas. Sin embargo, esta impresin est sujeta
a la limitacin que impone la fuerte colinealidad entre ambas variables explicativas del modelo.
[CHEQUEAR: Si utilizsemos los coecientes estimados en las regresiones simples (33) , (32) para
estimar el efecto que sobre las Ventas produce una variacin de una desviacin tpica en cada una
de las dos variables , explicativas, tendramos un resultado similar, ya que en dichas regresiones, la
estimacin numrica del coeciente incorpora la correlacin existente entre la variable incluida y la
variable excluida,
1)ccto(1n/ \ c:ta:) = 3, 224 + 6, 20 = 19, 99
1)ccto(Pr ccio \ c:ta:) = 3, 637 + 5, 22 = 18, 98
que como se ve son, efectivamente, muy similares].
Comparacin de residuos Tambin podemos examinar la matriz de correlaciones entre la vari-
able \
|
y los residuos procedentes de las dos regresiones simples anteriores. El criterio es que cuanto
ms se distinga el residuo de la variable dependiente, mayor es la capacidad explicativa del mod-
elo. En la tabla de correlaciones [CO1111C1O1o] se aprecia que las ventas tienen menor
correlacin con el residuo de la regresin sobre publicidad (0,312) que con el residuo de la regresin
sobre el precio del producto (0,434), lo que sugiere nuevamente el mayor contenido informativo de
los gastos en publicidad para explicar las Ventas. En todo caso, la correlacin con los residuos de la
regresin que utiliza ambas variables como explicativas es sensiblemente inferior (0,238), sugiriendo
que ambas variables tienen contenido informativo no trivial.
Es asimismo importante comparar los residuos del modelo de regresin mltiple con los que
se derivan de la estimacin de cada uno de los modelos de regresin simple. La misma tabla de
correlaciones en el chero de trabajo nos muestra que si excluimos los gastos en publicidad del
modelo de regresin mltiple, el coeciente de correlacin entre ambos conjuntos de residuos es
de 0,548, mientras que si excluimos la variable precio de la regresin mltiple, el coeciente de
correlacin entre residuos es de 0,761. Esto signica que la exclusin de los gastos en publicidad
altera ms los residuos del modelo que la omisin de la variable Precio, lo que sugiere que la primera
es la variable ms relevante, igual conclusin a la que alcanzamos en el prrafo anterior.
Las limitaciones de comparar estadsticos tipo t de Student Es muy habitual en el trabajo
emprico en Economa juzgar la capacidad explicativa de cada variable en trminos relativos, de
acuerdo con los valores numricos de sus respectivos estadsticos tipo-t. Ello parece deberse a que la
70
comparacin entre el valor absoluto de dicho estadstico y el umbral crtico de 2,0 es el procedimiento
habitual para analizar si una variable contiene capacidad explicativa sobre la variable endgena. Es
decir, la signicacin estadstica de una variable se interpreta directamente como su capacidad de
explicar los valores numricos de la variable dependiente. De dicho procedimiento parece inferirse
que cuanto mayor sea el valor absoluto del estadstico tipo-t, mayor es la capacidad explicativa de
la variable en cuestin.
Este procedimiento es generalmente inapropiado porque el economista est interesado en el im-
pacto cuantitativo que cambios en una variable explicativa implican sobre la variable dependiente, y
la signicacin estadstica de una variable explicativa puede ser simultnea con un efecto cuantita-
tivo muy reducido de dicha variable sobre la variable dependiente. Esta confusin entre signicacin
estadstica y relevancia cuantitativa ha sido muy daina en la ionterpretacin de las estimaciones
de modelos de regresin en Economa.
Hay diversas razones por las que una variable explicativa que tiene un notable efecto cuantitativo
sobre la variable dependiente puede resultar estadsticamente no signicativa. Dada la estructura
del estadstico tipo-t, ste conjuga la estimacin del impacto numrico de cambios en la variable
explicativa, con la precisin con que dicho impacto se estima. As, la ausencia de signicacin es-
tadstica puede surgir bien porque el impacto numrico de dicha variable es muy reducido, o porque,
siendo importante, no se mide con suciente precisin, es decir, con una varianza sucientemente
pequea. De este modo, no puede interpretarse un valor pequeo del estadstico tipo-t como evi-
dencia de una reducida capacidad explicativa; en particular, un valor de dicho estadstico inferior a
2 no necesariamente signica que la variable explicativa en cuestin no tenga contenido informativo
sobre la variable dependiente. Ignorar el papel que la precisin en la estimacin de un coeciente
del modelo de regresin tiene sobre los contrastes de signicacin estadstica es la segunda fuente
tradicional de error en la interpretacin de las estimacioens de modelos de relacin entre variables
econmicas.
6.2 Grado de ajuste del modelo de regresin lineal mltiple
Una vez obtenidas las estimaciones numricas MCO de los coecientes del modelo, los valores
explicados de la variable endgena, ^ j
I
, as como los residuos ^ n
I
, se denen de modo anlogo a como
hicimos en el modelo lineal simple.
Estimamos la varianza del trmino de error mediante la varianza residual: ^ o
2
u
=
Sc1
n|
=
P
^ u
2
i
n|
=
S
2
y:x
1
x
2
n|
. En el modelo de la seccin anterior, / = 3. Hemos introducido la notacin o
2
.r1r2
para
denotar la Suma de Cuadrados de Residuos en la regresin que tiene a j como variable dependiente,
y a r
1I
y r
2I
como variables explicativas. El Error Estndar de la Regresin (111) es la raz
cuadrada de dicha estimacin. Al ser una estimacin de la desviacin tpica residual, es un indicador
del tamao medio de los residuos.
La Suma de Cuadrados de los Residuos puede calcularse sin necesidad de obtener los residuos,
mediante:
71
oC1 = o
2
.r1r2
=

^ n
2
I
=

(j
I

^
,
0

^
,
1
r
1I

^
,
2
r
2I
)^ n
I
=
=

j
I
^ n
I

^
,
0

^ n
I

^
,
1

r
1I
^ n
I

^
,
2

r
2I
^ n
I
=
=

j
I
^ n
I
=

j
I
(j
I

^
,
0

^
,
1
r
1I

^
,
2
r
2I
) =
=

j
2
I

^
,
0

j
I

^
,
1

j
I
r
1I

^
,
2

j
I
r
2I
anloga a la que obtuvimos en el modelo lineal simple.
Al igual que ocurra en el modelo de regresin simple, el EER es una medida de ajuste del
modelo, pero es una medida relativa, que es til slo para comparar modelos alternativos que
tratan de explicar una misma variable dependiente j, pero no puede utilizarse para comparar el
grado de ajuste de modelos elaborados para explicar variables dependientes diferentes.
Siguiendo un argumento totalmente similar al utilizado en el modelo de regresin simple, puede
obtenerse la descomposicin de la Suma Total:
oT = o
2

(j
I
j)
2
=

[(j
I
^ j
I
) + (^ j
I
j)]
2
=
=

(j
I
^ j
I
)
2
+

(^ j
I
j)
2
+ 2

(j
I
^ j
I
)(^ j
I
j)
pero el ltimo sumando es igual a cero, porque j
I
^ j
I
= ^ n
I
, de modo que:

(j
I
^ j
I
)(^ j
I
j) =

^ n
I
_
^
,
0
+
^
,
1
r
1I
+
^
,
2
r
2I
j
_
=
=
^
,
0

^ n
I
+
^
,
1

^ n
I
r
1I
+
^
,
2

^ n
I
r
2I
j

^ n
I
donde todos los sumandos son igual a cero. Por tanto, la Suma Total puede escribirse:
o
2

^ n
2
I
+

(^ j
I
j)
2
= o
2
.r1r2
+

(^ j
I
j)
2
y tenemos nuevamente la descomposicin:
on:a Tota| = on:a Cnadrado: Re :idno: +on:a 1rj|icada
De este modo, tambin en este modelo tenemos que la Suma de Cuadrados de Residuos, o Suma
Residual, puede interpretarse como el porcentaje de la variacin total en la variable dependiente
que no viene explicada por las variables independientes. Por tanto, el coeciente de determinacin
est comprendido entre 0 y 1, y es tanto ms cercano a 1 cuanto mayor sea la capacidad de las
variables independientes: 1, r
1I
y r
2I
, para explicar las uctuaciones en la variable dependiente, j.
Por tanto, una medida absoluta de ajuste del modelo es, nuevamente, el coeciente de determi-
nacin mltiple, denido ahora como:
1
2
.r1r2
= 1
o
2
.r1r2
o
2

El coeciente de determinacin puede tambin calcularse sin necesidad de obtener previamente


los residuos, sino utilizando nicamente momentos muestrales:
72
1
2
.r1r2
=

(j
I
^ j
I
)
2

(j
I
j)
2
=
^
,
0

j
I
+
^
,
1

j
I
r
1I
+
^
,
2

j
I
r
2I
: j
2

(j
I
j)
2
=
^
,
1
o
r1
+
^
,
2
o
r2
o
2

a la que se llega utilizando la expresin ^ j


I
=
^
,
0
+
^
,
1
r
1I
+
^
,
2
r
2I
.
6.3 Coeciente de determinacin ajustado
Al aadir una variable explicativa adicional a un modelo de regresin, la capacidad explicativa
de ste non puede disminuir. Si se asigna un coeciente cero a dicha varaible, la capaciadad
explicativa del nuevo modelo sera, evidentemente, idntica a la del modelo que no incorpora a
dicha variable. Como al estimar por mnimos cuadrados buscamos la menor Suma de Cuadrados de
residuos posibles, sta debera ser, como mximo, igual a la del modelo sin la variable explicativa.
En general, ser siempre inferior, ya sea por poco o por mucho.
En consecuencia, el coeeicnte de determinacin nunca disminuye al aadir variables explicativas
a un model de regresin. Por tanto, no est justicado comparar los valores del estadstico 1
2
de un
modelo con el que se obtiene al aadir nuevas variables explicativas, puesto que ste ultimo siempre
ser superior. Para hacerlos comparables, se introduce una correccin en el clculo del coeciente
de determinacin,
1

1
2
=
_
1 1
2
_
: 1
: /
.
Como se ve, al aadir variables explicativas, el primer factor de la derecha siempre se reducir,
mientras que el segundo factor aumentar. Si el aumento en el cociente de determinacin es
sucientemente importante, predominara este efecto, y preferiremos el modelo ampliado, mientras
que lo contrario suceder si dicho aumento no es muy notable.
Por otra parte, si el nmero de observaciones, :,es muy elevado, entonces el segundo factor ser
prcticamente igual a 1,y el efecto sobre l de incrementar en uno el nmero de variables explicativas
ser imperceptible, por lo que siempre preferiramos el modelo con ms variables explicativas, lo
que no parece muy razonable.
Recordemos que el coeciente de determinacin corregido se dene:
(1

1
2
) = (1 1
2
)
1
/
Si el coeciente de determinacin estndar es muy pequeo, el coeciente de determinacin corregido
puede ser negativo. En efecto, es fcil ver en la expresin que lo dene que si 1
2
< /,(:1),entonces

1
2
< 0.
6.3.1 Ejemplo: peso de bebs recin nacidos
Contenido informativo en una variable, adicional al que ya est incorproado en el
modelo El lector puede proceder a continuacin a comprobar que ninguna de las dos variables de
educacin aporta capacidad explicativa adicional. Para ello, puede utilizar cada una de ellas por s
slas como variable explicativa en una regresin y constatar: a) el reducido valor del 1
2
, y del 1atio
de ajuste, as como b) la elevada correlacin entre los residuos resultantes y la variable Peso original,
tal como hemos hecho con cigarrillos y renta; c) alternativamente, puede aadir uno de los niveles
educativos como variable explicativa a una cualquiera de las regresiones anteriores y comprobar
73
que el coeciente de correlacin entre los residuos de ambas regresiones es muy elevado; algunas de
estas correlaciones aparecen en CO11_11oO_JloT1, signicando que la inclusin del nivel
educativo de los padres no ha aadido capacidad explicativa signicativa a las variables cigarrillos
y renta. Las nubes de puntos CO'1_11o_1 a CO'1_11o_4 aportan una evidencia similar:
CO'1_11o_1 y CO'1_11o_2 relacionan la variable dependiente, Peso, con los residuos de
dos regresiones simples, la primera utilizando cigarrillos como unica variable explicativa, mientras
la segunda utiliza Renta en su lugar. CO'1_11o_3 compara los residuos de la regresin simple
sobre cigarrillos, con los que se obtienen de una regresin que incluye cigarrillos y renta como
variables explicativas; el hecho de que ambos residuos sean tan similares sugiere que la variable renta
no aporta mucho a la variable cigarrillos para explicar el peso del recin nacido.
26
CO'1_11o_4
compara los residuos de la regresin simple sobre cigarrillos, con los que se obtienen de una regresin
que incluye cigarrillos, renta, los niveles educativos del padre y de la madre, y el nmero de orden
del recin nacido entre sus hermanos como variables explicativas; la interpretacin es similar, y no
parece que el resto de las variables aporte mucha informacin a la que pueda incorporar el nmero
de cigarrillos.
Para profundizar en la informacin proporcionada por los niveles educativos, y dada la excesiva
concentracin de cada una de estas dos variables en el nivel 12 aos, denimos una variable cticia
en el caso de las mujeres, edm, que es igual a 0 si educm es inferior a 12 aos, es igual a 1 si
educm es igual a 12 aos, y es igual a 2 si educm toma cualquier valor numrico superior a 12 aos.
En ocasiones, es difcil medir con precisin el efecto de cambios unitarios en una variable como
educm, pero se mide mejor el efecto que tiene sobre la variable dependiente el paso de un nivel de
educm a otro. Aunque no incidimos aqu en los resultados, la variable cticia as construida, que se
incluye en el archivo de trabajo, no parece aportar capacidad explicativa signicativa. Finalmente,
concluimos que los niveles educativos no son relevantes para explicar el peso de los recin nacidos,
una vez que se tiene en cuenta la informacin proporcionada por cigarrillos. Algo similar puede
decirse del nivel educativo del padre.
Cuando se considera la variable ordenac, la escasa contribucin informativa es an ms evidente,
como ya sugera el anlisis descriptivo que antes hicimos, por lo que concluimos que esta variable
no aporta informacin relevante a la ya proporcionada por las variables renta y cigarrillos. Esto
ocurre a pesar de que esta variable aparece con un valor numrico del estadstico t de Student
superior a 2 en la regresin que incluye todas las variables explicativas [11G_TO1o], propiedad
que se mantiene si excluimos de dicha regresin todas las variables explicativas con estadstico t
inferior a 2 en valor absoluto, y volvemos a estimar el modelo. Si siguiramos este procedimiento,
habitual en el anlisis emprico, pero en absoluto recomendable, nos quedaramos con una regresin
que utiliza cigarrillos y ordenac como nicas variables explicativas [11G_C1Go_O111C].
Sin embargo, la correlacin entre los residuos de esta regresin [11o_C1Go_O111] y los
que utiliza nicamente la variable cigarrillos como explicativa [11o_C1Go] es superior a 0,997,
indicando que ordenac apenas aade informacin a la que pueda incluir la variable cigarrillos.
Finalmente, si el investigador decidiera utilizar todas las variables simultneamente, como hici-
mos en la regresin mostrada en primer lugar, obtendra unos residuos muy altamente correla-
cionados con los de las regresiones previas, as como con la variable Peso original [ver la cor-
relacin entre RES_TODAS (el residuo de la regresin con todas las variables explicativas) y
RES_CIGS, 11o_11T, en la tabla CO11_11oO_JloT1, as como la nube de puntos
26
Ntese que esto no signica en modo alguno que cigarrillos tenga ms o menos capacidad explicativa, sino tan
slo que la informacin proporcionada por la renta familiar no aporta nada a la contenida en el nmero de cigarillos
fumado porla madre durante el embarazo, que podra ser relevante o no serlo.
74
CO'1_11o_4]. Nuevamente, la interpretacin es la misma, en trminos de la reducida capaci-
dad explicativa del conjunto de variables considerado, como perfectamente ilustra 11G_11o_TO1o.
En general, el ejemplo que estamos considerando ilustra la necesidad de huir de la aplicacin
mecnica de los estadsticos tipo t de Student. A pesar del elevado valor numrico de este estadstico,
especialmente en las regresiones individuales, la nica conclusin razonable en el anlisis que hemos
presentado, es que ninguna de las variables, tal como aparece recogida en la muestra, explica de
manera importante el comportamiento del peso de los recin nacidos
27
. Por ejemplo, la regresin
11G_11lC1_11lC', que explica el peso del recin nacido utilizando nicamente por los
niveles educativos de los padres nicamente, tambin genera un estadstico t superior a 2,0 en valor
absoluto para la variable 11lC1, sin que de ello deba inferirse que esta variable aporta capacidad
explicativa alguna, ni siquiera cuando se utiliza por s sla, como ya hemos discutido ampliamente.
Tambin es interesante observar que el estadstico tipo 1 habitual para el contraste de signi-
cacin global del modelo, es decir, para contrastar la hiptesis nula que arma que las variables
explicativas, consideradas conjuntamente, no aportan capacidad explicativa alguna, arroja un valor
numrico de 9,55, con un valor-j igual a 0, por lo que una interpretacin estricta del mismo con-
ducira a admitir la capacidad explicativa conjunta de las variables consideradas acerca del peso de
los recin nacidos, contrariamente a las conclusiones que hemos obtenido.
Sin embargo, un investigador todava debera pronunciarse acerca de la posible evidencia exis-
tente en la informacin muestral sobre la inuencia que las distintas variables consideradas pueden
tener sobre el peso del recin nacido. En este sentido, si consideramos los cigarillos fumados durante
el embarazo, la diferencia entre las medianas que antes mencionamos para los pesos de los bebs
nacidos de mujeres no fumadoras y de mujeres fumadoras es notable, siendo menor la mediana
del peso para los hijos de mujeres fumadoras, lo que sugiere una relacin negativa entre estas dos
variables, como quiz cabra esperar. Esta es la nica variable recogida en la muestra para la que
detectamos un efecto signicativo; los datos disponibles sugieren que el consumo de cigarrillos du-
rante el embarazo tiende a disminuir signicativamente el peso de los bebs al nacer, lo que ocurre es
que la informacin muestral no nos permite estimar con precisin las variaciones en peso producidas
por cada incremento en el nmero de cigarrillos fumados por la madre durante el embarazo.
Hay otros aspectos, potencialmente relevantes, que no hemos considerado en la discusin previa:
los residuos de la regresin ms completa, 11G_TO1o, tienen una media de -3,70 para los recien
nacidos de raza no blanca (186 bebs), y de 0,68 para los de raza blanca (1.005 bebs). Esto est
en consonancia con la posibilidad de que los bebs de raza blanca tengan ms peso. Dichos residuos
tienen media de -1,92 para las mujeres, y de 1,78 para los varones, sugiriendo asimismo que los
varones puden tener un peso al nacer mayor que el de las mujeres. Ambos efectos son adems
acordes a la intuicin, por lo que procede analizarlos en algn detalle.
Al incluir ambas variables cticias junto con las cinco variables antes analizadas, el 1
2
de la
regresin aumenta apreciablemente, a 0,049, a la vez que la desviacin tpica residual se reduce a
19,65, y el Ratio de ajuste se eleva a 3,4%. Si restringimos el modelo a incluir las dos variables
cticias, de sexo y raza, junto con ciqarri||o:, la regresin apenas vara, con residuos muy altamente
correlacionados con los obtenidos en todas las regresiones consideradas, un 1
2
de 0,042, desviacin
tpica de 19,92, y Ratio de ajuste de 2,1%.
Esta ltima [11G_C1G_11C] es, sin embargo, quiz la regresin ms razonable,
27
Por supuesto, la ilustracin en Wooldridge (2001) acerca de la ausencia de capacidad explicativa de las dos
variables de educacin es cierta. Sin embargo, el resultado es an ms estricto, por cuanto que tampoco las variables
renta, cigarrillos, ordenac, tienen verdaderamente una capacidad explicativa de gran signicacin.
75
1c:o
I
= 113, 277
(1,306)
0, 506
(0,090)
ciqari||o:
I
+ 3, 052
(1,071)
:a|c
I
+ 6, 230
(1,301)
n/itc
I
+n
I
i = 1, 2, ...,

1
2
= 0, 044, ^ o
u
= 19, 925
cuyos residuos aparecen en 11G_11o_C1G_11C. El coeciente estimado para la variable
cticia WHITE es de 6,23, siendo de 3,05 el coeciente estimado para MALE. El coeciente es-
timado para WHITE est en lnea con la diferencia observada entre el promedio de los residuos
correspondientes a bebs de cada grupo racial en la regresin que no inclua esta variable explica-
tiva. De igual modo, el coeciente estimado para MALE es muy similar a la diferencia entre los
residuos de varones y mujeres en la regresin que no inclua esta variable explicativa.
Simulacin a partir de la regresin estimada Los valores numricos mencionados sugieren
que un beb de raza blanca pesa, en promedio, 6,23 onzas ms que un beb de otra raza de iguales
caractersticas en lo relativo a: nmero de cigarros fumados por la madre durante el embarazo, renta
familiar, niveles educativos del padre y la madre, y orden del beb dentro de los hijos de la familia.
La diferencia de peso estimada entre un nio de raza blanca al nacer, y una nia de raza negra,
es de 9,28 onzas, comparable a la que obtuvimos antes entre los bebs de madres fumadoras y no
fumadoras. En la hoja de clculo Bwght.xls se muestra cmo la mediana del nmero de cigarrillos
fumados por la madre durante el embarazo, entre el conjunto de las observaciones en que dicho
nmero es no nulo, es de 10 cigarillos. Ello signica que, de acuerdo con la regresin anterior, la
diferencia de peso entre distintos bebs sera,
1c:o: c:ti:ado:
Caractcr

i:tica: rcci c: :acido 1c:o


Madre fumadora, mujer, no blanca 108,217
Madre fumadora, varn, no blanco 111,269
Madre no fumadora, mujer, no blanca 113,277
Madre fumadora, mujer, blanca 114,447
Madre no fumadora, varn, no blanco 116,329
Madre fumadora, varn, blanco 117,499
Madre no fumadora, mujer, blanca 119,507
Madre no fumadora, varn, blanco 122,559
Como puede apreciarse, la diferencia entre los pesos estimados de dos recin nacidos que slo
dieren en que su madre declarase ser fumadora, es siempre de 5 onzas, procedente del producto
de 10 cigarrillos, escogido como representativo del nivel de tabaco consumido diariamente, por el
coeciente estimado en la regresin. Esta diferencia estimada es inferior a la diferencia de 9 onzas
entre las medianas de los pesos para ambos grupos de madres.
6.4 Ejemplo: Discriminacin salarial
6.4.1 Capacidad explicativa adicional
Ninguna de las dos variables consideradas parecen tener, por s slas, gran capacidad explicativa
sobre el salario. Si estimamos una regresin con ambas, tenemos un 1
2
ajustado de 0,344, con
^ o
u
= 145, 4, y ratio de ajuste 1
^ cu
cy
= 0,19.
76
oa|ario
I
= 43, 31 + 77, 87
(3, 29)
(23, 7)
1dncaci o:
I
+ 8, 10
(0, 39)
(20, 8)
1rjcric:cia
I
+n
I
, (23)
1
2
= 0, 345,

1
2
= 0, 344, ^ o
u
= 145, 45, o1 = 31079583;
Es interesante que los dos coecientes estimados dieren apreciablemente de los obtenidos en
las regresiones individuales, siendo en ambos casos superiores a los estimados en dichas regresiones
simples. Ahora, estimamos que el salario aumenta en casi 78 Bef. por ao de educacin, y en ms
de 8 Bef. por ao de experiencia.
Que los coecientes hayan aumentado respecto de la regresin simple, sugiere que ambas vari-
ables estn negativamente correlacionadas; en efecto, si as fuera, un ao ms de educacin vendra
generalmente asociado con una menor experiencia laboral, como por otra parte parece razonable. De
hecho, el coeciente de correlacin habitual entre ambas variables es -0,29, reejando tal correlacin
negativa si bien, tratndose de variables cualitativas, el uso de dicho estadistico es cuestionable. Los
niveles de experiencia medios son de 25,9, 20,7, 17,0, 14,9 y 14,5 aos para los niveles educativos
de 1 a 5, respectivamente, con una media global de 17,2 aos. La ordenacin decreciente de dichos
promedios sugiere asimismo la correlacin negativa entre ambas variables.
6.4.2 Aporta la variable Experiencia informacin acerca de la determinacin salarial,
adicional a la que continen el nivel educativo y el sexo del trabajador?
Aunque los resultados parecen claros, un investigador podra dudar de la verdadera relevancia de la
informacin aportada por la variable experiencia sobre los salarios, pues la evidencia proporcionada
en este sentido por el modelo de regresin simple, as como por los estadsticos descriptivos podra
sugerirlo. Para ello, estimaramos el modelo omitiendo la experiencia laboral y, utilizando, por
tanto, el nivel educativo y la variable cticia para explicar los salarios,
oa|ario = ,
0
+,
1
1rjcric:cia +,
2
1dncaci o: +,
3
'a|c
y compararamos los residuos de esta ecuacin restringida, con los de (37). Adems del claro de-
scenso en los estadsticos de ajuste (reg_w_edu_male), la nube de puntos (o1G111C_1A111)
que representa ambos conjuntos de residuos indica claramente las diferencias entre ellos o, lo que es
lo mismo, que la experiencia profesional es una variable signicativa para explicar la determinacin
de los salarios en este grupo de trabajadores. El coeciente de correlacin entre los residuos de
ambos modelos, incluyendo y excluyendo la variable Experiencia es 0,88, claramente por debajo de
1,0, en coherencia con la interpretacin de que la Experiencia aporta contenido informativo que no
est incorporado en la variable .
6.5 Ejemplo 15.1
6.6 Relacin entre estimadores de Mnimos Cuadrados en la regresin
simple y la regresin mltiple
En las expresiones del estimador de mnimos cuadrados de los coecientes del modelo de regresin
mltiple:
77
^
,
1
=
o
r1
o
2
r2
o
r2
o
r1r2
o
2
r1
o
2
r2
(o
r1r2
)
2
;
^
,
2
=
o
r2
o
2
r1
o
r1
o
r1r2
o
2
r1
o
2
r2
(o
r1r2
)
2
(24)
observamos que la estimacin del efecto que sobre j tiene una variacin unitaria en una de las
variables explicativas diere de la estimacin que de dicho efecto tendramos estimando un modelo
de regresin simple. En el modelo de regresin simple, el estimador de mnimos cuadrados del
coeciente asociado a la nica variable explicativa sera igual, como sabemos, al cociente entre la
covarianza de las variables dependiente y explicativa, y la varianza de la variable explicativa de la
regresin.
Sin embargo, existe un caso especial en que ambos estimadores coinciden. Supongamos que las
dos variables explicativas del modelo, r
21
y r
3I
estn incorrelacionadas. En tal caso, o
r1r2
= 0, y
tendramos en el modelo de regresin mltiple las expresiones:
^
,
1
=
o
r1
o
2
r2
o
2
r1
o
2
r2
=
o
r1
o
2
r1
;
^
,
2
=
o
r2
o
2
r1
o
2
r1
o
2
r2
=
o
r2
o
2
r2
que coinciden con los estimadores que de los efectos individuales c
1
y c
1
tendramos en las
regresiones simples:
j
I
= c
0
+c
1
r
1I
+n
I
(25)
j
I
= c
0
+c
1
r
21
+
I
(26)
El resultado es generalizable: Supongamos que estamos interesados en una regresin con /
variables explicativas, y que podemos dividir las variables explicativas en dos grupos, con y /
variables cada uno, teniendo cada variable del primer grupo correlacin nula con cada una de
las variables del segundo grupo. Dentro de cada grupo, las correlaciones pueden ser arbitrarias.
Entonces, las estimaciones de los coecientes del primer grupo de variables sern las mismas en
el modelo completo que en el modelo que utilizase nicamente dichas variables como explicativas,
y lo mismo puede decirse de las estimaciones de los coecientes del segundo grupo de variables
explicativas.
Consideremos ahora la situacin ms habitual, en que las variables explicativas tienen una
correlacion no nula. A partir de (24) es fcil obtener, dividiendo por o
2
r1
o
2
r2
en cada una de ellas:
^
,
1
=
^
,
1

^
,
2
^
,
21
1
^
,
12
^
,
21
;
^
,
2
=
^
,
2

^
,
1
^
,
12
1
^
,
12
^
,
21
donde
^
,
1
denota el estimador de mnimos cuadrados de la pendiente en una regresin de j
sobre r
1
,
^
,
12
es el estimador de la pendiente en una regresin de r
1
sobre r
2
, y anlogamente los
dems parmetros. Dado que una correlacin nula entre dos variables implica que la estimacin de
mnimos cuadrados de la pendiente en la regresin entre ambas ser igual a cero, es nuevamente
sencillo ver la equivalencia entre el estimador del efecto individual y del efecto global sobre j de
un cambio en r
1
en ausencia de correlacin entre r
1
y r
2
.En este caso,
^
,
21
=
^
,
12
= 0, por lo que
^
,
1
=
^
,
1
y
^
,
2
=
^
,
2
.
Una tercera representacin de los estimadores de mnimos cuadrados del modelo de regresin
mltiple, en funcin de los coecientes de correlacin entre las distintas variables del modelo y sus
volatilidades relativas. Si dividimos por o
2
r1
o
2
r2
en el numerador y denominador de
^
,
1
, tenemos:
78
^
,
1
=
Sx
1
y
S
2
x
1

Sx
2
ySx
1
x
2
S
2
x
1
S
2
x
2
1
(Sx
1
x
2
)
2
S
2
x
1
S
2
x
2
=
Sx
1
y
S
2
x
1
_
S
2
y
_
S
2
y

Sx
2
ySx
1
x
2
S
2
x
1
S
2
x
2
_
S
2
y
_
S
2
y
1 j
2
12
=
j
1
j
2
j
12
1 j
2
12
o

o
r1
y de modo similar, pude obtenerse una expresin anloga para
^
,
2
:
^
,
2
=
j
2
j
1
j
12
1 j
2
12
o

o
r2
donde los subndices tienen la misma interpretacin que en las expresiones anteriores.
6.7 Coecientes de correlacin (o de determinacin) y estadsticos t
El coeciente de correlacin guarda una estrecha relacin con los estadsticos t de las variables.
Asi, si contrastamos la signicacin estadstica de la nica pendiente estimada en un modelo de
regresion simple, se tiene:
1
1,n2
=
1
2
1 1
2
: 2
1
Pero una distribucin 1 cuyo primer grado d elibertad es igual a 1, es igual al cuadrado de
una distribucin t de Student con el segundo nmero de grados de libertad de la distribucin 1 :
1
1,n2
= t
2
n2
.
Por tanto,
1
2
=
t
2
n2
t
2
n2
+ (: 2)
El resultado se mantiene, por supuesto, cuando la regresion simple que estimamos es una regre-
sion parcial, en la que hemos descontado tanto de j como de r
1
el efecto que sobre ambas variables
tiene r
2
, y tenemos:
j
2
r1.r2
=
t
2
1
t
2
1
+ (: /)
donde t
1
es el estadstico t de la variable r
1
en el modelo global, y siendo / el nmero de
coecientes estimados en dicho modelo, que es igual a 3 en este ejemplo. En la regresion parcial,
no slo el coecientes estimado para r
1
sino tambin su desviacin tpica estimada, son los mismos
que en la regresin original. Por eso se cumple la relacin anterior.
Si tenemos un alto nmero de variables explicativas, supongamos / = 5, y queremos calcu-
lar el coeciente de correlacin parcial j
r2.r1r3r4
,deberamos estimar una regresin de j sobre
r
1
, r
2
, r
3
, r
4
, y utilizar el estadistico t de la variable r
2
en dicha regresin para calcular:
j
2
r2.r1r5r6
=
t
2
2
t
2
2
+ (: 5)
79
6.7.1 Aplicacin: Adicin de variables a un modelo de regresin
El coeciente de correlacin parcial es una herramienta til para decidir si aadir una variable
explicativa adicional a un modelo estimado. Supongamos que hemos estimado el modelo:
j
I
= ,
0
+,
1
r
1I
+,
2
r
2|
+,
3
r
3|
+n
I
y nos planteamos la conveniencia de aadir una variable explicativa r
4I
. Es claro que en dicha
decisin no debemos guiarnos del coeciente de correlacin simple habitual j
r4
. Este coeciente
nos medira toda la informacin que r
4
contiene sobre j. Pero una parte de dicha informacin, ya
est presente en el modelo, a travs de r
1
, r
2
, r
3
. Por tanto, queremos decidir sobre la base del
coeciente de correlacin parcial: j
r4.r1r2r3
que, como hemos visto en la seccin anterior, guarda
una estrecha relacin con el estadstico t del coeciente de la variable r
4
en la regresin mltiple.
Supongamos que hemos estimado un modelo de regresin, con una estimacin de la varianza del
trmino de error igual a:
^ o
S1
=
oC1
S1
: /
y consideramos la posibilidad de excluir del modelo r variables explicativas. Si lo hacemos as,
y volvemos a estimar, tendremos:
^ o
1
=
oC1
1
: / +r
El contraste 1 de signicacin conjunta de loscocientes de dichas r variables es:
1
:,n|
=
oC1
1
oC1
S1
oC1
S1
: /
r
=
(: / +r)^ o
1
(: /)^ o
S1
(: /)^ o
S1
: /
r
de modo que:
^ o
1
^ o
S1
=
1 +
n|
:
1 +
n|
:
por lo que:
^ o
1
< ^ o
S1
=1 < 1
pero: ^ o
1
=
(1

1
2
)S
2
y
n1
, de modo que ^ o
1
disminuye si y slo si

1
2
aumenta, puesto que o
2

y :
estn dados y no dependen del nmero de variables explicativas que incluyamos en el modelo de
regresin.
6.8 Estimacin de efectos individuales en una regresin mltiple
Recordemos la interpretacin del residuo de una regresin como el componente de la variable de-
pendiente j no explicado por la variable dependiente r. En el caso de una regresin mltiple, es el
componente de j no explicado por el conjunto de las variables explicativas. Por simplicidad, vamos
a considerar una regresin mltiple con dos variables explicativas, r
1
y r
2
, aunque el argumento
puede extenderse al caso ms general en que r
1
y r
2
son vectores, es decir, estn formados por
varias variables.
80
La primera proposicin muestra que el coeciente de un modelo de regresin mltiple puede
obtenerse mediante una regresin entre residuos de regresiones simples. Ya sabemos que salvo en
el caso en que r
1
y r
2
estuviesen incorrelacionadas, el coeciente de r
1
en una regresin de j sobre
r
1
y r
2
est afectado por la presencia de r
2
en dicha regresin. Por tanto, va a ser distinto del
coeciente estimado en la regresin simple de j sobre r
1
.Sin embargo, el coeciente de r
1
en la
regresin mltiple puede obtenerse en una regresin del componente de j no explicado por r
2
sobre
le componente de r
1
no explicado por r
2
.
Proposition 5 El coeciente de r
1I
en la regresin mltiple, ,
1
, puede estimarse mediante la
regresin del componente de j no explicado por r
2
, (^ j
I
) sobre el componente de r
1
no explicado por
r
2
, (
^

I
).
Consideremos nuevamente la regresin:
j
I
= ,
0
+,
1
r
1I
+,
2
r
2I
+n
I
, i = 1, 2, ...:
y estimamos las regresiones auxiliares que explican tanto a j como a r
1
mediante r
2
:
j
I
= c
0
+c
1
r
2I
+j
I
r
1I
= c
0
+c
1
r
2I
+
I
quedndonos con los residuos:
^ j
I
= j
I
^ c
0
^ c
1
r
2I
^

I
= r
1I

^
c
0

^
c
1
r
2I
El residuo ^ j
I
es el componente de j
I
no explicado por r
2I
, mientras que el residuo
^

I
es el
componente de r
1I
no explicado por r
2I
. Ntese que:
^ j
I
= (j
I
j)
Co(j
I
, r
2I
)
\ ar(r
2I
)
(r
2I
r
2
) = (j
I
j)
o
r2
o
2
r2
(r
2I
r
2
)
^

I
= (r
1I
r
1
)
Co(r
1I
, r
2I
)
\ ar(r
2I
)
(r
2I
r
2
) = (r
1I
r
1
)
o
r1r2
o
2
r2
(r
2I
r
2
)
Ahora, estimamos la regresin de uno sobre el otro:
^ j
I
=
0
+
1
^

I
+-
I
obteniendo una estimacin de la pendiente:
^
1
=
Co(^ j
I
,
^

I
)
\ ar(
^

I
)
=

^ j
I
^

2
I
debido a que ambos residuos tienen media cero, por lo que sus covarianzas y varianzas se denen
mediante productos y cuadrados simples, sin necesidad de restar la media muestral.
81
Pero:

^ j
I
^

I
=

_
(j
I
j)
o
r2
o
2
r2
(r
2I
r
2
)
__
(r
1I
r
1
)
o
r1r2
o
2
r2
(r
2I
r
2
)
_
=
= o
r1

o
r1r2
o
2
r2
o
r2

o
r2
o
2
r2
o
r2r1
+
o
r2
o
2
r2
o
r1r2
o
2
r2
o
2
r2
= o
r1

o
r1r2
o
2
r2
o
r2

2
I
=

_
(r
1I
r
1
)
o
r1r2
o
2
r2
(r
2I
r
2
)
_
2
= o
2
r1
+
_
o
r1r2
o
2
r2
_
2
o
2
r2
2
o
r1r2
o
2
r2
o
r1r2
=
= o
2
r1

o
r1r2
o
2
r2
o
r1r2
Aunque ahora no lo necesitemos notemos que, por igual razon,

^ j
2
I
=

_
(j
I
j)
o
r2
o
2
r2
(r
2I
r
2
)
_
2
= o
2

+
_
o
r2
o
2
r2
_
2
o
2
r2
2
o
r2
o
2
r2
o
r2
=
= o
2


(o
r2
)
2
o
2
r2
Finalmente:
^
1
=
Co(^ j
I
,
^

I
)
\ ar(
^

I
)
=

^ j
I
^

2
I
=
o
r1
o
2
r2
o
r1r2
o
r2
o
2
r1
o
2
r2
o
2
r1r2
y habremos obtenido el mismo coeciente que habramos obtenido en la regresin mltiple.
Como vamos a ver a continuacin, en realidad el procedimiento puede simplicarse an ms:
Qu pasara si excluysemos el efecto de r
2I
unicamente de r
1I
, pero no de j?
Proposition 6 El coeciente de r
1I
en la regresin mltiple, ,
1
, puede estimarse mediante la
regresin de j sobre el componente de r
1
no explicado por r
2
, (
^

I
).
En ese caso, estimaramos una regresin de j sobre
^

I
, el componente de r
1I
no explicado por
r
2I
:
j
I
=
0
+
1
^

I
+
I
obteniendo una estimacin de la pendiente:
^
1
=
Co(j
I
,
^

I
)
\ ar(
^

I
)
=
1
n

j
I
^

I
1
n

2
I
Pero:

j
I
^

I
=

j
I
_
(r
1I
r
1
)
Co(r
1I
, r
2I
)
\ ar(r
2I
)
(r
2I
r
2
)
_
= o
r1

o
r1r2
o
2
r2
o
r2
82
mientras que, como antes vimos,

2
I
= o
2
r1

o
r1r2
o
2
r2
o
r1r2
por lo que:
^
1
=
Co(j
I
,
^

I
)
\ ar(
^

I
)
=
o
r1

Sx
1
x
2
S
2
x
2
o
r2
o
2
r1

S
2
x
1
x
2
S
2
x
2
=
o
r1
o
2
r2
o
r1r2
o
r2
o
2
r1
o
2
r2
o
2
r1r2
que es el mismo estimador que obtuvimos en la regresin anterior. Sin embargo, las desviaciones
tpicas del estimador sern diferentes en ambas regresiones.
6.9 Aplicaciones
6.9.1 Extraccin de tendencias
Estos resultados se prestan a la siguiente aplicacin: Supongamos que tenemos dos variables cuya
relacin queremos caracterizar, y ambas presentan una clara tendencia temporal. La presencia
comn de una tendencia generar una impresin de relacin entre ambas variables que quiza no
se corresponde con la relacin que entre ellas existe una vez que descontemos la presencia de
dicha tendencia. Si quisiramos medir esta ltima correlacin, podramos estimar primero sendas
regresiones de j y r
1
sobre una tendencia t, y tomar los residuos de ambas regresiones. Estos
podrian interpretarse como el resultado de extraer la tendencia temporal de las variables j y r
1
.
Por tanto, la correlacin entre dichos residuos nos dar la correlacin entre las variables j y r
1
que
no es debida a la presencia de una tendencia comn.
Este procedimiento sera correcto, pero el resultado anterior nos dice que se puede obtener la
estimacin del coeciente , con que r
1
inuye sobre j de dos maneras ms sencillas. Una, estimando
una regresin de j sobre el componente que queda en r
1
tras extraer la tendencia de esta variable.
Esto evitara una de las regresiones anteriores. Pero hay un procedimento que en general resultar
an ms simple, que consiste en estimar la regresin:
j
I
= ,
0
+,
1
r
1I
+,
2
t +n
I
donde, en este caso, no hemos eliminado la tendencia temporal de ninguna de las dos variables.
Las dos proposiciones anteriores muestran que la estimacin de mnimos cuadrados del parmetro
,
1
en esta ltima regresin sera idntico al obtenido en cualquiera de las dos regresiones que hemos
mencionado al inicio de este prrafo.
6.9.2 Desestacionalizacin
Algo similar puede aplicarse al caso en que existen componentes estacionales apreciables tanto en
j como en r
1
. Con datos trimestrales, estos pueden representarse mediante variables citicas, una
para cada trimestre, que toman el valor 1 en el trimestre correspondiente, y 0 en los restantes. Si
estamos interesados en estimar la relacin entre ambas variables que no es debida a los factores
estacionales, podemos desestacionalizar ambas variables, y estimar una regresin entre sus ver-
siones desestacionalizadas. Cmo se desestacionaliza? Estimando una regresin de cada variables
sobre las 4 variables cticias trimestrales, y conservando el residuo as obtenido. Alternativamente,
83
sabemos que bastara con desestacionalizar r
1
. Pero lo que puede ser ms sencillo, es que tambin
basta con estimar la regresin:
j
I
= ,
1
r
1I
+c
1
1
1|
+c
2
1
2|
+c
3
1
3|
+c
4
1
4|
+n
I
donde 1
1|
denota la variable cticia correspondiente al primer trimestre, y 1
2|
1
3|
, 1
4|
las
correspondientes a las restantes. En esta regresin, hemos eliminado la constante para evitar
multicolinealidad exacta por la llamada trampa de las variables cticias. Anlogamente, podramos
haber excluido alguna de las variables cticias, por ejemplo la correspondiente al primer trimestre,
estimando,
j
I
= ,
0
+,
1
r
1I
+c
2
1
2|
+c
3
1
3|
+c
4
1
4|
+n
I
Trabajando con datos mensuales, la estacionalidad se representara por 12 variables cticias,
una para cada mes. Cada una de ellas tomaria el valor 1 en el mes correspondiente, y el valor
0 en los otros 11 meses del ao. Trabajando con datos nancieros, tiene gran inters analizar la
posible estacionalidad diaria, para detectar posibles pautas sistemticas que se tengan cada da
de la semana. As, en ocasiones se arma que hay un efecto lunes en las rentabilidades de los
mercados de valores, que motiva la toma de posiciones ese da, para vender los viernes. En este
caso, deniramos una variable cticia para cada da de la semana, de modo similar al anterior.
6.10 Correlacin parcial
El coeciente de correlacin parcial entre dos variables, j y r
1I
, mide el grado de relacin entre estas
dos variables que no es debida al efecto comn que las restantes variables del modelo tienen sobre
ambas. Este coeciente se obtiene como el coeciente de correlacin simple entre j y r
1I
cuando
de cada una de ellas se extrae previamente el efecto de las dems variables. Esta es una manera
sencilla de calcular el coeciente de correlacin parcial.
Otro modo de calcular la correlacim parcial, ms complejo, pero ilustrativo, porque utiliza
propiedades ya conocidas de las regresiones es el siguiente: Estimamos una regresin de cada una
de ellas, j y r
1I
, sobre las dems variables explicativas del modelo, y reservando los residuos de
dichas regresiones. Los residuos sern los componentes de j y r
1I
que no estn explicados por las
restantes variables.
Denition 7 El coeciente de correlacin parcial entre j
I
y r
1I
se dene como el coeciente de
correlacin lineal simple entre ambos residuos ^ j
I
e
^

I
, los componentes de j
I
y r
1I
no explicados
por r
2I
,
j
r1.r2
=

n
I=1
^ j
I
^

I
_

n
I=1
^ j
2
I
_

n
I=1
^

2
I
=

n
I=1
(j
I
^ c
0
^ c
1
r
2I
)
_
r
1I

^
c
0

^
c
1
r
2I
_
_

n
I=1
(j
I
^ c
0
^ c
1
r
2I
)
2
_

n
I=1
_
r
1I

^
c
0

^
c
1
r
2I
_
2
Si todos los coecientes de correlacin entre j, r
1
y r
2
fuesen positivos, entonces la correlacin
parcial entre j y r
1I
sera inferior al coeciente de correlacin simple entre ambas variables, al
estar descontando de ste el efecto comn que sobre ambas variables tiene r
2
. Si los coecientes de
correlacin son de distinto signo, los resultados numricos pueden ir en cualquier direccin.
84
El coeciente de correlacin parcial al cuadrado, j
2
r1.r2
, se conoce como coeciente de deter-
minacin parcial, 1
2
r1.r2
. El coeciente de determinacin parcial 1
2
r1.r2
mide el porcentaje de
la Suma de cuadrados de los residuos ^ n
.r2
(porque hemos eliminado de j el componente expli-
cadopor r
2
) que est explicada por la variable r
1
(aunque de ella hemos extrado asimismo su
componente explicado por r
2
). En general, el coeciente de determinacin parcial puede ser mayor,
igual o menor que el coeciente de determinacin simple, ya que son proporciones calculadas sobre
cantidades distintas.
Es fcil obtener una representacin del coeciente de correlacin parcial en trminos de los
coecientes de correlacin simples:
j
r1.r2
=

n
I=1
^ j
I
^

I
_

n
I=1
^ j
2
I
_

n
I=1
^

2
I
=
o
r1

Sx
1
x
2
S
2
x
2
o
r2
_
o
2


(Syx
2
)
2
S
2
x
2
_
o
2
r1

Sx
1
x
2
S
2
x
2
o
r1r2
y dividiendo el numerador y el denominador por el producto
_
o
2

o
2
r1
,tenemos:
j
r1.r2
=
j
r1
j
r1r2
j
r2
_
1 j
2
r2
_
1 j
2
r1r2
6.11 Relacin entre coecientes de correlacin (y de determinacin) sim-
ple y parcial
Puede probarse que, en una regresin con dos variables explicativas, adems de la constante, se
tiene:
1 1
2
.r1r2
= (1 j
2
r1
)(1 j
2
r2.r1
)
mientras que en una regresin con 3 variables explicativas, adems del trmino constante, se
tiene:
1 1
2
.r1r2r3
= (1 j
2
r1
)(1 j
2
r2.r1
)(1 j
2
r3.r1r2
)
Para demostrar el primer resultado, notemos que 1 j
2
r2.r1
es igual a 1 menos el coeciente
de determinacin de la regresin parcial de j sobre r
2
cuando se ha extraido de ambas variables el
efecto de la variable r
1
. Los residuos de dicha regresin sern igual al componente de j no explicado
ni por r
1
, cuyo efecto se elimin previamente, ni por r
2
, que se ha incluido como explicativa (en
realidad, se ha incluido como explicativa el componente de r
2
que no est explicado por r
1
). Por
tanto, la Suma de cuadrados de residuos ser: oC1
.r1r2
. Por otra parte, la Suma Total de dicha
regresin es igual a la suma de cuadrados de residuos de la regresin de j sobre r
1
, es decir, oC1
.r1
.
Por tanto,
1 j
2
r2.r1
=
oC1
.r1r2
oC1
.r1
En denitiva,
(1 j
2
r1
)
_
1 j
2
r2.r1
_
=
oC1
.r1
oT

oC1
.r1r2
oC1
.r1
=
oC1
.r1r2
oT

= 1 1
2
.r1r2
85
De estas expresiones se deduce que un coeciente de correlacin parcial puede ser mayor o
menor que un coeciente de correlacin simple. Por ejemplo, la variable r
1
puede explicar por s
sla un 20% de las uctuaciones en j, pero una vez que se descuenta el efecto de r
2
, puede ser que
r
1
explique un 40% de la varianza residual, slo que ahora no son residuos de la variable j, sino
del componente de j que no esta explicado por r
2
. En este caso, el cuadrado del coeciente de
correlacin simple sera j
2
r1
= 0, 20, mientras que el cuadrado del coeciente de correlacin parcial
sera: j
2
r1.r2
= 0, 40. Simplemente, la variabilidad total en j, y la variabilidad en el componente
de j no explicado por r
2
, no son comparables. En nuestro ejemplo, r
1
explica ms del segundo que
del primero, lo que perfectamente puede suceder.
6.12 Ejemplo: Ventas de un bien en funcin del precio y del gasto en
publicidad
En este ejemplo podemos denir el coeciente de correlacin parcial entre Ventas y Publicidad,
j
\,1ub.1
como el coeciente de correlacin simple entre las variables transformadas que resultan al
extraer de ambas variables el efecto comn que sobre ellas tiene el Precio del producto. Anloga-
mente, podemos denir el coeciente de correlacin parcial entre Ventas y Precio, j
\,1.1ub
como el
coeciente de correlacin simple entre las variables transformadas que resultan al extraer de ambas
variables el efecto comn que sobre ellas tiene el gasto en Publicidad.
En funcin de los coecientes de correlacin simples habituales, demostramos en la Seccin XX
las expresiones,
j
\,1ub.1
=
j
\,1ub
j
\,1
j
1ub,1
_
_
1 j
2
\,1
__
1 j
2
1ub,1
_
=
0, 950 (0, 901)(0, 829)
_
1 (0, 901)
2
_
1 (0, 829)
2
= 0, 837
j
\,1.1ub
=
j
\,1
j
\,1ub
j
1ub,1
_
_
1 j
2
\,1ub
__
1 j
2
1ub,1
_
=
0, 901 0, 950(0, 829)
_
1 0, 950
2
_
1 (0, 829)
2
= 0, 650
que nos proporcionan los valores numricos de ambnos coecientes de correlacin simples.
Vimos asimismo en el texto expresiones para el clculo de los coecientes de determinacin y
correlacin parcial en funcin de Sumas Residuales,
1
2
\/1ub.1
= 1
o1
2
\./1ub,1]
o1
2
\/1
= j
\,1ub.1
=
_
1
2
\/1ub.1
1
2
\/1.1ub
= 1
o1
2
\/[1ub,1]
o1
2
\/1ub
= j
\,1.1ub
=
_
1
2
\/1.1ub
Teniendo en cuenta que la relacin entre la Suma Residual de un modelo de regresin que tiene
como variable dependiente a j y el coeciente de determinacin de la misma es: o1
2
= T.o
2

(11
2
),
tenemos,
28
28
SR
2
V=[Pub;P]
denota la Suma Residual que resulta cuando Publicidad y Precio explican Ventas, mientras SR
2
V=Pub
denota la suma de cuadrados de residuos en una regresin de Ventas sobre gastos en publicidad. SR
2
V=Pub:P
sera
86
o1
2
\/[1ub,1]
= T.o
2
\
(1 1
2
\/[1ub,1]
) = 10(443, 5) (1 0, 943) = 252, 80
o1
2
\/1ub
= T.o
2
\
(1 1
2
\/1ub
) = 10(443, 5) (1 0, 902) = 434, 63
o1
2
\/1
= T.o
2
\
(1 1
2
\/1
) = 10(443, 5) (1 0, 812) = 833, 78
Utilizando estos valores numricos, tenemos,
1
2
\/1ub.1
= 1
o1
2
\/[1ub,1]
o1
2
\/1
= 1
252, 80
833, 78
= 0, 697 = j
\,1ub.1
=
_
0.697 = 0, 835
1
2
\/1.1ub
= 1
o1
2
\/[1ub,1]
o1
2
\/1ub
= 1
252, 80
434, 63
= 0, 418 = j
\,1.1ub
=
_
0.418 = 0, 647
donde hemos asignado un signo negativo a j
\,1.1ub
debido a ser una correlacin entre ventas y
nivel de precios. La ligera variacin observada en los resultados proporcionados por ambos enfoques
se debe a la aproximacin numrica en las diferentes operaciones realizadas en cada caso.
El coeciente de correlacin simple entre ventas y gastos en publicidad es de 0,950, reducindose
a 0,835 si excluimos la simultaneidad que ambas variables muestran debido a su correlacin comn
con el nivel de precios. El coeciente de correlacin simple entre ventas y nivel de precios es de
-0,901, reducindose en valor absoluto al caer el coeciente a -0,647 cuando excluimos la informacin
comn que sobre los valores anuales de ambas variables tiene el gasto en publicidad. Por tanto, el
gasto en publicidad explica casi un 30% de la correlacin entre venta y nivel de precios, mientras
que el nivel de precios es responsable de slo un 12% de la correlacin entre ventas y gastos en
publicidad. De ello concluimos que el gasto en publicidad es la variable ms importante para
explicar la evolucin temporal de la cifra de ventas.
Tal conclusin coincide con la que alcanzamos al examinar las correlaciones entre Ventas y los
residuos de las regresiones simples, as como al comparar los residuos de la regresin mltiple con los
que se obtienen en cada una de las regresiones simples. Estos son los procedimientos que sugerimos
utilizar para el anlisis de este tipo de cuestiones. En este ejemplo se alcanzara la misma conclusin
por los procedimientos habituales de comparar el valor numrico de los coecientes individuales
estimados en el modelo de regresin mltiple, o el valor absoluto de los estadsticos tipo-t asociados
a ambos coecientes. Sin embargo, ya hemos indicado como ninguna de tales comparaciones est
justicada y la coincidencia es casual. Veremos en otros ejemplos que los resultados no son siempre
coincidentes
29
.
Debe recordarse, de la discusin terica en la Seccin XX, que 0,835 es asimismo el coeciente de
correlacin que obtendramos entre los residuos de regresiones que explican las ventas y los gastos
en publicidad, respectivamente, por la variable precio (11o_\ _111C, 11o_1l1_111C1O).
la Suma Residual que se tendra en una regresin de ventas sobre gastos en publicidad, despus de excluir de ambas
variables el componente comn que tienen por incorporar informacin sobre el precio. SR
2
V=P:Pub
se interpreta
anlogamente.
29
W. Kruskal, The American Statisticiam (1987), propuso utilizar el promedio de los cuadrados de los coecientes
de correlacin simple y parcial entre Y y cada variable explicativa para evaluar la proporcin de la uctuacin en Y
que es explicada por cada una de stas. En nuestro ejemplo tendramos para los gastos en publicidad:
0:950
2
+0:837
2
2
=0, 801; y para el nivel de precios:
(0:901)
2
+(0:650)
2
2
=0, 617 alcanzando la misma conclusin [Johnston y DiNardo
pg.80].
87
De modo similar, -0,647 es el coeciente de correlacin entre los residuos de regresiones que expli-
can las ventas y el precio, respectivamente, utilizando los gastos en publicidad como nica variable
explicativa (11o_\ _1l1, 11o_111C_1l1). Ambos resultados pueden comprobarse uti-
lizando las variables descritas, que se contienen en el chero de trabajo.
Esto nos recuerda el signicado de los coecientes de correlacin parcial: al estimar las regre-
siones de ventas y precios sobre publicidad, estamos extrayendo de estas variables la informacin
comn con los gastos en publicidad, y luego correlacionamos los componentes as medidos, obte-
niendo el grado de asociacin entre ventas y precio, excluyendo aquella correlacin que pueda estar
debida al hecho de que ambas se relacionan con el gasto en publicidad.
7 Colinealidad entre variables explicativas en el modelo de
regresin
En la mayora de los modelos de regresin que nos encontramos, las variables explicativas tienen
correlacin no nula. Esto se debe a que los datos econmicos no proceden de un diseo experimental,
como pueda suceder en otro tipo de ciencias. Sus valores proceden de modo complejo de las
decisiones de los agentes econmicos, que hacen que las distintas variables se inuyan mutuamente.
Cuando dicha correlacin es elevada, sea de signo positivo o negativo, se hace difcil discriminar
entre la relevancia que para explicar la variable dependiente tienen las variables explicativas que
presentan correlacin elevada.
La implicacin de este hecho es que es difcil precisar, a partir de la informacin muestral acerca
de los valores numricos de los coecientes asociados a dichas variables. En consecuencia, dichos
coecientes se estiman con una reducida precisin.
Como sabemos, ello se maniesta en unos valores numricos reducidos de los estadsticos t, por
lo que es probable que para alguno de dichos coecientes (o quiz para todos ellos) no rechacemos
la hiptesis nula de ausencia de signicacin estadstica. Aunque sabemos que tal identicacin
carece de justicacin, esta observacin puede conducir a creer que las variables asociadas carecen
de relevancia para explicar la variable dependiente.
La reducida precisin en la estimacin hace que la varianza de la distribucin de probabilidad
del estimador de cada coeciente sea elevada. En consecuencia, el valor numrico del estimador,
que no es sino una extraccin aleatoria de dicha distribucin de probabilidad, puede diferir bastante
del verdadero valor numrico del coeciente, a pesar de tratarse de un estimador insesgado. Esto
es debido a que aun siendo insesgado, el estimador tiene una varianza grande.
De hecho, una regresin en que los estadsticos t son todos reducidos (por debajo de 2,0 en
valor absoluto), y, sin embargo, el coeciente de determinacin 1
2
es claramente mayor que cero,
es un indicio claro de colinealidad entre todas las variables explicativas. De hecho, en este tipo de
situaciones, el estadstico habitual para el contraste de de la hiptesis nula de ausencia de capacidad
explicativa global de la regresin estimada rechazar fcilmente la hiptesis nula, mostrando una
capacidad explicativa signicativa del modelo, a pesar de tener los coecientes estimados de todas
sus variables explicativas un estadstico t inferior a 2,0 en valor absoluto.
Por el mismo argumento, si se excluyen de una regresin dos o ms variables explicativas que
tienen un estadstico t muy reducido, y ello reduce apreciablemente el coeciente de determinacin,
ello indica que las variables excluidas estn altamente correlacionadas, y el reducido valor numrico
de los estadsticos t de sus coecientes se deba a la reducida precisin con que se estiman.
88
7.1 Consecuencias de la colinealidad
Las estimaciones numricas de los coecientes del modelo obtenidas por mnimos cuadrados,
y sus desviaciones tpicas pueden variar notablemente al cambiar (aadir o excluir) unas pocas
observaciones de la muestra.
varianzas altas para los estimadores de mnimo cuadrados, lo que conduce a:
posiblemente, signos sorprendentes en los coecientes estimados
intervalos de conanza demasiado amplios, lo que
diculta la caracterizacin del impacto numrico que cambios en una variable explicativa
tienen sobre la variable dependiente, y a una
prdida de potencia en los contrastes de hiptesis sobre los coecientes del modelo. En
particular, tenderemos a
mantener demasiado frecuentemente la hiptesis nula de ausencia de signicacin estads-
tica de cada coeciente del modelo
sin que ello implique que el modelo, globalmente considerado, carece de capacidad ex-
plicativa sobre la variable dependiente. Esto se reejara en un 1
2
relativamente alto con pocos (o
ningn) estadsticos t superiores a 2,0 en valor absoluto.
7.2 Deteccin de la colinealidad
R2 moderadamente alto, con pocos estadsticos t superiores a 2,0 en valor absoluto
Elevadas correlaciones entre las variables explicativas. Estas correlaciones deben calcularse
siempre como parte de la descripcin de la informacin muestral, previamente a la estimacin de
cualquier modelo de regresin
Examen de los coecientes de correlacin parcial, para comprobar si un coeciente de
correlacin elevado entre dos variables denota verdaderamente una dependencia mutua o, por el
contrario, ambas reejan el efecto comn de una tercera variable
Coecientes de determinacin en regresiones auxiliares que explican cada variable explica-
tiva por todas las dems. De hecho, un coeciente de determinacin no muy elevado entre variables
explicativas puede ser sntoma de una colinealidad relativamente importante. Recurdese, por
ejemplo, que en una regresin simple, el 1
2
es el cuadrado del coeciente de correlacin lineal. Si
estamos explicando 1 por las variables A y 7, y estas tienen una correlacin de 0,60, el 1
2
en la
nica regresin auxiliar posible (de A sobre 7 o de 7 sobre A), tiene un 1
2
de 0,36, que puede no
parecer demasiado elevado.
Se dene como el factor de inuencia sobre la varianza del estimador de mnimos cuadrados
del coeciente de la variable A
I
a 1,(1 1
2
I
), donde 1
2
I
denota el coeciente de determinacin
descrito en el apartado anterior. La varianza de dicho estimador es:
\ ar
_
^
,
I
_
=
o
2
u
n

=1
(r

r)
2
(1 1
2
I
)
Esta expresin muestra, por otra parte, que la existencia de colinealidad entre variables explica-
tivas no necesariamente generar una elevada varianza para las estimaciones de mnimos cuadrados
de los coecientes del modelo.
89
7.3 Qu hacer en presencia de colinealidad?
No existe un tratamiento de la colinealidad que pueda recomendarse en todas las situaciones, por
lo que el cuidado del analista de datos en estas situaciones es muy importante.
Exclusin de una variable: si se detecta la presencia de dos variables explicativas muy correla-
cionadas, ello signica que ambas variables tienen mucha informacin en comn, por lo que excluir
una de ellas en el modelo que explica una determinada variable dependiente puede no ser muy grave
y, por supuesto, eliminar el problema creado por la alta colinealidad. Sin embargo, hay que tener
en cuenta que excluir una variable que contiene informacin relevante sobre la variable dependiente
generar un sesgo en el coeciente que estimamos para la variable que dejamos en el modelo.
Transformacin de variables: en algunos casos, la colinealidad se reduce si se agrupa el efecto
de dos variables (por ejemplo, sustituyendo ambas por su suma), sustituyendo dos variables muy
relacionadas por su valor relativo (su cociente) o normalizando la regresin dividiendo la variable
dependiente y algunas o todas las variables explicativas por una de ellas, habitualmente un factor
de escala, como la poblacin, la renta, etc..
Una estrategia de especicacin de un modelo que puede funcionar bien en un contexto de col-
inealidad consiste en comenzar detectando la variable explicativa con mayor contenido informativo
sobre la variable dependiente y estimando la regresin simple con dicha variable. El residuo de dicha
regresin proporciona el componente de 1 que no est explicado por A
1
. Correlacionamos dicho
componente de 1 con las variables explicadas no incluidas en la regresin, y aadimos a la regresin
simple anterior la variable explicativa con mayor contenido informativo sobre el componente men-
cionado de 1 . Procedemos de este modo utilizando en cada paso el residuo de la regresin de 1 , y
calculando el coeciente de correlacin con cada una de las variables explicativas an no incluidas
en el modelo. Ntese que buscamos, en cada etapa, aadir al modelo la mayor informacin posible
que an no est incorporada en las variables explicativas que ya estn incluidas en el modelo.
7.4 Ejemplo: Ventas de un bien en funcin del precio y del gasto en
publicidad
7.4.1 Regresiones simples cruzadas
Un investigador podra estimar asimismo dos modelos que tratan de recoger la correlacin existente
entre las variables explicativas,
1n/
|
= 107, 11
()
0, 986
(0,235)
1
|
, 1
2
1ub.1
= 0, 687, ^ o
u
= 3, 88 (27)
1
|
= 103, 52
()
0, 697
(0,166)
1n/
|
, 1
2
1.1ub
= 0, 687, ^ o
u
= 3, 26 (28)
en las que:
el investigador detecta fuerte correlacin entre ambas variables, con un coeciente de determi-
nacin que es igual, por supuesto, al cuadrado del coeciente de correlacin simple entre ambas
variables. Por eso el coeciente de determinacin es el mismo en ambas regresiones, puesto
que el coeciente de correlacin no encierra ninguna idea de causalidad y es, independiente,
por tanto, de qu variable tomemos como dependiente y cul como independiente.
90
sin embargo, sera imposible concluir, utilizando estas regresiones estimadas, si la correlacin
entre precios y gastos en publicidad es fruto o no de una poltica explcita de comercializacin.
a pesar de la coincidencia entre coecientes de determinacin, las desviaciones tpicas del
trmino de error no son iguales, sin embargo, ya que las regresiones explican variables depen-
dientes diferentes. Sin embargo, nuestros ratios habituales coinciden,
1atio (1n/
|
,1
|
) =
3.88
6.20
= 0, 626; 1atio (1
|
,1n/
|
) =
3.26
5.22
= 0, 625
donde la leve diferencia se debe exclusivamente a los redondeos a tres decimales.
las pendientes estimadas en ambas regresiones no son iguales. Su producto es: (0, 986)(0, 697) =
0, 687 que es, precisamente, el coeciente de determinacin entre ambas variables, gastos en
publicidad y nivel de precios. Esta es una propiedad de la regresin lineal simple: si se es-
timan por mnimos cuadrados regresiones de 1 sobre A y de A sobre 1 , el producto de las
pendientes resultantes es siempre igual al cuadrado del coeciente de correlacin lineal simple
entre ambas variables.
7.4.2 Tratamiento de la colinealidad
La regresin auxiliar entre nivel de precios y gastos en publicidad (28), nos permite estimar el
componente de la evolucin temporal del nivel de precios que no est explicado por las uctuaciones
que anualmente experimenta el gasto en publicidad,
11n/
|
= 1
|
103, 52 + 0, 697 1n/
|
(29)
que no es sino el residuo de la regresin (28). Las propiedades del estimador de mnimos
cuadrados garantizan que dicho residuo tiene correlacin nula con los gastos en publicidad, por ser
sta la variable explicativa en la regresin a partir de la cual se han generado los residuos. Por
tanto, Corr(1n/
|
, 11n/
|
) = 0.
Si ahora estimamos una regresin que pretende explicar las ventas mediante los gastos en pub-
licidad y el componente de precios no explicado por estos, tenemos,
\
|
= 95, 99
(5,26)
+ 3, 224
(0,305)
1n/
|
1, 464
(0,649)
11n/
|
, 1
2
= 0, 943,

1 = 0, 927, ^ o
u
= 5, 983 (30)
donde puede observarse que el coeciente estimado para 11n/
|
es el mismo que obtuvimos en
la regresin inicial (22), y se estima con la misma precisin.
Sin embargo, el coeciente estimado para los gastos en publicidad es ahora mayor que en (22); la
razn es que en (22), al impacto directo sobre las ventas de un aumento en los gastos en publicidad
haba que aadir el impacto de la reduccin en precios que usualmente acompaa el mayor gasto
en publicidad. El efecto global es superior al medido por el coeciente 2, 204 que los gastos en
publicidad reciben en (22), y eso aparece claro en (30). De hecho, el coeciente estimado para
1n/
|
en (30) es el mismo que obtuvimos en la regresin simple con esta variable, slo que ahora lo
estimamos con una mayor precisin.
30
Aunque numricamente es mayor, tambin se estima dicho
30
Que ambas estimaciones numricas coincidan no es sino reejo del resultado terico que arma que las estima-
ciones numricas del coeciente de mnimos cuadrados de una variable explicativa no cambia si se excluyen o se
incluyen en el modelo variables explicativas incorrelacionados con la primera.
91
coeciente con mayor precisin (menor desviacin tpica) en (30) que en la regresin inicial (22),
gracias a que la ausencia de correlacin entre las variables explicativas en (30) permite discriminar
mejor el efecto de cada variable.
Podra pensarse que una limitacin del modelo (30) es el hecho de que en l no aparece el
precio del producto, sino tan slo el componente del mismo que no est explicado por los gastos en
publicidad. Esto es, en cierta forma, slo aparente, pues si combinamos (30) con (29) se recuperan
exactamente los mismos coecientes estimados en la regresin original (22), excepto por el hecho
de que el coeciente de los gastos en publicidad se ha estimado con una precisin superior.
Alternativamente, podramos utilizar (27) para estimar el componente de los gastos en publici-
dad no explicado por el nivel de precios,
1n/1
|
= 1n/
|
107, 11 + 0, 986 1
|
,
con Corr(1n/1
|
, 1
|
) = 0. A continuacin, estimaramos la regresin de ventas sobre el nivel
de precios y 1n/1
|
, obteniendo,
\
|
= 95, 99
(5,26)
+ 2, 204
(0,545)
1n/1
|
3, 637
(0,363)
1
|
, 1
2
= 0, 943,

1 = 0, 927, ^ o
u
= 5, 983 (31)
siendo ahora el coeciente de la variable auxiliar 1n/1
|
el que coincide con el obtenido en el
modelo original (22) para 1n/
|
, mientras que el coeciente estimado para el nivel de precios es
ahora mayor en valor absoluto que en (22), por las mismas razones antes descritas. Coincide con el
obtenido en la regresin simple (33), aunque se estima con mayor precisin que en dicha regresin,
y tambin con mayor precisin que en la regresin inicial. El investigador debera quedarse con una
de las dos regresiones (30) o (31), dependiendo de la direccin de causalidad en la que interprete la
correlacin existente entre nivel de precios y gasto en publicidad.
La incorporacin del componente del precio no relacionado con los gastos en publicidad eleva
el coeciente de determinacin de la regresin de ventas sobre gastos en publicidad desde 0,902 a
0,943. De modo similar, la inclusin del componente del gasto en publicidad no relacionado con
el precio en la regresin de ventas sobre precios, eleva el coeciente de determinacin de 0,812 al
mismo nivel citado, 0,943. Esto sugiere que el contenido informativo de los gastos en publicidad
sobre las ventas es mayor que el que tiene la variable Precio. Sin embargo, la comparacin de
coecientes de determinacin reduce toda la informacin muestral relativa a la explicacin de las
cifras de ventas a una sla cifra. Preferimos comparar los residuos de modelos que incluyen o
excluyen una variable explicativa, pues nos permiten analizar el impacto que dicha variable tiene,
observacin a observacin. Es perfectamente imaginable que tal efecto sea muy notable pero est
concentrado en unas pocas observaciones que tengan alguna caracterstica en comn.
31
Ello hara
que la comparacin de medidas agregadas, como los coecientes de determinacin, no detectase
la contribucin de la variable explicativa. Si, por el contrario, una comparacin detallada de los
dos conjuntos de residuos nos detecta variaciones importantes en los residuos correspondientes a
ese reducido conjunto de observaciones, podramos denir una variable cticia apropiadamente,
mejorando con ello la capacidad explicativa del modelo.
31
Por ejemplo, cinco aos consecutivos durante los que se produjo una gran elevacin en los precios del petrleo,
en una muestra de 60 aos. En una muestra de seccin cruzada correspondiente a un amplio conjunto de pases,
podran ser los residuos correspondientes a los pases subsaharianos los que experimentan una variacin muy notable
al incluir una determinada variable epxlicativa en el modelo.
92
8 Efectos individuales y efectos globales
8.1 Omisin de variables relevantes
La omisin en una regresin de variables relevantes causa sesgos en la estimacin de los efectos
individuales de las variables incluidas en el modelo. Supongamos que el verdadero modelo es:
j
I
= ,
0
+,
1
r
1I
+,
2
r
2I
+n
I
pero estimamos:
j
I
= c
0
+c
1
r
1I
+n
I
lo que nos genera una estimacin de c
1
:
^ c
1
=
o
r1
o
2
r1
=

(r
1I
r
1
)(,
0
+,
1
r
1I
+,
2
r
2I
+n
I
)

(r
1I
r
1
)
2
= ,
1
+,
0

(r
1I
r
1
)
o
2
r1
+,
2
o
r1r2
o
2
r1
+
o
r1u
o
2
r1
La primera fraccin tiene esperanza matemtica igual a cero. Por otro lado, la covarianza entre
r
1I
y n
I
es tambin igual a cero. Por tanto, tenemos:
1(^ c
1
) = ,
1
+,
2
o
r1r2
o
2
r1
= ,
1
+,
2
c
21
donde c
21
denota el coeciente (pendiente) estimado en la regresin de la varaible excluida de la
regresin, r
2
, sobre la variable incluida r
1I
. El sesgo en la estimacin del coeciente de la variable
incluida en la regresin es igual, por tanto, al producto de dos factores: 1) el coeciente que tendra
en la verdadera regresin la variable que hemos excluido del modelo, por 2) el coeciente en una
regresin de la vaariable excluida sobre la variable incluida en el modelo.
En el primer caso considerado, si el verdadero modelo es:
j
I
= ,
0
+,
1
r
1I
+,
2
r
2I
+n
I
pero estimamos:
j
I
= ,
0
+,
1
r
1I
+n
I
tendremos una estimacin sesgada del efecto individual ,
1
, pero con menor varianza:
\ ar(
~
,
1
) =
o
2
u
o
2
r1
frente a la que tendramos en el modelo correcto:
\ ar(
^
,
1
) =
o
2
u
o
2
r1
(1 j
2
r1r2
)
por lo que no es claro qu estimador de dicho efecto individual es preferible. Recordemos que un
criterio razonable para escoger un estimador frente a otro el es el Error Cuadrtico Medio, denido:
1C' = (oc:qo(
^
,)

)
2
+\ aria:.a(
^
,)
93
Sin embargo, no es claro que la estimacin de la desviacin tpica del estimador
~
,
1
sea menor
que la estimacin de la desviacin tpica de
^
,
1
, debido a que la estimacin del parmetro o
2
u
tampoco ser la misma en ambos modelos, siendo mayor en el modelo mal especicado. Como
dicha estimacin es el cociente entren la Suma de Cuadrados de los Residuos y el nmero de grados
de libertad, se tiene que:
o
2
(
^
,
1
)
o
2
(
~
,
1
)
=
1 j
2
r1r2
1 j
r2.r1
la desviacin tipica estimada de
~
,
1
ser menor que la desviacin tpica estimada de
^
,
1
si y solo
si: j
2
r1r2
< j
r2.r1
.
El resultado se generaliza facilmente. Si el verdadero modelo es:
j
I
= ,
0
+,
1
r
1I
+,
2
r
2I
+,
3
r
3I
+n
I
pero estimamos por error:
j
I
= c
0
+c
1
r
1I
+c
2
r
2I
+n
I
el sesgo en las estimaciones de ,
1
y ,
2
es igual al producto del coeciente que tendra la variable
omitida en la regresin, ,
3
, por los coecientes de una regresin de la variable excluida, r
3
sobre
las dos variables incluidas, (r
1I
, r
2I
). Al hacer este producto, es importante conservar el orden de
las variables y los coecientes:
oc:qo
_
^ c
1
^ c
2
_
= ,
3
_
c
31
c
32
_
=
_
,
3
c
31
,
3
c
32
_
Por tanto, el sesgo en ,
1
sera igual a ,
3
c
31
, mientras que el sesgo en ,
2
sera igual a ,
3
c
32
.
Si el verdadero modelo es:
j
I
= ,
0
+,
1
r
1I
+,
2
r
2I
+,
3
r
3I
+n
I
pero estimamos por error:
j
I
= c
0
+c
1
r
1I
+n
I
entonces, el sesgo en la estimacin de ,
1
es igual al producto de los coecientes que tendran las
dos variables omitidas en la regresin, ,
2
y ,
3
, por los coecientes de una regresin de cada una de
ellas sobre la variable incluida, r
1I
. En esas regresiones:
r
2I
= c
20
+c
21
r
1I
+n
I
r
3I
= c
30
+c
31
r
1I
+n
I
por lo que el sesgo en ,
1
sera:
oc:qo (^ c
1
) = (,
2
, ,
3
)
_
c
21
c
31
_
= ,
2
c
21
+,
3
c
31
1 (^ c
1
) = ,
1
+ (,
2
c
21
+,
3
c
31
)
94
8.2 Inclusin de variables irrelevantes
Este caso es ms sencillo: la inclusin de variables irrelevantes no va a introducir ningn sesgo en
la estimacin de mnimos cuadrados de los coecientes de las restantes variables del modelo. La
estimacin del coeciente de la variable irrelevante, que se ha incluido por error, ser prxima a
cero, y no se rechazar la hiptesis nula de ausencia de signicacin. Sin embargo, la inclusin de
dicha variable nos lleva a perder precisin en la estimacin, por lo que el estimador de mnimos
cuadrados de los restantes coecientes ya no ser eciente, salvo que la variable irrelevante tenga
correlacion nula con cada una de las restantes variables explicativas.
8.3 Estimacin insesgada de efectos parciales y totales
Pensemos en la interpretacin de este resultado: en la regresin mltiple, el estimador ,
1
mide el
efecto que sobre j tendra una variacin unitaria en r
1I
si la otra variable explicativa r
2I
no vara.
Sin embargo, si r
1I
y r
2I
estn correlacionadas, entonces tal escenario es poco verosmil pues cuando
una de ellas vara, tambin cambiar la otra variable. En el modelo de regresin simple (25), en
el que solo aparece una de las variables, r
1I
, el coeciente c
1
mide el efecto total de una variacin
unitaria en r
1I
sobre j
I
. Dicho efecto es el agregado de un efecto directo, y un efecto indirecto, que
se produce porque cuando r
1I
vara, r
2I
tambin vara. Por el contrario, el estimador del coeciente
en el modelo de regresin mltiple mide tan slo el efecto directo. Tambien podemos entender estos
dos efectos como efecto total y efecto parcial.
Es evidente que si queremos medir el efecto parcial o directo de r
1I
sobre j, que se produce
cuando nicamente r
1I
vara, permaneciendo inalteradas las restantes variables explicativas, en-
tonces debemos estimar la regresin mltiple y examinar nicamente el coeciente asociado a esta
variable. Basta suponer en la regresin mltiple que las variables distintas de r
1
no varan, mientras
que s lo hace r
1
.
Si, por el contrario, queremos medir el efecto global (suma de efecto directo y efectos indirectos)
que sobre j tiene un cambio unitario en r
1I
, entonces debemos estimar el modelo de regresin simple.
Cmo sabemos esto? La discusin anterior sobre variables omitidas nos dice que, si leverdadero
modelo de j incluye a r
1
y r
2
comno variables explicativas, entonces la esperanza matemtica del
estimador del coeciente de r
1
en la regresin simple ser:
1(^ c
1
) = ,
1
+,
2
c
21
donde c
21
denota el coeciente (pendiente) estimado en la regresin de la variable excluida de
la regresin, r
2
, sobre la variable incluida r
1I
. Es decir, el efecto de r
1
sobre j estimado en la
regresin simple es igual, en promedio, al efecto de r
1
sobre j que estimaramos en la regresin
mltiple, que llamamos efecto directo o efecto parcial, ms el producto ,
2
c
21
. Pero c
21
nos da la
variacin esperada en r
2
cuando r
1
aumenta en una unidad. Como ,
2
es el efecto de una variacin
unitaria en r
2
sobre j, el producto ,
2
c
21
nos da el efecto indirecto que sobre j tiene una variacin
en r
1
debida al efecto inducido que provoca sobre r
2
. Esto e slo que denbominamos efecto indirecto.
En consecuencia, la expresin anterior es el agregado del efecto directo ms el efecto indirecto, por
lo que podemos denominarlo el efecto total que sobre j tiene una variacin en r
1
.
En la seccin 8.1 obtuvimos el sesgo en la estimacin de c
1
. Nos referamos al sesgo que come-
teramos si interpretsemos el coeciente estimado en la regresin simple, c
1
, como el efecto directo
o parcial de r
1
sobre j. Pero es muy importante apreciar que lo que en la regresin simple esti-
maramos con sesgo es el efecto individual, efecto parcial o efecto directo de r
1
sobre j, pero no el
95
efecto total de una variacin en r
1
sobre j. Este efecto se estima precisamente de manera inesgada
en una regresn de j sobre la variable r
1
exclusivamente.
Por tanto, cada modelo proporciona una respuesta insesgada a una de las dos preguntas sigu-
ientes, y una respuesta sesgada a la otra:
Cul es el impacto que sobre j tendra una variacin unitaria en r
1I
si las dems variables
explicativas del modelo no variasen? Respuesta: Efecto parcial = Estimacin insesgada:
Regresin mltiple
Cul es el impacto total que sobre j tendra una variacin unitaria en r
1I
? Respuesta: Efecto
total = Estimacin insesgada: Regresin simple.
8.4 Ejemplo: Ventas de un bien en funcin del precio propio y del gasto
en publicidad
Una lectura del modelo (22) sugerira que las cifras de ventas aumentan en 220,4 euros por cada 100
euros de incremento en gastos de publicidad, suponiendo que el precio del producto no variase. Esta
es la interpretacin ceteris paribus, tan habitualmente utilizada, pero tambin tan poco consisitente
con la mayora de las situaciones a que se enfrenta un analista de datos econmicos, con variables
epxlicativas correlacionadas entre s. De modo anlogo, las ventas disminuiran en 146,4 euros por
cada 100 euros de incremento en el precio unitario del articulo comercializado por la empresa.
Pero, al existir la simultaneidad mencionada entre los niveles de gastos en publicidad y de precios,
la interpretacin ceteris paribus no es rigurosa, puesto que, como indica el elevado coeciente de
correlacin negativo entre ambas variables, de -0,829, indicando que la empresa gasta ms en
publicidad en perodos en que el precio del producto es bajo, y menos cuando el precio del producto
es alto, lo cual podra ser esprio o, por el contrario, fruto de una estrategia deliberada de marketing.
Con independencia de las razones que generan dicha correlacin, un mayor gasto en publicidad
suele venir asociado a una reduccin en el precio del producto, siendo el efecto sobre las ventas la
conjuncin de ambos efectos. En consecuencia, al incrementar el gasto en publicidad en 100 euros,
las ventas aumentaran en ms de 220,4.
De hecho, las regresiones simples de las ventas anuales sobre cada variable explicativa son,
\
|
= 96, 0 + 3, 224
(0,375)
1n/
|
, 1
2
\.1ub
= 0, 902, ^ o
u
= 7, 36 (32)
\
|
= 483, 6 3, 637
(0,619)
1
|
, 1
2
\.1
= 0, 812, ^ o
u
= 10, 22 (33)
cuyos coecientes de determinacin son, por supuesto, el cuadrado de los coecientes de cor-
relacin simples que aparecen en la matriz . En ambos casos estimamos unos coecientes mayores
en valor absoluto a los obtenidos en el modelo de regresin mltiple, por las razones que acabamnos
de exponer.
Veamos qu implicaciones tiene el coeciente de correlacin estimado, de -0,829. Puesto que,
j
1ub,1
= 1
_
1n/ 1(1n/)
o
1ub
1 1(1)
o
1
_
tenemos que j
1ub,1
mide el valor medio que toma el producto de las uctuaciones en 1n/ y
1 alrededor de sus respectivas medias. Supongamos que ambas variables estn permanentemente
96
en torno a sus valores medios, de los cuales se desvan cada perodo en una cuanta media igual
a sus respectivas desviaciones tpicas.
32
Esto signica que un incremento nominal de 6,20 euros
en el gasto en publicidad, equivale a un aumento de una desviacin tpica en dicha variable. La
expresin anterior, junto con j
1ub,1
= 0, 829, sugiere que dicho incremento venga asociado con
un descenso de 0,829 desviaciones tpicas en el precio.
33
Teniendo en cuenta que o
1
= 5, 22, dicho
descenso equivale a una reduccin en el precio del producto de 4,327 euros. La estimacin del
modelo de regresin mltiple sugiere que el mayor gasto en publicidad eleva las ventas en 13,665
euros, mientras que el descenso en el precio aumenta las ventas en 6,335 euros, siendo la suma de
ambos efectos de 20,00 euros. Este es el efecto que sobre las ventas tiene un incremento de 6,20
euros en el gasto en publicidad, teniendo en cuenta la relacin que existe a lo largo de la muestra
entre esta variable y el precio unitario del producto. Si consideramos un incremento de 100 euros en
el gasto en publicidad, como 100 = (6, 20) (16, 13) , tendramos un efecto estimado sobre las ventas
de: (20, 00) (16, 13) = 322, 6 euros en ventas, aproximadamente igual a lo obtenido al estimar el
modelo (32) .
34
Por tanto, los coecientes estimados en las regresiones simples incorporan el efecto
que simultneamente se produce en la variable omitida cuando cambia el valor numrico de la
variable incluida en la regresin simple.
El razonamiento que hemos hecho en el prrafo anterior es, exactamente, la aplicacin prctica de
las expresiones sobre el sesgo que se produce en el estimador de mnimos cuadrados cuando se omiten
del modelo variables relevantes. Consideremos un modelo de regresin mltiple con dos variables
explicativas, r
I
, r
t
, cuyos subndices denotan que una se incluye en la regresin simple, y otra queda
excluida de dicha regresin. Es decir, la regresin mltiple es: j = ,
In
r
I
+,
tn
r
t
+n, mientras que
la regresin simple es, j = ,
Is
r
I
+. En el razonamiento previo hemos descompuesto el efecto ,
Is
de una variacin unitaria en la variable incluida en una regresin simple r
I
, en dos componentes: el
efecto directo, medido por el coeciente de la variable que en el modelo de regresin mltiple tiene la
variable incluida ,
In
, y el efecto indirecto. Para estimar ste ltimo, hemos calculado la variacin
unitaria en trminos de desviaciones tpicas,
1
ci
. A continuacin, hemos utilizado la denicin de
coeciente de correlacin para inferir que, en media, esta variacin ir acompaada de una variacin
de
1
ci
j
It
desviaciones tpicas en la variable excluida, r
t
. Esto equivale a una variacin nominal de
1
ci
j
It
o
t
en dicha variable. Utilzando las estimaciones de la regresin mltiple, su impacto sobre la
variable dependiente ser
1
ci
j
It
o
t
,
tn
. Pero esto es igual a
cei
c
2
i
,
tn
, y
cei
c
2
i
no es sino la estimacin
de mnimos cuadrados del coeciente ,
t/I
de la regresin simple de la variable omitida r
t
, sobre la
incluida, r
I
. En denitiva, el efecto global de una variacin unitaria en la variable incluida en la
regresin simple, r
I
, sobre la variable dependiente, es,
,
In
+,
tn
,
t/I
Esta es precisamente la expresin de la esperanza matemtica del estimador de mnimos cuadra-
dos del modelo de regresin mltiple 1 (,
Is
) que incluye a r
I
como nica variable explicativa.
32
Estrictamente hablando, este supuesto es apropiado nicamente en situaciones en que las desviaciones respecto del
valor medio en perodos sucesivos son independientes. Esto no ocurre en presencia de comportamientos tendenciales
como los de las variables en este ejemplo.
33
Esta interpretacin es estrictamente vlida si entendemos que el nivel de precios se ja por la empresa en respuesta
al gasto en publicidad acometido, y no al revs; es decir, si interpretamos la alta correlacin entre estas variables en
el sentido Publicidad !Pr ecio:
34
El lector puede repetir el ejercicio partiendo de un descenso de una desviacin tpica en el precio del producto.
Comprobar que el efecto global que obtiene sobre las ventas debido a un descenso de 100 euros en el precio del
producto es el que estimara a partir del modelo de regresin simple (33) :
97
9 Contrastes de restricciones generales
En un modelo de regresin lineal mltiple surgen con frecuencia hiptesis ms generales. En unos
casos, se trata de contrastar varias hiptesis a la vez acerca de valores numricos para distintos
coecientes; en otros, contrastamos un valor terico acerca de una o varias combinaciones lineales
de coecientes. Por ejemplo:
H
0
: ,
1
+,
2
= 1
H
1
: ,
1
+,
2
,= 1
H
0
: ,
1
= 0; ,
2
= 1
H
1
: ,
1
,= 0 ,
2
,= 1
H
0
: 2,
1
,
2
= 1
H
1
: 2,
1
,
2
,= 1
que contrastan una sola restriccin en el primer y tercer ejemplos, en cada caso involucrando a
dos coecientes, mientras que el segundo caso es un contraste conjunto de 2 restricciones, cada una
de ellas sobre un slo coeciente. El nmero de restricciones es igual al nmero de condiciones de
igualdad, que es 1 en el primer y tercer casos, e igual a 2 en el segundo ejemplo. A diferencia de lo
que sucede cuando contrastamos una sla hiptesis o restriccin, cuando se rechaza una hiptesis
nula compuesta de dos o ms restriccines, podemos decir que alguna de ellas es falsa, pero no
necesariamente todas, y podemos indagar cules son falsas y cules no lo son.
En estos casos, existen varios enfoques para resolver los contrastes. Quiz el ms prctico
consiste en estimar dos modelos: el Modelo Sin Restringir ('o1), y el Modelo Restringido ('1) ,
para comparar sus Sumas de Cuadrados de Residuos, oC1o1 y oC11, respectivamente. Si las
restricciones son ciertas, imponerlas o no imponerlas dar igual, pues an si no las imponemos, las
estimaciones que obtengamos a partir de los datos satisfarn, aproximadamente dichas restricciones,
ya que estamos suponiendo que son ciertas. Esto signica que las dos Sumas de Cuadrados de
Residuos, sern aproximadamente iguales, y lo contrario suceder si las restricciones son falsas.
En denitiva, parece razonable comparar ambas Sumas de cuadrados de residuos, en trminos
porcentuales:
oC11 oC1o1
oC1o1
Al imponer restricciones a los valores numricos de los estimadores, el ajuste del modelo nunca
puede mejorar. Generalmente, empeorar. La cuestin, es en cunto se deteriora el ajuste. Si se
deteriora en mucho, es que los datos son contrarios a las restricciones y debemos rechazarlas. Por
eso es que tomamos el deterioro, es decir, el aumento, que se produce en la Suma de Cuadrados de
Residuos al imponer las restricciones, como porcentaje del valor que tenamos antes de imponerlas.
El cociente anterior no tiene una distribucin conocida, pero una correccin del mismo:
98
oC11 oC1o1
oC1o1
:coc):

~ 1
j,ncot}s
(34)
donde :coc): es el nmero de coecientes estimados en el Modelo Sin Restringir, incluyendo,
como siempre, el trmino independiente, y es el nmero de restricciones que se contrastan.
Ejemplo: Consideremos el modelo: j
I
= ,
0
+,
1
r +,
2
. +n
I
, en el que queremos contrastar la
hiptesis nula:
H
0
: ,
1
= 0; ,
2
= 1
H
1
: ,
1
,= 0 ,
2
,= 1
El Modelo Sin Restringir es siempre el modelo original, que en este ejemplo es: j
I
= ,
0
+,
1
r
I
+
,
2
.
I
+,
3

I
+n
I
. El Modelo Restringido debe incorporar las dos restricciones ,
1
= 0; ,
2
= 1 , por
lo que se trata de: j
I
= ,
0
+ 0.r
I
+ 1..
I
+,
3

I
+n
I
= ,
0
+.
I
+,
3

I
+n
I
. A la derecha la variable
.
I
no tiene coeciente, por lo que no hay nada que estimar en dicho trmino. Cuando esto sucede,
pasamos dichos trminos a la izquierda. As, tenemos: j
I
.
I
= ,
0
+ ,
3

I
+ ~ n
I
. Si denimos una
nueva variable mediante: ~ j
I
= j
I
.
I
podemos estimar el Modelo Restringido ~ j
I
= ,
0
+ ,
3

I
+ ~ n
I
y comparar las Sumas de Cuadrados de Residuos que generan, mediante el estadstico que hemos
presentado. En este caso, = 2 y :coc): = 4.
Ejemplo: Consideremos el modelo: j
I
= ,
0
+,
1
r +,
2
. +n
I
, en el que queremos contrastar la
hiptesis nula:
H
0
: ,
1
= ,
2
H
1
: ,
1
,= ,
2
Este es una caso interesante, pues se trata de contrastar un valor numrico (cero) para una sla
combinacin lineal de coecientes: ,
1
,
2
= 0, lo que nos permite considerar tres procedimientos
distintos, que son numricamente equivalentes.
Procedimiento 1: Comenzamos por la comparacin entre los Modelos Restringido y Sin Re-
stringir. El Modelo Sin Restringir es siempre el modelo original, que en este ejemplo es: j
I
=
,
0
+ ,
1
r
I
+ ,
2
.
I
+ n
I
. El Modelo Restringido debe incorporar la restriccin ,
1
= ,
2
, por lo que
se trata de: j
I
= ,
0
+ ,
2
r
I
+ ,
2
.
I
+ ~ n
I
= ,
0
+ ,
2
(r
I
+ .
I
) + ~ n
I
. Si denimos una nueva variable:
~ r
I
= r
I
+.
I
, i = 1, 2, ..., , el Modelo Restringido es: j
I
= ,
0
+,
2
~ r
I
+~ n
I
. Se trata de estimar ambos
modelos y comparar las Sumas de Cuadrados de Residuos que generan, mediante el estadstico
que hemos presentado. En este caso, = 1 y :coc): = 3. En el Modelo Restringido estimamos
nicamente ,
0
y ,
2
. La estimacin restringida de ,
1
es igual a la que obtengamos para ,
2
.
Procedimiento 2: Una vez estimado el modelo, las estimaciones numricas no satisfarn exac-
tamente la igualdad:
^
,
1
=
^
,
2
, y el grado de incumplimiento muestral de dicha hiptesis puede
evaluarse mediante la discrepancia
^
,
1

^
,
2
. De acuerdo con la hiptess nula, esta diferencia debera
ser exactamente igual a cero. Para saber si su valor numrico
^
,
1

^
,
2
puede considerarse cero o,
por el contrario, debe considerarse signicativamente distinta de cero, hemos de compararla con su
desviacin tpica.
Para ello, calculamos la varianza de dicha discrepancia:
\ ar
_
^
,
1

^
,
2
_
= \ ar
_
^
,
1
_
+\ ar
_
^
,
2
_
2Coar
_
^
,
1
,
^
,
2
_
99
y calculamos el estadstico:
^
,
1

^
,
2
_
\ ar
_
^
,
1

^
,
2
_
~ t
|
Por qu sigue esta distribucin t de Student? Recordemos que una combinacin lineal de vari-
ables Normales es asimismo Normal. Por tanto, la diferencia de dos variables Normales (los es-
timadores de los dos coecientes) tienen distribucin Normal. Su esperanza matemtica es igual
a la diferencia de las esperanzas matemticas de
^
,
1
y
^
,
2
. Su varianza es la expresin que hemos
calculado arriba. Si restamos a una variable Normal su esperanza matemtica (que en este caso
es cero, porque bajo H
0
, ambos coecientes son iguales entre s) y dividimos por su desviacin
tpica obtenemos una variable con distribucin (0, 1). Si sustituimos la desviacin tpica por una
estimacin de la misma, la distribucin pasa a ser una t. Los grados de libertad son siempre igual
al nmero de observaciones menos el nmero de coecientes estimados.
Procedimiento 3: Una alternativa sera comparar el cuadrado de la discrepancia con su varianza,
y entonces la distribucin sera una 1
1,|
:
_
^
,
1

^
,
2
_
2
\ ar
_
^
,
1

^
,
2
_ ~ 1
1,|
Ambos procedimientos son equivalentes, porque los valores de una distribucin 1
1,n
son siempre
iguales al cuadrado de los valores de una distribucin t
n
.
Ejemplo: Otro ejemplo: supongamos que en el modelo j
I
= ,
0
+ ,
1
r + ,
2
. + n
I
, queremos
contrastar: H
0
: ,
1
= 0 frente a la alternativa H
0
: ,
1
,= 0. El Modelo sin Restringir es el modelo
original, mientras que el Modelo Restringido es: j
I
= ,
0
+ ,
2
. + n
I
. Una vez estimados ambos
modelos, utilizamos el estadstico 34 que ser en este caso:
oC11 oC1
oC1
3
1
~ 1
1,|
Puede probarse (com veremos en algn ejemplo numrico con ordenador), que el valor numrico
de este estadstico es exactamente igual al cuadrado del estadstico t correspondiente al coeciente
,
1
. Nuevamente, como 1
1,|
= (t
|
)
2
, ambos contrastes son equivalentes.
Ejemplo: Supongamos que en el modelo j
I
= ,
0
+,
1
r
I
+,
2
.
I
+n
I
, queremos contrastar:
H
0
: 2,
1
,
2
= 1
H
1
: 2,
1
,
2
,= 1
que se trata nuevamente de una sola combinacin lineal de cocientes. Para obtener el Modelo
Restringido, incorporamos al modelo original (Modelo Sin Restringir) la restriccin 2,
1
,
2
= 1
o, lo que es lo mismo: ,
2
= 1 + 2,
1
, obteniendo: j
I
= ,
0
+,
1
r
I
+ (1 + 2,
1
).
I
+ ~ n
I
= ,
0
+,
1
r
I
+
.
I
+ 2,
1
.
I
+ ~ n
I
= ,
0
+.
I
+,
1
(r
I
+ 2.
I
) + ~ n
I
, por lo que si denimos nuevas variables: ~ j
I
= j
I
.
I
, ~ r
I
= r
I
+ 2.
I
, el Modelo Restringido es: ~ j
I
= ,
0
+,
1
~ r
I
+ ~ n
I
, en el que estimamos los coecientes
,
0
y ,
1
. La estimacin de ,
2
se obtiene de:
^
,
2
= 1 + 2
^
,
1
. En este caso, = 1 y :coc): = 3.
Podemos utilizar el estadstico t, sin ms que observar que \ ar(2
^
,
1

^
,
2
1) = 4\ ar(
^
,
1
) +
\ ar(
^
,
2
) 2Co(
^
,
1
,
^
,
2
), cuyo valor numrico tendremos que obtener a partir de la matriz de
varianzas-covarianzas de los estimadores de mnimos cuadrados.
100
Ejemplo: Supongamos que en el modelo j
I
= ,
0
+ ,
1
r
I
+ ,
2
.
I
+ n
I
, queremos contrastar la
restriccin:
H
0
: ,
1
+ 2,
2
= 3
H
1
: ,
1
+ 2,
2
,= 3
La restriccin puede escribirse: ,
1
= 2,
2
+ 3. Si sustituimos la restriccin en el modelo
tenemos, j
I
= ,
0
+(2,
2
+3)r
I
+,
2
.
I
+~ n
I
, por lo que si denimos nuevas variables: ~ j
I
= j
I
3r
I
,
~ .
I
= .
I
2r
I
, el Modelo Restringido es: ~ j
I
= ,
0
+,
2
~ .
I
+ ~ n
I
, en el que estimamos los coecientes ,
0
y ,
2
. La estimacin de ,
1
se obtiene de:
^
,
1
= 3 2
^
,
2
. El contrastes de hiptesis se resuelve como
en los casos ateriores, mediante el estadstico 1 que se obtiene comprando las Sumas de Cuadrados
de Residuos de ambos modelos, Restringido y Sin Restringir. En este caso, = 1 y :coc): = 3.
9.1 Contraste de signicacin global del modelo (Anlisis ANOVA)
Por ejemplo, en un modelo de regresin mltiple, j
I
= ,
0
+,
1
r
1
+,
2
r
2
+... +,
|
r
|
consideremos
el contraste: H
0
: ,
1
= ,
2
= .. = ,
|
= 0. El nmero de restricciones es igual al nmero de
condiciones de igualdad, es decir, /.Este es el contraste que conocemos como contraste de Ausencia
de Signicacin Estadstica (o de Capacidad Explicativa o de Contenido Informativo) Global del
modelo.
El Modelo Restringido es: j
I
= ,
0
+n
I
, que es el modelo constante que antes analizamos. Como
sabemos, este es un modelo con
^
,
0
= j, oC1 = .\ ar(j) = oT, y 1
2
= 0. Por tanto, el estadstico
para el contraste de hiptesis es,
oT oC1
oC1
(/ + 1)
/
~ 1
|,(|+1)
donde hesmo tenido en cuenta que el Modelo sin Restringir es el modelo original y, por tanto,
oC1o1 = oC1, que el nmero de coecientes estimados es igual a / + 1, y que el nmero de
restricciones es igual al nmero de variables explicativas, /. Notemos que en el contraste de Ausencia
de Signicacin Global, no se impone que la constante del modelo sea igual a cero. En primer lugar,
no es preciso pues, com sabemos, dicha constante no explica nada, como recoge el hecho de que el
12 del modelo constante sea igual a cero. En segundo lugar, porque incluso sin ninguna variable
explicativa, la variable j tiene media, en general no nula, y necesitamos un trmino constante para
igualar las medias muestrales a ambos lados de la igualdad.
Recordando la denicin del coeciente de determiancin, el estadstico anterior puede escribirse:
o1
oC1
(/ + 1)
/
=
1
2
1 1
2
(/ + 1)
/
~ 1
|,(|+1)
10 Contrastes de cambio estructural
En sentido general, podemos decir que existe cambio estructural en un modelo de regresin cuando
los parmetros del mismo no son constantes a lo largo de toda la muestra. El problema es tpico
de muestras de datos temporales aunque como veremos ms adelante, puede plantearse asimismo
como contraste de homogenidad en muestras de corte transversal.
101
La diferencia es nicamente conceptual. A lo largo de la muestra temproal disponibel para una
estimacin es muy posible que hayan ocurrido sucesos que puedan hacer sospechar al analista que
la relacin entre variables explicativas y variable dependiente haya cambiado. Puede tratarse de
un cambio en el modo en que se pone en prctica la poltica monetaria, si estamos estimando un
modelo de determinacin y previsin de la tasa de inacin, o la implantacin de una normativa
disuasoria del consumo de tabaco si estamos estimando un modelo de demanda de dicho producto.
Estos sucesos podran hacernos pensar que el valor numrico de los coecientes del modelo, es
decir, los efectos que sobre la variable dependiente tienen variaciones en las variables explicativas,
hayan cambiado en ese momento. Por tanto, tendramos inestabilidad paramtrica en algn punto
concreto de la muestra.
En muestras de seccin cruzada o de corte transversal, hay a veces razones para pensar que los
coecientes del modelo sean distintos entre dos o ms submuestras. Es decir, hay heterogeneidad
paramtrica entre submuestras. Podramos estar analizando la rentabilidad de los activos de las
empresas industriales en funcin de su tamao, la composicin de los mismos, su modo de nan-
ciacin, etc, pero quiz el modo en que estas variables afectan a la rentabilidad no es el mismo para
empresas exportadoras que para empresas no exportadoras. El ejemplo que vemos ms adelante
vuelve a considerar la posibilidad de que el modo en que el mercado de trabajo remunera, por medio
de los salarios, el nivel educativo o la experiencia es distinto en hoombres que en mujeres. De este
modo, la discriminacin salarial se muestra como un caso de heterogeneidad paramtrica.
La hiptesis nula es siempre la hiptesis de homogeneidad paramtrica entre submuestras, o si
se quiere, de estabilidad estructural, o de ausencia de cambio estructural. Todos ellos son conceptos
anlogos.
10.1 Test de estabilidad estructural de Chow
En muchas ocasiones, cuando se habla de cambio estructural en regresin, se tiene en mente una
muestra de datos temporales, y el investigador se cuestiona si se ha producido en algn momento
una cambio en la relacin existente entre variables explicativas y variable dependiente. Un ejemplo
sera la estimacin de un modelo de determiancin de la tasa de inacin:

|
= ,
0
+,
1
r
|
+,
2
:
|
+n
|
en funcin del crecimiento del agregado monetario y del nivel del tipo de inters. Imaginemos el
caso de Espaa, y el investigador, que dispone de datos mensuales de los ultimos 40 aos, se plantea
la posibilidad de que la entrada en el euro haya supuesto un cambio signicativo en el modo en que
los tipos de inters o el crecimiento monetario afecten a la tasa de inacin. Alternativamente, un
investigador que trabajase con datos de EEUU podra plantearse si el cambio a nales de los 70
de una poltica de control de agregados monetarios a una poltica de control de tipos de interes ha
podido afectar a la relacin que pretende estimar.
En estos casos, generalmente se considera que han podido variar todos los coecientes del modelo.
Las restricciones consisten entonces en suponer que los coecientes son iguales antes que despus
del hecho que se considera relevante. El Modelo Restringido impone las restricciones y estima, por
tanto, un nico conjunto de coecientes, utilizando toda la muestra. La Suma de Cuadrados de
Residuos restringida es la que se obtiene de esta estimacin.
El Modelo Sin Restringir, al no imponer las restricciones, permite que los coecientes sean
diferentes, y estima el modelo dos veces: una, con los datos hasta la fecha en que se produjo el
acontecimiento de inters, y otra, con los datos posteriores a dicha fecha. La Suma de Cuadrados
102
Sin Restringir es el agregado de las Sumas de Cuadrados de residuos de ambas estimaciones. El
estadstico F se forma como antes teniendo en cuenta que el nmero de grados de libertad que
aparece en el mismo es el del Modelo Sin Restringir. Como este se forma estimando dos veces,
dicho factor es igual a : 2/. Esta es la razn por la que en el ejemplo anterior, era igual a : 6,
cuando haba 3 variables explicativas. Por ltimo, el nmero de restricciones, que habitualmente
denotamos por es, en este caso, igual al nmero de variables explicativas,
35
/.
Por tanto, el estadstico F para este contraste suele escribirse:
oC11 (oC1
1
+oC1
2
)
oC1
1
+Co1
2
: 2/
/
~ 1
n2|,|
Un caso especialmente interesante se reere a la posibilidad de que el investigador dude de que
los ltimos datos recibidos, en numero reducido, quiz slo 2 o 3, no respondan al modelo previo,
debido a que se ha producido recientemente un cambio estructural.
En este caso, utilizamos el siguiente hecho:
"La estimacin de minimos cuadrados de un modelo de regresin con / coecientes, utilizando
una muestra de : observaciones, con : _ / genera un 1
2
= 1 y una Suma de Cuadrados de Residuos
igual a 0, ya que todos los residuos son iguales a cero, por poder efectuar un ajuste perfecto del
modelo a la muestra."
De hecho, si : = /, existe un nico estimador de mnimos cuadrados, mientras que si : < /,
existe todo un continuo de dichos estimadores, todos ellos con las propiedades que acabamos de
referir. El lector puede considerar grcamente la estimacin de una regresin simple cuando
dispone alternativamente: a) de una nica observacin para (j, r) ,o b) de dos observaciones para
dichas variables.
En tal caso, el estadstico anterior se convierte en:
oC11 oC1
1
oC1
1
: 2/
/
~ 1
n2|,|
Ntese que no hay razn para variar el nmero de grados de libertad del Modelo Sin Restringir.
10.2 Variables cticias en la modelizacin del cambio estructural
El cambio estructural puede tratarse, de modo alternativo al que acabamos de indicar, mediante
el uso de una variable cticia que discrimine entre las dos submuestras. As, supongamos que
disponiendo de una muestra de tamao T, tenemos la sospecha de que ha podido producirse un
cambio estructural a partir del perodo t
0
(t
0
< T). denimos una variable cticia 1
|
que toma el
valor 1 para los aos posteriores a t
0
, y es igual a 0 en los aos previos a dicha fecha. A continuacin,
si nuestro modelo es:
j
|
= ,
0
+,
1
r
1|
+,
2
r
2|
+n
|
, t = 1, 2, ...T
estimamos el modelo,
j
|
= ,
0
+c
0
1
|
+,
1
r
1|
+c
1
(1
|
r
1|
) +,
2
r
2|
+c
2
(1
|
r
2|
) +n
|
, t = 1, 2, ...T
35
Salvo que supongamos que algn coeciente es invariante entre submuestras. En tal caso, hay que realizar el
test mediante el uso de variables cticias, como explicamos ms adelante.
103
El uso de variables cticias es especialmente til para examinar la posible heterogeneidad
paramtrica en muestras de corte transversal, como ilustra el ejemplo considerado a continuacin.
Si estimamos este modelo una sla vez, con toda la muestra, el modelo se desdobla en dos
ecuaciones:
t _ t
0
=j
|
= ,
0
+,
1
r
1|
+,
2
r
2|
+n
|
, t = 1, 2, ...t
0
t t
0
=j
|
= (,
0
+c
0
) + (,
1
+c
1
)r
1|
+ (,
2
+c
2
)r
2|
+n
|
, t = 1, 2, ...t
0
El contraste de la hiptesis nula de homogenidad es el contraste conjunto de k hiptesis:
H
0
: c
0
= c
1
= ... = c
|
= 0
frente a la hiptesis alternativa de que al menos uno de dichos coecientes sea distinto de cero.
10.3 Variables cticias y cambio estructural
Un ejemplo de esta situacin sera una posible discriminacin salarial en la que la remuneracin que
recibe un trabajador como salario por su experiencia profesional, es distinta para hombre y para
mujeres. Este hecho podra investigarse mediante la consideracin de una variable cticia, Mujer
I
,
que tomase el valor 1 en el caso de las mujeres incluidas en la muestra, y fuese igual a cero para los
hombres. Estimaramos un modelo:
oa|ario
I
= ,
0
+,
1
1dncaci o:
I
+,
2
1rjcric:cia
I
+,
3
(1rjcric:cia
I
.'n,cr
I
)
y contrastaramos la discriminacin salarial del tipo citado mediante la hiptesis paramtrica:
H
0
: ,
3
= 0, frente a la alternativa unilateral: H
1
: ,
3
< 0. Por supuesto que podran incorporarse
en la misma regresin otros tipos de posible discriminacin. Si quisiramos contrastar la hiptesis
global de discriminacin salarial de cualqiuer tipo, ya sea por razn de sexo, o por minusvaloracin
de la experiencia o del nivel educativo, estimaramos el modelo:
oa|ario
I
= ,
1
+c
1
'n,cr
I
+,
2
1dncaci o:
I
+c
2
(1dncaci o:
I
.'n,cr
I
) + (35)
+,
3
1rjcric:cia
I
+c
3
(1rjcric:cia
I
.'n,cr
I
)
y contrastaramos conjuntamente las 3 hiptesis: H
0
: c
1
= c
1
= c
2
= 0.
Si la alternativa no considera un signo concreto, siendo de la forma: H
1
: c
1
,= 0, c
2
,= 0,
c
3
,= 0, podramos realizar el contraste estimando los Modelos Restringido y in Restringir, y
comparando sus Sumas Residuales. El modelo Restringido sera:
oa|ario
I
= ,
1
+,
2
1dncaci o:
I
+,
3
1rjcric:cia
I
(36)
que se estimara una sla vez, utilizando todos los datos. El modelo Sin Restringir sera (35) , y
formaramos el estadstico:
oC11 oC1
oC1
: 6
3
~ 1
n6,3
Como es sabido, el Modelo Sin Restringir puede estimarse tambin mediante dos regresiones
como (36) , una estimada con los datos de hombres, y otra estimada con los datos de mujeres. El
agregado de las Sumas de Cuadrados de Residuos obtenidas con las dos submuestras sera igual a la
Suma de Cuadrados de residuos que obtendramos estimando con toda la muestra el modelo (35) .
104
10.4 Estadsticos CUSUM y CUSUMSQ
36
Se utilizan con datos temporales. Si estimamos la regresin simple:
j
|
= ,
0
+,
1
r
|
+n
|
con una muestra hasta T, se conoce como residuo recursivo el error que se comete al ajustar el
valor numrico de j
T+1
con dichas estimaciones, es decir,
^ c
|
= j
T+1

^
,
T
0

^
,
T
1
r
T+1
Este residuo recursivo puede interpretar como el error cometido al utilizar las estimaciones
obtenidas con datos hasta T para predecir el valor de j
T+1
, suponiendo que r
T+1
es conocido.
Suponemos que el valor futuro de la variable explicativa r
T+1
es conocido. Dicho error es aleatorio,
pues con los datos hasta T ignoramos lo que puede suceder en T + 1, y puede demostrarse que
tiene una varianza:
37
\ ar (^ c
|
) = o
2
u
_
1 +
r
2
T+1

T
|=1
(r
|
r)
2
_
Si normalizamos el residuo recursivo mediante el cociente:
~ c
|
=
^ c
|
_
1 +
r
2
T+1
P
T
t=1
(rt r)
2
tenemos un residuo recursivo normalizado con varianza constante, o
2
u
.
El estadstico CUSUM se dene a partir de sumas de los residuos recursivos normalizados:
\
|
=
s=|

s=|+1
~ c
s
^ o
, / + 1 _ t _ T
donde ^ o se estima mediante:
^ o
2
=
1
T /
s=T

s=|+1
_
~ c
s
~ c
_
2
con ~ c =
1
T|

s=T
s=|+1
~ c
s
.
Bajo la hiptesis nula de estabilidad, \
|
tiene esperanza igual a cero, y varianza aproximada-
mente igual al nmero de residuos acumulados, T /, de modo que el contraste consiste en super-
poner los valor numricos de las sucesin \
|
a un par de lneas rectas que delimitan un intervalo
de amplitud creciente. Se construyen bandas de conanza mediante lneas rectas que unen los
puntos
_
/, a
_
T /
_
y
_
/, 3a
_
T /
_
. Al 95% de conanza, a = 0, 948, mientras que al 99%
de conanza, a = 1, 143, y se rechaza la hiptesis de estabilidad en los coecientes del modelo si la
secuencia \
|
traspasa dichas bandas.
36
En el caso de una regresin mltiple, las expresiones de la varianza del residuo recursivo que aparecen en esta
seccin son ms complejas. Sin embargo, la construccin de los estadsticos, su interpretacin y la resolucin de los
contrastes de estabilidad son iguales a los que aqu se presentan.
37
La extensin al caso en que se dispone de varias variables explicativas es inmediato.
105
El estadstico CUSUMSQ utiliza los cuadrados de los residuos recursivos normalizados:
o
|
=

s=|
s=|+1
~ c
2
s

s=T
s=|+1
~ c
2
s
donde / es el nmero de variables explicativas. Hemos de comenzar estimando con un nmero
de datos al menos igual a /. Sin embargo, si no comenzamos a partir de un tamao muestral su-
cientemente grande, las primeras estiamciones de los coecientes no sern muy precisas y tendern
a reejar inestabilidad de manera espria.
Los residuos recursivos son independientes si los residuos originales tambin lo eran. En tal
caso, cada trmino de la suma es una variable aleatoria con distribucin chi-cuadrado con un grado
de libertad, por lo que:
1(o
|
) =
t /
T /
que comienza en 0 para t = /, y converge hacia 1 cuando t = T.
El contraste consiste en dibujar la secuencia temporal de o
|
as como bandas de conanza de
amplitud C (dada por unas tablas para este estadstico) alrededor de
||
T|
. Nuevamente, si o
|
se
sale de las bandas, se rechaza la hiptesis nula de ausencia de cambio estructural, que podra afectar
a los oecientes del modelo, o a la varianza del trmino de error.
Por ltimo, bajo la hiptesis nula, la media muestral de los residuos recursivos se distribuye
como una Normal (si los errores originales eran Normales), con esperanza cero y varianza
c
2
u
T|
por
lo que puede construirse un contraste tipo-t :
_
T /
^ o
u
~ c ~ t
T|1
donde ^ o
u
se ha estimado como se explic mas arriba.
10.5 Ejemplo: Discriminacin salarial: contraste de discriminacin salar-
ial mediante variables cticias
Los residuos de la regresin combinada tienen, por supuesto, una media muestral igual a cero. Sin
embargo, su media es de -31,8 entre las mujeres (observaciones con :a|c = 0) y de 20,6 entre
hombres (observaciones con :a|c = 1), sugiriendo claramente un diferente comportamiento de los
salarios entre ambos grupos. Ello signica que dados un mismo nivel de educacin y de experiencia,
el salario es 52,4 Bef. inferior para las mujeres que para los hombres; esta observacin constituye
evidencia ms clara a favor de discriminacin salarial contra las mujeres. Cuando incluimos en la
regresin anterior la variable cticia MALE, obtenemos un 1
2
ajustado de 0,364, con ^ o
u
= 143, 1,
y el ratio de ajuste aumenta a 0,20. La regresin estimada es,
oa|ario = 8, 62
(15,6)
+ 7, 76
(0, 39)
(20, 1)
1rjcric:cia + 80, 11
(3, 25)
(24, 6)
1dncaci o: + 54, 30
(7, 77)
(7, 0)
'a|c (37)
que sugiere que tanto el nivel educativo como la experiencia profesional explican el salario de
un trabajador, y tambin que existen diferencias entre los salarios que reciben mujeres y hombres
que tienen un mismo nivel educativo e igual experiencia laboral.
106
Puesto que la variable 'a|c toma el valor 0 para las mujeres, y el valor 1 para los hombres, la
regresin anterior equivale al par de regresiones,
oa|ario = 62, 92 + 7, 761rjcric:cia + 80, 111dncaci o:, jara |o: hom/rc:
oa|ario = 8, 62 + 7, 761rjcric:cia + 80, 111dncaci o:, jara |a: :n,crc:
Como ejemplo, nuestra estimacin sugiere que un hombre de 10 aos de experiencia laboral y
4 aos de educacin recibira un salario de 62.92 + (7.76)10 + (80.11)4 = 460. 96, mientras que una
mujer de igual cualicacin recibira un salario igual a 8.62 + (7.76)10 + (80.11)4 = 406. 66.
Todo ello proporciona evidencia clara acerca de discriminacin salarial en el sentido antes de-
scrito: a igualdad de experiencia y educacin, un hombre recibe un salario superior en 54,3 unidades
monetarias al de una mujer
38
. No parece preciso contrastar explcitamente tal hiptesis. Adems,
el histograma de frecuencias de la variable salarios se desvia claramente respecto de una distribucin
Normal por lo que la teora estadstica habitual basada, entre otros, en el supuesto de Normalidad
de la perturbacin del modelo y el carcter determinista de las variables explicativas, no es estric-
tamente aplicable en este caso. Afortunadamente, como hemos dicho, tampoco parece necesaria su
aplicacin.
Las dos regresiones anteriores se diferencian tan slo en la estimacin de la constante, por lo que
grcamente pueden visualizarse como dos lneas de regresin paralelas, con igual pendiente, pero
con mayor ordenada en el origen para la regresin de hombres que para la correspondiente a las
mujeres. Es decir, la regresin de hombres est sistemticamente por encima de la de las mujeres,
lo que hace que para cada posible combinacin de nivel educativo y experiencia, el salario de los
hombres (la variable dependiente del modelo) sea mayor que el de las las mujeres
39
.
10.5.1 Aspectos concretos de discriminacin salarial
Una vez obtenida la evidencia anterior acerca de la existencia de discriminacin salarial, podramos
profundizar algo ms, en el sentido de preguntarnos si la discriminacin salarial en contra de la
mujer tiene carcter general, que es lo que hemos supuesto hasta ahora, o alguna forma especca.
Concretamente, con la informacin disponible, podramos contrastar si la mujer trabajadora es
discriminada al reconocer en trminos salariales, bien la experiencia profesional, o bien el nivel
educativo del trabajador. Para ello necesitamos denir nuevas variables, mediante el producto de
la variable cticia por cada una de las mencionadas. Por ejemplo, en la regresin,
oa|ario
I
= ,
0
+,
1
1dncaci o:
I
+,
2
(1dncaci o:
I
.'a|c
I
) +n
I
(38)
la variable producto 1dncaci o:
I
.'a|c
I
toma un valor igual a cero para las mujeres incluidas en
la muestra, mientras que coincide con la variable 1dncaci o:
I
en el caso de los hombres. Por tanto
el modelo anterior equivale a los dos modelos,
oa|ario
I
= ,
0
+,
1
1dncaci o:
I
+n
I
jara |a: :n,crc:
oa|ario
I
= ,
0
+ (,
1
+,
2
) 1dncaci o:
I
+n
I
jara |o: hom/rc:
38
No es casualidad que esta diferencia coincide con la disparidad antes mencionada entre las medias muestrales de
los residuos en ambos grupos de trabajadores: 20,6-(-31,8)=52,4
39
Si bien este argumento no es estrictamente vlido porque con dos variables explicativas, experiencia y educacin,
no tenemos rectas de regresin, sino planos de regresin. Sin embargo, la idea intuitiva es la misma.
107
en los que si ,
2
= 0 ambos modelos coinciden, lo que signicara que el salario recoge el nivel de
educacin del trabajador en igual manera en hombres que en mujeres, no habiendo discriminacin
salarial en este sentido. As, el contraste de signicacin del coeciente ,
2
en el modelo (38) equivale
a un contraste de discriminacin en el reconocimiento del nivel educativo del trabajador. Este mod-
elo, al igual que el modelo que se obtiene aplicando un tratamiento anlogo a la experiencia laboral,
aparecen estimados en el chero de trabajo (11G_\_C1Ooo1A111, 11G_\_C1Ooo11l).
Estimar (38) equivale a considerar dos rectas de regresin con igual ordenada en el origen, ,
0
, pero
con una pendiente diferente para hombres y para mujeres. Ser mayor la primera si ,
2
0, siendo
menor si ,
2
< 0. Sin embargo, dada la evidencia ya obtenida acerca de la posible discriminacin
salarial en contra de las mujeres, en las regresiones citadas se ha incluido asimismo explcitamente
la variable Male, con el objeto de captar cualquier posible evidencia de discriminacin sistemtica.
De este modo, las regresiones estimadas tienen distinta ordenada en el origen y distinta pendiente
para hombres y mujeres.
Es interesante preguntarse en cul de los aspectos, experiencia o educacin, se ve ms discrimi-
nada la mujer. En ambas regresiones, la variable cticia MALE y los efectos cruzados, representados
por las variables producto, tienen estadsticos t inferiores a 2,0 en valor absoluto. Estas son situa-
ciones que suelen producirse en el anlisis aplicado, generando muchas dudas en el investigador,
que podra comenzar a cuestionarse si realmente hay diferencias salariales entre hombres y mujeres.
Sin embargo, no hay razn para ello: desde que hemos estimado el modelo (37) , sabemos que las
dos regresiones que ahora consideramos estn mal especicadas, pues falta un indicador en cada
una de ellas. En consecuencia, la omisin de variables explicativas relevantes hace que tanto las
estimaciones numricas de los coecientes, como de sus desviaciones tpicas, sean sesgadas.
Si, a pesar de ello, nos atenemos a las estimaciones obtenidas, estas regresiones muestran que
cada ao de experiencia se valora a los hombres un 37,7% ms que a las mujeres (1, 57/4, 16) ,
mientras que el paso de un nivel educativo al siguiente se valora en los hombres un 9,8% ms
que en las mujeres (5, 71/58, 4). Por tanto, parece haber mayor evidencia de discriminacin en el
reconocimiento de la experiencia profesional que en el reconocimiento del nivel educativo. En los
dos casos estimamos una recta con mayor ordenada en el origen y mayor pendiente para los salarios
de hombres que para los de mujeres. Esto es evidencia clara sugiriendo discriminacin en contra de
las mujeres.
Aunque este anlisis ha sido ilustrativo, no queremos que la posible deteccin de evidencia
sugiriendo una valoracin inferior de la educacin en mujeres que en hombres pueda deberse a
una mala especicacin de los posibles modos de discriminacin. Para ello, incluimos ahora los
dos indicadores, experiencia y nivel educativo en el modelo de salarios, permitiendo que ambos
coecientes, as como la ordenada en el origen, dieran para hombres y mujeres. As, necesitamos
estimar una regresin,
oa|ario
I
= 42, 48 + 75, 54
(5, 72)
(13, 2)
1dncaci o:
I
+ 6, 77
(6, 95)
(0, 97)
(1dncaci o:
I
.'a|c
I
) + (39)
+ 6, 61
(0, 64)
(10, 3)
1rjcric:cia
I
+ 1, 80
(0, 80)
(2, 24)
(1rjcric:cia
I
.'a|c
I
) + 1, 30
(31, 5)
(0, 04)
'a|c +n
I
con los resultados que se incluyen en el archivo de trabajo (11G_\_C1Ooo1O111). El
1
2
ajustado de 0,366, con ^ o
u
= 142, 99, y ratio de ajuste 1
^ cu
cy
= 0,19. Nuevamente, estimamos
108
que la experiencia profesional se valora en los hombres un 1, 80,6, 61 = 27, 2% ms que en las
mujeres, y la educacin en un 6, 77,75, 54 = 8, 9% ms en hombres que en mujeres. La variable
cticia MALE tiene una contribucin reducida, como indica su coeciente estimado, pero ello es slo
aparente, pues sus posibles efectos estn recogidos asimismo a travs de la variables de interaccin
1rjcric:cia
I
.'a|c
I
y 1dncaci o:
I
.'a|c
I
.
De acuerdo con esta estimacin, un varn recibe por cada ao de experiencia profesional 8,41
Bef., mientras una mujer recibe tan slo 6,61 Bef.. Por cada salto en el nivel educativo, un hombre
ve incrementado su salario en 82,31 Bef., mientras que dicho incremento es de 75,54 para la mujer.
La discriminacin salarial estimada entre trabajadores de distinto sexo, pero de igual nivel educativo
y experiencia laboral es de 1,30 Bef., ms 1,80 Bef. por el nmero de aos de experiencia, ms 6,77
Bef. por el nmero asignado a su nivel educativo comn.
Como alternativa, si hubiramos optado por aceptar la restriccin ,
2
= 0 (coeciente de
1dncaci o:
I
.'a|c
I
) como razonable, habramos estimado el modelo,
oa|ario
I
= 23, 78
(17,26)
+ 80, 12
(3,25)
1dncaci o:
I
+ 6, 76
(0,62)
1rjcric:cia
I
+
+1, 58
(0,77)
(1rjcric:cia
I
.'a|c
I
) + 28, 41
(14,85)
'a|c +n
I
que sugiere que hay una evidencia sistemtica de discriminacin que hace que, a igual nivel
educativo, una mujer sin experiencia laboral reciba 28,41 Bef. menos que un trabajador varn
que asimismo carezca de experiencia laboral. Adems, un varn recibe 8,34 Bef. por cada ao
de experiencia profesional (la suma de 8,76 y 1,58 Bef.), mientras que una mujer recibe tan slo
6,76 Bef.. Por tanto, la discriminacin entre trabajadores de igual nivel educativo pero de distinto
sexo se estima en 28,41 Bef. ms 1,58 Bef. por el nmero de aos de experiencia profesional de
ambos trabajadores. Segn este ltimo modelo, el nivel educativo tiene un efecto igual sobre el
salario de hombres y de mujeres, por lo que incorpora el supuesto de que no hay discriminacin en
la remuneracin del mismo. Sin embargo, incorpora la idea de que la Experciencia se remunera de
manera diferente a hombres y a mujeres.
10.5.2 Existe evidencia de desigual remuneracin de la educacin entre hombres y
mujeres?
El lector debe apreciar las similitudes y diferencias entre las conclusiones numricas alcanzadas en
los dos ltimos modelos: la primera, que permite la posibilidad de que la remuneracin salarial del
nivel educativo sea distinta en hombres y mujeres, y la segunda, que impone la restriccin de que
dicha remuneracin es igual entre ambos grupos de trabajadores. De acuerdo con el primero de los
modelos, un aumento de nivel educativo incrementa el salario de hombres en 82,31 Bef., y el de las
mujeres en 75,54; segn el modelo que acabamos de estimar, el incremento es de 80,12 Bef., comn
a hombres y mujeres que, por supuesto, est entre los dos valores que estimamos con el modelo que
incorporaba este tipo de discriminacin. Ambos modelos implican discriminacin salarial por razn
de sexo, y tambin que la experiencia laboral se remunera de manera diferenciada en hombres y
en mujeres. El primer modelo arma lo mismo acerca del nivel educativo, mientras que el ltimo
modelo impone igual remuneracin salarial por nivel educativo en hombres que en mujeres.
Es difcil decidir cul de los dos modelos es preferible. La ltima regresin tiene practicamente
el mismo 1
2
y la misma desviacin tpica residual que la anterior. En consecuencia, la aplicacin
de los contrastes estadsticos habituales, basados en Normalidad del trmino de error, variables
109
explicativas deterministas, etc., no permiten distinguir entre ambos modelos. En esta situacin,
parece preferible escoger el modelo ms sencillo, y concluir que no hay evidencia en la muestra de
trabajadores disponible acerca de diferencias en el reconocimiento salarial del nivel educativo entre
trabajadores de ambos sexos.
Dada la similitud de estadsticos, es frecuente que el investigador concluya que ambos modelos
son idnticos. Sin embargo, esto no es completamente exacto. Una interpretacin alternativa del
reducido estadstico t del producto 1dncaci o:+'a|c es que, aunque el nivel educativo recibe distinta
valoracin salarial en hombres que en mujeres, las diferencias no se miden con suciente precisin
con los datos disponibles. Esta apreciacin se basara en el hecho de que el efecto discriminatorio
estimado en (39) es de un 9%, que no parece que pueda considerarse despreciable. El problema
es que la desviacin tpica con que se estima el coeciente es prcticamente de igual tamao que
ste, revelando que es un problema de reducida precisin (alta varianza) en las estimacin, lo que
conduce a un estadstico t reducido, en torno a 1,0. En denitiva, el primero de los dos modelos
permite ms variedad salarial y puede considerarse, en tal sentido, ms informativo.
El peligro es que, por estimar tal parmetro con baja precisin, las inferencias numricas que
se obtengan sobre los salarios estn poco justicadas. Dichas estimaciones son, en algunos casos
particulares,
o111Oo Modelo restringido Modelo no restringido
Mujeres Hombres Ratio Mujeres Hombres Ratio
1dnc = 1; 1rjcr = 3 124,2 157,3 78,9% 137,9 151,3 91,1%
1dnc = 1; 1rjcr = 17 218,9 274,1 79,8% 230,4 269,1 85,6%
1dnc = 1; 1rjcr = 30 306,7 382,5 80,2% 316,3 378,4 83,6%
1dnc = 4; 1rjcr = 3 364,5 397,7 91,7% 364,5 398,3 91,5%
1dnc = 4; 1rjcr = 17 459,2 514,5 89,3% 457,0 516,0 88,6%
1dnc = 4; 1rjcr = 30 547,1 622,9 87,8% 542,9 625,3 86,8%
Para niveles educativos bajos, el modelo restringido implica diferencias salariales entre hombres y
mujeres bastante mayores que el modelo no restringido. Lo contrario ocurre para niveles educativos
altos, en los que el modelo restringido genera menores diferencias salariales entre hombres y mujeres.
Es decir, el modelo que incluye explcitamente una valoracin diferente para el nivel educativo
de hombres y mujeres produce una estimacin de la discriminacin salarial ms uniforme, sin
que dependa del nivel educativo de los trabajadores que se comparen. Esta caracterstica podra
hacerlo preferible, pero ha de ser en ltima instancia la creencia del investigador acerca de si el nivel
educativo se valora igual en ambos sexos o no, lo que debe llevarle a escoger uno u otro modelo.
Otra forma de analizar esta cuestin se basa en examinar los residuos del modelo restringido,
el que estimamos en ltimo lugar. Si la remuneracin de la educacin fuese sistemticamente
mayor en hombres que en mujeres, esperaramos ver residuos mayores en hombres que en mujeres,
dentro de cada nivel educativo. Ello se debe a que, al no permitir diferencias por sexo, nuestra
estimacin de la remuneracin a la educacin estara comprendida entre los niveles percibidos
por hombres y mujeres; de este modo, estaramos infravalorando la remuneracin a la educacin
percibida por los hombres, y sobrevalorando la que perciben las mujeres. En consecuencia, los
residuos correspondientes a los varones deberan ser superiores a los de las mujeres en cada nivel
educativo. Si examinamos los residuos del modelo para cada nivel educativo, obtenemos medias
aritmticas de 8,6 y 3,1 para hombres y mujeres en el primer nivel educativo, 4,5 y 0,0 en el segundo,
-1,6 y 11,3 en el tercero, -12,9 y -5,5 en el cuarto, y 17,9 y -6,3 en el superior. Por tanto, en este
110
sentido no surge evidencia sistemtica de discriminacin en la remuneracin del nivel educativo, y
el modelo restringido parecera suciente.
10.5.3 Discriminacin salarial como cambio estructural
Antes hemos planteado el contraste de discriminacin a travs del contraste de signicacin de un
determinado coeciente o conjunto de coecientes del modelo. Otra manera de plantearlo sera a
travs de la estabilidad del modelo de determinacin de salarios entre hombres y mujeres. Al igual
que cuando examinamos la estabilidad temporal, se tratara, en denitiva, de dividir la muestra
en dos submuestras, y comparar las estimaciones obtenidas en cada submuestra, tanto entre ellas,
como con la estimacin obtenida con la muestra completa. Si hay alguna variacin entre los modelos
de salarios estimados para hombres y mujeres, diremos tambin que hay cambio estructural en el
mecanismo de determinacin salarial, puesto que las respuestas a los determinantes del salario seran
en tal caso distintos en ambos grupos de trabajadores.
As, limitndonos por simplicidad al anlisis de discriminacin sistemtica, podramos estimar
el modelo utilizando la submuestra de hombres en un caso
40
, y la submuestra de mujeres, en otro,
obteniendo:
oa|ario
I
= 42, 48 + 75, 541dncaci o:
I
+ 6, 611rjcric:cia
I
+n
I
, jara :n,crc: (40)
1
2
= 0, 365,

1
2
= 0, 363, ^ o
u
= 153, 03, o1 = 20840842;
oa|ario
I
= 43, 78 + 82, 311dncaci o:
I
+ 8, 411rjcric:cia
I
+n
I
, jara hom/rc: (41)
1
2
= 0, 331,

1
2
= 0, 328, ^ o
u
= 125, 93, o1 = 9134157;
Por supuesto, que estas regresiones son comparables a la estimacin del modelo (39) . De hecho,
el lector debe comprobar que de dicho modelo se deducen dos relaciones, una vlida para hombres
y otra para mujeres, y que coinciden exactamente con las dos regresiones que acabamos de estimar.
El contraste de cambio estructural se basa en la comparacin de las Sumas Residuales de los
modelos restringido y sin restringir. Las restricciones en este caso consisten en el supuesto de que
los coecientes del modelo de salarios son iguales para hombres y mujeres; en tal caso, el modelo
sera estable y concluiramos que no hay evidencia de cambio estructural. El Modelo Sin Restringir
est formado por las dos regresiones anteriores, mientras que el Modelo Restringido es (23). El
estadstico tipo-1 se construye, en este caso,
1
j,Jl
MSR
=
(o11 o1o) ,
o1o,qd|
1S1
=
(31079583 (20840842 + 9134157)) ,3
(20840842 + 9134157) , (
|
+
n
6)
= 18, 0
donde hemos utilizado que el nmero de restricciones es 3, el nmero de coecientes que se
supone igual en ambas submuestras. El modelo restringido impone la igualdad de coecientes para
hombres y mujeres, por lo que consiste en estimar una nica regresin con todos los datos; es la
ecuacin (23) y genera, por tanto, una suma residual restringida o11 = 31079583. El modelo sin
restringir pemite distintos coecientes para hombres y mujeres; consiste en tratar las observaciones
de ambas submuestras como independientes, estimando una regresin para cada una de ellas, como
40
Introducir 1 1472 IF MALE=0 en la ventana Sample para estimar con observaciones de mujeres y 1 1472
IF MALE=1 para estimar con datos de trabajadores varones.
111
hemos hecho en (40) y (41). La Suma Residual de dicho modelo es el agregado de las Sumas
Residuales de cada una de las dos regresiones, para hombres y mujeres. El nmero de grados
de libertad de dicho modelo es igual a la suma de los grados de libertad de las dos regresiones:
nmero de observaciones correspondientes a hombres, menos 3, ms el nmero de observaciones
correspondientes a mujeres, menos 3,
|
+
n
6.
El valor numrico del estadstico 1 est claramente por encima de los valores crticos de la
distribucin de probabilidad 1
3,1466
a los niveles de signicacin habituales, 1%, 5%, 10%, por lo
que rechazamos la hiptesis nula a cualquiera de dichos niveles. La hiptesis nula especica la
igualdad de coecientes entre los modelos de salarios de hombres y mujeres, H
0
: ,
|
= ,
n
, por
lo que concluiramos que los modelos de salarios son diferentes. Hay que notar, sin embargo, que
el estadstico utilizado slo tendra distribucin 1 si el trmino de error del modelo de salarios
tuviera distribucin Normal, lo que ya hemos comentado que parece altamente improbable, dado
el histograma de frecuencias de los salarios.
Por s slo, este contraste no dice nada acerca del sentido en que se producen las diferencias,
por lo que sera dicil concluir de l nada relativo a la discriminacin salarial. Sin embargo, el
hecho de que los coecientes asociados tanto a nivel de educacin como a la experiencia laboral
sean mayores para los hombres que para las mujeres sugiere que las diferencias son en perjuicio de
las mujeres. Como los trminos constantes estimados son muy similares, es fcil ver que entre dos
trabajadores de distinto sexo, pero de igual nivel educativo y experiencia laboral, el hombre recibe,
generalmente, un salario superior al de la mujer.
10.5.4 Especicaciones con variables cticias: contrastes de homogeneidad salarial
entre grupos de trabajadores
En esta segunda parte del ejercicio, vamos a ilustrar el modo en que pueden utilizarse variables c-
ticias para proponer distintos grados de homogeneidad en el mecanismo de determinacin salarial.
Trabajando con la misma base de datos, continuamos utilizando el nivel educativo y el grado de
experiencia laboral como posibles determinantes salariales. La hiptesis que ahra consideramos es
que la experiencia laboral se remunera de igual modo en todos los niveles educativos. Dada la evi-
dencia ya presentada acerca de la existencia de discriminacin salarial por razn de sexo, utilizamos
inicialmente las observaciones procedentes de trabajadores varones, para centrarnos exclusivamente
en analizar las diferencias que puedan provenir de los dos factores citados.
10.5.5 Homogeneidad del modelo de salarios para distintos niveles educativos
Comentbamos al inicio de este ejercicio cmo las diferencias entre cada dos niveles sucesivos de
educacin pueden ser muy distintas, dependiendo de los niveles educativos que se comparen. Esto no
ha sido recogido en nuestro anlisis hasta ahora, porque la denicin que se ha hecho de la variable
educacin conduce a que estimemos un incremento salarial con cada cambio de nivel educativo, con
independencia de los niveles en los que se produzca. Para analizar esta cuestin en ms detalle,
estimamos por separado la contribucin media de cada nivel educativo a la retribucin salarial.
Como ya sabemos que existe discriminacin salarial por sexos, vamos a utilizar nicamente las
observaciones correspondientes a los hombres.
Para ello, estimamos cinco regresiones del tipo (15), utilizando en cada caso datos de varones
de un mismo nivel educativo
41
. Los resultados son,
41
Al estimar la regresin, introducir en la ventana Sample, el mensaje 1 1472 IF MALE=1 AND EDUC=1, e
112
:ic| 1 : oa|ario
I
= 318, 03 + 1, 671rjcric:cia
I
+ ^ n
I
, (42)

I
= 76, 1
2
= 0, 043, ^ o
u
= 67, 14, o1 = 333565.4;
:ic| 2 : oa|ario
I
= 275, 19 + 5, 481rjcric:cia
I
+ ^ n
I
,

I
= 195, 1
2
= 0, 212, ^ o
u
= 107, 83, 14, o1 = 2244014;
:ic| 3 : oa|ario
I
= 312, 10 + 6, 631rjcric:cia
I
+ ^ n
I
,

I
= 258, 1
2
= 0, 218, ^ o
u
= 125, 16, o1 = 4010484;
:ic| 4 : oa|ario
I
= 323, 86 + 10, 561rjcric:cia
I
+ ^ n
I
,

I
= 164, 1
2
= 0, 374, ^ o
u
= 133, 71, o1 = 2896499;
:ic| 5 : oa|ario
I
= 389, 43 + 13, 461rjcric:cia
I
+ ^ n
I
,

I
= 200, 1
2
= 0, 257, ^ o
u
= 226, 56, o1 = 10162534;
en los que se aprecia un aumento en el coeciente estimado para la variable Experiencia, segn
aumenta el nivel educativo. Ello sugiere que el reconocimiento salarial de la experiencia profesional
entre varones es mayor cuanto ms alto sea su nivel educativo, quiz por ser entonces la experiencia
laboral de mayor calidad, un resultado sin duda interesante.
Otro resultado que surge de este modelo estimado es que el salario para trabajadores sin ex-
periencia laboral es creciente con el nivel educativo, excepto entre los dos primeros niveles. Esta
comparacin no es, sin embargo, la ms interesante, por cuanto que apenas hay trabajadores sin
experiencia laboral. Otra manera de interpretar el modelo consiste en acudir al promedio de la
experiencia laboral, que es de 17,22 aos para toda la muestra, pero es
42
de 26,57 aos para los
hombres de nivel educativo 1, siendo de 20,42 aos, 18,28, 16,19, y 15,85 aos para los restantes
niveles educativos. Por tanto, el salario medio para los trabajadores del primer nivel educativo se
estima en 318.03+(1.67)(26.57) = 362. 4, siendo para los sucesivos niveles: 275.19+(5.48)(20.42) =
387.09, 312.10+(6.63)(18.28) = 433. 3, 323.86+(10.56)(16.19) = 494. 83, 389.43+(13.46)(15.85) =
602. 77.
As, en promedio, un trabajador varn del nivel educativo 2 recibe un salario superior en 24.7
Bef. al del nivel educativo 1. Las remuneraciones promedio asignadas a los cambios sucesivos en
nivel educativo son: 46,2 Bef. entre los trabajadores de niveles educativos 2 y 3; 61,5 Bef. para el
salto de niveles educativos 3 a 4, y 108 Bef. para el paso de nivel educativo 4 a nivel 5.
Como se ve, estimamos una remuneracin creciente para el salto entre cada par de niveles educa-
tivos sucesivos, valorndose ms un aumento de nivel educativo cuanto ms alto sea el nivel educa-
tivo de partida. Esto hace que el modelo (41) sea excesivamente restringido; en l, estimbamos en
82,31 Bef. la valoracin de cada nivel educativo adicional, con independencia del nivel de partida.
Tal estimacin debe verse como un promedio de las cuatro remuneraciones que calculamos a partir
de (42), pero es inapropiada, dados los resultados de este ltimo modelo.
Un modelo algo menos resringido que (41) sera,
oa|ario
I
= ,
0
+,
1
1dncaci o:
I
+,
2
1rjcric:cia
I
+,
3
(1dncaci o:
I
.1rjcric:cia
I
)+n
I
, jara hom/rc:
(43)
ir variando el cdigo asignado a EDUC, de 1 a 5.
42
Tras marcar la variable Experiencia en el archivo de trabajo, entrar en View/Descriptive Statistics/Statistics
by Classication y escribir en la ventana Series/Group for Classify: EDUC*MALE.
113
Este modelo genera, para los distintos niveles educativos,
Nivel educativo 1 : oa|ario
I
= (,
0
+,
1
) + (,
2
+,
3
).1rjcric:cia
I
+n
I
,
Nivel educativo 2 : oa|ario
I
= (,
0
+ 2,
1
) + (,
2
+ 2,
3
).1rjcric:cia
I
+n
I
,
Nivel educativo 3 : oa|ario
I
= (,
0
+ 3,
1
) + (,
2
+ 3,
3
).1rjcric:cia
I
+n
I
,
Nivel educativo 4 : oa|ario
I
= (,
0
+ 4,
1
) + (,
2
+ 4,
3
).1rjcric:cia
I
+n
I
,
Nivel educativo 5 : oa|ario
I
= (,
0
+ 5,
1
) + (,
2
+ 5,
3
).1rjcric:cia
I
+n
I
,
que impone sobre (42) dos tipos de restricciones: a) que la diferencia en la remuneracion que
recibe cada ao de experiencia en trabajadores de dos niveles educativos sucesivos es la misma,
,
3
, independientente de los niveles de educacin considerados, y b) que la diferencia salarial entre
trabajadores de igual experiencia y niveles de educacin consecutivos es siempre la misma, ,
1
.
Como consecuencia, este modelo implica que para caracterizar las diferencias salariales entre
trabajadores de igual experiencia laboral slo importa la diferencia que exista entre sus niveles
educativos, pero no cules sean estos. Si / denota la diferencia entre los niveles educativos de dos
trabajadores de igual experiencia, donde / podra ser igual a 0, 1, 2, 3 4, la diferencia entre sus
salarios sera: /,
1
+ /,
3
1rjcric:cia, siendo 1rjcric:cia el nmero de aos de experiencia de
ambos trabajadores.
43
El lector debe asegurarse de que entiende que en (42) no se ha impuesto
ninguna de estas dos restricciones.
Por supuesto que estas restricciones pueden contrastarse conjuntamente utilizando los estads-
ticos habituales, sin ms que considerar a (42) como Modelo Sin Restringir, y a (43) como Modelo
Restringido.
Un modelo ms restrictivo considerara que la remuneracin salarial a cada ao de experiencia
laboral del trabajador es independiente de su nivel educativo. Dicho modelo sera,
oa|ario
I
= ,
0
+c
2
1
2I
+c
3
1
3I
+c
4
1
4I
+c
5
1
5I
+,
1
1rjcric:cia
I
+n
I
, (44)
donde la variable cticia 1
2I
se dene mediante 1
2I
= 1 si la observacin i-sima se re-
ere a un trabajador varn en el segundo nivel educativo, y 1
2I
= 0 en todos los dems casos.
El resto de las variables cticias se dene de manera anloga. Una vez estimado este modelo
tendramos para los varones del primer nivel educativo, oa|ario
I
=
^
,
0
+
^
,
1
1rjcric:cia
I
+ ^ n
I
,
para los del segundo nivel educativo: oa|ario
I
= (
^
,
0
+
^
c
2
) +
^
,
1
1rjcric:cia
I
+ ^ n
I
, y as suce-
sivamente; por ejemplo, para los trabajadores varones del ms alto nivel educativo, tendramos,
oa|ario
I
= (
^
,
0
+
^
c
5
) +
^
,
1
1rjcric:cia
I
+ ^ n
I
. Al estimar c
2
obtenemos el diferencial salarial que
reciben los trabajadores varones del segundo nivel educativo respecto de los del primero, con inde-
pendencia de su experiencia laboral. Los restantes coecientes c
3
, c
4
, c
5
, se interpretan de manera
anloga, por lo que esperaramos que fueran todos ellos positivos.
La estimacin del modelo conduce a,
oa|ario
I
= 133, 19+73, 121
2I
+142, 271
3I
+208, 541
4I
+313, 621
5I
+8, 001rjcric:cia
I
+n
I
, (45)
A diferencia de los modelos (43) y (42), la diferencia salarial entre trabajadores de distinto
nivel educativo pero que tienen igual experiencia, se supone ahora independiente de dicho nivel de
43
Cul sera la diferencia en salarios si no tuvieran el mismo grado de experiencia?.
114
experiencia. Por tanto, (44) es un modelo ms restringido que los dos anteriores. En (44) tenemos
cinco regresiones paralelas, con distinta ordenada en el origen pero igual pendiente. Por el contrario,
(42) genera cinco rectas de regresin con distinta ordenada en el origen y diferente pendiente, eds
decir, cinco rectas completamente distintas.
En (43) permitimos que la remuneracin a la experiencia vare con el nivel educativo, lo cual es
ms general que (44). Es algo ms restrictivo en cuando que hace que las diferencias en la ordenada
en el origen sean iguales entre niveled educativos. Los modelos (44) y (43) no son directamente
comparables, pues uno no puede obtenerse imponiendo restricciones sobre el otro.
El modelo alternativo,
oa|ario
I
= ,
0
+,
2
1rjcric:cia
I
+,
3
(1dncaci o:
I
.1rjcric:cia
I
) +n
I
,
no es muy interesante, pues si se piensa que puede haber distinta remuneracin salarial a la
experiencia dependiendo del nivel educativo, es an ms probable que haya diferencias entre tra-
bajadores de igual experiencia, pero distinto nivel educativo. En consecuencia, los modelos (44) y
(43) son generalmente preferibles.
Un modelo an ms restrictivo impondra coecientes comunes a todos los niveles educativos,
Todo: |o: aro:c: : oa|ario
I
= 360, 25 + 5, 731rjcric:cia
I
+ ^ n
I
, (46)

I
= 893, 1
2
= 0, 093, ^ o
u
= 182, 65, o1 = 29723552;
Este modelo equivale a imponer las restricciones H
0
: c
2
= c
3
= c
4
= c
5
=0 en (44) , o bien
H
0
: ,
1
= ,
3
= 0 en (43) , o H
0
: c
1
= c
2
= c
3
= c
4
= c
5
; ,
1
= ,
2
= ,
3
= ,
4
= ,
5
, en (42) ,
si denotamos por c
I
los trminos independientes y por ,
I
las pendientes de cada ecuacin en este
ltimo modelo. Este timo es un conjunto de 8 restricciones, el nmero de igualdades que se incluyen
en la hiptesis nula. Cada uno de estos conjuntos de hiptesis puede contrastarse comparando las
Sumas Residuales de los Modelos Restringido y Sin Restringir en cada caso, utilizando en el clculo
del estadstico tipo 1 el nmero de restricciones
44
y el nmero de grados de libertad del Modelo
Sin Restringir: nmero de observaciones utilizadas en la estimacin, menos nmero de coecientes
estimado en dicho modelo.
El modelo (41) queda en un terreno intermedio entre los anteriores: se obtiene a partir de (42)
imponiendo las 7 restricciones H
0
: c
2
c
1
= c
3
c
2
= c
4
c
3
= c
5
c
4
; ,
1
= ,
2
= ,
3
= ,
4
= ,
5
.
Se obtiene asimismo a partir de (43) , imponiendo la restriccin H
0
: ,
3
= 0, a partir de (44)
imponiendo la restriccin H
0
: c
2
= c
3
= c
4
= c
5
= 0. Por otra parte, el modelo (46) se obtiene a
partir de (41) imponiendo la restriccin H
0
: ,
1
= 0. Por tanto, todas estos conjuntos de restricciones
pueden contrastarse comparando las Sumas Residuales apropiadas, mediante el habitual estadstico
tipo 1 en el que habr que utilizar asimismo la informacin relativa al nmero de restricciones que
se contrastan y el nmero de grados de libertad del Modelo Sin Restringir.
A modo de ejemplo, consideremos el contraste de las restricciones H
0
: c
1
= c
2
= c
3
= c
4
=
c
5
; ,
1
= ,
2
= ,
3
= ,
4
= ,
5
, sobre el modelo (42) , que nos llevara al modelo (46) como versin
restringida del anterior. El coeciente estimado para la variable Experiencia en este ltimo modelo
es un promedio de los obtenidos en las cinco regresiones que conguran el modelo (42) , y lo mismo
ocurre con la ordenada en el origen de la recta de regresin. El Modelo Sin Restringir es el conjunto
de las cinco regresiones de (42), por lo que la Suma Residual Sin restringir es el agregado de
44
Es decir, el nmero de igualdades utilizada para caracterizar la hiptesis nula.
115
las sumas residuales en ellas, mientras que el Modelo Restringido es el constituido por la ltima
regresin, teniendo, por tanto el estadstico 1,
1
j,Jl
MSR
=
(o11 o1o) ,
o1o,qd|
1S1
=
=
(29723552 (333565.4 + 2244014 + 4010484 + 2896499 + 10162534)) ,8
(333565.4 + 2244014 + 4010484 + 2896499 + 10162534) , (893 10)
= 56, 6
siendo 10 el nmero de coecientes estimados en el Modelo Sin Restringir: dos coecientes en
cada una de las cinco regresiones. Se contrastan 8 restricciones, pues los dos coecientes del modelo
se hacen iguales en cuatro de las regresiones, a lo que ocurra en una de ellas. El estadstico 1
conduce a un rechazo tan claro de la hiptesis nula de igualdad de la regresin de salarios para los
distintos niveles educativos, que, incluso si la distribucin de probabilidad del trmino de error se
desva de la Normal, la evidencia obtenida contra la hiptesis de estabilidad de la regresin ha de
juzgarse como muy clara. En consecuencia, el modelo (46) es inapropiado, por ser excesivamente
restringido.
10.5.6 Variables cticias y colinealidad perfecta
Alternativamente al modelo (41), podramos haber especicado,
oa|ario
I
= c
1
1
1I
+c
2
1
2I
+c
3
1
3I
+c
4
1
4I
+c
5
1
5I
+,
1
1rjcric:cia
I
+n
I
, (47)
tras denir una variable cticia 1
1I
del mismo modo que denimos las restantes. En este caso,
para los varones del primer nivel educativo tendramos, oa|ario
I
=
^
c
1
+
^
,
1
1rjcric:cia
I
+ ^ n
I
, para
los del segundo nivel educativo: oa|ario
I
=
^
c
2
+
^
,
1
1rjcric:cia
I
+ ^ n
I
, y as sucesivamente; para los
trabajadores varones del ms alto nivel educativo, tendramos, oa|ario
I
=
^
c
5
+
^
,
1
1rjcric:cia
I
+^ n
I
.
Por supuesto, los valores numricos de los coecientes c seran diferentes ahora que en el modelo
anterior. Esperaramos que las estimaciones numricas de los coecientes c fuesen crecientes para
los distintos niveles educativos.
La suma de las cinco variables cticias incluidas en el modelo (47) es igual a uno para todas
las observaciones, pues slo una de ellas es igual a uno en cada observacin, siendo las restantes
iguales a cero, y esto ocurre para todas las observaciones disponibles. Por tanto, su suma es igual
al valor de la variable que acompaa al trmino constante, por lo que ste no puede incluirse en la
regresin, pues tendramos colinealidad perfecta, no pudiendo estimarse dicho modelo. En el caso
de (44) las cuatro variables cticias suman uno para todas las observaciones, excepto las del primer
nivel educativo, para el que suman cero; por tanto, su suma no coincide con el valor numrico de
la variable que acompaa al trmino constante, y el modelo puede estimarse. En dicho modelo,
podamos haber optado por incluir 1
1I
y excluir otra cualquiera de las variables cticias, y la
interpretacin de los coecientes estimados sera anloga a la que propusimos para el modelo (44).
116

You might also like