You are on page 1of 10

SUPUESTOS Y PROPIEDADES DE MÍNIMOS CUADRADOS ORDINARIOS

SUPUESTOS DE CUADRADOS ORDINARIOS

Vamos ahora a estudiar las propiedades estadísticas de los estimadores de MCO,

ˆ1y ˆ2 , del modelo de regresión lineal simple. Previamente, es necesario formular un


conjunto de supuestos estadísticos. Específicamente, al conjunto de supuestos que vamos
a formular se les denomina supuestos del modelo lineal cásico (MLC). Es de resaltar que
los supuestos del MLC son sencillos, y que los estimadores MCO tienen, bajo estos
supuestos, muy buenas propiedades.
2.5.1 Supuestos estadísticos del MLC en regresión lineal simple

a) Supuesto sobre la forma funcional

1) La relación entre el regresando, regresor y perturbación aleatoria es lineal en los


parámetros:

y 1 2x u (2-58)

El regresando y los regresores pueden ser cualquier función de la variable endógena y


de las variables explicativas, respectivamente, a condición de que entre los regresores y el
regresando exista una relación lineal. Es decir, el modelo es lineal en los parámetros. La
aditividad de la perturbación garantiza la relación lineal con el resto de los elementos.

b) Supuestos sobre el regresor x

2) Los valores que toma x son fijos en repetidas muestras:

De acuerdo con este supuesto, cada observación del regresor toma el mismo valor
para diferentes muestras del regresando. Este es un supuesto fuerte en el caso de las
ciencias sociales, donde, en general, no es posible la experimentación. Los datos se
obtienen mediante observación, no mediante experimentación. Es importante destacar que
los resultados obtenidos basados en este supuesto permanecen virtualmente idénticos a los
que se obtienen cuando asumimos que los regresores son estocásticos, siempre, que
postulemos el supuesto adicional de independencia entre los regresores y la perturbación
aleatoria. Este supuesto alternativo se puede formular así:

2*) El regresor x se distribuye de forma independiente de la perturbación aleatoria.

1
En cualquier caso, a lo largo de este capítulo y los siguientes vamos a adoptar el
supuesto 2.

3) El regresor x no contiene errores de medición

Se trata de un supuesto que a menudo no se cumple en la práctica, ya que los


instrumentos de medición no son siempre fiables en la economía. Pensemos, por ejemplo,
en la multitud de errores que se pueden cometer en la recopilación de información cuando
se realizan encuestas a las familias.

4) La varianza muestral de x es distinta de 0 y tiene un límite finito cuando


n tiende a infinito

Por lo tanto, este supuesto implica que

n
2
xi x
SX2 i 1
0 (2-59)
n

c) Supuesto sobre los parámetros

5) Los parámetros 1 y 2 son fijos

Si no se adopta este supuesto, el modelo de regresión sería muy difícil de aplicar.


En cualquier caso, puede ser aceptable postular que los parámetros del modelo son estables
en el tiempo (si no es un período muy largo) o en el espacio (si es relativamente limitado).
d) Supuestos sobre las perturbaciones aleatorias

6) La esperanza de las perturbaciones es cero,

E(ui ) 0, i 1,2,3, ,n (2-60)

Éste no es un supuesto restrictivo, ya que siempre se puede utilizar 1 para


normalizar E(u) a 0. Supongamos, por ejemplo, que E(u) 4 , entonces podríamos
redefinir el modelo del siguiente modo:

y ( 1 4) 2x v

dóndev u 4. Por lo tanto, la esperanza de la nueva perturbación, v, es 0 y la esperanza de u


ha sido absorbida por el término independiente.

2
7) Las perturbaciones tienen una varianza constante

2
var(ui ) i 1,2, n (2-61)

A este supuesto se le denomina supuesto de homoscedasticidad. Esta palabra viene


del griego: homo (igual) y scedasticidad (variabilidad). Esto significa que la variabilidad
en torno a la línea de regresión es la misma en toda la muestra de x; es decir, que no
aumenta o disminuye cuando x varía, como puede verse en la figura 2.7, parte a), donde
las perturbaciones son homoscedásticas.

a) b)

FIGURA 2.7. Perturbaciones aleatorias: a) homoscedasticidad; b)


heteroscedasticidad.

Si este supuesto no se cumple, como ocurre en la parte b) de la figura 2.7, los


estimadores de MCO no son eficientes. Las perturbaciones en ese caso se dice que son
heteroscedásticas (hetero significa distinta).

8) Las perturbaciones con diferentes subíndices no están correlacionadas


entre sí (supuesto de no autocorrelación):

E(uiu j ) 0 i j (2-62)

Es decir, las perturbaciones correspondientes a diferentes individuos o a diferentes


momentos de tiempo, no están correlacionadas entre sí. Este supuesto de no
autocorrelación o no correlación serial, al igual que en el caso de homoscedasticidad, es
contrastable a posteriori. La transgresión de este supuesto se produce con bastante
frecuencia en los modelos que utilizan datos de series temporales.

9) Las perturbaciones se distribuyen normalmente

Teniendo en cuenta los supuestos 6, 7 y 8 se tiene que

3
2
ui ~ NID(0, ) i 1,2, ,n (2-63) donde NID indica que las perturbaciones están
normal e independientemente distribuidas.

La razón de este supuesto es que si u se distribuye normalmente, también lo harán


y y los coeficientes estimados de regresión, lo cual es útil en la realización de contrastes
de hipótesis y en la construcción de intervalos de confianza para 1y 2. La justificación
de este supuesto se basa en el Teorema Central del Límite. En esencia, este teorema indica
que, si una variable aleatoria es el resultado agregado de los efectos de un número
indefinido de variables, tendrá una distribución aproximadamente normal, incluso si sus
componentes no la tienen, a condición de que ninguno de ellos sea dominante.

2.5.2 Propiedades deseables de los estimadores

Antes de examinar las propiedades de los estimadores mínimo-cuadráticos bajo los


supuestos estadísticos del MLC, se puede plantear la siguiente cuestión previa: ¿cuáles
son las propiedades deseables para un estimador?

Dos propiedades deseable para un estimador es que sea insesgado y que su varianza
sea lo más pequeña posible. Si esto sucede el proceso de inferencia se podrá llevar a cabo
de una forma satisfactoria.

Vamos a ilustrar estas propiedades de forma gráfica. Consideremos en primer lugar


la propiedad de insesgadez. En las figuras 2.8 y 2.9 se han representado las funciones de
densidad de dos hipotéticos estimadores obtenidos por dos procedimientos
diferentes:

f (bˆ2 ) f (b2 )

bˆ21( ) b2 = E(bˆ2) bˆ22( ) bˆ2 b 21( ) b2 E(b 2) b 22( ) b 2

FIGURA 2.8. Estimador insesgado. FIGURA 2.9. Estimador sesgado.

El estimador bˆ2 es insesgado, es decir, su esperanza matemática es igual al


parámetro que trata de estimar, 2. El estimador bˆ2 es una variable aleatoria que en cada
muestra de y– las x son fijas en repetidas muestra según el supuesto 2- toma un valor

4
diferente, pero en promedio, es decir, teniendo en cuenta los infinitos valores que puede
tomar bˆ2, es igual al parámetro 2. Con cada muestra de y se obtiene un valor específico
de bˆ2, es decir, una estimación. En la figura 2.8 se han representado dos estimaciones de
2: bˆ2(1) y bˆ2(2) . La primera estimación está relativamente cerca de 2, mientras que la
segunda está mucho más alejada. En todo caso, la insesgadez es una propiedad deseable,
ya que nos asegura que el estimador en promedio está centrado sobre el parámetro.
El estimador b 2, en la figura 2.9, es sesgado, ya que su esperanza no es igual a

2. El sesgo es precisamente E(b 2)-b2 . En este caso también se han representado dos
hipotéticas estimaciones: b 2(1) y b 2(2) . Como puede verse b 2(1) está más cerca de
2 que el estimador insesgado bˆ2(1) : es una cuestión de azar. En todo caso, por ser
sesgado no está centrado en promedio sobre el parámetro. No cabe duda que siempre es
preferible un estimador insesgado puesto que, con independencia de lo que ocurra en una
muestra concreta, no tiene una desviación sistemática respecto al valor del parámetro.

La otra propiedad deseable es la eficiencia. Esta propiedad hace referencia a la


varianza de los estimadores. En las figuras 2.10 y 2.11 se han representado dos hipotéticos
estimadores insesgados a los que seguiremos llamando bˆ2 y b 2. El primero de ellos tiene
una varianza más pequeña que el segundo.

f (bˆ2 ) f (b 2 )

bˆ23( ) b2 bˆ24( ) bˆ2 b 24( ) b2 b 23( ) b 2


FIGURA 2.10. Estimador con varianza pequeña. FIGURA 2.11. Estimador con
una varianza grande.

En ambas figuras hemos representado dos estimaciones: bˆ2(3) y bˆ2(4) en el


estimador con varianza más pequeña; b 2(3) yb 2(4) en el estimador con varianza más
grande. También aquí, para resaltar el papel jugado por el azar, la estimación que está más
cerca de 2 es precisamente b 2(3). En cualquier caso siempre es preferible que la varianza
del estimador sea lo más pequeña posible. Así por ejemplo, utilizando el estimador bˆ2 es

5
prácticamente imposible que una estimación esté tan alejada de 2 como lo está b 2(4) ,

debido a que el recorrido de bˆ2 es mucho más reducido que el que tiene b 2.

Propiedades estadísticas de los estimadores MCO

 Linealidad e insesgadez de los MCO

El estimador β2 de MCO es insesgado, del mismo modo, se puede demostrar que


el estimador MCO β 1es insesgado.

Recordemos que la insesgadez es una propiedad general del estimador, pero que para una
muestra determinada la estimación puede estar más "cerca" o más "lejos" del verdadero
parámetro. En cualquier caso, la distribución del estimador está centrada en el parámetro
poblacional.

Varianzas de los estimadores de MCO

Ahora sabemos que la distribución muestral de nuestro estimador está centrada en el


parámetro poblacional, pero ¿cuál es la dispersión de su distribución? La varianza, que es
una medida de dispersión, de un estimador es un indicador de la precisión de ese estimador.

ˆ ˆ
Para obtener las varianzas de 1 y 2 se requieren los supuestos 7 y 8, además de
los seis primeros. Estas varianzas son las siguientes:

ˆ 1 ˆ
1) 2n 1 i xi2 Var( 2) 2 (2-64)
n n
Var( 2 2

xi x xi x
i 1 i 1

ˆ
En el apéndice 2.5 se muestra cómo se obtiene la varianza de 2.

Los estimadores de MCO son ELIO


Los estimadores de MCO tienen la menor varianza de entre todos los estimadores
lineales e insesgados. Por esta razón se dice que los estimadores de MCO son estimadores
lineales insesgados y óptimos (ELIO), como se ilustra en la figura. Esta propiedad se
conoce como el teorema de Gauss-Markov. Para la demostración de este teorema se

6
utilizan los supuestos 1 a 8, como puede verse en el apéndice 2.6. Este conjunto de
supuestos se conocen como los supuestos de Gauss-Markov.

Estimador
Linealr
IUnsesgado
nbiased
ˆˆ , ˆ ELIO
10 21
óptimo

FIGURA 2.12. Los estimadores MCO son ELIO.

La estimación de la varianza de las perturbaciones y de la varianza de los estimadores

Dado que no conocemos el valor de la varianza de la perturbación, , tenemos


que estimarlo. Sin embargo, no podemos estimarlo utilizando los valores muestrales de las
perturbaciones ui porque no son observables En su lugar, tenemos que utilizar los residuos
de MCO (û ).
i

La relación entre las perturbaciones y los residuos viene dada por


uˆi yi yˆi 1 2xi ui ˆ1 ˆ 2xi

ui ˆ1 1 ˆ2 2 xi (2-65)

Por tanto, û no es lo mismo que u , aunque la diferencia entre ellos i i

ˆ1 1 ˆ2 2 xi - tiene un valor esperado que es igual a cero. Por ello, un primer


estimador de podría ser la varianza residual:

n
uˆi2
2 i 1
(2-66) n

Sin embargo, este estimador es sesgado, esencialmente porque no tiene en cuenta


las dos siguientes restricciones que deben ser satisfechas por los residuos de MCO en el
modelo de regresión lineal simple:

7
n
uˆi 0
i 1

n (2-67)

i 1 xui ˆi 0

Una forma de ver estas restricciones es la siguiente: si conocemos n-2 de los


residuos, podemos obtener los otros dos residuos mediante el uso de las restricciones
implícitas en las ecuaciones normales (2-67).

Por lo tanto, sólo hay n-2 grados de libertad en los residuos de MCO, a diferencia de
los n grados de libertad que tendrían las correspondiente n perturbaciones.
2
En el estimador insesgado de mostrado a continuación se realiza un ajuste en el que se
tiene en cuenta los grados de libertad:

n
uˆi2
ˆ2 i 1
(2-68) n 2

Bajo los supuestos 1-8 (supuestos Gauss-Markov), se obtiene, como puede verse en
el apéndice 2.7, que

E( ˆ2) 2
(2-69)

Si ˆ2 se introduce en las fórmulas de la varianza obtenemos entonces los estimadores


ˆ ˆ
insesgados de var( 1) y var( 2)

El estimador natural de es ˆ ˆ 2 y se llama error estándar de la regresión.


ˆ
La raíz cuadrada de la varianza se denomina desviación estándar de 2, es decir,

ˆ
de( 2) (2-70)
n
2
xi x
i 1
ˆ
Por lo tanto, su estimador natural, al que se denomina error estándar de 2,

8
viene dado por

(ˆ) ˆ
n
2
xi x
ee 2 i 1 (2-71)

ˆ
Nótese que el ee( 2) , debido a la presencia del estimador ˆ en (2-71), es una
variable aleatoria igual que ˆ2. El error estándar de una estimación nos ofrece una idea
de lo preciso que es el estimador.

La consistencia de los MCO y otras propiedades asintóticas

A veces no es posible obtener un estimador insesgado. Entonces, se considera que


la consistencia es el requisito mínimo que debe cumplir el estimador. Según un enfoque
intuitivo, consistencia significa que a medida que n , la función de densidad del
estimador converge al valor del parámetro. Esta propiedad puede expresarse para el
estimador ˆ2 como:

ˆ
plim 2 2 (2-72)
n

donde plim es el límite en probabilidad. En otras palabras, ˆ2 converge en probabilidad a


2.

Es importante tener en mente que las propiedades de insesgadez y consistencia son


conceptualmente diferentes. La propiedad de insesgadez se mantiene para cualquier
tamaño muestral, mientras que la consistencia es una propiedad estrictamente de grandes
muestras o, de forma más precisa, es una propiedad asintótica.

ˆ ˆ
Bajo los supuestos 1 a 6, los estimadores MCO, 1y 2 son consistentes. La
demostración de la consistencia de ˆ2 puede verse en el apéndice 2.8.

Otras propiedades asintóticas de ˆ1 y ˆ2 : Bajo los supuestos de Gauss-Markov


ˆ ˆ
1 a 8, 1 y 2 tienen una distribución asintóticamente normal y es asintóticamente eficiente
dentro de la clase de estimadores consistentes y asintóticamente normales.

Los estimadores MCO son estimadores de máxima verosimilitud (MV) y estimadores


insesgados de mínima varianza (EIMV)

9
Ahora vamos a introducir el supuesto 9 en la normalidad de las perturbaciones u.
El conjunto de supuestos 1 a 9 se conocen como los supuestos del modelo lineal clásico
(MLC)

Bajo los supuestos del MLC, los estimadores de MCO son también estimadores de
máxima verosimilitud (MV), como puede verse en el apéndice 2.8.

Por otro lado, bajo los supuestos del MLC, los estimadores de MCO además de ser
ELIO, son estimadores insesgados de mínima varianza (EIMV). Esto significa que los
estimadores de MCO tienen la varianza más pequeña entre todos los estimadores
insesgados, lineales o no lineales, según se ilustra en la figura 2.13. Por lo tanto, ya no
tenemos que restringirnos a los estimadores que son lineales en yi.

ˆ ˆ ˆ ˆ
También se cumple que cualquier combinación lineal de 1, 2, 3, , k se distribuye

normalmente, y cualquier subconjunto de las ˆj tiene una distribución

normal conjunta.

Estimador
Insesgado
ˆ, ˆ Minima Varianza
1 2

EIMV

FIGURA 2.13. Los estimadores MCO son EIMV.

En resumen, hemos visto que los estimadores de MCO tienen propiedades muy
deseables cuando se cumplen los supuestos estadísticos del MLC.

n 0 n

10

You might also like