Professional Documents
Culture Documents
y 1 2x u (2-58)
De acuerdo con este supuesto, cada observación del regresor toma el mismo valor
para diferentes muestras del regresando. Este es un supuesto fuerte en el caso de las
ciencias sociales, donde, en general, no es posible la experimentación. Los datos se
obtienen mediante observación, no mediante experimentación. Es importante destacar que
los resultados obtenidos basados en este supuesto permanecen virtualmente idénticos a los
que se obtienen cuando asumimos que los regresores son estocásticos, siempre, que
postulemos el supuesto adicional de independencia entre los regresores y la perturbación
aleatoria. Este supuesto alternativo se puede formular así:
1
En cualquier caso, a lo largo de este capítulo y los siguientes vamos a adoptar el
supuesto 2.
n
2
xi x
SX2 i 1
0 (2-59)
n
y ( 1 4) 2x v
2
7) Las perturbaciones tienen una varianza constante
2
var(ui ) i 1,2, n (2-61)
a) b)
E(uiu j ) 0 i j (2-62)
3
2
ui ~ NID(0, ) i 1,2, ,n (2-63) donde NID indica que las perturbaciones están
normal e independientemente distribuidas.
Dos propiedades deseable para un estimador es que sea insesgado y que su varianza
sea lo más pequeña posible. Si esto sucede el proceso de inferencia se podrá llevar a cabo
de una forma satisfactoria.
f (bˆ2 ) f (b2 )
4
diferente, pero en promedio, es decir, teniendo en cuenta los infinitos valores que puede
tomar bˆ2, es igual al parámetro 2. Con cada muestra de y se obtiene un valor específico
de bˆ2, es decir, una estimación. En la figura 2.8 se han representado dos estimaciones de
2: bˆ2(1) y bˆ2(2) . La primera estimación está relativamente cerca de 2, mientras que la
segunda está mucho más alejada. En todo caso, la insesgadez es una propiedad deseable,
ya que nos asegura que el estimador en promedio está centrado sobre el parámetro.
El estimador b 2, en la figura 2.9, es sesgado, ya que su esperanza no es igual a
2. El sesgo es precisamente E(b 2)-b2 . En este caso también se han representado dos
hipotéticas estimaciones: b 2(1) y b 2(2) . Como puede verse b 2(1) está más cerca de
2 que el estimador insesgado bˆ2(1) : es una cuestión de azar. En todo caso, por ser
sesgado no está centrado en promedio sobre el parámetro. No cabe duda que siempre es
preferible un estimador insesgado puesto que, con independencia de lo que ocurra en una
muestra concreta, no tiene una desviación sistemática respecto al valor del parámetro.
f (bˆ2 ) f (b 2 )
5
prácticamente imposible que una estimación esté tan alejada de 2 como lo está b 2(4) ,
debido a que el recorrido de bˆ2 es mucho más reducido que el que tiene b 2.
Recordemos que la insesgadez es una propiedad general del estimador, pero que para una
muestra determinada la estimación puede estar más "cerca" o más "lejos" del verdadero
parámetro. En cualquier caso, la distribución del estimador está centrada en el parámetro
poblacional.
ˆ ˆ
Para obtener las varianzas de 1 y 2 se requieren los supuestos 7 y 8, además de
los seis primeros. Estas varianzas son las siguientes:
ˆ 1 ˆ
1) 2n 1 i xi2 Var( 2) 2 (2-64)
n n
Var( 2 2
xi x xi x
i 1 i 1
ˆ
En el apéndice 2.5 se muestra cómo se obtiene la varianza de 2.
6
utilizan los supuestos 1 a 8, como puede verse en el apéndice 2.6. Este conjunto de
supuestos se conocen como los supuestos de Gauss-Markov.
Estimador
Linealr
IUnsesgado
nbiased
ˆˆ , ˆ ELIO
10 21
óptimo
ui ˆ1 1 ˆ2 2 xi (2-65)
n
uˆi2
2 i 1
(2-66) n
7
n
uˆi 0
i 1
n (2-67)
i 1 xui ˆi 0
Por lo tanto, sólo hay n-2 grados de libertad en los residuos de MCO, a diferencia de
los n grados de libertad que tendrían las correspondiente n perturbaciones.
2
En el estimador insesgado de mostrado a continuación se realiza un ajuste en el que se
tiene en cuenta los grados de libertad:
n
uˆi2
ˆ2 i 1
(2-68) n 2
Bajo los supuestos 1-8 (supuestos Gauss-Markov), se obtiene, como puede verse en
el apéndice 2.7, que
E( ˆ2) 2
(2-69)
ˆ
de( 2) (2-70)
n
2
xi x
i 1
ˆ
Por lo tanto, su estimador natural, al que se denomina error estándar de 2,
8
viene dado por
(ˆ) ˆ
n
2
xi x
ee 2 i 1 (2-71)
ˆ
Nótese que el ee( 2) , debido a la presencia del estimador ˆ en (2-71), es una
variable aleatoria igual que ˆ2. El error estándar de una estimación nos ofrece una idea
de lo preciso que es el estimador.
ˆ
plim 2 2 (2-72)
n
ˆ ˆ
Bajo los supuestos 1 a 6, los estimadores MCO, 1y 2 son consistentes. La
demostración de la consistencia de ˆ2 puede verse en el apéndice 2.8.
9
Ahora vamos a introducir el supuesto 9 en la normalidad de las perturbaciones u.
El conjunto de supuestos 1 a 9 se conocen como los supuestos del modelo lineal clásico
(MLC)
Bajo los supuestos del MLC, los estimadores de MCO son también estimadores de
máxima verosimilitud (MV), como puede verse en el apéndice 2.8.
Por otro lado, bajo los supuestos del MLC, los estimadores de MCO además de ser
ELIO, son estimadores insesgados de mínima varianza (EIMV). Esto significa que los
estimadores de MCO tienen la varianza más pequeña entre todos los estimadores
insesgados, lineales o no lineales, según se ilustra en la figura 2.13. Por lo tanto, ya no
tenemos que restringirnos a los estimadores que son lineales en yi.
ˆ ˆ ˆ ˆ
También se cumple que cualquier combinación lineal de 1, 2, 3, , k se distribuye
normal conjunta.
Estimador
Insesgado
ˆ, ˆ Minima Varianza
1 2
EIMV
En resumen, hemos visto que los estimadores de MCO tienen propiedades muy
deseables cuando se cumplen los supuestos estadísticos del MLC.
n 0 n
10