Professional Documents
Culture Documents
y = b0 + b1x + u
Wooldridge J., Introduccin a la Econometra. Captulo 2.
Esperanza Condicional
Hemos visto que si dos variables (y, x) estn
correlacionadas positivamente, los valores de y
tienden a aumentar a medida que x aumenta.
Generalizando, la media de una variable (y)
puede cambiar su valor a medida que otra
variable (x) cambia. As es posible considerar a
E(y) = y como una funcin de x. Tal funcin se
conoce como la esperanza condicional:
E(y|x) = y|x
3
u2 {
y2
E(y|x = 0) = b0
} u1
y1
0
E(y|x =1) = b0 + b1
x
5
y
y4
u4
y3
y2
y1
u2 {.
.{
.} u3
} u1
x1
x2
x3
x4
x
6
Terminologa utilizada
En el modelo de regresin lineal simple,
y = b0 + b1x + u,
nos referimos tpicamente a y como:
Variable Dependiente, o
Variable Explicada, o
Regresando
Variable Independiente, o
Variable Explicativa, o
Regresor, o
Co-variable
Significado de Lineal
Lineal en los parmetros o coeficientes (b0 y
b1), NO en las variables:
y = b0 + b1x + u
Significado de Lineal
Una funcin se dice lineal en, por ejemplo,
el parmetro 1 si 1 aparece elevado solo a
la primera potencia y adems no est
multiplicado o dividido por otro parmetro
(por ejemplo, 12, 2/1, etc.).
10
Significado de Simple
Simple: incluye a una sola variable
independiente:
y = b 0 + b 1x + u
Mltiple: incorpora un conjunto de k variables
independientes:
y = b0 + b1x1 + b2x2 + . . . bkxk + u
11
Ejemplos
rendimiento = b0 + b1 fertilizante + u
salario = b0 + b1 aos_educacin + u
aos_educacin = b0 + b1 sexo + u
13
.
x1
. E(y|x) = b + b x
0
x2
16
yi b0 b1 xi ui
17
y4
4{ y b b x
0
1
y3
y2
y1
2 { .
.} 3
1
}
.
x1
x2
x3
x4
x
19
El problema de minimizacin
Dada la idea intuitiva de ajustar una lnea,
podemos establecer ahora un problema formal
de minimizacin
Esto es, queremos elegir los parmetros de tal
forma que se minimice la siguiente expresin:
n
ui
i 1
yi b0 b1 xi
i 1
20
El problema de minimizacin
Resolviendo el problema de minimizacin
para los dos parmetros, obtenemos las
condiciones de primer orden siguientes,
i 1
n
x 0
b
0
1 i
b x 0
x
y
b
i i 0 1i
i 1
21
y b0 b1 x ,
o
b0 y b1 x
22
x b x 0
x
y
b
i i
1
1 i
i 1
n
i 1
i 1
x
y
b
i i
1 xi xi x
n
i 1
i 1
xi x yi y b1 xi x
23
b1
x x y
i
i 1
x x
i 1
n
siendo
x x
i 1
0
24
Resumen de la estimacin de la
pendiente
El estimador MCO de la pendiente es igual a
la covarianza muestral entre y y x dividida por
la varianza muestral de x.
Si x y y estn correlacionadas positivamente,
la pendiente ser positiva.
Si x y y estn correlacionadas negativamente,
la pendiente ser negativa.
Notar que es necesario que x tenga
variabilidad en la muestra.
25
Descomposicin de la varianza
Podemos ver a cada observaci n yi como compuesta
de una parte explicada y i , y otra parte no explicada ui ,
yi y i ui . Luego definimos lo siguiente :
2
i
2.
3.
4.
Insesgamiento
Bajo los 4 supuestos de G-M anteriores, el
estimador MCO es insesgado en muestras
repetidas:
E b0 b 0 ,
E b1 b1
El caso Homocedstico
y
f(y|x)
.
x1
x2
. E(y|x) = b + b x
0
x
31
El caso Heterocedstico
f(y|x)
.
x1
x2
x3
E(y|x) = b0 + b1x
x
32
Varianza de MCO
Bajo los 5 supuestos de G-M anteriores, la
varianza del estimador MCO es:
Var b1 s
2
n
(x x)
i 1
33
Un estimador para
2
s
Un estimador para
2
s (continuacin)
ui yi b0 b1 xi
b 0 b1 xi ui b0 b1 xi
Luego, un estimador insesgado de s es
2
s
2
2
i
( n 2)
SRC / n 2
36
de b1
x x
ee b1
x x
2
37