Professional Documents
Culture Documents
Csar Alonso
ECONOMETRIA
ndice
1. Relaciones empricas y tericas . . . . . . . . . . . . . . . .
2. Conceptos previos . . . . . . . . . . . . . . . . . . . . . . .
2.1. Mejor Prediccin Constante . . . . . . . . . . . . . .
2.2. Mejor Prediccin Lineal . . . . . . . . . . . . . . . .
2.3. Mejor Prediccin . . . . . . . . . . . . . . . . . . . .
3. Introduccin al modelo de regresin lineal simple . . . . . .
4. Supuestos del modelo de regresin simple . . . . . . . . . .
5. Interpretacin de coecientes . . . . . . . . . . . . . . . . .
6. Estimacin . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.1. El principio de analoga . . . . . . . . . . . . . . . .
6.2. El criterio de MCO . . . . . . . . . . . . . . . . . . .
7. Propiedades de los estimadores MCO . . . . . . . . . . . .
7.1. Linealidad (en las observaciones de Y ) . . . . . . . .
7.2. Insesgadez . . . . . . . . . . . . . . . . . . . . . . . .
7.3. Varianzas . . . . . . . . . . . . . . . . . . . . . . . .
7.4. El Teorema de Gauss-Markov . . . . . . . . . . . . .
7.5. Consistencia de los estimadores MCO . . . . . . . . .
8. Estimacin de las varianzas . . . . . . . . . . . . . . . . .
8.1. Estimacin de 2 . . . . . . . . . . . . . . . . . . . .
8.2. Estimacin de las varianzas de los estimadores MCO
9. Medidas de bondad del ajuste . . . . . . . . . . . . . . . .
9.1. Error estndar de la regresin . . . . . . . . . . . . .
9.2. El coeciente de determinacin . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
4
4
5
7
9
11
14
16
17
17
20
20
20
21
21
22
22
22
23
24
24
25
1.
.05
.15
de la renta X. Grcamente:
10
15
X (R enta)
2.
Conceptos previos
Dada la distribucin de probabilidad conjunta de (X; Y ) (por ejemplo, tasa de
ahorro y renta familiar), supongamos que nos preguntan la tasa de ahorro de
una familia tomada aleatoriamente de la poblacin de inters.
Supongamos que nuestro criterio para medir el error en la prediccin c(X) es
la minimizacin de E(U 2 ), siendo:
U =Y
c(X)
2.1.
Y (tasa de ahorro) P (Y )
0.45
0.135
0.18
0.306
0.05
0.331
-0.11
0.165
-0.25
0.063
En este caso, ignoramos cmo se comporta Y de acuerdo con X.
La prediccin que podemos hacer sobre Y se limita a las constantes.
El error de prediccin ser U = Y c. Se elegir c tal que minimice E(U 2 ) =
P
c)2 pk . Dicho valor no es otro que:
k (Yk
c = E(Y ) =
0;135 + 0;18
0;11
0;165
0;25
0;306 + 0;05
0;331
0;063
= 0;09848 = 9;85 %
2.2.
Sean
0,
1,
1 X,
vericando
que
La recta
c0 =
c1 =
1X
= E(Y )
1 E(X) =
C(X; Y )
XY
= 2 .
=
V (X)
X
1 X,
Y dado X
L(Y j X) =
1X
En nuestro ejemplo
C (X; Y ) = E (XY )
tenemos que calcular los 5
E (X) E (Y )
5 X
5
X
Xi Yj Pr (XY = Xi Yj ) = 0;782607
i=1 j=1
E (X) = 1;4
+7;8
0;134 + 3;0
0;310 + 14;2
0;175 + 4;9
0;216
0;165 = 6;532
y por tanto,
C (X; Y ) = 0;782607
6;532
0;09848 = 0;13934.
0;134 + 3;02
0;310 + 14;22
0;175 + 4;92
0;216
0;165 = 59;155
entonces
V (X) = E X 2
[E (X)]2 = 59;155
6;5322 = 16;488
con lo cual
c1 =
c0 =
C(X; Y )
0;13934
=
= 0;008451
V (X)
16;488
= E(Y )
0;008451
1 E(X) = 0;09848
=
6;532 = 0;043278
2.3.
8
0;043278 + 0;008451 1;4 = 0;055
>
>
>
>
< 0;043278 + 0;008451 3;0 = 0;069
0;043278 + 0;008451 4;9 = 0;085
L (Y j X) =
>
>
0;043278 + 0;008451 7;8 = 0;1092
>
>
:
0;043278 + 0;008451 14;2 = 0;1633
si X = 1;4
si X = 3;0
si X = 4;9
si X = 7;8
si X = 14;2
Mejor Prediccin
Supongamos que conocemos la renta (X) de la familia antes de hacer la prediccin de su tasa de ahorro (Y ).
Adems, podemos elegir como funcin de prediccin cualquier funcin de X,
c(X).
El error de prediccin ser U = Y c(X). Se elegir c(X) de forma que minimice
E(U 2 ), resultando que c(X) = E(Y j X).
El mejor predictor de Y dado X es su esperanza condicional, E (Y j X).
7
Solamente cuando la funcin de esperanza condicional es lineal, la funcin de proyeccin lineal L (Y j X) y la funcin de esperanza condicional
E (Y j X) coinciden.
De lo contrario, cuando la funcin de esperanza condicional no es lineal,
entonces la proyeccin lineal no es el mejor predictor, pero es la mejor
aproximacin lineal a la funcin de esperanza condicional.
La funcin de esperanza condicional viene dada por las medias de cada una de
las distribuciones condicionales de Y para cada uno de los valores de X.
En el ejemplo,
Distribuciones condicionales de frecuencias de Y
para cada valor de X
X (renta en miles de dlares)
Y (tasa de ahorro)
1.4
3.0
4.9
7.8
14.2
0.45
0.112 0.149 0.125 0.110 0.200
0.18
0.142 0.183 0.264 0.435 0.382
0.05
0.440 0.377 0.329 0.277 0.297
-0.11
0.172 0.200 0.208 0.152 0.091
-0.25
0.134 0.091 0.074 0.026 0.030
b Y jX 0.045 0.074 0.079 0.119 0.156
de los valores de X:
E (Y j X = 1;4) = 0;45
0;11
0;172
E (Y j X = 3;0) = 0;45
0;11
0;25
0;25
0;25
0;377
0;264 + 0;05
0;329
0;435 + 0;05
0;277
0;026 = 0;119
0;200 + 0;18
0;091
0;183 + 0;05
0;074 = 0;079
0;110 + 0;18
0;152
0;440
0;091 = 0;074
0;125 + 0;18
E (Y j X = 14;2) = 0;45
0;11
0;25
0;142 + 0;05
0;134 = 0;045
0;149 + 0;18
0;208
E (Y j X = 7;8) = 0;45
0;11
0;25
0;200
E (Y j X = 4;9) = 0;45
0;11
0;112 + 0;18
0;382 + 0;05
0;030 = 0;156
0;297
Ello implica que L (Y j X) puede ser, en casos como ste, un buen predictor,
3.
1X
+"
donde:
Y : Variable dependiente, endgena, explicada, de respuesta...
X : Variable independiente, exgena, explicativa, de control, regresor..
0
: Parmetros poblacionales
1 X.
Ejemplo 1 :
Si Y = salario y X = aos de estudio, entonces el trmino de error puede recoger
factores inobservables como:
- experiencia laboral
- capacidad o habilidad
- antigedad en la empresa...
10
Ejemplo 2 :
Si Y = cosecha y X = cantidad de abono, entonces el trmino de error puede
recoger factores como:
- calidad de la tierra
- lluvia.
4.
1X
+ ").
11
1X
1V
(X)
1 E(X)
=
0
C(Y; X)
V (X)
= E(Y )
1 E(X)
Ntese que:
Hemos de utilizar esperanzas condicionales en X dado el carcter estocstico de dicha variable.
Si X fuera determinstica (como ocurrira en el caso de datos experimentales), bastara con aplicar esperanzas marginales.
Al ser la funcin de esperanza condicional lineal en X,
E(Y jX) = L(Y jX) =
1X
1
0
2
1 X)
0
0
1 X)
1 X)X]
E(") = 0
= E(X") = 0
12
)
)
= E(Y )
1 E(X)
C(Y; X)
1 =
V (X)
3. V ("jX) =
para todo X
(Homocedasticidad condicional)
Implicaciones:
V (") =
Para verlo,
E E("jX)2 = E("2 jX) =
[E(")]2 =
V (Y jX) = 2
La varianza de Y dado X es constante.
13
5.
Interpretacin de coecientes
Supongamos, que el supuesto 1. de linealidad en parmetros se cumple, de
manera que nuestra especicacin es
Y =
1X
+"
1E
1X
(Xj X) + E ("j X)
E(Y jX)
X
unidades deY .
tario en X.
En otras palabras, 1 mide la diferencia de medias entre la distribucin
condicional f (Y jX = x) y la distribucin condicional f (Y jX = x + x).
En cuanto a la constante (tambin llamada trmino constante)
0,
0,
1E
(Xj X) + E ("j X)
1X
+ E ("j X)
6=
1X
lineal, L (Y j X).
Pero
En resumen:
Si E ("jX) 6= 0, Y = 0 + 1 X + " caracteriza una proyeccin lineal, pero
no una esperanza condicional, y NO tiene interpretacin causal.
15
6.
Estimacin
Nuestro objetivo consiste en estimar los parmetros poblacionales, los betas,
a partir de un conjunto de datos.
Supondremos que nuestros datos (yi ; xi ), con i = 1; : : : ; n, son una realizacin
de una muestra aleatoria de tamao n de una poblacin, (Yi ; Xi ).
Sea el modelo:
Y =
1X
+"
0,
donde:
E("jX) = 0
V ("jX) =
1 Xi
+ "i
i = 1; : : : ; n
16
0,
6.1.
El principio de analoga
Los parmetros de inters son caractersticas de la poblacin, que son funciones
de momentos poblacionales. El principio de analoga consiste en utilizar como
estimador la caracterstica anloga en la muestra.
Ejemplo: media marginal
Sea una muestra aleatoria de observaciones de Y , fyi gni=1 . Para estimar la media
P
marginal de Y , E(Y ), utilizamos la media muestral Y = n1 ni=1 yi .
Recurdese que, bajo los supuestos que hacamos en el modelo simple en la
poblacin:
E(Y jX) = L(Y jX) =
y que por tanto
1X
se obtienen de minimizar:
E("2 ) = E(Y
2
1 X)
siendo:
0
1
= E(Y )
1 E(X)
C(Y; X)
=
V (X)
6.2.
0,
b =Y b X
0
P 1
X)(Yi Y )
i
b = i (X
=
P
1
X)2
i (Xi
1:
1
n
1
n
El criterio de MCO
(Xi
X)Yi
i (Xi
X)2
Pi
SXY
2
SX
Podemos ver tambin este mismo estimador de la siguiente forma: bajo los
supuestos que hacamos en el modelo simple en la poblacin,
parmetros que minimizan la varianza del error " = Y
resuelven el problema
m n E("2 ),
o de forma equivalente,
m n E(Y
17
2
1 X)
1 X,
son los
es decir,
b0 + b1 Xi
Ybi = Yi
mn
0; 1
siendo b
" i = Yi
Ybi = Yi
b + b Xi
0
1
Ybi =
b i jXi )
= L(Y
Por tanto, el estimador que hemos obtenido antes a partir del principio de
analoga puede interpretarse tambin como un estimador que minimiza la suma
de los cuadrados de los residuos, lo que se conoce como estimador de mnimos
cuadrados ordinarios (MCO).
Las condiciones de primer orden son:
X
X
i
b
"i = 0;
Xib
"i = 0:
O, de forma equivalente,
1X
b
"i = 0 (media muestral de los residuos 0)
n i
1X
xib
"i = 0 (covarianza muestral entre residuos y regresores 0)
n i
donde xi = Xi
Ntese que estas condiciones de primer orden son el anlogo muestral de las
condiciones de primer orden para el modelo de regresin clsico referido a los
s en la poblacin:
E(") = 0;
C(X; ") = 0:
El sistema de ecuaciones normales nos queda como:
P
P
nb0 + b1 i Xi = i Yi
b 1 P x2 = P yi xi
i
n
X
i=1
+ "i
i = 1; : : : ; n;
y 1 , es decir, b0 y b1 , seran los argumentos que
b
"2i =
n
X
(Yi
i=1
1 Xi
b Xi )2
1
) b0 = YP b1 X
P
P
(X
X)(Y
Y
)
(Xi
i
i
i
"i = 0 ) b 1 =
= Pi
P
i Xib
2
X)
i (Xi
i (Xi
"i
ib
=0
X)Yi
SXY
= 2
2
SX
X)
Ybib
"i = 0 (covarianza 0 entre valores ajustados MCO y residuos MCO).
19
"i
ib
7.
7.1.
7.2.
xi
X, ci = P 2
i xi
Insesgadez
(Vase ejercicio)
1;
despus, es inmedi-
Pero
P
ci
ci Xi
Por tanto,
1
= P
2
i xi
X
i
xi
= 0 porque
P xi Xi
1 X 2
P 2 =P 2
=
xi = 1
i
i xi
i xi
i
b1 =
y
E b1 X
+E(
xi =
Xi
nX = 0
c i "i
20
i ci "i j X)
i ci
E ("i j X)
| {z }
=0
j,
7.3.
j,
coincidir
j.
Varianzas
Adems de los supuestos 1. y 2., utilizaremos el supuesto 3. (V ("jX) =
para
todo X).
V
V
b
b
=(
Xi2 / n) V
1
.
Sx2
(Vase ejercicio)
Demostracin:
V
= E
= E
P
i
7.4.
=E
E c2i "2i X
c2i
c i "i
=E
P
i
P
i
E c2i "2i
c2i E "2i X
i2
El Teorema de Gauss-Markov
Por tanto, cuando se cumplen los supuestos del modelo clsico, el estimador
de MCO es el ms eciente dentro de la familia de estimadores lineales e
insesgados.
7.5.
es decir:
l m Pr
n!1
Intuicin:
j;
1:
j = 0; 1:
<
= 1;
8 >0
"i
ib
= 0;
1
n
"i x i
ib
(*)
= 0;
8.
8.1.
E (" ).
= V (") =
Si bien E b0 =
0,
b0
b Xi = (
1
0
E b1 =
1 Xi
b1
+ "i )
Xi
(i = 1; : : : ; n)
b
"i 6= "i . Adems, E (b
"i
1,
b Xi
1
"i ) 6= 0.
Si reemplazamos los errores por sus anlogos muestrales, los residuos, podemos
calcular como estimador de
:
2
e =
"2i
ib
slo hay (n
libertad).
b =
"2i
ib
.
n 2
(Demostracin: vase Wooldridge, Teorema 2.3)
Tanto e2 como b2 son estimadores consistentes de
8.2.
=(
Xi2 / n) V
23
2
1
1
.
Sx2
b1 , podemos aproximar E
Como estimador de V
un estimador consistente de
1
Sx2
mediante
1
as como
Sx2
b2
b
b
V
1 =
nSx2
9.
9.1.
b0 ,
Vb b0 =
b2
Xi2
n2 Sx2
1 Xi
+ "i
i = 1; : : : ; n;
donde:
E("jX) = 0
V ("jX) =
24
9.2.
El coeciente de determinacin
Una medida ms popular de capacidad predictiva del modelo es el R2 o coeciente de determinacin, que se dene como
P 2
P 2
y
b
b
"
i
2
R = Pi 2 = 1 Pi i2 ,
i yi
i yi
donde yi = Yi
Y i , ybi = Ybi
Ybi .
Y i, b
" i = Yi
(la segunda igualdad es cierta siempre que el modelo tenga trmino constante)
El R2 se interpreta como la proporcin de la variacin muestral de Y explicada
por el modelo. (Vase Goldberger, pp. 82 y 83).
El R2 verica que 0
R2
1.
R = bY Yb
SY Yb
SY SYb
1
n
6
=6
4q P
1
n
Yi
Yi
Y
Y Ybi
r
P
2
1
n
32
Y
Ybi
7
7
25
25