Professional Documents
Culture Documents
1. ESTIMADORES
Generalmente, no disponemos observaciones de los valores de una variable para toda la poblacin. Eso implica que no vamos a poder calcular los momentos poblacionales de su distribucin, lo nico que podemos hacer es aproximarlos. Cmo? A partir de una muestra de datos extrada de la poblacin y utilizando estimadores de los momentos poblacionales.
Un estimador es una frmula matemtica. Una estimacin es un nmero que se obtiene de aplicar el estimador a los datos de una muestra.
1. ESTIMADORES
Estimador
x= s2 = 1 n xi n i =1
1 n 2 ( xi x ) n 1 i =1
1 n X iYi XY n i =1
Cov( X , Y ) =
r XY =
1. ESTIMADORES
Densidad de x Densidad de
Supongamos que queremos estimar la media poblacional x de una variable aleatoria x dado un conjunto de observaciones. Un estimador a utilizar es la media muestral. Demostraremos que es insesgado.
1
1. ESTIMADORES: Insesgadez y eficiencia Insesgadez de x : 1 1 E ( x ) = E ( x1 + ... xn ) = E ( x1 + ... + xn ) n n 1 1 = [E ( x1 ) + ... + E ( xn )] = n x = x n n Estimador General Z = 1x1 + 2x2
Sin embargo, la media muestral no es el nico estimador insesgado de la media poblacional. Supongamos que tenemos nicamente dos observaciones y nos construimos un estimador general, Z
5
1. ESTIMADORES: Insesgadez y eficiencia Insesgadez de x: 1 1 E ( x ) = E ( x1 + ... xn ) = E ( x1 + ... + xn ) n n 1 1 = [E ( x1 ) + ... + E ( xn )] = n x = x n n Estimador General Z = 1x1 + 2x2
El estimador general Z lo definimos como la suma ponderada de las dos observaciones que tenemos, donde los pesos son1 y 2. Por ejemplo, en el caso de la media muestral los dos pesos son iguales a 1/n = 1/2 porque slo tenemos dos observaciones.
6
1. ESTIMADORES: Insesgadez y eficiencia Insesgadez de x: 1 1 E ( x ) = E ( x1 + ... xn ) = E ( x1 + ... + xn ) n n 1 1 = [E ( x1 ) + ... + E ( xn )] = n x = x n n Estimador General Z = 1x1 + 2x2
E ( Z ) = E ( 1 x1 + 2 x2 ) = E ( 1 x1 ) + E ( 2 x2 ) = 1 E ( x1 ) + 2 E ( x2 ) = ( 1 + 2 ) x = x if ( 1 + 2 ) = 1
Cmo deben ser esos ponderadores para que el valor esperado del estimador sea igual a la media poblacional?
7
1. ESTIMADORES: Insesgadez y eficiencia Insesgadez de x: 1 1 E ( x ) = E ( x1 + ... xn ) = E ( x1 + ... + xn ) n n 1 1 = [E ( x1 ) + ... + E ( xn )] = n x = x n n Estimador General Z = 1x1 + 2x2
E ( Z ) = E ( 1 x1 + 2 x2 ) = E ( 1 x1 ) + E ( 2 x2 ) = 1 E ( x1 ) + 2 E ( x2 ) = ( 1 + 2 ) x = x if ( 1 + 2 ) = 1
Por lo tanto, cualquier estimador Z ser un estimador insesgado de si la suma de los pesos de las observaciones es 1. Observar que existen infinitas combinaciones de los ponderadores que hacen que su suma sea igual a 1.
11
estimator B
estimador A
Cmo elegimos entre estimadores? Cuanto ms preciso sea un estimador, es decir, cuanto menos incertidumbre nos transmita sobre el valor del parmetro, mejor ser. La propiedad de EFICIENCIA se refiere justamente a la precisin.
12
estimator B
estimador A
De la densidad se observa que si bien los dos estimadores A y B son insesgados, el estimador B es ms preciso, tiene menor varianza.
13
if ( 1 + 2 ) = 1
Analicemos la varianza poblacional del estimador general buscando definir los pesos que minimicen dicha varianza
14
if ( 1 + 2 ) = 1
d pop.var ( Z ) = 0 41 2 = 0 1 = 2 = 0.5 d1
Z es insesgado si la suma de los pesos es uno. Pero hay infinitas combinaciones de 1 y 2 que satisfacen estas condiciones. Nos interesa, por lo tanto, minimizar la varianza en esos pesos para encontrar el ms preciso.
20
if ( 1 + 2 ) = 1
d pop.var ( Z ) = 0 41 2 = 0 1 = 2 = 0.5 d1
Es decir, si tenemos dos observaciones, cada observacin la debemos ponderar por para obtener el estimador de menor varianza. Pero ponderar 1/2 es justamente definir el estimador Z como la media muestral.
21
estimador B
estimador A
Supongamos que tenemos dos estimadores alternativos para estimar , uno es insesgado y el otro es sesgado pero con varianza menor que el primero: cul de los dos elegimos?
1
prdida
error (negativa)
error (positiva)
Una forma para decidir entre uno y otro es definirse una funcin de prdida: nos quedaremos con aqul que tenga menor prdida.
2
densidad
Una funcin muy utilizada es la que se conoce como el ERROR CUADRTICO MEDIO (mean squared error MSE), y se define como el valor esperado del cuadrado de las desviaciones del estimador respecto al valor poblacional del parmetro que tratamos de estimar.
densidad
sesgo
El error cuadrtico medio puede escribirse como la suma del sesgo al cuadrado ms la varianza: es decir, combina el conflicto entre varianza y sesgo en un solo indicador. Supongamos que el sesgo del estimador respecto a Z es el que aparece en el grfico.
4
densidad
sesgo
MSE( Z ) = E [( Z ) 2 ]
= E [( Z Z + Z ) 2 ]
= E [( Z Z ) 2 ] + E [( Z ) 2 ] + E [2( Z Z )( Z )]
2 = Z + ( Z ) 2 + 2( Z ) E ( Z Z ) 2 = Z + ( Z ) 2 + 2( Z )( Z Z ) 2 = Z + ( Z )2
= E [( Z Z ) 2 + ( Z ) 2 + 2( Z Z )( Z )]
13
estimador B
estimador A
Cmo elegiremos entre ambos estimadores? Buscando aquel que tenga menor MSE.
14
n
0.08
x
1 50
0.06
0.04
0.02
n=1
50
100
150
200
n
0.08
x
1 50
0.06
0.04
0.02
n=1
50
100
150
200
Supongamos que x tiene media poblacional 100 y desviacin tpica 50. Supongamos, adems, que no conocemos esta media y que queremos estimarla
2
n
0.08
x
1 50
0.06
0.04
0.02
n=1
50
100
150
200
De las propiedades de la media muestral, sabemos que su media coincide con la media poblacional, que es insesgada y que su desviacin tpica ser igual a la desviacin tpica poblacional dividida por la raz cuadrada del nmero de observaciones. n
3
n
0.08
x
1 50
0.06
0.04
0.02
n=1
50
100
150
200
Por tanto, cuanto mayor sea n, menor ser la varianza de la media muestral.
n
0.08
x
1 50
0.06
0.04
0.02
n=1
50
100
150
200
Si n = 1, la muestra consiste en una nica observacin y la desviacin tpica de la media muestral ser 50.
5
n
0.08
x
1 4 50 25
0.06
0.04
n=4
0.02
50
100
150
200
n
0.08
x
50 25 10
0.06
1 4 25 n = 25
0.04
0.02
50
100
150
200
n
0.08
x
50 25 10 5
n = 100
0.06
1 4 25 100
0.04
0.02
50
100
150
200
n
0.8
x
50 25 10 5 1.6
0.6
n = 1000
0.4
1 4 25 100 1000
0.2
50
100
150
200
10
n
1 4 25 100 1000 5000
x
50 25 10 5 1.6 0.7
0.6
0.4
0.2
50
100
150
200
En el lmite, la desviacin tpica de la media muestral tiende a cero, por lo que la media muestral tender, en el lmite, a la media poblacional: consistencia.
11
La insesgadez es un concepto de muestras finitas. El valor esperado de la media muestral es igual a su valor poblacional. Pero ojo! el valor real que toma la media muestral puede no coindicir con la media poblacional.
13
La consistencia es un concepto de muestras grandes. Un estimador consistente es ms preciso a medida que el tamao de la muestra aumenta.
14
n = 20
n = 20
Sea Z un estimador de la caracterstica poblacional . Mirando a la densidad de Z, se observa que sobreestima el valor del parmetro, es decir, tiene un sesgo positivo
2
n = 100
n = 20
Para que el estimador sea consistente, deben pasar dos cosas cuando la muestra aumenta. El sesgo debe disminuir.
3
n = 100
n = 20
n = 1000 n = 100