You are on page 1of 19

Tema 2 Repaso de conceptos estadsticos (II)

1. ESTIMADORES
Generalmente, no disponemos observaciones de los valores de una variable para toda la poblacin. Eso implica que no vamos a poder calcular los momentos poblacionales de su distribucin, lo nico que podemos hacer es aproximarlos. Cmo? A partir de una muestra de datos extrada de la poblacin y utilizando estimadores de los momentos poblacionales.

IMPORTANTE: Diferencia entre un estimador y una estimacin

Un estimador es una frmula matemtica. Una estimacin es un nmero que se obtiene de aplicar el estimador a los datos de una muestra.

1. ESTIMADORES

Momento poblacional Media: x


2 Varianza : x

Estimador
x= s2 = 1 n xi n i =1

1 n 2 ( xi x ) n 1 i =1
1 n X iYi XY n i =1

Covarianza: XY Coeficiente de correlacin: XY

Cov( X , Y ) =

r XY =

Cov ( X , Y ) Var ( X ) Var (Y )


4

1. ESTIMADORES
Densidad de x Densidad de

Los estimadores son variables aleatorias

1. ESTIMADORES: Insesgadez y eficiencia Insesgadez de x: 1 1 E ( x ) = E ( x1 + ... xn ) = E ( x1 + ... + xn ) n n 1 1 = [E ( x1 ) + ... + E ( xn )] = n x = x n n

Supongamos que queremos estimar la media poblacional x de una variable aleatoria x dado un conjunto de observaciones. Un estimador a utilizar es la media muestral. Demostraremos que es insesgado.
1

1. ESTIMADORES: Insesgadez y eficiencia Insesgadez de x : 1 1 E ( x ) = E ( x1 + ... xn ) = E ( x1 + ... + xn ) n n 1 1 = [E ( x1 ) + ... + E ( xn )] = n x = x n n Estimador General Z = 1x1 + 2x2

Sin embargo, la media muestral no es el nico estimador insesgado de la media poblacional. Supongamos que tenemos nicamente dos observaciones y nos construimos un estimador general, Z
5

1. ESTIMADORES: Insesgadez y eficiencia Insesgadez de x: 1 1 E ( x ) = E ( x1 + ... xn ) = E ( x1 + ... + xn ) n n 1 1 = [E ( x1 ) + ... + E ( xn )] = n x = x n n Estimador General Z = 1x1 + 2x2

El estimador general Z lo definimos como la suma ponderada de las dos observaciones que tenemos, donde los pesos son1 y 2. Por ejemplo, en el caso de la media muestral los dos pesos son iguales a 1/n = 1/2 porque slo tenemos dos observaciones.
6

1. ESTIMADORES: Insesgadez y eficiencia Insesgadez de x: 1 1 E ( x ) = E ( x1 + ... xn ) = E ( x1 + ... + xn ) n n 1 1 = [E ( x1 ) + ... + E ( xn )] = n x = x n n Estimador General Z = 1x1 + 2x2
E ( Z ) = E ( 1 x1 + 2 x2 ) = E ( 1 x1 ) + E ( 2 x2 ) = 1 E ( x1 ) + 2 E ( x2 ) = ( 1 + 2 ) x = x if ( 1 + 2 ) = 1
Cmo deben ser esos ponderadores para que el valor esperado del estimador sea igual a la media poblacional?
7

1. ESTIMADORES: Insesgadez y eficiencia Insesgadez de x: 1 1 E ( x ) = E ( x1 + ... xn ) = E ( x1 + ... + xn ) n n 1 1 = [E ( x1 ) + ... + E ( xn )] = n x = x n n Estimador General Z = 1x1 + 2x2
E ( Z ) = E ( 1 x1 + 2 x2 ) = E ( 1 x1 ) + E ( 2 x2 ) = 1 E ( x1 ) + 2 E ( x2 ) = ( 1 + 2 ) x = x if ( 1 + 2 ) = 1
Por lo tanto, cualquier estimador Z ser un estimador insesgado de si la suma de los pesos de las observaciones es 1. Observar que existen infinitas combinaciones de los ponderadores que hacen que su suma sea igual a 1.
11

1. ESTIMADORES: Insesgadez y eficiencia


densidad

estimator B

estimador A

Cmo elegimos entre estimadores? Cuanto ms preciso sea un estimador, es decir, cuanto menos incertidumbre nos transmita sobre el valor del parmetro, mejor ser. La propiedad de EFICIENCIA se refiere justamente a la precisin.
12

1. ESTIMADORES: Insesgadez y eficiencia


densidad

estimator B

estimador A

De la densidad se observa que si bien los dos estimadores A y B son insesgados, el estimador B es ms preciso, tiene menor varianza.
13

1. ESTIMADORES: Insesgadez y eficiencia Estimador General Z = 1x1 + 2x2

pop.var ( Z ) = pop.var ( 1 x1 + 2 x2 ) = pop.var ( 1 x1 ) + pop.var ( 2 x2 )


2 = 1 pop.var ( x1 ) + 2 pop.var ( x2 ) 2 2 2 = ( 1 + 2 ) x 2 2 2 = ( 1 + [1 1 ]2 ) x 2 2 = ( 21 21 + 1) x

if ( 1 + 2 ) = 1

Analicemos la varianza poblacional del estimador general buscando definir los pesos que minimicen dicha varianza
14

1. ESTIMADORES: Insesgadez y eficiencia

Estimador General Z = 1x1 + 2x2 pop.var ( Z ) = pop.var ( 1 x1 + 2 x2 ) = pop.var ( 1 x1 ) + pop.var ( 2 x2 )


2 = 1 pop.var ( x1 ) + 2 pop.var ( x2 ) 2 2 2 = ( 1 + 2 ) x 2 2 2 = ( 1 + [1 1 ]2 ) x 2 2 = ( 21 21 + 1) x

if ( 1 + 2 ) = 1

d pop.var ( Z ) = 0 41 2 = 0 1 = 2 = 0.5 d1
Z es insesgado si la suma de los pesos es uno. Pero hay infinitas combinaciones de 1 y 2 que satisfacen estas condiciones. Nos interesa, por lo tanto, minimizar la varianza en esos pesos para encontrar el ms preciso.
20

1. ESTIMADORES: Insesgadez y eficiencia

Estimador General Z = 1x1 + 2x2 pop.var ( Z ) = pop.var ( 1 x1 + 2 x2 ) = pop.var ( 1 x1 ) + pop.var ( 2 x2 )


2 = 1 pop.var ( x1 ) + 2 pop.var ( x2 ) 2 2 2 = ( 1 + 2 ) x 2 2 2 = ( 1 + [1 1 ]2 ) x 2 2 = ( 21 21 + 1) x

if ( 1 + 2 ) = 1

d pop.var ( Z ) = 0 41 2 = 0 1 = 2 = 0.5 d1
Es decir, si tenemos dos observaciones, cada observacin la debemos ponderar por para obtener el estimador de menor varianza. Pero ponderar 1/2 es justamente definir el estimador Z como la media muestral.
21

2. Conflicto entre varianza mnima e insesgadez


densidad

estimador B

estimador A

Supongamos que tenemos dos estimadores alternativos para estimar , uno es insesgado y el otro es sesgado pero con varianza menor que el primero: cul de los dos elegimos?
1

2. Conflicto entre varianza mnima e insesgadez

prdida

error (negativa)

error (positiva)

Una forma para decidir entre uno y otro es definirse una funcin de prdida: nos quedaremos con aqul que tenga menor prdida.
2

2. Conflicto entre varianza mnima e insesgadez


2 MSE( Z ) = E [( Z ) 2 ] = Z + ( Z ) 2

densidad

Distribucin del estimador Z

Verdadero valor del parmetro

Una funcin muy utilizada es la que se conoce como el ERROR CUADRTICO MEDIO (mean squared error MSE), y se define como el valor esperado del cuadrado de las desviaciones del estimador respecto al valor poblacional del parmetro que tratamos de estimar.

2. Conflicto entre varianza mnima e insesgadez


2 MSE( Z ) = E [( Z ) 2 ] = Z + ( Z ) 2

densidad

sesgo

El error cuadrtico medio puede escribirse como la suma del sesgo al cuadrado ms la varianza: es decir, combina el conflicto entre varianza y sesgo en un solo indicador. Supongamos que el sesgo del estimador respecto a Z es el que aparece en el grfico.
4

2. Conflicto entre varianza mnima e insesgadez


2 MSE( Z ) = E [( Z ) 2 ] = Z + ( Z ) 2

densidad

sesgo

Demostraremos a continuacin esta descomposicin

2. Conflicto entre varianza mnima e insesgadez

MSE( Z ) = E [( Z ) 2 ]

= E [( Z Z + Z ) 2 ]

= E [( Z Z ) 2 ] + E [( Z ) 2 ] + E [2( Z Z )( Z )]
2 = Z + ( Z ) 2 + 2( Z ) E ( Z Z ) 2 = Z + ( Z ) 2 + 2( Z )( Z Z ) 2 = Z + ( Z )2

= E [( Z Z ) 2 + ( Z ) 2 + 2( Z Z )( Z )]

Por tanto, el tercer tmino es cero y llegamos a la descomposicin buscada.

13

2. Conflicto entre varianza mnima e insesgadez


densidad

estimador B

estimador A

Cmo elegiremos entre ambos estimadores? Buscando aquel que tenga menor MSE.

14

3. Consistencia de los estimadores


densidad de x

n
0.08

x
1 50

0.06

0.04

0.02

n=1

50

100

150

200

La media muestral es un estimador de la media poblacional qu pasa cuando la muestra crece?


1

3. Consistencia de los estimadores


densidad de x

n
0.08

x
1 50

0.06

0.04

0.02

n=1

50

100

150

200

Supongamos que x tiene media poblacional 100 y desviacin tpica 50. Supongamos, adems, que no conocemos esta media y que queremos estimarla
2

3. Consistencia de los estimadores


densidad de x

n
0.08

x
1 50

0.06

0.04

0.02

n=1

50

100

150

200

De las propiedades de la media muestral, sabemos que su media coincide con la media poblacional, que es insesgada y que su desviacin tpica ser igual a la desviacin tpica poblacional dividida por la raz cuadrada del nmero de observaciones. n
3

3. Consistencia de los estimadores


densidad de x

n
0.08

x
1 50

0.06

0.04

0.02

n=1

50

100

150

200

Por tanto, cuanto mayor sea n, menor ser la varianza de la media muestral.

3. Consistencia de los estimadores


densidad de x

n
0.08

x
1 50

0.06

0.04

0.02

n=1

50

100

150

200

Si n = 1, la muestra consiste en una nica observacin y la desviacin tpica de la media muestral ser 50.
5

3. Consistencia de los estimadores


densidad de x

n
0.08

x
1 4 50 25

0.06

0.04

n=4
0.02

50

100

150

200

3. Consistencia de los estimadores


densidad de x

n
0.08

x
50 25 10

0.06

1 4 25 n = 25

0.04

0.02

50

100

150

200

3. Consistencia de los estimadores


densidad de x

n
0.08

x
50 25 10 5

n = 100

0.06

1 4 25 100

0.04

0.02

50

100

150

200

3. Consistencia de los estimadores


densidad de x

n
0.8

x
50 25 10 5 1.6

0.6

n = 1000
0.4

1 4 25 100 1000

0.2

50

100

150

200

10

3. Consistencia de los estimadores


densidad de x n = 5000
0.8

n
1 4 25 100 1000 5000

x
50 25 10 5 1.6 0.7

0.6

0.4

0.2

50

100

150

200

En el lmite, la desviacin tpica de la media muestral tiende a cero, por lo que la media muestral tender, en el lmite, a la media poblacional: consistencia.
11

3. Consistencia de los estimadores

Muestra Finita: x es un estimador insesgado de

La insesgadez es un concepto de muestras finitas. El valor esperado de la media muestral es igual a su valor poblacional. Pero ojo! el valor real que toma la media muestral puede no coindicir con la media poblacional.
13

3. Consistencia de los estimadores

Muestra Finita: x es un estimador insesgado de

Muestra grande: la distribucin de x colapsa en plim x =

La consistencia es un concepto de muestras grandes. Un estimador consistente es ms preciso a medida que el tamao de la muestra aumenta.
14

3. Consistencia de los estimadores


densidad de Z

n = 20

Es posible que un estimador sea sesgado en muestras pequeas pero consistente.

3. Consistencia de los estimadores


densidad de Z

n = 20

Sea Z un estimador de la caracterstica poblacional . Mirando a la densidad de Z, se observa que sobreestima el valor del parmetro, es decir, tiene un sesgo positivo
2

3. Consistencia de los estimadores

n = 100

n = 20

Para que el estimador sea consistente, deben pasar dos cosas cuando la muestra aumenta. El sesgo debe disminuir.
3

3. Consistencia de los estimadores


n = 1000

n = 100

n = 20

y la densidad debe colapsar en el parmetro.

3. Consistencia de los estimadores


n = 100000

n = 1000 n = 100

You might also like