You are on page 1of 8

ESTIMACION PUNTUAL

Julian de la Horra
Departamento de Matematicas U.A.M.

1 Introduccion
En este captulo, vamos a abordar la Estimacion Puntual, que es uno de
los tres grandes conjuntos de tecnicas que utilizaremos en la Inferencia Es-
tadstica. La situacion general que vamos a considerar es la siguiente:
Disponemos de una muestra aleatoria (X1 , ..., Xn ) de una caracterstica X
de una poblacion. Pensamos que esta caracterstica puede ser adecuadamente
modelizada mediante un modelo de probabilidad con funcion de masa P (x)
(en el caso discreto) o con funcion de densidad f (x) (en el caso continuo).
En cualquiera de los casos, lo unico que nos falta por conocer es el valor del
parametro que es desconocido.
Lo que tratamos de hacer en este captulo es encontrar estimaciones pun-
tuales de este parametro desconocido. En primer lugar, se plantearan dos
ejemplos sencillos que serviran como motivacion.

Ejemplo 1.- En los ejercicios de calculo de probabilidades, siempre se


suele hablar de monedas equilibradas pero, naturalmente, no todas lo son.
Nos gustara conocer aproximadamente (estimar) la probabilidad de cara de
una determinada moneda, y llamamos p = P (Cara).
Necesitamos datos, para lo cual lanzamos la moneda, por ejemplo, 100
veces, y anotamos los resultados. Supongamos que obtenemos 55 caras y 45
cruces.
Desde un punto de vista formal, las caras y las cruces pueden ser codi-
ficadas mediante unos y ceros, de modo que tenemos una muestra aleatoria
(X1 , ..., X100 ) de
(
1 (si sale cara) con probabilidad p
X=
0 (si sale cruz) con probabilidad 1 p
y, por tanto, X puede ser modelizada mediante un modelo de Bernoulli con
parametro p desoconocido.
En este caso sencillo, parece razonable estimar la probabilidad de cara de
la siguiente forma:
Numero de caras obtenidas 55
p = Frecuencia relativa de caras = = = 0, 55
Numero de lanzamientos 100

1
Ejemplo 2.- Estamos interesados en conocer aproximadamente (estimar)
el nivel medio de colesterol, , de las personas de una poblacion. No se puede
abordar el estudio en toda la poblacion porque el numero total de individuos
es muy grande.
Necesitamos datos para poder dar una estimacion de . Mediremos el
nivel de colesterol de, por ejemplo, 100 individuos elegidos al azar. Supong-
amos que el nivel medio de colesterol que obtenemos en la muestra es de 190
unidades.
Desde un punto de vista formal, lo que tenemos es una muestra aleato-
ria (X1 , ..., X100 ) de la caracterstica X = Nivel de colesterol, que puede
ser modelizada mediante una distribucion N (; ), con parametros y
desconocidos.
En este caso sencillo, parece razonable estimar el nivel medio de colesterol
de la siguiente forma:

= Nivel medio de colesterol en la muestra = x = 190

Observese que es el nivel medio de colesterol (desconocido) de toda la


poblacion, mientras que x es el nivel medio de colesterol (conocido) de la
muestra.

Si todas las situaciones a las que nos tuvieramos que enfrentar fueran
tan sencillas e intuitivas como las de los ejemplos anteriores, seguramente
no necesitaramos desarrollar una metodologa general de la estimacion pun-
tual. Pero, por un lado, los problemas no siempre son tan sencillos y, por
otro lado, la intuicion, a veces no nos dice nada, y otras veces nos resulta
enganosa. Por este motivo, vamos a dar una metodologa general que nos
permita enfrentarnos a este tipo de problemas de un modo sistematico y lo
mas objetivo posible.

2 Estimadores puntuales
En primer lugar, vamos a definir lo que entenderemos por un estimador
puntual del parametro :

Definicion.- Sea (X1 , . . . , Xn ) una muestra aleatoria de una caracterstica


X de una poblacion con funcion de masa P (x) (caso discreto), o con funcion
de densidad f (x) (caso continuo), donde es desconocido. Un esti-
mador puntual de es una funcion T que a cada posible muestra (x1 , . . . , xn )
le hace corresponder una estimacion T (x1 , . . . , xn ) de .

2
Observaciones:

1. Lo que vamos a estimar habitualmente es pero, en algunos casos,


podra interesarnos estimar alguna funcion de . Por ejemplo, cuando
X N (; ), nos puede interesar estimar la desviacion tpica , pero
tambien podemos estar interesados en estimar la varianza 2 . En lo
que sigue, solo nos referiremos a la estimacion de , pero teniendo claro
que no habra ningun problema en extender las ideas a la estimacion
de alguna funcion de .

2. Evidentemente, T = T (X1 , . . . , Xn ) es una variable aleatoria. En reali-


dad, un estimador puntual no es mas que un estadstico con una mision
especial: acercarse lo mas posible al verdadero y desconocido valor del
parametro.

3. La definicion que hemos dado de estimador puntual es enormemente


general y engloba, tanto estimadores muy razonables, como estimadores
completamente absurdos. Por este motivo, lo siguiente que vamos a
hacer es indicar alguna propiedad deseable para un estimador razon-
able.

3 Error cuadratico medio. Estimadores


insesgados
Definicion.- El error cuadratico medio de un estimador T , para estimar ,
se define como:

ECM (T ) = E[(T )2 ] = E[(T (X1 , ..., Xn ) )2 ]

El objetivo de la definicion esta bastante claro:

(a) T (X1 , ..., Xn ) mide el error que se comete al estimar mediante


T (X1 , ..., Xn ).
(b) Consideramos el cuadrado de ese error para evitar que las diferencias
positivas se compensen con las negativas.
(c)Finalmente, calculamos cuanto vale, en promedio, este error cuadratico.

Esta idea del error cuadratico medio ya fue utilizada para definir la recta
de regresion. Por supuesto, lo que nos interesa es utilizar estimadores con

3
un error cuadratico pequeno. Para ver como puede conseguirse un error
cuadratico pequeno, veamos una forma alternativa de expresarlo:

E[(T )2 ] = E[((T E[T ]) + (E[T ] ))2 ]


= E[(T E[T ])2 ] + (E[T ] )2
= V (T ) + (Sesgo de T )2

donde:

Sesgo de T = E[T ]

De este modo, el error cuadratico medio se puede reducir, bien reduciendo


la varianza del estimador, o bien reduciendo su sesgo. Una manera de elimi-
nar completamente el sesgo es trabajar con estimadores insesgados:

Definicion.- Un estimador T es insesgado (o centrado) para estimar ,


cuando verifica:
E[T ] =

Los estimadores insesgados, no solo son interesantes porque contribuyan


a reducir el error cuadratico medio; son interesantes por s mismos ya que, en
promedio, sus estimaciones aciertan con el objetivo de estimar . Es sencillo
encontrar ejemplos de estimadores insesgados:

Ejemplo 1 (continuado).- Consideramos una muestra aleatoria (X1 , . . . , Xn )


de X Bernoulli(p) (recordemos que este modelo sera utilizado siempre que
se quiera estimar una proporcion p). Se haba considerado que un estimador
razonable para p poda ser:
1X
p = Frecuencia relativa de exitos = Xi = X
n
Es muy sencillo comprobar que este estimador es insesgado para p:
1X 1X 1
 
E[p] = E Xi = E[Xi ] = (np) = p
n n n
Tambien es muy sencillo hallar su error cuadratico medio:
V (X) p(1 p)
ECM (p) = ECM (X) = V (X) + (Sesgo)2 = =
n n

4
Ejemplo 2 (continuado).- Consideramos una muestra aleatoria (X1 , . . . , Xn )
de una caracterstica X N (; ). Se haba considerado que un estimador
razonable para poda ser:
1X
= Xi = X
n
Es muy sencillo comprobar que este estimador es insesgado para :
1X 1X 1
 
E[] = E Xi = E[Xi ] = (n) =
n n n
Tambien es muy sencillo hallar su error cuadratico medio:

V (X) 2
2
ECM () = ECM (X) = V (X) + (Sesgo) = =
n n

En cualquier caso, la cuestion fundamental sobre los estimadores pun-


tuales es la que se planteaba en la introduccion y sigue todava sin respuesta:
Es posible dar una metodologa general que nos permita construir esti-
madores puntuales de un modo sistematico y lo mas objetivo posible?
Vamos a dar respuesta a esta cuestion en las dos siguientes secciones.

4 Metodo de los momentos


En el Ejemplo 2 de la Introduccion, se propona estimar el nivel medio de
colesterol de toda una poblacion, mediante el nivel medio de colesterol en
una muestra. La idea intuitiva que hay detras de este modo de proceder es
que, seguramente, la media muestral (conocida) sera bastante parecida a la
media de toda la poblacion (desconocida). Esta idea intuitiva es la que se
utiliza para formalizar el metodo de los momentos:

Definicion.- Sea (X1 , . . . , Xn ) una muestra aleatoria de una caracterstica


X con funcion de masa P (x) (o funcion de densidad f (x)), donde =
(1 , . . . , k ).
El estimador de por el metodo de los momentos es el formado por los
valores 1 , . . . , k que se obtienen al resolver en 1 , . . . , k el siguiente sistema
de k ecuaciones:
E[X] = n1 ni=1 Xi
P

E[X 2 ] = n1 ni=1 Xi2
P

... ... ... ...



1 Pn

k k
E[X ] = n i=1 Xi

5
Observaciones:
1. La justificacion del metodo de los momentos es sencilla: se basa en la
intuicion de que los momentos de la poblacion (E[X], E[X 2 ], . . . ) se
pareceran a los respectivos momentos de la muestra ( n1 Xi , n1 Xi2 ,
P P

. . . ). En consecuencia, consideramos k ecuaciones derivadas de esta in-


tuicion (tantas como componentes tiene el parametro que necesitamos
estimar). El nombre del metodo procede de que utilizamos los momen-
tos (poblacionales y muestrales).
2. Hay que senalar, no obstante, que el metodo de los momentos presenta
a veces graves inconvenientes. Por ejemplo, es perfectamente posible
que la estimacion obtenida corresponda a valores que estan fuera del
espacio parametrico. Obviamente, esto ultimo no es muy aconsejable.

5 Metodo de maxima verosimilitud


El metodo mas ampliamente utilizado para construir estimadores puntuales
es el metodo de maxima verosimilitud. Esta basado tambien en una idea
intuitiva muy sencilla y no presenta inconvenientes serios como le ocurre a
veces al metodo de los momentos. En el ejemplo siguiente vemos las ideas
basicas que nos llevaran a la definicion general.

Ejemplo 3.- Consideramos una urna con 4 bolas, que pueden ser blancas
o negras, pero no sabemos en que proporcion. Llamaremos a la proporcion
(desconocida) de bolas blancas en la urna, que puede tomar los valores
1 1 3
 
= 0, , , , 1
4 2 4
Para obtener informacion sobre este parametro, extraemos de la urna 2 bolas
con reemplazamiento (de esta forma, las observaciones son independientes).
Supongamos que la primera bola observada es blanca y la segunda negra, de
modo que la muestra obtenida es (B, N ). La probabilidad que los diferentes
valores de le dan a la muestra obtenida recibe el nombre de funcion de
verosimilitud y es de la siguiente forma:




0 si = 0
3/16 si = 1/4



L() = P (B, N ) = 4/16 si = 1/2




3/16 si = 3/4
0 si = 1

6
La idea del metodo de maxima verosimilitud es muy sencilla y muy ra-
zonable: tomar como estimacion de , aquel valor que hace mas probable
(mas verosmil) la muestra obtenida. Por tanto, en este caso, si la muestra
obtenida era (B, N ), la estimacion de maxima verosimilitud sera:

= 1/2

Esta idea intuitiva del Ejemplo 3 es la que se utiliza para formalizar el


metodo de maxima verosimilitud:

Definicion.- Sea (X1 , . . . , Xn ) una muestra aleatoria de una caracterstica


X con funcion de masa P (x) (o funcion de densidad f (x)), donde =
(1 , . . . , k ).
La funcion de verosimilitud de es:
L() = P (x1 , ..., xn ) = P (x1 ) . . . P (xn ) (caso discreto)
L() = f (x1 , ..., xn ) = f (x1 ) . . . f (xn ) (caso continuo)
El estimador de maxima verosimilitud de es el formado por los valores
(1 , . . . , k ) que maximizan la funcion de verosimilitud L().

Observaciones:
1. La funcion de verosimilitud expresa la probabilidad (o la densidad)
que los diferentes valores de le dan a la muestra obtenida. Lo que
hacemos, por tanto, es maximizar esa probabilidad (o densidad), es
decir, elegir el valor de que hace mas verosmil la muestra obtenida.
2. Por la propia definicion, la estimacion de maxima verosimilitud siempre
es un valor del espacio parametrico (algo que no siempre ocurre con el
metodo de los momentos).
3. El procedimiento mas habitual para obtener el estimador de maxima
verosimilitud es el siguiente:

Obtenemos la funcion de verosimilitud:

L() = P (x1 , ..., xn ) = P (x1 ) . . . P (xn )

Por supuesto, si estamos en un caso continuo, utilizaramos la


funcion de densidad del modelo utilizado.
Obtenemos ln L() en vez de L(), ya que es mas facil de manejar
y presenta los mismos maximos y mnimos.

7
Despejamos 1 , . . . , k del siguiente sistema de ecuaciones:

ln L()
1
= 0

... ... ... ...
ln L()

= 0

k

Por supuesto, hay que tener precaucion con este procedimiento, ya que
el punto crtico obtenido no tiene por que corresponder a un maximo.
Tambien puede ocurrir que la funcion de verosimilitud se maximice en
un extremo y no obtengamos nada con este procedimiento.

You might also like