Professional Documents
Culture Documents
Julian de la Horra
Departamento de Matematicas U.A.M.
1 Introduccion
En este captulo, vamos a abordar la Estimacion Puntual, que es uno de
los tres grandes conjuntos de tecnicas que utilizaremos en la Inferencia Es-
tadstica. La situacion general que vamos a considerar es la siguiente:
Disponemos de una muestra aleatoria (X1 , ..., Xn ) de una caracterstica X
de una poblacion. Pensamos que esta caracterstica puede ser adecuadamente
modelizada mediante un modelo de probabilidad con funcion de masa P (x)
(en el caso discreto) o con funcion de densidad f (x) (en el caso continuo).
En cualquiera de los casos, lo unico que nos falta por conocer es el valor del
parametro que es desconocido.
Lo que tratamos de hacer en este captulo es encontrar estimaciones pun-
tuales de este parametro desconocido. En primer lugar, se plantearan dos
ejemplos sencillos que serviran como motivacion.
1
Ejemplo 2.- Estamos interesados en conocer aproximadamente (estimar)
el nivel medio de colesterol, , de las personas de una poblacion. No se puede
abordar el estudio en toda la poblacion porque el numero total de individuos
es muy grande.
Necesitamos datos para poder dar una estimacion de . Mediremos el
nivel de colesterol de, por ejemplo, 100 individuos elegidos al azar. Supong-
amos que el nivel medio de colesterol que obtenemos en la muestra es de 190
unidades.
Desde un punto de vista formal, lo que tenemos es una muestra aleato-
ria (X1 , ..., X100 ) de la caracterstica X = Nivel de colesterol, que puede
ser modelizada mediante una distribucion N (; ), con parametros y
desconocidos.
En este caso sencillo, parece razonable estimar el nivel medio de colesterol
de la siguiente forma:
Si todas las situaciones a las que nos tuvieramos que enfrentar fueran
tan sencillas e intuitivas como las de los ejemplos anteriores, seguramente
no necesitaramos desarrollar una metodologa general de la estimacion pun-
tual. Pero, por un lado, los problemas no siempre son tan sencillos y, por
otro lado, la intuicion, a veces no nos dice nada, y otras veces nos resulta
enganosa. Por este motivo, vamos a dar una metodologa general que nos
permita enfrentarnos a este tipo de problemas de un modo sistematico y lo
mas objetivo posible.
2 Estimadores puntuales
En primer lugar, vamos a definir lo que entenderemos por un estimador
puntual del parametro :
2
Observaciones:
Esta idea del error cuadratico medio ya fue utilizada para definir la recta
de regresion. Por supuesto, lo que nos interesa es utilizar estimadores con
3
un error cuadratico pequeno. Para ver como puede conseguirse un error
cuadratico pequeno, veamos una forma alternativa de expresarlo:
donde:
Sesgo de T = E[T ]
4
Ejemplo 2 (continuado).- Consideramos una muestra aleatoria (X1 , . . . , Xn )
de una caracterstica X N (; ). Se haba considerado que un estimador
razonable para poda ser:
1X
= Xi = X
n
Es muy sencillo comprobar que este estimador es insesgado para :
1X 1X 1
E[] = E Xi = E[Xi ] = (n) =
n n n
Tambien es muy sencillo hallar su error cuadratico medio:
V (X) 2
2
ECM () = ECM (X) = V (X) + (Sesgo) = =
n n
5
Observaciones:
1. La justificacion del metodo de los momentos es sencilla: se basa en la
intuicion de que los momentos de la poblacion (E[X], E[X 2 ], . . . ) se
pareceran a los respectivos momentos de la muestra ( n1 Xi , n1 Xi2 ,
P P
Ejemplo 3.- Consideramos una urna con 4 bolas, que pueden ser blancas
o negras, pero no sabemos en que proporcion. Llamaremos a la proporcion
(desconocida) de bolas blancas en la urna, que puede tomar los valores
1 1 3
= 0, , , , 1
4 2 4
Para obtener informacion sobre este parametro, extraemos de la urna 2 bolas
con reemplazamiento (de esta forma, las observaciones son independientes).
Supongamos que la primera bola observada es blanca y la segunda negra, de
modo que la muestra obtenida es (B, N ). La probabilidad que los diferentes
valores de le dan a la muestra obtenida recibe el nombre de funcion de
verosimilitud y es de la siguiente forma:
0 si = 0
3/16 si = 1/4
L() = P (B, N ) = 4/16 si = 1/2
3/16 si = 3/4
0 si = 1
6
La idea del metodo de maxima verosimilitud es muy sencilla y muy ra-
zonable: tomar como estimacion de , aquel valor que hace mas probable
(mas verosmil) la muestra obtenida. Por tanto, en este caso, si la muestra
obtenida era (B, N ), la estimacion de maxima verosimilitud sera:
= 1/2
Observaciones:
1. La funcion de verosimilitud expresa la probabilidad (o la densidad)
que los diferentes valores de le dan a la muestra obtenida. Lo que
hacemos, por tanto, es maximizar esa probabilidad (o densidad), es
decir, elegir el valor de que hace mas verosmil la muestra obtenida.
2. Por la propia definicion, la estimacion de maxima verosimilitud siempre
es un valor del espacio parametrico (algo que no siempre ocurre con el
metodo de los momentos).
3. El procedimiento mas habitual para obtener el estimador de maxima
verosimilitud es el siguiente:
7
Despejamos 1 , . . . , k del siguiente sistema de ecuaciones:
ln L()
1
= 0
... ... ... ...
ln L()
= 0
k
Por supuesto, hay que tener precaucion con este procedimiento, ya que
el punto crtico obtenido no tiene por que corresponder a un maximo.
Tambien puede ocurrir que la funcion de verosimilitud se maximice en
un extremo y no obtengamos nada con este procedimiento.