Professional Documents
Culture Documents
2. Teorema:
Se define Sn como la suma de n variables aleatorias, independientes, idénticamente
distribuidas, y con una media µ y varianza σ2 finitas (σ2≠0):
de manera que, la media de Sn es n·µ y la varianza n·σ2, dado que son variables aleatorias
independientes. Con tal de hacer más fácil la comprensión del teorema y su posterior uso,
se hace una estandarización de Sn como:
para que la media de la nueva variable sea igual a 0 y la desviación estándar sea igual a 1.
Así, las variables Zn convergerán en distribución a la distribución normal estándar N(0,1),
cuando n tienda a infinito. Como consecuencia, si Φ(z) es la función de distribución de
N(0,1), para cada número real z:
En este caso puede demostrarse que la distribución asintótica de Sn viene dada por
otra distribución de Cauchy, con menor varianza:
Varianza nula:
Este caso corresponde trivialmente a una función degenerada tipo delta de Dirac
cuya función de distribución viene dada por:
En este caso resulta que la variable Sn trivialmente tiene la misma distribución que
cada una de las variables independientes.
2. Requisitos:
Sesgo: Se denomina sesgo de un estimador a la diferencia entre la esperanza (o
valor esperado) del estimador y el verdadero valor del parámetro a estimar. Es
deseable que un estimador sea insesgado o centrado, es decir, que su sesgo sea nulo
por ser su esperanza igual al parámetro que se desea estimar.
Eficiencia: Diremos que un estimador es más eficiente o más preciso que otro
estimador, si la varianza del primero es menor que la del segundo.
Consistencia: Si no es posible emplear estimadores de mínima varianza, el
requisito mínimo deseable para un estimador es que a medida que el tamaño de la
muestra crece, el valor del estimador tiende a ser el valor del parámetro, propiedad
que se denomina consistencia.
Robustez: Será un estimador robusto si la violación de los supuestos de partida en
los que se basa la estimación (normalmente, atribuir a la población un determinado
tipo de función de distribución que, en realidad, no es la correcta), no altera de
manera significativa los resultados que éste proporciona.
Suficiencia: Se dice que un estimador es suficiente cuando resume toda la
información relevante contenida en la muestra, de forma que ningún otro estimador
pueda proporcionar información adicional sobre el parámetro desconocido de la
población.