Professional Documents
Culture Documents
Hasta ahora se han estudiado modelos teóricos de distribución de probabilidad que describen el com-
portamiento de muchas variables aleatorias.
La inferencia estadística consiste en inducir las características o propiedades de una población a partir
de las de una pequeña parte de la misma llamada muestra.
Forman parte de la inferencia estadística tanto la estimación de la forma y los parámetros del modelo
que sigue la variable aleatoria como el contraste del modelo con la realidad observada.
Así, serán aspectos fundamentales de la inferencia estadística la obtención de la muestra y, a partir de
la información obtenida en el análisis de la misma, las conclusiones sobre el modelo.
Para que las conclusiones que se extraigan tengan cierta garantía se debe asegurar la mayor represen-
tatividad de la muestra.
Dependiendo de la información previa que se disponga sobre la población, se puede conseguir una
muestra representativa, eligiéndola al azar, mediante diferentes tipos de muestreo.
Muestreo aleatorio simple : se aplica sobre poblaciones homogéneas y se basa en que todos los
elementos de la población tienen la misma probabilidad de ser seleccionados.
Si por el contrario, la población es heterogénea se pueden utilizar, entre otros, los siguientes tipos de
muestreo.
Un ejemplo clásico son las encuestas de opinión, donde los elementos (personas) son heterogéneos en
razón de su sexo, edad, profesión, etc.
Por ejemplo, la población de un país se distribuye en regiones, los habitantes de una ciudad en barrios,
etc.
La regla general que se aplica a todos los tipos de muestreo es que cualquier información previa se
debe utilizar para subdividir la población y asegurar así la mayor representatividad de la muestra.
Una vez que se disponga de subpoblaciones homogéneas, la selección dentro de ellas se debe realizar
por muestreo aleatorio simple.
Para analizar las muestras de una forma teórica se necesita una formulación matemática.
A partir de ahora se supondrá que las muestras son aleatorias simples, es decir, que provienen de un
muestreo aleatorio simple.
34
3.2 ESTIMADORES. PROPIEDADES. ESTIMACIÓN PUNTUAL
Una vez obtenida la muestra se puede conjeturar la forma del modelo teórico de la distribución de
probabilidad a partir del histograma, si la variable aleatoria es continua, o del diagrama de barras, si
es discreta.
Supuesta la forma del modelo de distribución, la estimación paramétrica consiste en estimar el valor
de los parámetros que determinan dicho modelo.
Las dos formas de estimación paramétrica son: estimación puntual, si se especica un valor concreto
para el parámetro; y estimación por intervalos, si se da un intervalo en el que, con cierta conanza,
se pueda armar que se encuentra el verdadero valor del parámetro.
Estimadores
Denición. Se llama estadístico a cualquier variable aleatoria obtenida como una función de los
elementos de una muestra.
Denición. Se llama estimador de un parámetro θ, y se representa por θ̂, al estadístico utilizado para
estimar el verdadero valor de θ.
Por ejemplo para una muestra en concreto, la media muestral se puede considerar como una estimación
del verdadero valor de la media poblacional, y se escribe µ̂ = x. La variable aleatoria media muestral
que se designa por X , aplicación que a cada muestra le hace corresponder su media, es un estimador
de la esperanza de la población.
Otro ejemplo es la variable aleatoria varianza muestral que se designa por S 2 , aplicación que a cada
muestra le hace corresponder su varianza, que es un estimador de la varianza de la población.
Todo estimador es una variable aleatoria, ya que depende del azar según la
muestra elegida.
Propiedades
Los estimadores son variables aleatorias, por esa razón algunas propiedades deseables para su distribu-
ción teórica de probabilidad son: que su esperanza sea el valor estimado y que su varianza sea lo más
pequeña posible.
Estas ideas se concretan en las siguientes deniciones.
Denición. Se dice que un estimador, θ̂, de un parámetro θ es eciente si es el que tiene menor
varianza de todos los estimadores de θ.
Denición. Se dice que un estimador, θ̂, de un parámetro θ es consistente si, sin ser centrado ni
eciente, al aumentar el tamaño de la muestra, el estimador tiende a ser centrado y eciente.
35
Por ejemplo, la media muestral X es un estimador centrado de la media poblacional µ de cualquier
distribución. En efecto,
n
P
Xi n n
= 1 1X
i=1 X
E(X) = E
n n E(Xi ) = µ=µ
i=1
n i=1
Sin embargo, si se dene la varianza muestral corregida por ŝ = n−1 , se obtiene que la variable
2 i=1
Estimación puntual
Un criterio de estimación de los parámetros de una población es el método de los momentos, que
consiste en igualar parámetros muestrales a los parámetros de la variable aleatoria.
Así, para una variable aleatoria y una muestra concretas, una estimación de los parámetros
poblacionales µ y σ 2 resulta ser µ̂ = x y σ̂ 2 = s2 .
La ventaja del método de los momentos es su sencillez, y el inconveniente es que no usa toda la
información que proporciona el conocimiento de la distribución de probabilidad de la muestra,
de modo que se obtienen en general, estimadores no centrados ni ecientes, pero sí consistentes.
Otro criterio para la obtención de estimadores es el método de máxima verosimilitud, que tiene
mayor complejidad matemática pero mejores propiedades, ya que los estimadores obtenidos son,
en general, asintóticamente centrados y de varianza mínima.
Este método, que sí tiene en cuenta toda la información, se basa en buscar aquél valor del
parámetro que hace más probable, o lo que es lo mismo más verosímil, la aparición de los valores
obtenidos en la muestra.
Los estimadores máximo verosímiles coinciden con los estimadores obtenidos mediante el método de
los momentos para las distribuciones estudiadas en el tema anterior.
Todo estimador es una variable aleatoria y, por tanto, tiene una determinada distribución de proba-
bilidad. Se estudiarán a continuación los modelos de distribución de probabilidad de los estimadores
más usuales.
Como estos modelos indican la distribución de los posibles valores que toma el estimador al seleccionar
distintas muestras, se denominan distribuciones en el muestreo.
36
3.3.1 Distribución de la media muestral
Si X se distribuye normalmente, se puede demostrar que, al ser X una combinación lineal de variables
normales, las medias muestrales de una población normal se distribuyen también normalmente.
Si se toman muestras de tamaño n de una población N (µ, σ), la variable aleatoria media muestral
verica que
σ
X∼N µ, √
n
El siguiente gráco representa el comportamiento de la media muestral de una población, en torno a
la esperanza de la población.
Es importante resaltar que, haciendo uso del teorema central del límite, aunque la variable X de la
población de partida no se distribuya como una normal, la distribución de la media muestral X tiende
asintóticamente, si n es sucientemente grande (n ≥ 30), a distribuirse como una normal N µ , √σn ,
siendo µ y σ la media y desviación típica de la distribución de la variable X, respectivamente.
La esperanza de X coincide con la esperanza de X, y la varianza disminuye al aumentar el tamaño
muestral.
Por ejemplo, si X ∼ N (5, 2) entonces el 95%, aproximadamente, de las medias muestrales originadas
al tomar muestras de tamaño 100 se encuentra en el intervalo (4.6 , 5.4), ya que X ∼ N (5, 0.2).
1. Ŝ 2 y X son independientes
(n−1)Ŝ 2
2. σ2 ∼ χ2n−1
37
3.3.3 Distribución de la proporción muestral
Se considera una población donde se quiere observar en cada elemento la presencia o no de un atributo
o propiedad. Esta situación se modeliza con una binomial.
La variable aleatoria X que expresa si un individuo tiene o no un determinado atributo se puede
considerar una B(1, p), donde p es la probabilidad de que un elemento tenga dicho atributo o, lo que
es lo mismo, p es la proporción de individuos de la población que tienen dicha propiedad.
Cuando X ∼ B(1, p), se sabe que la esperanza y la varianza de X vienen dadas por E(X) = p y
VAR(X) = p(1-p).
Si Pm es la variable aleatoria proporción muestral que hace corresponder a cada muestra de tamaño n
la proporción de elementos con ese atributo, cuando n es grande, entonces
r !
p(1 − p)
Pm ∼ N p,
n
Éste es un caso particular de la distribución de una media muestral, ya que se basa en que para una
muestra concreta, su proporción muestral es pm = x1 +x2 +...+x
n
n
, donde xi toma el valor 1 si el elemento
tiene el atributo y 0 en otro caso; por tanto, la proporción muestral es la media muestral de n variables
de Bernoulli, Xi .
La variable aleatoria proporción muestral, Pm , también se designa por P̂ , es un estimador centrado
para la proporción poblacional p.
Por ejemplo, la probabilidad de que al tirar 100 veces una moneda equilibrada la proporción de caras
esté entre el 0.45 y el 0.55 es igual a 0.683.
La estimación puntual tiene el inconveniente de no aportar ninguna medida del error cometido ya que
toma el valor estimado como el valor del parámetro de la población. Por consiguiente, en algunas
ocasiones, interesa dar un intervalo en el que, con cierta conanza, se pueda armar que se encuentra
el verdadero valor del parámetro que se desea estimar.
La estimación por intervalos de conanza consiste en generar, a partir de diferentes muestras, una
familia de intervalos en la que se encuentre el verdadero valor del parámetro a estimar, con probabilidad
prejada.
La probabilidad prejada vendrá dada por lo que se llama el nivel de conanza del intervalo, y entre
ellos los más usuales son al 90, 95 y 99%.
El nivel de signicación de referencia se ja a priori determinando la incertidumbre con que se quiere
dar el intervalo.
A un nivel de signicación α le corresponde un nivel de conanza del (1- α)100%. Así, los niveles de
conanza del intervalo al 90, 95 y 99% corresponden a los valores α de 0.1, 0.05 y 0.01, respectivamente.
La construcción de la familia de intervalos de conanza para un parámetro θ consiste en elegir θ̂,
estimador de θ, con una distribución en el muestreo conocida, y jar el nivel de signicación de
38
referencia, α, de tal forma que la probabilidad de que el parámetro θ pertenezca a la familia de
intervalos de conanza sea 1-α.
Un intervalo de conanza para el parámetro θ de una población es de la forma L1≤ θ ≤L2, donde
θ es el verdadero valor del parámetro desconocido y L1 y L2 son funciones de los valores muestrales,
que únicamente serán números cuando se haya obtenido una muestra y sustituido sus valores en las
funciones L1 y L2.
σ2 conocida
ya que el 95% de la población de una distribución N(0,1) se encuentra en el intervalo (-1.96 , 1.96).
De donde se deduce que
σ σ
P X − 1.96 √ < µ < X + 1.96 √ = 0.95
n n
Si se repite muchas veces el procedimiento de tomar una muestra y calcular el intervalo de conanza
correspondiente, se puede armar que, aproximadamente, el 95% de los intervalos obtenidos deberían
contener el verdadero valor µ de la media poblacional.
Es decir, para una muestra concreta se puede armar que µ ∈ x − 1.96 √σ
n
, x + 1.96 √σ
n
con una
conanza del 95%.
Consecuentemente, en el 95% de los casos µ está a una distancia menor que 1.96 √σn unidades de la
media muestral, que es el error máximo cometido al tomar xcomo el valor estimado de µ.
39
Es decir
X −µ
P −zα/2 < √ < zα/2 =1−α
σ/ n
o lo que es lo mismo
σ σ
P X − zα/2 √ < µ < X + zα/2 √ =1−α
n n
en cuyo caso, se dice que, para una muestra en concreto,
σ σ
µ∈ x − zα/2 √ , x + zα/2 √
n n
σ2 desconocida
40
Z y el denominador son independientes. Consecuentemente
X −µ
√ ∼ tn−1
Ŝ/ n
Fijado el nivel de signicación α, y puesto que la distribucióntn−1 es simétrica, bastará encontrar un
valor, representado por tα/2 , que se obtiene a partir de las tablas de la distribución t de Student, tal
que
!
X −µ
P −tα/2 < √ < tα/2 =1−α
Ŝ/ n
o lo que es lo mismo !
Ŝ Ŝ
P X − tα/2 √ < µ < X + tα/2 √ =1−α
n n
41
Fijado un nivel de signicación de referencia α, se buscan χ2α2 y χ21− α2 , tales que
!
(n − 1)Ŝ 2
P χ2α2 < < χ21− α2 =1−α
σ2
Como la distribución χ2 no es simétrica, los valores de χ2α2 y χ21− α2 , se seleccionan de manera que
P χ2n−1 < χ2α =
2
α
2 y P χ2n−1 < χ21− α = 1 −
2
α
2
Para construir un intervalo de conanza para la varianza de una población normal bastará considerar
que !
(n − 1)Ŝ 2 (n − 1)Ŝ 2
P 2 < σ2 < =1−α
χ1− α χ2α
2 2
42
Fijado α, para construir un intervalo de conanza para la proporción de una población al (1-α)100%,
bastará encontrar un valor, zα/2 , tal que
Pm − p
P −zα/2 < q < zα/2 = 1 − α
Pm (1−Pm )
n
o lo que es lo mismo
r r !
Pm (1 − Pm ) Pm (1 − Pm )
P Pm − zα/2 < p < Pm + zα/2 =1−α
n n
Una hipótesis estadística es una armación respecto a una característica de una población, que deter-
mina, parcial o totalmente, la distribución de probabilidad de la variable aleatoria que modeliza dicha
característica.
Contrastar una hipótesis estadísticamente es comparar las predicciones que se deducen de ella con la
realidad que se observa: si hay coincidencia, dentro del margen de error admisible, se mantiene la
hipótesis; en caso contrario, se rechaza.
En todo contraste se plantearán dos hipótesis, la hipótesis nula H0 y la hipótesis alternativa H1 .
La hipótesis nula H0 es aquella hipótesis que se quiere contrastar. Esta hipótesis se aceptará mientras
los datos muestrales no reejen claramente que es más verosímil la otra hipótesis, denominada hipótesis
alternativa H1 .
43
Una vez planteadas la hipótesis nula y la alternativa se ha de determinar el criterio que se va a seguir
para aceptar o rechazar H0 a partir de la información que aporta la muestra.
El objetivo es elegir un estimador y, a través de él, obtener la información que da la muestra. Se trata
de determinar para qué valores del estimador se considera aceptable H0 , zona de aceptación, o para
qué valores se rechaza H0 , zona de rechazo.
La elección de un determinado criterio comporta dos tipos de riesgos o posibles errores:
Para determinar el criterio más apropiado para cada caso es conveniente medir estos riesgos.
El contraste ideal sería aquél en el que ambas probabilidades sean lo más pequeñas posibles. Sin
embargo, si se varía un criterio para disminuir la probabilidad de cometer un error de tipo I, entonces
se aumenta la probabilidad de cometer un error de tipo II, y viceversa. La única forma de disminuir
ambas probabilidades a la vez es aumentando el tamaño de la muestra.
Por último, para realizar un contraste de hipótesis se denirá una medida de discrepancia entre los
valores muestrales y la hipótesis nula, H0 . Así, se denirá el p-valor de un contraste para evaluar el
grado de conanza con el que se acepta o rechaza una hipótesis.
Los contrastes de hipótesis pueden ser paramétricos o no paramétricos, según sean para determinar
la aceptabilidad o no de la hipótesis formulada sobre un parámetro concreto o sobre la forma de una
distribución de probabilidad, respectivamente.
A partir de los datos de una muestra se analizará si la hipótesis relativa al valor de un parámetro es
aceptable o no.
Las hipótesis pueden ser simples, si se especica un único valor para el parámetro; y compuestas, si
admiten diversos valores. En estos apuntes se tratarán exclusivamente contrastes con hipótesis nula de
tipo simple (θ = θ0 ), y, según el modo en que se plantee la hipótesis alternativa los contrastes podrán
ser unilaterales o bilaterales:
Contraste unilateral : aquél en el que H1 es del tipo θ > θ0 o θ < θ0 , que da lugar a una zona de
rechazo formada por un único intervalo de la recta real.
Contraste bilateral : aquél en el que H1 es del tipo θ 6= θ0 , que da lugar a una zona de rechazo
formada por dos intervalos disjuntos de la recta real.
44
Suponiendo que el contraste de hipótesis es del tipo
H0 : θ = θ 0
H1 : θ 6= θ0
para determinar el criterio para aceptar o rechazar H0 se elige un estimador, θ̂, y se ja el nivel de
signicación de referencia del contraste, α, que representa ahora la probabilidad de que θ̂ no pertenezca
a la zona de aceptación.
Asimismo se determina para qué valores de θ̂ se considera aceptable H0 (zona de aceptación) o para
qué valores se rechaza (zona de rechazo).
Al tratarse de un contraste para la media de la población, se elige como estimador X y se ja el nivel
de signicación α.
σ2 conocida
Si H0 es cierta, entonces X ∼ N µ0 , √σ
n
que, al tipicar, resulta
X − µ0
√ ∼ N (0, 1)
σ/ n
Una vez jado α, se busca el valor zα/2 tal que
X − µ0
P −zα/2 < √ < zα/2 = 1 − α
σ/ n
o lo que es lo mismo
σ σ
P µ0 − zα/2 √ < X < µ0 + zα/2 √ =1−α
n n
La zona de aceptación, conjunto de valores del estimador X para los que se considera aceptable H0
para un nivel α, será
σ σ
µ0 − zα/2 √ , µ0 + zα/2 √
n n
y, consecuentemente, la de rechazo será
σ σ
−∞, µ0 − zα/2 √ ∪ µ0 + zα/2 √ , +∞
n n
Para una muestra concreta, si su media x pertenece a la zona de aceptación entonces se acepta H0
para un nivel de signicación α.
En todos los contrastes interesa evaluar en cierta forma el grado de conanza con el que se acepta o
rechaza una hipótesis. Para ello se dene una medida de discrepancia, que depende de la diferencia
entre el valor del parámetro especicado por H0 y el valor del estimador calculado en la muestra.
45
Denición. Se llama p-valor o valor crítico de un contraste al mínimo nivel de signicación de
referencia para el que con los datos de una muestra concreta se rechaza H0
p − valor = P (| Z |≥| A |)
El p-valor de un contraste es una probabilidad y se interpreta, en general, de modo que cuanto más
próximo sea a 1, mayor evidencia habró para aceptar H0 ; mientras que cuanto más cercano sea a 0,
con mayor conanza se rechazará H0 .
Una vez calculado el p-valor, se decide el contraste en función del α dado según el siguiente criterio
Al realizar un contraste puede ocurrir que H0 se acepte para un valor de α y se rechace para otro.
Así, aun jado un valor de α, se debe dar el p-valor de manera que la persona que analiza el contraste
pueda tomar una decisión basándose en su propia selección de α.
un α y para una muestra concreta, el que el p-valor sea mayor que α es equivalente a que
Fijado
x ∈ µ0 − zα/2 √σn , µ0 + zα/2 √σn o lo que es lo mismo A = σ/√ 0 ∈ −zα/2 , zα/2 .
x−µ
n
Se puede observar una estrecha relación con los intervalos de conanza. En concreto, para la misma
muestra, el intervalo de conanza para µ al nivel (1-α)100% representa el conjunto de valores µ0 para
los que se aceptaría H0 con un nivel α.
Es decir,
σ σ
x ∈ µ0 − zα/2 √ , µ0 + zα/2 √ ≡ Zona de aceptación con nivel α
n n
equivale a
σ σ
µ0 ∈ x − zα/2 √ , x + zα/2 √ ≡ I. de conf ianza para µ al (1 − α)100%
n n
46
H0 : µ = 50
Por ejemplo, en una población N(µ,6), al realizar el contraste con un α = 0.05
H1 : µ =6 50
habiéndose elegido una muestra de tamaño 16 con x = 52.4, se acepta H0 ya que x ∈ (47.06,52.94) ≡
Z.A.
En un contraste al 95%, y una vez obtenida la zona de aceptación, si se toman muestras de n datos,
en el 95% de los casos la media de cada una de las muestras pertenecerá a dicha zona, mientras que
en un 5% de las muestras no pertenecerá a dicha zona de aceptación, aproximadamente. Si al hacer
el contraste se elige una de estas últimas muestras, se puede rechazar la hipótesis H0 a pesar de ser
cierta, lo que lleva a cometer un error de tipo I, ya que P(rechazar H0 / H0 cierta) = 0.05.
σ2 desconocida
X − µ0
√ ∼ tn−1
Ŝ/ n
o lo que es lo mismo !
Ŝ Ŝ
P µ0 − tα/2 √ < X < µ0 + tα/2 √ =1−α
n n
se obtiene como zona de aceptación
!
Ŝ Ŝ
µ0 − tα/2 √ , µ0 + tα/2 √
n n
Si para una muestra en concreto se designa como B el valor, o medida de discrepancia, x−µ√0 ,
ŝ/ n
entonces
el p-valor se puede expresar
p − valor = P (| t |≥| B |)
Una vez calculado el p-valor, se decide el contraste en función del α dado, segón el siguiente criterio
47
Fijado
un α y para una muestra concreta, el que el p-valor sea mayor que α es equivalente a que
x ∈ µ0 − tα/2 √n , µ0 + tα/2 √n o lo que es lo mismo B = ŝ/√n ∈ −tα/2 , tα/2 .
ŝ ŝ x−µ 0
Se observa también una estrecha relación con los intervalos de conanza ya que, para la misma muestra,
el intervalo de conanza para µ al nivel (1- α)100% representa el conjunto de valores µ0 para los que
se aceptaría H0 con un nivel α.
En el ejemplo anterior considerando ahora σ 2 desconocida, si se obtiene ŝ = 7.5 y sabiendo que
t15;0.025 = 2.13, entonces se acepta H0 con un α = 0.05, ya que x = 52.4 ∈ (46.01, 53.99) ≡ Z.A.
H1 : σ 2 6= σ02
o lo que es lo mismo
σ02 2 σ02 2
P χ α2 < Ŝ 2 < χ α =1−α
n−1 n − 1 1− 2
de donde la zona de aceptación resulta
σ02 2 σ02 2
χ α2 , χ α
n−1 n − 1 1− 2
Para una muestra concreta, si su varianza muestral corregida ŝ2 pertenece a la zona de aceptación
entonces se acepta H0 para un nivel de signicación α.
48
2
Análogamente a como se vio en contrastes para la media, para una muestra en concreto el valor (n−1)ŝ
σ02
llevaría a la obtención del p-valor correspondiente, y el contraste se decidirá comparando este valor
con el del α jado.
Asimismo, el intervalo de conanza para al nivel (1-α)100% representa el conjunto de valores para los
que se aceptaría H0 .
H0 : σ 2 = 36
Por ejemplo, en una población N (µ, σ), al realizar el contraste con un α =
H1 : σ 2 6= 36
0.05, habiéndose elegido una muestra de tamaño 16 con ŝ2 = 56.2 y sabiendo que χ215;0.025 = 6.26 y
χ215;0.975 = 27.5, se acepta H0 ya que ŝ2 ∈ (15.024; 66) ≡ Z.A.
Se puede comprobar que p − valor = 0.15
Observación. En ocasiones interesa realizar contrastes unilaterales para la varianza del tipo
H0 : σ 2 ≤ σ02
H1 : σ 2 > σ02
en cuyo caso si H0 es cierta, jado α, se calcula de forma que
!
(n − 1)Ŝ 2
P 0< < χ21−α =1−α
σ02
o lo que es lo mismo
σ02
P 0 < Ŝ 2 < χ2 =1−α
n − 1 1−α
2
σ02
dando lugar a 0 , n−1σ0
χ21−α como zona de aceptación y a n−1 χ21−α , +∞ como zona de rechazo
del contraste unilateral.
H0 : σ 2 ≤ 36
En el ejemplo anterior, al realizar el contraste con α = 0.05, habiéndose elegido
H1 : σ 2 > 36
una muestra de tamaño 16 con ŝ2 = 56.2 y sabiendo que χ215;0.95 = 25, se acepta H0 ya que ŝ2 ∈
(0, 60) ≡ Z.A.
Los contrastes unilaterales se pueden generalizar para cualquier parámetro.
49
Fijado α, bastará encontrar un valor, z?α/2 , tal que
Pm − p 0
P −zα/2 <q < zα/2 = 1 − α
p0 (1−p0 )
n
o lo que es lo mismo
r r !
p0 (1 − p0 ) p0 (1 − p0 )
P p0 − zα/2 < Pm < p0 + zα/2 =1−α
n n
La zona de aceptación, conjunto de valores del estimador Pm para los que se considera aceptable H0
a un nivel α, será r r !
p0 (1 − p0 ) p0 (1 − p0 )
p0 − zα/2 , p0 + zα/2
n n
En los contrastes no paramétricos tiene especial interés el ajuste de forma en el que se contrasta si
es aceptable la hipótesis formulada sobre la forma del modelo de distribución para la población en
estudio.
Estos contrastes son de gran importancia en control de calidad, pues hacen posible probar si los datos
relativos a las características de calidad en estudio presentan normalidad, condición muy usual en el
control estadístico de calidad.
En este tipo de contrastes la hipótesis nula es que la variable aleatoria sigue un modelo de distribución
determinado y la hipótesis alternativa es que no sucede esto.
El planteamiento del contraste es
H0 : X sigue el modelo de distribución que se quiere contrastar
H1 : X N O sigue el modelo de distribución que se quiere contrastar
El método general para contrastar la validez de un modelo se basará, jado α, en elegir un estadístico
que mida las diferencias entre los valores obtenidos en una muestra y los valores esperados o teóricos,
suponiendo cierta la hipótesis formulada sobre el modelo que sigue la población.
También se dene el p-valor para contrastes no paramétricos. La denición es la misma, es decir, es
el mínimo nivel de signicación para el que, con los datos obtenidos en la muestra, se tendría que
rechazar H0 .
Algunos de los test utilizados para resolver estos contrastes se estudian a continuación.
50
3.7.1 Test de la χ2
Este test se basa en la comparación de las frecuencias obtenidas en la muestra y las frecuencias
esperadas correspondientes a la distribución teórica a contrastar.
Es válido tanto para variables continuas como discretas. Para continuas, compara el histograma con
la función de densidad; y para discretas, el diagrama de barras con la función de probabilidad.
Para obtener una mayor credibilidad se requiere un tamaño muestral, n, mayor o igual que 30 y se
agrupan los datos en k clases con k ≥ 5 (en el caso de ser la variable discreta, cada clase actúa como
un valor de la variable) y es conveniente que haya al menos tres datos en cada clase.
k
(Oi −Ei )2
Se elige como estadístico D∗ = , que es una medida de las diferencias entre lo observado y
P
Ei
i=1
lo esperado, supuesto como cierto el modelo propuesto, donde Oi representa la frecuencia observada y
Ei la frecuencia esperada en cada clase.
Si H0 es cierta, se puede demostrar que D∗ se distribuye
k 2
X (Oi − Ei )
∼ χ2k−r−1
i=1
Ei
siendo r el número de parámetros que se han tenido que estimar para determinar la distribución de la
variable.
Fijado α, se busca el valor χ2k−r−1,α tal que
P (D∗ < χ2k−r−1,α ) = 1 − α
que da lugar a la zona de aceptación del contraste.
Si para una muestra en concreto se designa como d el valor del estimador D∗, el p-valor se calcula
mediante la expresión
p − valor = P (χ2k−r−1 > d)
Una vez calculado el p-valor, se decide el contraste en función del α dado, según el criterio
51
3.7.2 Test de Kolmogorov-Smirnov
Se basa en la comparación de la función de distribución teórica a contrastar, F(x), y la función de
distribución empírica muestral, Fn (x).
Es válido sólo para variables continuas, tiene la ventaja de que se puede aplicar a muestras más
pequeñas y, en general, es conservador puesto que tiende a aceptar H0 .
Se ordenan en orden creciente los valores de la muestra, x1 ≤ x2 ≤ · · · ≤ xn y se calcula la función de
distribución empírica de la siguiente forma
Fijado el nivel de signicación α, se busca en las tablas el valor de Dn,α tal que P (Dn > Dn,α ) = α
Se resuelve el contraste mediante el siguiente criterio:
Dn < Dn,α =⇒ se acepta H0
Este contraste permite construir bandas de conanza en torno a F(x) : si Dn,α es el valor obtenido en
las tablas, si H0 es cierta, se obtiene que
Dn,α ≥ máx | F n(x) − F (x) |
por tanto
Fn (x) ∈ F (x) ± Dn,α
Así, el valor Dn,α dene unas bandas de conanza en torno a F(x) de forma que si Fn (x) se encuentra
entre ellos, se acepta H0 .
También se puede utilizar el criterio del p-valor, aceptando la hipótesis nula al nivel α cuando el p-valor
es mayor que α, y rechazándola en caso contrario.
52
3.7.3 Test de normalidad
Contrastar la normalidad de una variable es de gran importancia ya que se trata de una hipótesis
necesaria en muchos casos; en particular, este test se aplica en control de calidad para contrastar
normalidad en muestras de tamaño muy pequeño.
El planteamiento del contraste es
H0 : X sigue el modelo de distribución normal
H1 : X N O sigue el modelo de distribución normal
El test de normalidad se basa en el ajuste de la muestra a una recta al dibujarla en papel probabilístico
normal. Cuando los puntos así dibujados se separen mucho de una recta, se debe concluir que la muestra
no proviene de una distribución normal. Cuando los puntos centrales aparezcan alineados pero no los
extremos, hay que investigar si existen errores de datos u observaciones atípicas.
Una de las formas de contrastar normalidad, para muestras pequeñas mediante papel probabilístico
normal, es aplicar el test de Shapiro-Wilks, que mide la bondad del ajuste de los datos de la muestra
a la recta; cuanto mayor sea su valor, más credibilidad tiene la hipótesis de normalidad.
El estadístico toma la expresión
h
2
P
ai,n (xn−i+1 − xi )
i=1
W = n
P 2
(xi − x)
i=1
donde xi es el valor ordenado de la muestra que ocupa el lugar i-ésimo; h es n/2, si n es par, y (n-1)/2,
si es impar; y los valores ai,n están tabulados.
La distribución de W está tabulada y se rechaza la normalidad cuando el valor calculado a partir de la
muestra es menor que el correspondiente valor dado por las tablas. También se puede utilizar el criterio
del p-valor, aceptando la hipótesis nula al nivel α cuando el p-valor es mayor que α, y rechazándola
en caso contrario.
53