You are on page 1of 21

Tema 4

Estimacion y pruebas de hipotesis

Indice
1. Introduccion 2

2. Muestras aleatorias y estadsticos 2

3. Estimadores 3
3.1. Metodo de maxima verosimilitud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

4. Distribuciones muestrales 6
4.1. Distribucion muestral de la media de una poblacion normal
o aproximadamente normal con varianza conocida . . . . . . . . . . . . . . . . . . . . . . 6
4.2. Distribucion muestral de la media de una poblacion normal
con varianza desconocida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
4.3. Distribuciones muestrales de la cuasivarianza y de la varianza
de una poblacion normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
4.4. Distribucion muestral del cociente de cuasivarianzas . . . . . . . . . . . . . . . . . . . . . 9

5. Intervalos de confianza 10
5.1. Intervalos de confianza para la media de una poblacion normal
o aproximadamente normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
5.2. Intervalos de confianza para la diferencia de medias de poblaciones
independientes, normales o aproximadamente normales . . . . . . . . . . . . . . . . . . . . 12
5.3. Intervalo de confianza para la diferencia de medias de poblaciones
dependientes, normales o aproximadamente normales . . . . . . . . . . . . . . . . . . . . . 13
5.4. Intervalo de confianza para la varianza de una poblacion normal . . . . . . . . . . . . . . 13
5.5. Intervalo de confianza para el cociente de varianzas
de poblaciones normales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
5.6. Intervalo de confianza para la proporcion de una poblacion binomial . . . . . . . . . . . . 14
5.7. Intervalo de confianza para la diferencia de proporciones
de poblaciones binomiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

6. Pruebas de hipotesis 15
6.1. Metodologa de una prueba de hipotesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
6.2. Pruebas unilaterales y bilaterales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
6.3. Errores de tipo I y II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
6.4. Valor P de un contraste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
6.5. Pruebas de hipotesis sobre la media de una poblacion normal o aproximadamente normal
con varianza conocida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

1
Tema 4. Estimacion y pruebas de hipotesis 2

1. Introduccion

Definicion 1.1 Una poblacion es el conjunto formado por la totalidad de los individuos en los que
estamos interesados para efectuar en ellos observaciones o medidas.

Definicion 1.2 Una muestra es un subconjunto de elementos seleccionados de una poblacion.

Supongamos que disponemos de una poblacion sobre cuyos individuos queremos estudiar un determinado
caracter o variable, efectuando observaciones o medidas del mismo. Si tomamos al azar un indivi-
duo, podemos considerar esta eleccion como un experimento aleatorio cuyo espacio muestral es toda la
poblacion. Desde este punto de vista, la variable en cuyo estudio nos interesamos, es una variable aleatoria
definida en el espacio muestral constituido por la poblacion.
Como todas las variables aleatorias, tendra una distribucion de probabilidad, de modo que si esta es
normal, binomial o de otro tipo, es costumbre decir que la poblacion es normal, binomial, o del tipo que
se trate. Mas aun, si es un parametro asociado a la distribucion de probabilidad de la variable aleatoria,
como la media o la varianza en una distribucion normal, o los parametros n y p en una binomial, es
costumbre referirnos a ellos, como el parametro de la poblacion o la media o la varianza de la poblacion.
Seguimos as un habito muy comun en los textos de Estadstica, de aplicar a la poblacion adjetivos y
atributos propios de la variable que estamos estudiando.
Excepto en poblaciones pequenas en las que es factible el estudio de la variable sobre todos los individuos
(haciendo por lo tanto innecesario el uso de la Estadstica), en la practica, tal estudio es desaconsejable
por distintas razones:
La poblacion es muy numerosa y el estudio resulta costoso.

La poblacion es infinita.
La poblacion esta constituida por acontecimientos que se suceden a lo largo del tiempo, por lo que
sera necesario un tiempo infinito para abarcarla toda.
El estudio de la variable en un individuo implica la destruccion del mismo (por ejemplo, los ensayos
de resistencia de materiales).

Descartada la posibilidad de estudiar la variable en toda la poblacion, podemos, no obstante estudiarla


en una muestra, y a partir de los resultados, inferir conclusiones acerca de la poblacion. Los metodos de
analisis de la variable en la muestra, y la extrapolacion o inferencia de las conclusiones aplicables a toda
la poblacion con un grado de confianza adecuado, es el objeto de la Estadstica Inferencial o Inferencia
Estadstica.
Puntual
Estimacion de parametros
Inferencia estadstica Por intervalos

Pruebas de hipotesis.

2. Muestras aleatorias y estadsticos


Cuando tomamos una muestra de una poblacion y calculamos en cada uno de sus individuos el valor
de la variable aleatoria X que estamos estudiando, (es decir, medimos las estaturas u observamos el
sexo), obtenemos unos numeros x1 , x2 , . . . , xn que podemos considerar como los valores de unas varia-
bles aleatorias X1 , X2 , . . . , Xn cada una de las cuales es la misma variable X, sirviendo el subndice
unicamente para indicar en que individuo de la muestra se ha calculado X. Podemos admitir ademas que
cada medida u observacion es independiente de las demas. Todo esto nos lleva a introducir el siguiente
concepto, de importancia crucial en la teora de la Inferencia Estadstica:
Definicion 2.1 Las variables aleatorias X1 , X2 , . . . , Xn constituyen una muestra aleatoria simple
de tamano n si a) son independientes, y b) tienen la misma distribucion de probabilidad.
Tema 4. Estimacion y pruebas de hipotesis 3

Tambien se las llama variables independientes e identicamente distribuidas, por ello a veces se
utiliza la abreviatura iid.
Las variables Xi constituyen la base del importante concepto que definimos a continuacion.
Definicion 2.2 Sea Xi , i = 1, 2, . . . , n una muestra aleatoria simple. Se llama estadstico a cualquier
funcion real de esas variables aleatorias que no contenga ningun parametro de la poblacion.
De entre la infinidad de estadsticos que podran definirse, hay dos que tienen especial interes:
n n
1X 1X
2
media muestral : X = Xi , varianza muestral : S = (Xi X)2 ,
n i=1 n i=1

aunque mas tarde consideraremos otros estadsticos de uso frecuente.

3. Estimadores
Hemos visto en el captulo dedicado al estudio de las variables aleatorias y sus distribuciones de proba-
bilidad, que las funciones de probabilidad, de densidad de probabilidad y de distribucion, dependen de
ciertas constantes, que de alguna manera caracterizan a la distribucion y que hemos llamado parame-
tros. Vamos a ampliar este concepto, llamando parametro de una poblacion, a cualquier caracterstica
numerica de la misma. Un parametro, por definicion depende exclusivamente de la poblacion, y no de
cualquier muestra que puede tomarse en la misma.
Como los parametros estan asociados a toda la poblacion, no es posible conocerlos sin analizar todos y
cada uno de los individuos de la misma, pero dada la imposibilidad (o la inconveniencia) de hacerlo, la
Estadstica Inferencial, se limita a estimarlos. Por estimacion entendemos el proceso mediante el cual
obtenemos, a partir de los datos de una muestra, informacion acerca de un parametro, bien en forma
de un numero que constituye un pronostico acerca del valor del parametro (estimacion puntual), o
bien en forma de un intervalo que esperamos contenga al parametro con un cierto grado de confianza
(estimacion por intervalo).
Para ello, tomamos un estadstico conveniente, y usamos su valor numerico en una muestra como es-
timacion puntual, o bien calculamos a partir de ese valor numerico, los extremos del intervalo para la
estimacion por intervalo.
El empleo de un estadstico para estimar un parametro plantea algunos interrogantes: Para un parametro
dado, cual (o cuales) es el estadstico que se considera conveniente? No se olvide que hay infinidad de
posibilidades de definir estadsticos. Ademas, hasta que punto podemos confiar en que el valor numerico
que proporciona el estadstico en una muestra, por muy conveniente que este se considere, constituye una
estimacion razonable del parametro? En esta seccion vamos a contestar a estas preguntas.
Un estadstico que se usa para estimar un parametro, se llama estimador puntual del parametro. Una
estimacion puntual es un valor numerico del estimador, calculado en una muestra determinada.
Notacion: Suele usarse el convenio de que si es el parametro que se desea estimar, el estimador se
designe por la misma letra mayuscula (ya que es una variable aleatoria) con un acento circunflejo , b ya
la estimacion con minusculas . Aunque no siempre se sigue esta costumbre, debe quedar claro en todo
caso la diferencia entre el parametro y su estimacion , de ah el empleo del acento circunflejo.
Veamos algunas caractersticas de los estimadores.
b un estimador del parametro . Se llama
Definicion 3.1 Sea

b y se designa ECM ()
error cuadratico medio de b a E (
b )2 ,

b a E()
sesgo de b .
Tema 4. Estimacion y pruebas de hipotesis 4

El error cuadratico medio es, de acuerdo con su definicion, la media de los cuadrados de las desviaciones
entre los valores del estimador y el parametro. Sera deseable que el estimador que usaramos tuviera el
error cuadratico medio lo mas pequeno posible. Para ver de que forma podra lograse esto, comprobemos
que el error cuadratico medio se puede escribir como suma de dos terminos no negativos:
2 2
b =E
ECM () b 2
b + 2 = E b 2E()
b + 2 =

= V ar() b 2 2E()
b + E() b + 2 = V ar() b 2.
b + E()

El segundo de los sumandos en que se descompone el error cuadratico medio, es el cuadrado del sesgo,
cuyo valor mnimo, cero, se alcanzara cuando la media del estadstico fuera igual al parametro. Ello
sugiere la siguiente definicion.
b es un estimador insesgado del parametro si E()
Definicion 3.2 Se dice que el estadstico b = .

b = a1 X1 + a2 X2 + . . . + an Xn donde a1 + a2 + . . . + an = 1, es un estimador
Ejemplo 1: El estadstico
insesgado de la media de X. En efecto,
b = E(a1 X1 + a2 X2 + . . . + an Xn ) =
E()
= a1 E(X1 ) + a2 E(X2 ) + . . . + an E(Xn ) = (a1 + a2 + . . . + an )E(X) = E(X) = .

Ejemplo 2: La varianza muestral no es un estimador insesgado del parametro 2 , ya que puede de-
n1 2 2
mostrarse que E S 2 = y por lo tanto, el sesgo de la varianza muestral es E S 2 2 = .
n n
Se puede construir un estimador insesgado de 2 a partir de la varianza muestral. En efecto, el estimador
n
n 1 X
Sc2 = S2 = (Xi X)2 ,
n1 n 1 i=1

llamado cuasivarianza muestral es insesgado, ya que


n n n1 2
E Sc2 = E S2 = = 2 .
n1 n1 n

En cuanto al primero de los sumandos en que se descompone el error cuadratico medio, la varianza de b
da cuenta de la variabilidad del estimador en torno a su propia media, y es por lo tanto intrnseco de el;
b fuera constante, lo que no parece muy conveniente,
unicamente podra ser cero si la variable aleatoria
ya que elegir como estimador a un estadstico que toma el mismo valor en todas las muestras, hara inutil
el muestreo (a no ser que ese valor fuera precisamente el del parametro, en cuyo caso lo que sera inutil es
el empleo de la Estadstica). En todo caso podra minimizarse esta varianza eligiendo de entre los posibles
estimadores de , aquel cuya varianza fuera la mas pequena. Ello da origen a la siguiente definicion.
Definicion 3.3 De todos los estimadores insesgados de un mismo parametro, si existe uno cuya varianza
sea mnima, se llama estimador insesgado de varianza mnima.
Para terminar esta breve introduccion a las propiedades de los estimadores, vamos a definir el concepto
de eficiencia.
Definicion 3.4 Sean b1 y
b 2 estimadores del parametro . Se llama eficiencia relativa de estos
estimadores al cociente
ECM ( b 1)
.
ECM ( b 2)
b 1 es mas eficiente que
Si la eficiencia relativa es menor que 1, se dice que b 2 , y si es mayor que 1, que
b b
2 es mas eficiente que 1 .
Tema 4. Estimacion y pruebas de hipotesis 5

3.1. Metodo de maxima verosimilitud


El metodo de maxima verosimilitud para la obtencion de estimadores puntuales de parametros desconoci-
dos de distribuciones lo uso Gauss en el siglo XIX para resolver problemas aislados, y lo formalizo Fisher
a comienzos del siglo XX. Desde entonces, se ha usado ampliamente.

Definicion 3.5 Sea X una variable aleatoria con funcion de probabilidad (o funcion de densidad de
probabilidad) f (x; ) donde es un parametro desconocido. Sean x1 , x2 , . . . , xn los valores observados de
una muestra aleatoria de tamano n de X. La funcion de verosimilitud de la muestra es:
n
Y
L(; x1 , . . . , xn ) = f (xi ; )
i=1

Definicion 3.6 El estimador de maxima verosimilitud de es el valor de que maximiza la funcion


de verosimilitud.

En definitiva, dada una muestra de valores observados x1 , x2 , . . . , xn de una variable aleatoria X, el


metodo de maxima verosimilitud selecciona en cierto sentido, de todos los posibles valores del parametro
desconocido , el que tenga mayor probabilidad de haber producido esas observaciones.

Ejemplo 3: Supongamos que X B(p). Sabemos que


x
p (1 p)1x si x = 0, 1
f (x; p) =
0 en otro caso
En este caso la funcion de verosimilitud sera
n
Y n
Y Pn Pn
L(p; x1 , . . . , xn ) = f (p; xi ) = pxi (1 p)1xi = p i=1 xi
(1 p)n i=1 xi

i=1 i=1

tomando logaritmo neperiano en ambos miembros de la igualdad tenemos que


n ! n
!
X X
ln(L(p; x1 , . . . , xn )) = xi lnp + n xi ln(1 p)
i=1 i=1
n
n
!
d(ln(L(p; x1 , . . . , xn ))) 1X (1) X
= = xi + n xi
dp p i=1 1p i=1

igualando esta derivada a cero

n
n
! n
n
!
d(ln(L(p; x1 , . . . , xn ))) 1X 1 X X X
=0 xi = n xi (1p) xi = p n xi p = X
dp p i=1 1p i=1 i=1 i=1

Puede comprobarse, estudiando el crecimiento de la funcion ln(L(p; x1 , . . . , xn )), que en el valor encon-
trado anteriormente, la funcion ln(L(p; x1 , . . . , xn )) tiene un maximo absoluto. Por tanto, el estimador
de maxima verosimilitud de p es

n
1X
p = xi
n i=1
Tema 4. Estimacion y pruebas de hipotesis 6

4. Distribuciones muestrales
Los estadsticos, como todas las variables aleatorias tienen sus correspondientes distribuciones de proba-
bilidad. Para destacar el hecho de que los estadsticos son funciones de las muestras, sus distribuciones
de probabilidad reciben el nombre de distribuciones muestrales o distribuciones de muestreo.
Definicion 4.1 La distribucion de probabilidad de un estadstico se llama distribucion muestral o
distribucion de muestreo.
En esta seccion vamos a estudiar las distribuciones muestrales de los estadsticos media muestral, va-
rianza muestral y cociente de varianzas muestrales, lo que nos llevara a introducir tres distribuciones de
probabilidad de amplio uso: las distribuciones jicuadrado, t de Student y F de Snedecor.

4.1. Distribucion muestral de la media de una poblacion normal


o aproximadamente normal con varianza conocida
El estimador mas usado para la media es la media muestral X, debido a que tiene propiedades que lo
hacen adecuado. En esta seccion vamos a obtener la distribucion muestral de dicho estimador.
Sean n variables aleatorias X1 , X2 , . . . , Xn normales e independientes, con medias 1 , 2 , . . . , n y va-
rianzas 12 , 22 , . . . , n2 respectivamente (notese que no se trata de una muestra aleatoria simple, ya que
las Xi no estan identicamente distribuidas por tener distintas medias y varianzas). Puede demostrarse
que la variable aleatoria

Y = a1 X1 + a2 X2 + . . . + an Xn , donde a1 , a2 , . . . , an R,

tambien tiene distribucion normal con media y varianza:

E(Y ) = a1 1 + a2 2 + . . . + an n , V ar(Y ) = a21 12 + a22 22 + . . . + a2n n2 .

Ejemplos: 1. Si X1 , X2 , . . . , Xn es ahora una muestra aleatoria simple de una poblacion normal X de


1 X1 + X2 + . . . + Xn
media y varianza 2 , y tomamos a1 = a2 = . . . = an = , entonces Y = = X,
n n
con lo cual, tenemos

+ + ... + 2 + 2 + . . . + 2 2
E(X) = = y V ar(X) = = .
n n2 n
2. Si tenemos solo dos poblaciones normales X1 y X2 , la poblacion diferencia X1 X2 tambien ten-
dra distribucion normal, as como la diferencia de medias muestrales X 1 X 2 , y por lo tanto:
2 2
E X 1 X 2 = E X 1 E X 2 = 1 2 y V ar X 1 X 2 = V ar X 1 + V ar X 2 = 1 + 2 .
n1 n2
Es decir, una combinacion lineal de variables aleatorias normales e independientes, tambien tiene distribu-
cion normal. En particular, la media muestral y la diferencia de medias muestrales tiene esa distribucion.
Por su importancia, lo enunciamos en forma de teorema:
Teorema 4.1 a) Sea X1 , X2 , . . . , X n una muestra
aleatoria de tamano n de una poblacion X N (, ).

Entonces la media muestral X N , .
n
b) Sean X11 , X12 , . . . , X1n1 y X21 , X22 , . . . , X2n2 muestras aleatorias independientes de tamanos n1 y
n2 respectivamente de dos poblaciones X1 N (1 , 1 ) ysX2 N (2 , 1 ) independientes. Entonces la
!
12 22
diferencia de medias muestrales X 1 X 2 N 1 2 , + .
n1 n2
Tema 4. Estimacion y pruebas de hipotesis 7

Este teorema se refiere al muestreo en poblaciones normales, pero que ocurre si no sabemos cuales son
las distribuciones de esas poblaciones?, cual es entonces la distribucion muestral de X y de X 1 X 2 ?
El siguiente teorema, de importancia fundamental dice que si las muestras son grandes, la distribucion
muestral de la media y de la diferencia de medias muestrales es aproximadamente normal sean cuales
sean las distribuciones de las poblaciones.

Teorema 4.2 (Teorema central del lmite).


a) Sea X1 , X2 , . . . , Xn una muestra aleatoria de una poblacion X de media y varianza 2 . Entonces,
el lmite de la distribucion de la variable aleatoria
X
Z=
/ n

cuando n es la distribucion normal estandar.


b) Sean X11 , X12 , . . . , X1n1 y X21 , X22 , . . . , X2n2 muestras aleatorias de tamanos n1 y n2 respecti-
vamente de dos poblaciones X1 y X2 con medias 1 , 2 y varianzas 12 , 22 . Entonces, el lmite de la
distribucion de la variable aleatoria
X 1 X 2 (1 2 )
Z= s
12 2
+ 2
n1 n2

cuando n1 , n2 es la distribucion normal estandar.

El significado de este teorema es que para tamanos muestrales grandes, las variables aleatorias Z
de los apartados a) y b) son aproximadamente normales, de lo que se desprende que tambien son casi
normales los estadsticos X y X 1 X 2 . Se admite que si n > 30, n1 > 30 y n2 > 30, las distribu-


ciones de dichos estadsticos pueden aproximarse satisfactoriamente por las distribuciones N , y
s ! n
2 2
1
N 1 2 , + 2 respectivamente.
n1 n2
La aplicacion del teorema central del lmite tropieza en la practica con dos dificultades: que el tamano de
las muestras sea menor de 30, y que las varianzas de las poblaciones sean desconocidas. En ambos casos,
la media y la diferencia de medias muestrales dejan de tener distribucion normal. En la siguiente seccion
se introduce una distribucion muestral que supera ambas dificultades en el caso de que la poblacion sea
normal. Pero antes introducimos un concepto que sera util mas tarde.
Definicion 4.2 Para una variable aleatoria normal estandar Z, se llama punto crtico a un nivel ,
y se designa z a un numero tal que P (Z > z ) = .

4.2. Distribucion muestral de la media de una poblacion normal


con varianza desconocida

En 1908, en un celebre artculo1 , W. Gosset, con el seudonimo de Student, establecio que para mues-
X
tras extraidas de una poblacion normal cuya varianza es desconocida, el estadstico T = tiene
Sc / n
una distribucion de probabilidad que vamos a describir y que actualmente se conoce con el nombre de
distribucion t de Student. Notese que T se obtiene tipificando la media muestral pero usando la cuasi
desviacion tpica Sc (muestral) en lugar de la desviacion tpica (poblacional), dado que esta ultima no
se conoce.
1 The probable error of a mean. Biometrika 6, 125
Tema 4. Estimacion y pruebas de hipotesis 8

Definicion 4.3 Se dice que una variable aleatoria continua tiene distribucion t de Student con k
grados de libertad, si su funcion de densidad de probabilidad es

k+1
2 (k+1)/2
2 x
f (x; k) = +1 < x < , k > 0.
k k
k
2

Nota 1: Observese que independientemente del valor de k, la funcion f (x; k) es par, luego su grafica es
simetrica con respecto al eje vertical. Ello permite, igual que ocurra con la distribucion normal, limitar
el calculo de las tablas de valores crticos a los positivos.
Nota 2: Puede demostrarse que conforme el numero de grados de libertad aumenta, la distribucion t se
aproxima a una distribucion normal estandar, es decir, se verifica

lm f (x; k) = N (x; 0, 1).


k

Teorema 4.3 Sea X1 , X2 , . . . , Xn una muestra aleatoria de una poblacion X N (, ). Entonces el


X
estadstico T = tiene distribucion t de Student con n 1 grados de libertad.
Sc / n
El interes de la distribucion t de Student esta en que nos proporciona la distribucion muestral del es-
X
tadstico T = , que no es mas que (como hemos senalado antes), la media muestral tipificada
Sc / n
cuando la distribucion de la poblacion es normal. El empleo de T como estimador de tal media muestral,
tiene interes en situaciones en las que la varianza 2 es desconocida, que por cierto es lo usual. El siguiente
cuadro resume las situaciones estudiadas.

Poblacion
Varianza
Normal Desconocida
X X
conocida N (0, 1) (para todo n Z+ ) N (0, 1) (n > 30) ? (n < 30)
/ n / n
X
desconocida N (0, 1) (n > 30)
Sc / n
X
tn1 (n < 30) ?
Sc / n

Definicion 4.4 Para una variable aleatoria T con distribucion t de Student con k grados de libertad, se
llama punto crtico a un nivel y se designa t,k , a un numero tal que P (T > t,k ) = .

4.3. Distribuciones muestrales de la cuasivarianza y de la varianza


de una poblacion normal
El estimador mas adecuado de la varianza 2 es la cuasivarianza muestral Sc2 . Entre otras propiedades
esta la de que es insesgado segun hemos visto en la pagina 4. No as la varianza muestral S 2 , que como
estimador de 2 es sesgado.
Definicion 4.5 Se dice que una variable aleatoria continua tiene distribucion jicuadrado con k gra-
dos de libertad, si su funcion de densidad de probabilidad es

1

xk/21 ex/2 si x > 0,
k
2 k
f (x; k) = 2




0 en otro caso.
Tema 4. Estimacion y pruebas de hipotesis 9


k
Nota 1: El factor que aparece en el denominador de la anterior funcion de densidad de probabi-
2 Z
lidad es la conocida funcion gamma: (s) = ts1 es ds.
0
Nota 2: Puede demostrarse que cuando el numero de grados de libertad k tiende a infinito, la funcion
de densidad f (x; k) tiende a una normal.

Teorema 4.4 Sea 2 la varianza de una poblacion normal. Entonces la variable aleatoria
n
X (Xi X)2
(n 1)Sc2
= .
2 i=1
2

tiene distribucion de probabilidad ji-cuadrado con n 1 grados de libertad.


n
Nota: De la relacion Sc2 = S 2 entre los estadsticos varianza y cuasi varianza, se deduce, aplicando
n1
nS 2
el teorema 4.4, que tambien tiene distribucion jicuadrado con n 1 grados de libertad.
2
Definicion 4.6 Para una variable aleatoria X con distribucion jicuadrado con k grados de libertad, se
llama punto crtico a un nivel y se designa 2,k , a un numero tal que P (X > 2,k ) = .

4.4. Distribucion muestral del cociente de cuasivarianzas


2
Cuando tenemos dos poblaciones X1 y X2 , un parametro de interes es el cociente de varianzas 12 . Para
2
S2
estimarlo se usa el estimador c21 .
Sc2
Definicion 4.7 Se dice que la variable aleatoria continua X tiene distribucion de probabilidad F de
Snedecor con k1 y k2 grados de libertad, si su funcion de densidad de probabilidad es de la forma
k1 /2

k1 + k2 k1

xk1 /21

2 k2

(k1 +k2 )/2 si x > 0,
f (x; k1 , k2 ) = k1 k2 k1
x+1

2 2 k2





0 en otro caso.

Teorema 4.5 Sean 12 y 22 las varianzas de dos poblaciones normales, y Sc21 y Sc22 las cuasivarianzas
2 S 2
muestrales en muestras de tamanos n1 y n2 respectivamente. Entonces la variable aleatoria 22 c21 tiene
1 S c2
distribucion F de Snedecor con n1 1 y n2 1 grados de libertad.

Definicion 4.8 Para una variable aleatoria F con distribucion F de Snedecor con k1 y k2 grados de
libertad, se llama punto crtico a un nivel y se designa f,k1 ,k2 , a un numero tal que P (F > f,k1 ,k2 ) =
.

La distribucion F goza de una propiedad cuya importancia radica en que permite simplificar las tablas
de valores crticos. Sea f,k1 ,k2 el punto crtico que verifica P (F > f,k1 ,k2 ) = , entonces tenemos
1
f1,k2 ,k1 = .
f,k1 ,k2
La ultima igualdad evita el calculo de los valores crticos para niveles 1 si ya los hemos calculado para
los niveles , lo que reduce el tamano de las tablas de valores crticos. Solo hay que tener la precaucion
de intercambiar los valores de k1 y k2 como se indica en dicha igualdad.
Tema 4. Estimacion y pruebas de hipotesis 10

5. Intervalos de confianza
Sea un parametro de la poblacion que deseamos estimar. Supongamos que disponemos de dos estadsticos
L y U tales que se verifica la siguiente igualdad: P (L 6 6 U ) = 1 , donde es un numero pequeno
(por ejemplo = 0, 01) que cumple 0 6 6 1. La interpretacion de esa igualdad es la siguiente:
La probabilidad de que los estadsticos L y U , tomen valores menores y mayores respectivamente que
el parametro es alta (ya que es una probabilidad pequena y por lo tanto 1 es una probabilidad
grande), es decir, que si tomamos muchas muestras, y calculamos en cada una los valores numericos l y
u de los estadsticos L y U , en un alto porcentaje de ellas, se verificara l 6 6 u. Concretamente, si
= 0, 05, en el 100(1-0,05) %=95 % de esas muestras se verificara la citada doble desigualdad.
Ahora bien, es muy importante destacar que dada una muestra concreta y los correspondientes valores
numericos l y u de los estadsticos, es imposible saber si en esa muestra se verifican las desigualdades
l 6 6 u, ya que lo unico que podemos afirmar es que en un alto porcentaje de ellas s se verifican, pero
no hay manera de saber en cuales. Por ello, debe evitarse el escribir l 6 6 u para no dar ocasion a
falsas interpretaciones, a no ser que quede muy claro lo que se quiere expresar.
Pero aunque no podamos saber si el parametro se encuentra en el intervalo [l, u] correspondiente a
una muestra determinada, podemos confiar (nunca afirmar!) en que ese sea uno de los intervalos que
efectivamente contienen a . Nuestra confianza se basa en que un alto porcentaje de dichos intervalos lo
contienen. Para expresar esta idea de una forma grafica, decimos que [l, u] es un intervalo de confianza
del 100(1 ) % para el parametro .
En la practica, no se toman muchas muestras, sino solo una (el muestreo es caro). Si con los datos
muestrales y un nivel de confianza del, digamos 95 %, los valores l y u obtenidos son por ejemplo 3,25 y
4,09, diremos que [3, 25 , 4, 09] es un intervalo de confianza del 95 % para el parametro. Pero a la pregunta
esta el parametro dentro del intervalo [3, 25 , 4, 09]?, la respuesta es que no podemos saberlo. No obstante
podemos apostar que s (dandole a la palabra apostar el mismo sentido de riesgo que tiene en un juego
de azar cuando llevamos una buena mano, es decir, que creemos que podemos ganar aunque admitamos
una pequena probabilidad de perder).
Definicion 5.1 Un intervalo de confianza a un nivel 100(1 ) % para un parametro es un
intervalo de la forma [L, U ] tal que P (L 6 6 U ) = 1 , donde L y U son dos variables aleatorias que
dependen de un estimador b del parametro.

Observacion: Cuando tomamos una muestra de la poblacion y calculamos los valores l y u de las variables
aleatorias L y U , esos valores dependeran de la estimacion puntual del estimador. Es costumbre llamar
tambien intervalo de confianza a [l, u].
En las secciones que siguen vamos a calcular intervalos de confianza para diversos parametros, usando
para ello los estimadores explicados en la seccion 4.

5.1. Intervalos de confianza para la media de una poblacion normal


o aproximadamente normal
Vamos a obtener un intervalo de confianza del 100(1 ) % para el parametro . Distinguiremos dos
casos: varianza conocida y varianza desconocida. El primero de los cuales no responde a una situacion
real puesto que los valores de los parametros (en este caso 2 ) siempre son desconocidos. Lo tratamos
solo para iniciar el tema.

Varianza conocida. Sea X una poblacion con E(X) = y V ar(X) = 2 (suponemos conocida
esta ultima). Sea X1 , X2 , . . . , Xn una muestra aleatoria de
tamano
n de X, y sea X N (, ) o bien

n > 30, lo que implica segun el teorema 4.2 que X N , , exacta o aproximadamente, es decir
n
X
N (0, 1). Ahora tomamos un numero tal que 0 < < 1, lo que nos permite buscar en la tabla
/ n
Tema 4. Estimacion y pruebas de hipotesis 11

de areas de la distribucion normal estandar, los dos puntos crticos z/2 . Podemos entonces escribir:

X
1 = P z/2 6 6 z/2 =
/ n


= 1 = P z/2 6 X 6 z/2 =
n n


= 1 = P X z/2 6 6 X + z/2 .
n n

Si llamamos L = X z/2 y U = X + z/2 , tenemos P (L 6 6 U ) = 1 , y por lo tanto
n n
[L, U ] es un intervalo de confianza del 100(1 ) % para la media , cuando es conocida:


X z/2 , X + z/2
n n

Varianza desconocida. Supongamos ahora, como antes, que X es una poblacion con E(X) = y
V ar(X) = 2 , pero ahora con 2 desconocida. Sea X1 , X2 , . . . , Xn una muestra aleatoria de tamano n
de X. Distinguiremos dos casos:
a) Tamano muestral n > 30: En este caso, y en virtud del Teorema Central del Lmite, el intervalo
de confianza resulta ser identico al anterior, solo que sustituyendo la desviacion tpica por la cuasi
desviacion tpica Sc :

Sc Sc
X z/2 , X + z/2
n n
X
b) Tamano muestral n 6 30 y X N (, ): De acuerdo con el teorema 4.3, tn1 , de modo
Sc / n
que si fijamos un valor para (0 6 6 1), que nos permita buscar en la tabla de percentiles de la
distribucion t de Student, los puntos crticos t/2,n1 , podemos escribir:

X
1 = P t/2,n1 6 6 t/2,n1 =
Sc / n

Sc Sc
= 1 = P t/2,n1 6 X 6 t/2,n1 =
n n

Sc Sc
= 1 = P X t/2,n1 6 6 X + t/2,n1 .
n n
Sc Sc
Si llamamos L = X t/2,n1 y U = X + t/2,n1 , tenemos P (L 6 6 U ) = 1 , y por
n n
lo tanto [L, U ] es un intervalo de confianza del 100(1 ) % para la media de una poblacion normal,
cuando es desconocida y el tamano muestral es n 6 30:

Sc Sc
X t/2,n1 , X + t/2,n1
n n
Notese que el caso de que la poblacion no sea normal y el tamano muestral sea n < 30, no lo tratamos,
pues exige el empleo de tecnicas que quedan fuera del alcance de esta asignatura.


Los procedimientos de obtencion de los intervalos de confianza que siguen, son muy parecidos a los dos
ya expuestos, as que en las siguientes secciones nos limitaremos a exponer las condiciones bajo las cuales
es valido cada uno de los intervalos de confianza, y la expresion de los mismos, omitiendo por brevedad,
salvo en tres casos, su desarrollo.
Tema 4. Estimacion y pruebas de hipotesis 12

5.2. Intervalos de confianza para la diferencia de medias de poblaciones


independientes, normales o aproximadamente normales
Varianzas conocidas. Sean X1 y X2 dos poblaciones independientes con medias 1 y 2 y varianzas
12 y 22 (suponemos conocidas estas ultimas). Consideremos dos muestras aleatorias X11 , X12 , . . . , X1n1 y
X21 , X22 , . . . , X2n2 de tamanos n1 y n2 de dichas poblaciones. Supongamos que X1 y X2 son normales, o
que si no lo son,los tamanos s muestrales
! cumplen n1 > 30 y n2 > 30, lo que implica segun el teorema 4.2,
12 2
X1 X2 N 1 2 , + 2 , exacta o aproximadamente. Entonces, un intervalo de confianza
n1 n2
del 100(1 ) % para el parametro 1 2 es:
s s
2 2 2 2
X 1 X 2 z/2 1 + 2 , X 1 X 2 + z/2 1 + 2
n1 n2 n1 n2

Varianzas desconocidas. Si las varianzas 12 y 22 son desconocidas, pero los tamanos muestrales
son n1 > 30 y n2 > 30, el intervalo de confianza del 100(1 ) % para 1 2 es igual al anterior, pero
sustituyendo las varianzas de las poblaciones por las cuasivarianzas muestrales:
s s
Sc21 Sc22 Sc21 Sc22
X 1 X 2 z/2 + , X 1 X 2 + z/2 +
n1 n2 n1 n2

Con tamanos muestrales mayores o iguales que 30, no es necesario suponer que las poblaciones son
normales, ya que el Teorema Central del Lmite (teorema 4.2) garantiza la normalidad de la diferencia de
medias muestrales, pero si los tamanos muestrales son menores que 30, necesitamos suponer que ambas
poblaciones son normales y distinguir dos casos:
a) Varianzas iguales (12 = 22 ). El intervalo de confianza del 100(1 ) % para 1 2 es:
r r
1 1 1 1
X 1 X 2 t/2,n1 +n2 2 Sp + , X 1 X 2 + t/2,n1 +n2 2 Sp +
n1 n2 n1 n2
2 2
(n1 1)Sc1 + (n2 1)Sc2
donde Sp2 = .
n1 + n2 2
b) Varianzas distintas (12 6= 22 ). El intervalo de confianza del 100(1 ) % para 1 2 es:
s s
Sc21 Sc22 Sc21 Sc22
X 1 X 2 t/2, + , X 1 X 2 + t/2, +
n1 n2 n1 n2

2 2
Sc1 /n1 + Sc22 /n2
donde el numero de grados de libertad es = 2 1 2 1 2 . Para buscar
Sc21 /n1 + Sc22 /n2
n1 1 n2 1
en las tablas de percentiles de la distribucion t de Student, el valor crtico t/2, debe redondearse al
entero mas proximo.
Cabe preguntarse como es posible saber si las varianzas 12 y 22 son iguales o distintas, si son desconocidas.
Una de las posibles opciones para responder a esta cuestion consiste en calcular un intervalo de confianza
2
del 100(1 ) % para el cociente de las varianzas 12 tal y como se detalla en la seccion 5.5. Si este
2
intervalo contiene al numero 1, entonces podemos concluir con una confianza del 100(1 ) %, que las
varianzas se pueden considerar iguales. En caso contrario, consideraremos que las varianzas son diferentes.
Otra opcion la veremos en la seccion ...
Tema 4. Estimacion y pruebas de hipotesis 13

5.3. Intervalo de confianza para la diferencia de medias de poblaciones


dependientes, normales o aproximadamente normales
Cuando dos poblaciones no son independientes, las muestras extradas de ellas se llaman muestras
pareadas. Se presenta este caso cuando las poblaciones son medidas u observaciones practicadas sobre
los mismos individuos en condiciones distintas. El hecho de que se trate de los mismos individuos, induce
a pensar que la poblacion de medidas u observaciones practicadas en unas y otras condiciones no son
independientes. Por ejemplo
Sean X1 y X2 dos poblaciones dependientes con medias 1 y 2 y varianzas 12 y 22 . Supongamos que
2
la variable aleatoria D = X1 X2 tiene distribucion normal con media D y varianza D . Consideremos
dos muestras aleatorias X11 , X12 , . . . , X1n y X21 , X22 , . . . , X2n del mismo tamano n de dichas poblaciones,
con las que construimos la muestra D1 , D2 , . . . , Dn de D. Como antes, hay dos casos:

2 D
Varianza D conocida. De acuerdo con el teorema 4.1 a), tenemos D N D , , y por lo tanto
n
un intervalo de confianza del 100(1 ) % para el parametro D tiene la misma forma que el obtenido
en la seccion 5.1 cuando la varianza es conocida:

D D
D z/2 , D + z/2
n n

2 D D
Varianza D desconocida. De acuerdo con el teorema 4.3, tenemos ahora tn1 , luego
Sc / n
un intervalo de confianza del 100(1 ) % para el parametro D tiene la misma forma que el obtenido
en la seccion 5.1 cuando la varianza es desconocida (apartado b):

Sc Sc
D z/2 , X + z/2
n n

5.4. Intervalo de confianza para la varianza de una poblacion normal


Sea X una poblacion con E(X) = y V ar(X) = 2 . Sea X1 , X2 , . . . , Xn una muestra aleatoria de
(n 1)Sc2
tamano n de X, y sea X N (, ). De acuerdo con el teorema 4.4, la variable aleatoria
2
tiene distribucion jicuadrado con n 1 grados de libertad. Tomemos un numero tal que 0 < < 1,
que nos permita buscar en la tabla de percentiles de la distribucion jicuadrado, los dos puntos crticos
21/2,n1 y 2/2,n1 . Podemos entonces escribir:

2 (n 1)Sc2 2
1 = P 1/2,n1 6 6 /2,n1 =
2
2 !
1/2,n1 1 2/2,n1
= 1 = P 6 2 6 =
(n 1)Sc2 (n 1)Sc2
!
(n 1)Sc2 2 (n 1)Sc2
= 1 = P 6 6 2 .
2/2,n1 1/2,n1

(n 1)Sc2 (n 1)Sc2
Como en los casos anteriores, si llamamos L = 2 y U = 2 , vemos que se cumple la
/2,n1 1/2,n1
igualdad P (L 6 6 U ) = 1 , lo que implica que [L, U ] es un intervalo de confianza del 100(1 ) %
para la varianza 2 de una poblacion normal:
" #
(n 1)Sc2 (n 1)Sc2
,
2/2,n1 21/2,n1
Tema 4. Estimacion y pruebas de hipotesis 14

5.5. Intervalo de confianza para el cociente de varianzas


de poblaciones normales
Sean X1 N (1 , 1 ) y X2 N (2 , 2 ) dos poblaciones independientes, y sean X11 , X12 , . . . , X1n1 y
X21 , X22 , . . . , X2n2 dos muestras aleatorias de tamanos n1 y n2 de X1 y X2 respectivamente. De acuerdo
2 S 2
con el teorema 4.5, la variable aleatoria 22 c1 2 tiene distribucion F de Snedecor con n1 1 y n2 1 grados
1 Sc2
de libertad. Como en los casos anteriores, sea un numero tal que 0 6 6 1. Entonces, podemos buscar
en las tablas de percentiles de la distribucion F de Snedecor, los dos puntos crticos f1/2,n1 1,n2 1 y
f/2,n1 1,n2 1 2 con los que podemos escribir:

2 S 2
1=P f1/2,n1 1,n2 1 6 22 c12 6 f /2,n1 1,n2 1 =
1 Sc2
2
Sc2 22 2
Sc2
= 1 = P 2 f1/2,n1 1,n2 1 6 6 f/2,n1 1,n2 1 =
Sc1 12 2
Sc1
2
Sc1 1 12 2
Sc1 1
= 1 = P 2 6 6 .
Sc2 f/2,n1 1,n2 1 22 2
Sc2 f1/2,n1 1,n2 1

S2 1 S2 1
Ahora consideremos los dos estdsticos L = c12 y U = c1
2 f . Segun
Sc2 f/2,n1 1,n2 1 Sc2 1/2,n1 1,n2 1
2


acabamos de ver, P L 6 12 6 U = 1 , de lo que se deduce que [L, U ] es un intervalo de confianza
2
2
del 100(1 ) % para el cociente de varianzas 12 de dos poblaciones normales:
2
2 2

Sc1 1 Sc1 1
2 , 2
Sc2 f/2,n1 1,n2 1 Sc2 f1/2,n1 1,n2 1

5.6. Intervalo de confianza para la proporcion de una poblacion binomial


Sea X una poblacion con distribucion de Bernoulli, es decir, X solo puede tomar los valores 1 (exito) y
0 (fracaso) con probabilidades respectivas p y 1 p. Sea X1 , X2 , . . . Xn una muestra aleatoria de tamano
Xn n
1X
n. La suma Xi es el numero de exitos en la muestra, y la media muestral X = Xi es la fraccion
i=1
n i=1
muestral de exitos. Es costumbre llamar p en vez de X a este estadstico para resaltar el hecho de que
es un estimador del parametro p, que por ser la probabilidad de un exito, es tambien la fraccion (o
proporcion) poblacional de exitos. Decir que p = 0, 85 es lo mismo que decir que una fraccion 0,85 de la
poblacion son exitos, o que el 85 % de la poblacion esta constituido por exitos.
Supongamos que n > 30 y que np > 5 y n(1 p) > 5 (no trataremos otros casos), entonces, la variable
p p
aleatoria p n tiene una distribucion de probabilidad que es aproximadamente normal estandar.
p(1 p)
Fijado un numero tal que 0 < < 1, podemos buscar en la tabla de areas de la distribucion normal
2 Recuerde que en las tablas de percentiles de la distribucion F , el punto crtico f
1/2,n1 1,n2 1 , es el inverso de
f/2,n2 1,n1 1 .
Tema 4. Estimacion y pruebas de hipotesis 15

estandar, los dos puntos crticos z/2 , y escribir:


!
p p
1=P z/2 6 p n 6 z/2 =
p(1 p)
r r !
p(1 p) p(1 p)
= 1 = P z/2 6 p p 6 z/2 =
n n
r r !
p(1 p) p(1 p)
= 1 = P p z/2 6 p 6 p + z/2 .
n n
r
p(1 p)
Pero ahora, a diferencia de todos los casos tratados, las dos variables aleatorias p z/2 y
r n
p(1 p)
p + z/2 no son estadsticos, porque dependen del parametro p. Para eludir esta dificultad,
n
se sustituye r
p por su estimador p, conr lo cual ya tenemos como en los casos anteriores, dos estadsticos
p(1 p) p(1 p)
L = pz/2 y U = p+z/2 que cumplen aproximadamente P (L 6 p 6 U ) = 1.
n n
As pues tenemos que [L, U ] es un intervalo de confianza aproximado del 100(1 ) % para el parametro
proporcion p:
" r r #
p(1 p) p(1 p)
p z/2 , p + z/2
n n

5.7. Intervalo de confianza para la diferencia de proporciones


de poblaciones binomiales
Sean ahora X1 y X2 dos poblaciones con distribucion de Bernoulli independientes, de parametros p1 y
p2 . Consideremos dos muestras aleatorias X11 , X12 , . . . , X1n1 y X21 , X22 , . . . , X2n2 de tamanos n1 y n2
de dichas poblaciones. Para poder usar la aproximacion por la distribucion normal, supongamos que se
verifican:

n1 > 30, n2 > 30, n1 p1 > 5, n2 p2 > 5, n1 (1 p1 ) > 5, n1 (1 p1 ) > 5.

Entonces, un intervalo de confianza aproximado del 100(1 ) % para el parametro diferencia de propor-
ciones p1 p2 es:
s s
p1 p2 z/2 p1 (1 p1 ) p2 (1 p2 ) p1 (1 p1 ) p2 (1 p2 )
+ , p1 p2 + z/2 +
n1 n2 n1 n2

6. Pruebas de hipotesis
Una forma de estimacion, alternativa a la estimacion puntual o por intervalos es la conocida como prueba
de hipotesis. A grandes rasgos, la idea consiste en proponer un valor 0 (llamado valor de prueba) para
el parametro que deseamos estimar, tomar a continuacion una muestra de la poblacion, calcular con ella
el valor de cierto estadstico y decidir si el valor obtenido avala la eleccion que hemos hecho del valor de
prueba. Cuando proponemos un valor de prueba para un parametro, estamos formulando una hipotesis
acerca del mismo, as, definimos:
Definicion 6.1 Una hipotesis estadstica es una proposicion sobre la distribucion de probabilidad de
una o mas poblaciones, o sobre los parametros de las mismas.
Tema 4. Estimacion y pruebas de hipotesis 16

En este tema solo consideraremos las hipotesis estadsticas bajo la segunda acepcion, es decir, como
proposiciones acerca de parametros de poblaciones. Una hipotesis estadstica se plantea con la intencion
de rechazarla o no rechazarla, de acuerdo con la informacion proporcionada por una muestra extrada de
la poblacion. La formulacion de una hipotesis acerca de un parametro tiene sentido cuando desconocemos
el valor del mismo y queremos estimarlo rechazando o no dicha hipotesis. El proceso, basado en el uso
de un estadstico apropiado, de rechazar o no la hipotesis, es decir, de alcanzar una decision acerca de
la misma, se llama prueba, contraste o test, as hablamos de probar o contrastar una hipotesis, y el
estadstico usado para ello se llama estadstico de prueba o estadstico de contraste.
Supongamos que en cierto proceso de fabricacion3 el ingeniero a cargo del mismo cree, basandose en su
experiencia y en observaciones previas, que la fraccion de artculos defectuosos es del 10 %. Admitiendo
que la poblacion de artculos fabricados puede dividirse en dos categoras que se excluyen mutuamente,
los defectuosos y los no defectuosos, dicha poblacion tiene distribucion de Bernoulli con parametro
p = probabilidad de que un artculo elegido al azar sea defectuoso.
La creencia del ingeniero le lleva a formular la siguiente hipotesis: p = 0, 1. Para corroborarla o desmentir-
la, decide tomar una muestra de tamano 100, y encuentra 12 defectuosos, es decir una fraccion muestral
p = 0, 12. Tal fraccion, parece estar conforme con la hipotesis, pero tambien lo estara si la hipotesis
hubiera sido p = 0, 11 o p = 0, 13, por ello debemos ser cautelosos y tomar el resultado muestral obtenido
no como una confirmacion estricta de la hipotesis, sino mas bien como un no rechazo de la misma. De
hecho, si la hipotesis del ingeniero fuera correcta, la probabilidad de obtener una fraccion muestral de
defectuosos comprendida entre digamos, 0,05 y 0,15, es muy alta, concretamente:
X15
100
P (0, 05 6 p 6 0, 15 | p = 0, 10) = (0, 10)x (1 0, 10)100x = 0, 9024,
x=5
x

pero tambien son altas estas probabilidades si tomamos como hipotesis p = 0, 11 o p = 0, 13:
X15
100
P (0, 05 6 p 6 0, 15 | p = 0, 11) = (0, 11)x (1 0, 11)100x = 0, 8895,
x=5
x
X15
100
P (0, 05 6 p 6 0, 15 | p = 0, 13) = (0, 13)x (1 0, 13)100x = 0, 7690.
x=5
x

Sin embargo si en la muestra hubieran aparecido 20 artculos defectuosos deberamos rechazar la hipotesis
p = 0, 1, pues una fraccion muestral mayor que 0,15 sera muy improbable si tal hipotesis fuera cierta.
En efecto:
X15
100
P (p > 0, 15 | p = 0, 10) = 1 (0, 10)x (1 0, 10)100x = 0, 0399.
x=0
x
Por lo tanto, el rechazo casi excluye a la hipotesis, mientras que el no rechazo, aunque no la excluye,
tampoco excluye otras posibilidades, por eso, la decision de rechazar es mas fuerte que la de no rechazar,
y de ah, que en el argot de la Estadstica, a un resultado muestral que nos lleve a rechazar una hipotesis,
se le llama significativo, mientras que un resultado que no nos permita rechazarla, se dice que no es
significativo. Una prueba de hipotesis debe pues intentar plantearse al reves de lo que parece, es decir
de tal forma que sometamos a prueba la hipotesis contraria a la que creemos que es cierta, pues as, si
logramos rechazarla, afirmamos con mas fuerza nuestra hipotesis.

6.1. Metodologa de una prueba de hipotesis


La discusion precedente senala los puntos clave a tener en cuenta en el proceso de una prueba de hipotesis.
La hipotesis que planteamos con el deseo de rechazarla, para as afirmar con mas fuerza su contraria que
3 Este ejemplo es una version del que se expone al principio del captulo 10 de la sexta edicion del libro Probabilidad y

estadstica para ingenieros de Walpole, R.E.; Myers, R.H. y Myers, S.L., editado por Prentice-Hall Hispanoamericana S.A.,
Mexico 1999.
Tema 4. Estimacion y pruebas de hipotesis 17

es en la que creemos, se llama hipotesis nula, y suele designarse con el smbolo H0 . El rechazo de
la hipotesis nula se formula en forma de otra hipotesis a la que se denomina hipotesis alternativa
y que se designa con el smbolo H1 (algunas veces Ha ). El rechazo de la hipotesis nula (lo que nos
lleva a la aceptacion de la alternativa) se produce si el estadstico de contraste toma un valor en una
region en la que tiene muy pocas probabilidades de estar si la hipotesis nula es cierta. Tal region se
denomina region crtica o menos comunmente region de rechazo. En la seccion precedente, se ha
elegido arbitrariamente esa region como p > 0, 15. Contrariamente, el no rechazo de la hipotesis nula se
produce cuando el estadstico de contraste toma un valor en una region en la que hay una probabilidad
alta de que lo tome si la hipotesis nula es cierta. De manera equvoca, pues debe evitarse el termino
aceptacion al referirnos a la hipotesis nula, se suele llamar a esta, region de aceptacion.
La decision de establecer el tamano de la region crtica debe tomarse antes de la eleccion de la muestra,
y la forma de hacerlo es fijar a priori la probabilidad de que el estadstico de contraste tome un valor
dentro de esa region en el supuesto de que la hipotesis nula es cierta. A esa probabilidad se le llama
nivel de significacion, se suele designar con la letra griega , y se elige de modo que sea pequena, pues
de acuerdo con la discusion anterior, no tendra interes si fuera grande porque entonces no tendramos
argumentos para rechazar H0 . Valores usuales de consagrados por una larga tradicion son 0,1, 0,05 y
0,01, aunque naturalmente pueden elegirse otros. El valor (o valores, como veremos despues) del estadstico
de contraste que separa las regiones crticas y de aceptacion, se llama valor crtico o punto crtico, y
esta determinado por el nivel de significacion de la forma que mas tarde se establecera.

6.2. Pruebas unilaterales y bilaterales


Es corriente plantear la hipotesis nula en forma de igualdad. Si llamamos 0 al valor hipotetico que
proponemos para el parametro , la hipotesis nula sera = 0 . Aunque tambien puede plantearse como
desigualdad, veremos mas tarde que es preferible no hacerlo as. En cuanto a la hipotesis alternativa, su
formulacion depende de la naturaleza de aquello que queremos probar. Para ilustrar esto, consideremos
un problema comun en la investigacion clnica: se sabe, porque se lleva muchos anos aplicando y hay por
lo tanto muchos datos que as lo avalan, que determinado medicamento tiene una eficacia del 50 % en la
cura de cierta enfermedad. Hablando sin mucha precision, aproximadamente uno de cada dos enfermos
a los que se aplica, sana, o en terminos de un parametro de la poblacion, que la proporcion de enfermos
curados con ese medicamento es p = 0, 5. Recientemente se ha descubierto un nuevo medicamento que los
investigadores creen que supera en eficacia al anterior. Para corroborar esta creencia, parece razonable
plantear un contraste de hipotesis en estos terminos:

H0 : p = 0, 5,
H1 : p > 0, 5.

Observese que hemos planteado la hipotesis alternativa como una desigualdad de la forma el parametro
es mayor que un cierto numero, ya que creemos que es ese el caso.
Imaginemos ahora otra situacion: Se ha disenado una dieta para rebajar peso, que en unas pruebas
preliminares indican que despues de un mes de aplicacion, el descenso medio de peso es de mas de 5
kilogramos. Llamemos a y d a los parametros peso medio antes y despues de un mes de aplicacion de la
dieta respectivamente. Para confirmar o desmentir el resultado de las pruebas preliminares, se formulan
las siguientes hipotesis:
H0 : d a = 5,
H1 : d a < 5.
Ahora la hipotesis alternativa se ha planteado como una desigualdad de la forma el parametro (en este
caso es una diferencia de parametros) es menor que un cierto numero. No obstante es evidente que
se habra podido plantear la hipotesis alternativa con la desigualdad en sentido contrario, sin mas que
cambiar el orden de a y d .
Por ultimo consideremos un proceso de fabricacion de pistones de motores. El diametro exterior de
los mismos debe cumplir estrictamente con las especificaciones de tolerancia establecidas en 0,03 mm
Tema 4. Estimacion y pruebas de hipotesis 18

alrededor del valor nominal del diametro, ya que de no ser as nos veramos obligados o bien a rectificar
los pistones con un diametro excesivamente grandes antes de su venta, o a desechar los que tienen una
diametro pequeno, con los consiguientes costes adicionales. En una inspeccion se detecta la aparicion
tanto de unos como de otros con una frecuencia que parece ser alta, lo que nos hace sospechar que el
proceso tiene una variabilidad mayor que la deseada. Un parametro usual que mide la variabilidad de una
poblacion es la varianza. En los procesos de control de calidad, se considera admisible una variabilidad
de 3 alrededor de la media, de modo que para confirmar nuestra sospecha establecemos las siguientes
hipotesis
H0 : 2 = 0, 0001,
H1 : 2 > 0, 0001.

6.3. Errores de tipo I y II


Definicion 6.2 Se llama error de tipo I al que se comete al rechazar la hipotesis nula cuando es
verdadera. Se llama error de tipo II al que se comete al no rechazar la hipotesis nula cuando es falsa.

H0 verdadera H0 falsa
No rechazamos H0 Decision correcta Error de tipo II
Rechazamos H0 Error de tipo I Decision correcta

6.4. Valor P de un contraste


La aplicacion rutinaria de un nivel de significacion para determinar la region crtica en una prueba de
hipotesis, permite decidir sin ambiguedad entre el rechazo y el no rechazo de la hipotesis nula, ya que basta
con observar en cual de las dos regiones se encuentra el estadstico de contraste. Pero aunque carezca de
ambiguedad, la decision que tomemos empieza a resultarnos insatisfactoria si el estadstico de contraste
se situa cerca del valor crtico, ya que entonces, una diferencia pequena en el valor del estadstico, que
podra atribuirse simplemente al muestreo, nos llevara a cambiar drasticamente la decision, de rechazar
a no rechazar la hipotesis nula. En las figuras 1 y 2 se presentan dos situaciones que nos llevan a la
misma decision: no rechazar H0 , pero a diferencia de la primera de ellas en la que esa decision no nos crea
dificultades, en la segunda, nos surge la duda de si la decision no podra haber sido la contraria solo con
haber tomado otra muestra diferente, dada la proximidad del estadstico de contraste al valor crtico.

Figura 1: No rechazar H0 . Decision acorde con la evidencia muestral satisfactoria .

Llegados a esta situacion, la practica impuesta por el uso de la Estadstica ha sido introducir el concepto
de valor-p de una prueba.
Definicion 6.3 Se llama valor-p de una prueba de hipotesis al menor valor del nivel de significacion
que nos llevara, con los datos disponibles, a rechazar la hipotesis nula.
En las paginas anteriores hemos hecho una descripcion bastante detallada del proceso de obtencion de
distintos intervalos de confianza. En cuanto a las pruebas de hipotesis, solo vamos a describir por brevedad
la obtencion de algunas de ellas: la relativa a la media de una poblacion normal o aproximadamente normal
con varianza conocida. Para las restantes pruebas de hipotesis se procede de forma analoga.
Tema 4. Estimacion y pruebas de hipotesis 19

Figura 2: No rechazar H0 . Decision acorde con la evidencia muestral, pero insatisfactoria.

6.5. Pruebas de hipotesis sobre la media de una poblacion normal o aproxi-


madamente normal con varianza conocida
Vamos a disenar una prueba de hipotesis bilateral a un nivel de significacion para el parametro en el
caso de que la varianza 2 sea conocida.
Sea X una poblacion con E(X) = y V ar(X) = 2 , siendo esta ultima conocida. Sea X1 , X2 , . . . Xn
una muestra aleatoria de tamano n de X, y sea X N (, ) o bien n > 30, lo que implica segun el

comentario que sigue al teorema 4.2 que X N , , exacta o aproximadamente. Dado un nivel de
n
significacion formulamos la prueba:
(
H0 : = 0 ,
H1 : 6= 0 .


Si H0 fuera cierta, X N 0 , y la funcion de densidad de probabilidad de X sera la que se re-
n
presenta en la figura 3. En esta situacion, la probabilidad de que el estadstico tome un valor comprendido
entre 0 c y 0 + c es 1 (si es pequeno, 1 sera un valor grande). Luego si X tomara un valor
entre 0 c y 0 + c, esto sera coherente con la hipotesis H0 y no tendramos argumentos para recha-
zar dicha hipotesis. Por lo tanto, la region de aceptacion de la prueba viene dada por las desigualdades
0 c 6 X 6 0 + c.

Figura 3: Densidad de probabilidad de la media muestral (caso normal) cuando H0 es cierta.

Asimismo, como la probabilidad de que X tome un valor mayor que 0 + c o menor que 0 c es
(que suponemos que es un valor pequeno), si tal cosa ocurriera, estaramos inclinados a pensar que no
nos encontramos en la situacion descrita en la figura 3, es decir, que H0 no es cierta y por lo tanto, la
rechazaramos. Por eso, las desigualdades X > 0 +c y X < 0 c definen la region crtica (o de rechazo).
Observese que los puntos del eje horizontal de abcisas 0 c y 0 + c estan unvocamente determinados
una vez que elegimos el valor del nivel de significacion .
Tema 4. Estimacion y pruebas de hipotesis 20

Hay que advertir, no obstante, que aunque poco probable, no es imposible que siendo H0 cierta, X
tome un valor en la region crtica. Ello nos llevara a rechazar H0 aun siendo cierta, es decir, estaramos
cometiendo un error de Tipo I. La probabilidad de que tal cosa ocurra es de .
Para profundizar en la comprension de la prueba de hipotesis, supongamos ahora que la hipotesis nula
no es cierta. Entonces, la distribucion de X sigue siendo normal
con
la misma varianza que antes, pero

ahora su media no es 0 , es decir, ahora tenemos X N , con 6= 0 , situacion descrita en
n
la figura 4. La region de aceptacion es la misma que antes, ya que su tamano solo depende del nivel de
significacion , as que ahora la probabilidad de que X tome valores en dicha region, es el area rayada
bajo la curva de campana. Si el valor de prueba 0 esta muy alejado de la media de la poblacion, esta
area sera muy pequena, es decir sera poco probable que aceptemos H0 (lo cual es razonable), pero si 0
estuviera cerca de , tal area sera grande y por tanto sera grande la probabilidad de aceptar H0 aun
siendo falsa. Si ocurre esto ultimo, estaremos cometiendo un error Tipo II. La probabilidad de tal error
es .

Figura 4: Densidad de probabilidad de la media muestral (caso normal) cuando H0 no es


cierta.

X 0
En la practica no se utiliza como estadstico de contraste X sino Z = que tiene distribucion
/ n
normal estandar si la hipotesis nula es cierta. De este modo tenemos:

c c
P (0 c 6 X 6 0 + c) = P 6Z6 = 1 .
/ n / n
c
De la ultima igualdad se desprende que son los puntos crticos z/2 de la distribucion normal
/ n
estandar, as que resumiendo todo esto, tenemos nuestra prueba de hipotesis:

(
H0 : = 0 X 0
Prueba: Estadstico de contraste: Z = N (0, 1)
H1 : 6= 0 / n

Nivel de significacion: Region de aceptacion: z/2 6 Z 6 z/2


Tema 4. Estimacion y pruebas de hipotesis 21

En el caso de pruebas de hipotesis unilaterales:

(
H0 : = 0 X 0
Prueba: Estadstico de contraste: Z = N (0, 1)
H1 : > 0 / n

Nivel de significacion: Region de aceptacion: Z 6 z

(
H0 : = 0 X 0
Prueba: Estadstico de contraste: Z = N (0, 1)
H1 : < 0 / n

Nivel de significacion: Region de aceptacion: Z > z

You might also like