Professional Documents
Culture Documents
CONTRASTE DE HIPÓTESIS
1. Introducción
2. Contraste de una hipótesis estadística
3. Test unilateral y bilateral
4. Test relacionados con una sola media (varianza conocida)
5. Relación con la estimación del intervalo de confianza
6. Test sobre una sola media (varianza desconocida)
7. Test sobre dos medias
7.1. Varianzas conocidas
7.2. Varianzas desconocidas
8. Pruebas relacionadas con varianzas
8.1. Una muestra
8.2. Dos muestras
9. Pruebas sobre proporciones
10. Test de Bondad de ajuste
Aplicaciones:
Prueba de Homogeneidad
Test de independencia
11. El contraste de Kolmogorov-Smirnov
1. INTRODUCCIÓN
Nunca se sabe con absoluta certeza la verdad o falsedad de una hipótesis estadística, a
no ser que se examine la población entera. Como esto no es práctico, se elige una muestra
aleatoria de la población que se estudia, y se utilizan los datos que contiene dicha muestra
para proporcionar evidencias que confirmen o no la hipótesis.
Por tanto para realizar un contraste necesitamos una medida de discrepancia, y una ley
para juzgar cuando las discrepancias son demasiado grandes.
DECISIÓN
Se Acepta Se Rechaza
H0 Es Verdadera Decisión correcta Error de tipo I
Para definir qué valores de las discrepancias son grandes fijamos un valor que
denominaremos nivel de significación. El valor es la probabilidad de cometer un error de
tipo I, y determina un valor dc de forma que: P(D dc )
Al conjunto de reglas que lleva a aceptar o no una cierta hipótesis, es lo que se llama
"un test o contraste de hipótesis".
1 Potencia=P(rechazar H0 / H 0 es falsa)
En general, a todo número que, obtenido a partir de las observaciones de una muestra,
sirve para decidirse por H0 o H1 , se llama estadístico de contraste.
estadístico de contraste, sino que también habrá de decidir de antemano el valor del error
que está dispuesto a aceptar.
Consideraciones acerca de
.
1) Aceptar o rechazar la hipótesis
H0 puede depender del valor ,
Aceptación <
dc >
Rechazo
2) Dar sólo el resultado del test no indica el grado de discrepancia. Se acostumbra a utilizar
niveles de significación del 0.05 ó 0.01.
Si, por ejemplo, se elige un nivel de significación del 0.05 entonces hay
aproximadamente 5 ocasiones de cada 100 en que se rechazaría la hipótesis cuando debe ser
aceptada.
Se define el nivel crítico o p valor como el mínimo nivel de significación para el que,
con los datos de una muestra concreta, se tendría que rechazar H0 .
p P(D Dn ) .
Como se evidencia en la figura siguiente, cuanto menor sea el valor crítico, menor es
la probabilidad de existir discrepancia como la observada, y menor es la certidumbre de H0.
Esto es; cuanto más cercano a cero sea su valor con mayor confianza se rechazará H0. Puesto
que, p P(D Dn ) y Dn un valor fijo, si p es grande Dn es un valor pequeño, por tanto,
En general, cuanto más próximo a 1 sea p con mayor evidencia se habrá de aceptar
H0 .
A título orientativo,
Si p>0.05 no existe suficiente evidencia para rechazar H0.
Si 0.01<p<0.05 existe incertidumbre entre rechazar o no rechazar H0.
Si p<0.01 en general deberá ser rechazada la hipótesis H0,
Al error de la primera RC que rechaza H0, se le llama nivel crítico ó nivel mínimo de
significación.
Un valor p es el nivel más bajo (de significación) en el cuál el valor observado del
estadístico de prueba es significativo.
Presentamos los test de hipótesis acerca de una sola media de población. Se deben, en
primer lugar, describir las suposiciones sobre las cuales se basa el experimento. El modelo
para la situación fundamental se centra alrededor de un experimento X1, X 2 ,..., Xn que
Caso bilateral
Considérese primero la hipótesis:
Ho : o
H1: o
X
Conviene normalizar la variable aleatoria X : Z N (0,1) .
/ n
Puede, entonces, determinarse una región crítica con base en el promedio muestral
calculado, X .
P z1 Z z1
2 2
P z
1
2
X
/ n
z1 1 puede utilizarse para escribir una
2
H 0 : 0
Contraste bilateral (2 colas)
H1 : 0
Hasta este momento, habrá una región crítica de dos colas para la prueba.
P(Z z1 / 2 ) 1 / 2 .
Se necesita una señal de evidencia de dos colas para respaldar H1 . Así, dado un valor
X 0
z cae dentro de la región crítica z z1 ó z1 z . En cuyo caso z1 z
/ n 2 2 2
Para H1: o , la región crítica está dada por z z1 , o bien, p-valor= P(Z z) .
H 0 : 0
Contraste unilateral (cola de la derecha)
H1 : 0
P(Z z1 ) 1
Para H1: o , el rechazo (región crítica) resulta cuando z1 z , o bien, p-valor=.
Solución:
Estamos ante un caso de contraste unilateral para la media de una población normal con
varianza conocida.
H 0 : 0 42
H1 : 0 42
X
Sabemos que: Z N (0,1)
/ n
Como el valor de nuestro estadístico z bajo la hipótesis nula cae dentro de la región de
aceptación (-1,64<-1,58), se ACEPTA que el topógrafo realiza como mínimo 42 mediciones
diarias.
X
Z
n
X 0
z1 / 2 z1 / 2 X z1 / 2 0 X z1 / 2
/ n n n
Los intervalos de confianza tienen la ventaja frente a los contrastes de hipótesis de que
siempre nos dan una idea de la zona en la que se va a encontrar el verdadero valor del
parámetro poblacional, mientras que en el caso de los test, cuando se rechaza una hipótesis
nula, no se conoce el valor del parámetro en cuestión. Todo lo que se sabe es que es más
verosímil que el valor del parámetro sea mayor o menor que un valor concreto.
Caso bilateral
Ho : o
Es decir, para la hipótesis bilateral: el rechazo de Ho , con un nivel de
H1: o
X 0
significación , resulta cuando una estadística t calculada: t excede a t1 ,n 1 o
S/ n 2
H 0 : 0
Contraste bilateral (2 colas)
H1 : 0
Para H1: o , la región crítica está dada por t t1 ,n 1 o bien, p-valor=P(tn-1<t)
H 0 : 0
Contraste unilateral (cola de la derecha)
H1 : 0
P(t n 1 t1 ) 1
Para muestras pequeñas (n<30), con regularidad, es difícil detectar las desviaciones de
una distribución normal.
Solución:
H 0 : 1000
Contrastamos la hipótesis
H1 : 1000
X 0 998 1000
t= =1,009511502
S/ n 19, 6 / 5
Buscaremos un valor t1 /2 tal que P t1 / 2 t n 1 t1 /2 1 , siendo n-1 los
grados de confianza.
DERIVE:
#1: NSOLVE(STUDENT(t, 4) = 0.975, t)
#2: t = 2.776445150
EXCEL: =INV.T(0,975;4) 2,77645086, o bien, =INV.T.2C(0,05;4)
Puesto que t 1,0095<2,7764, podemos ACEPTAR que la media es 1000 g.
WOLFRAMALPHA:
t-interval xbar=998, s=4.43, n=5
Tenemos una muestra pequeña (n=5) de varianza desconocida:
S S
I X t1 /2,n 1 , X t1 /2,n 1
n n
4.43 4.43
I0.05 998 2.776 ,998 2.776 992.48,1003.51
5 5
X1 X 2 1 2
la v.a. Z tiene una distribución N(0,1).
12 22
n1 n 2
X1 X 2 1 2
se reduce a: Z .
1 1
n1 n 2
Si por el contrario se supone que los dos conjuntos de datos proceden de distribuciones
con varianzas desiguales. Se conoce con el nombre de Prueba t heterocedasticidad. Es el test
de Welch.
2
s12 s 22
g.l. n1 n 2
s12 / n1 s22 / n 2
2 2
n1 1 n2 1
Puesto que el resultado del cálculo normalmente no es un entero, el valor de los grados de
libertad se redondea al entero más próximo para obtener un valor crítico de la distribución t.
Estos dos estadísticos sirven como base para el desarrollo de los procedimientos de prueba
sobre dos medias.
X1 X 2 d 0
z
12 22
n1 n 2
con una región crítica de dos colas en el caso de una alternativa de dos lados. Es decir, el
rechazo de H0 en favor de H1 : 1 2 d 0 si z1 z o z z1 . Las regiones críticas de
2 2
3 Ejemplo
Solución:
Queremos comparar las medias de dos poblaciones normales de varianzas conocidas.
H0 : A B H0 : A B 0
, luego
H1 : A B H1 : A B 0
XA XB 150 160
El estadístico de prueba es: z sustituyendo los valores 1.72 .
2
2
302 252
A B
nA nB 50 40
WOLFRAMALPHA:
Probability -1.72<x normal distribution, mean=0, sd=1 0,957284
Si el científico está dispuesto a asumir que ambas distribuciones son normales, y que
1 2 , puede utilizarse la prueba t combinada (prueba t de dos muestras). El estadístico
de prueba es:
4 Ejemplo:
Se utilizan dos teodolitos para hacer ciertas determinaciones, pretendiendo averiguar si
la media de los errores cometidos con uno y otro es idéntica para un nivel de significación del
5%. Se hacen 20 determinaciones con el teodolito A y se obtiene una media de 0,4 errores y
una desviación típica de 0,2 y otras 20 determinaciones con el B obteniendo una media de 0,5
y una desviación de 0,3. Suponemos que las variables error son normales y con la misma
varianza. Comparar los dos teodolitos.
Solución:
Queremos comparar las medias de dos poblaciones normales de varianzas desconocidas pero
iguales y muestras pequeñas.
H0 : A B H0 : A B 0
, luego
H1 : A B H1 : A B 0
xA xB
El estadístico de prueba es: t siendo
1 1
S
nA nB
H 0 : 2 02
(n 1)S2 (n 1)S2
2
n 1
2 02
Caso bilateral
P( 2n 1 / 2 ) / 2 .
P( 2n 1 1 / 2 ) 1 / 2 .
H0 : 0
Contraste bilateral (2 colas)
H1 : 0
O bien, calculando el p-valor = 2 mín P n 1 ,P n 1
2
2
y comparándolo con :
p > se acepta la hipótesis nula, y por lo tanto 2 o2 .
P( 2n 1 ) .
O bien, calculando el p-valor = P n 1 y comparándolo con :
2
H0 : 0
Contraste unilateral (cola de la derecha)
H1 : 0
P( 2n 1 1 ) 1 .
O bien, calculando el p-valor = P n 1 y comparándolo con :
2
Para probar una hipótesis acerca de una varianza poblacional, se procede siguiendo
los mismos 6 pasos básicos indicados antes.
2.5 Ejemplo:
Se desea contrastar si puede suponerse razonablemente que en un nuevo proceso de
fabricación de filamentos la varianza del grosor es de 4 milímetros. Para ello se toma una
muestra de 28 filamentos que arroja una varianza muestral de 2 milímetro. Suponiendo la
variable normal, contrastar la hipótesis en los grosores de los filamentos a un nivel de
significación de 0,05.
Solución:
Se trata de realizar un contraste bilateral para la varianza poblacional con media desconocida
suponiendo normalidad.
H 0 : 2 02 4
H1 : 2 02 4
(n 1)S2
Sabemos que: 2n 1
2
En nuestro caso
(n 1)S2 27 2
13,5
02 4
siendo 13,5 menor que 14,57 RECHAZAMOS la hipótesis nula de que la varianza del grosor
de los filamentos es 4 milímetros.
EXCEL: = INV.CHICUAD(0,025;27) 14,75; INV.CHICUAD (0,975;27) 43,19
O bien, calculando el p-valor = 2 mín P n 1 13.5 ,P n 1 13.5
2
2
0.02865
WOLFRAMALPHA: 2Probability X<13.5, Chi Square Distribution degrees of freedom 27
(n 1)S2 (n 1)S2 27 2
Sabemos que: 2
n 1 13,5
2 02 4
O bien, calculando el p-valor = P n 1 13.5 0.98567
2
WOLFRAMALPHA: 2Probability X<13.5, Chi Square Distribution degrees of freedom 27
HOMOCEDASTICIDAD
PUEBA PARA DOS MUESTRAS (Comparación de poblaciones)
2 2 s12 2 2
poblaciones, el valor f para probar 1 2 es la razón f donde s1 y s2 son las
s22
varianzas calculadas a partir de las dos muestras. Si las dos poblaciones tienen distribuciones
aproximadamente normales, y la hipótesis nula es verdadera, de acuerdo en resultados
obtenidos, la relación f es un valor de la distribución F de Snedecor con n1-1 y n2-1 grados de
libertad. Por tanto, las regiones críticas, con nivel de significación correspondientes a las
2 2 2 2
alternativas unilaterales 1 2 y 1 2 son respectivamente, f F ,n1 1,n 2 1 y
2 2
Para la alternativa bilateral 1 2 , la región crítica es f F y
,n1 1,n 2 1
2
f F .
1 ,n1 1,n 2 1
2
6 Ejemplo:
Se pretende comparar dos métodos de eliminación de observaciones. Se seleccionan
una muestra de 50 series con observaciones aberrantes y a 25 de ellas se le aplica el método A
y a las otras 25 el B. Los resultados obtenidos son los siguientes:
Método A : x A 4,3; SA 1, 4
Método B : x B 3, 6; SB 1,1
S2A
F , F
S2B 2 ,n A 1,n B 1 1 2 ,n A 1,n B 1
S2A 1.42
1.62 F0.975,24,24 , F0.025,24,24 0.44, 2.27
S2B 1.12
DERIVE:
#1: NSOLVE(F_DISTRIBUTION(x, 24, 24) = 0.975, x, 0, 1)
#2: x = 0.4405911279
#3: NSOLVE(F_DISTRIBUTION(x, 24, 24) = 0.025, x, 0, 5)
#4: x = 2.269129557
EXCEL: =INV.F(0,975;24;24) 0,44066972; =INV.F(0,025;24;24) 2,26927455
0,44 < 1,62 < 2,27 y por tanto aceptamos la hipótesis de varianzas iguales.
X A XB
El estadístico de prueba es: t siendo
1 1 ,n A n B 2
S 2
nA nB
X A XB 4.3 3.6
1.966 y para = 0,05, t0.975,48=2
1 1 1 1
S 1.585
nA nB 25 25
1 n p (1 p )
La proporción muestral es p
n k 1
X k N p,
n
El valor n p es el número de éxitos en una muestra de tamaño n. Los valores de la distribución
binomial X que están lejos de la media, npo, conducirá al rechazo de la hipótesis nula.
Caso bilateral
H 0 : p p0
Contraste bilateral (2 colas)
H1 : p p0
Calculando el p-valor = 2 mín P X p ,P X p y comparándolo con :
p-valor > se acepta la hipótesis nula, y por lo tanto p p0 .
P
Calculando el p-valor = X p y comparándolo con :
p-valor > se acepta la hipótesis nula, y por lo tanto p p0 .
H 0 : p p0
Contraste unilateral (cola de la derecha)
H1 : p p0
Calculando el p-valor = P X p y comparándolo con :
p > se acepta la hipótesis nula, y por lo tanto p p0 .
7 Ejemplo:
Un fabricante afirma que solamente el 4% de sus artículos son defectuosos. Se analizan
350 artículos y se encuentran 7 defectuosos.
Solución:
Planteamos el contrastar
H 0 : p 0, 04
H1 : p 0, 04
7
p-valor = P X p P X 0.9715417229 , Se acepta H0
350
p (1 p ) 0.04(1 0.04)
siendo X N p, N 0.04,
n 350
8 Ejemplo:
Realizar un contraste sobre la influencia del nivel de estudios de los padres en el hijo
mayor con 123 padres universitarios y 52 con estudios primarios, resultando que el hijo
mayor había realizado estudios universitarios en 78 y 36 familias respectivamente. ¿Se
puede admitir que la proporción de universitarios es igual?
Solución:
Planteamos el contrastar
H 0 : p1 p2 p1 p2 0
H1 : p1 p2 p1 p2 0
Como la muestra es suficientemente grande la diferencia de proporciones se puede considerar
Normal
p (1 p1 ) p2 (1 p2 )
p1 p2 N p1 p2 , 1
n m
p1 y p2 son las proporciones de las poblaciones, que desconocemos, pero para el cálculo de la
desviación típica las podemos aproximar por las proporciones muestrales. Pero la hipótesis
nula estable la igualdad de las proporciones poblacionales, por tanto, se debe calcular un valor
np mp2
común. El valor adecuado es la proporción combinada: p 1
nm
1 1
p1 p2 N p1 p2 , p 1 p
n m
Tenemos que
78 36 78 36
n 123; m 52; p1 0.69; p2 0.63; p 0.6514285714
123 52 123 52
con
1 1 1 1
X N p1 p2 , p 1 p N 0.69 0.63, 0.6514285714(1 0.6514285714)
n m 123 52
X N 0.06, 0.07882139035
Sean:
n = tamaño de la muestra
k = número de clases
ni = frecuencia absoluta de la clase i
pi = probabilidad de cada clase según la distribución teórica
npi = frecuencia absoluta de cada clase según la distribución teórica
h = número de parámetros estimados a partir de la muestra
= número de grados de libertad
Una medida de las discrepancias en este sentido, fue estudiada por Pearson
k
( n i np i ) 2
construyendo el siguiente estadístico: D , y demostró que, para
i 1 np i
Para aplicar correctamente el test, las frecuencias teóricas de las diferentes clases
deben ser mayor o igual que cinco, por lo que en caso de que no lleguen, se agrupan
previamente.
P 2 1 1
Se define como el mínimo nivel de significación para el que, con los datos de una muestra
concreta, se tendría que rechazar H0
Dp
En general, cuanto más próximo a 1 sea p con mayor evidencia se habrá de aceptar H0 .
A título orientativo,
Si p>0.05 no existe suficiente evidencia para rechazar H0.
Si 0.01<p<0.05 existe incertidumbre entre rechazar o no rechazar H0.
Si p<0.01 en general deberá ser rechazada la hipótesis H0,
Observaciones acerca de D.
9 Ejemplo:
De un experimento se ha obtenido la siguiente distribución de frecuencias:
x <1 1a2 2a3 3a4 4a5 5a6 6a7 7a8 8a9 >9
ni 0 5 19 91 202 217 95 16 5 0
ei 1 ei xi ni ni xi ni xi2 240
Histograma de frecuencias
<1 0
200
n
3-4 3.5 91 318.5 1114.75
120
4-5 4.5 202 909.0 4090.50
5-6 5.5 217 1193.5 6564.25 80
>9 0 0 2 4 6 8 10
650
S 1154
. ; resulta una distribución estimada: N( 5 , 1.154 )
649
n i npi
2
10 Ejemplo:
Se puede admitir la distribución normal de valores angulares en una triangulación de primer
orden de un país en la que se ha tomado una muestra de tamaño 100 y se han obtenido los
siguientes resultados:
x < 40 40-50 50-60 60-70 >70
ni 16 22 20 19 23
Solución:
Medid ni x i x i n i (x i x) n i
2
n i np i 2
pi npi
a np i
30-40 16 35 560 7123,36 0,126135851 12,61 0,9091631
40-50 22 45 990 2710,62 0,206094543 20,61 0,09382186
50-60 20 55 1100 24,2 0,277003816 27,7 2,14061588
60-70 19 65 1235 1504,99 0,229289852 22,93 0,67324935
70-80 23 75 1725 8215,83 0,161475938 16,15 2,9078927
100 5610 19579 1 100 6,72474289
Tenemos que calcular la media y la desviación típica de la distribución Normal. Para
ello consideramos la muestra obtenida:
x
2
x
xini =56,1; S
i x ni
14, 0629896
n n 1
D=
n i np i
2
=6,72474289 y P( 52 2 1 6, 72474289) 0, 034652984
np i
Utilizando el p-valor:
DERIVE: 1 - CHI_SQUARE( 6, 72474289 ,2)≈ 0.03465298378> 0,05 =
20 20 20 20 20
npi
(ni npi )2
k
D 1,5
i 1 np i
Utilizando el p-valor:
DERIVE: 1 - CHI_SQUARE(1.5,4)= 0.8266414672> 0,05 =
EXCEL: = DISTR.CHI(1,5;4) 0,826641> 0,05 =
WOLFRAMALPHA: Probability 1.5<X, Chi Square Distribution degrees of freedom 4
0.826641
Aceptamos la hipótesis de ser el ajuste bueno. La diferencia entre la distribución empírica y
la ley de la distribución uniforme no es significativa.
Test de independencia
Se trata de contrastar si dos variables CUALITATIVAS son independientes (es decir, si
existe relación entre ellas), o no.
j1 i 1 eij
2
n n
n i. . j
k ij
r
n
En nuestro caso: D con (k-1)(r-1) grados de libertad
j1 i 1
n i.n . j
n
11 Ejemplo:
Hemos preguntado a un grupo de 100 hombres y 100 mujeres si fumaban o no. ¿Existen
diferencias significativas entre ambos sexos?
Fuma 25 35 60
No fuma 75 65 140
Solución:
¿Qué debería salir, si fueran independientes?
25 (30) 35(30) 60
Fuma
H : X e Y son independientes
o
H : X e Y no son independientes
1
Comparamos frecuencias observadas (O ) y esperadas (e )
i i
O eij
2
r k
D
ij
j1 i 1 eij
25 30 35 30 75 70 65 70
2 2 2 2
D 2,38
30 30 70 70
La idea es RECHAZAR la hipótesis, si los valores observados difieren demasiado de los
esperados.
En general, será el número de columnas menos 1 por el número de filas menos 1: (c-1)(f-1).
p valor P(2n 1 2.38) 0,12289758
Utilizando el p-valor:
EXCEL: = DISTR.CHI(2,38;1) 0,1228975
WOLFRAMALPHA: Probability 2.38<X , Chi Square Distribution degrees of freedom 1
0.1228975482
Aceptamos la hipótesis de independencia para cualquier valor de α inferior al p-valor.
Prueba de Homogeneidad
Consiste en comprobar si varias muestras de un carácter cualitativo proceden de la misma
población o que las distribuciones de la variable observada es la misma en todas las
poblaciones
H0: m poblaciones homogéneas
H1: al menos una población es heterogénea
Para ello, se divide el conjunto de los posibles valores de A en r clases disjuntas y nij,
representa el número de observaciones de la muestra i que pertenece a la clase Aj según
vemos en una tabla de doble entrada (tabla de contingencia):
La hipótesis de que las m poblaciones son homogéneas, se traduce en que cada conjunto Aj
debe tener una probabilidad teórica pj, desconocida, pero que no varía de la población i a la
población i’
n. j
eij n i p j n i
n
Oij eij
2
r m
D
j1 i 1 eij
12 Ejemplo:
Queremos saber si las cuatro muestras obtenidas proceden de la misma población con
probabilidad del 95%. Es decir, si la proporción de aprobados y suspensos es homogénea.
A B C D
Aprobados 56 60 62 59
No aprobados 44 40 38 41
Solución:
H : p = p11 = p12 = p13 = p14
o
H : pij distinto de p para algún grupo
1
Que coinciden para los cuatro grupos por ser el mismo tamaño muestral ni = 100
n.2 163
ei2 n i p2 n i 100 40,75 5
n 400
D
j1 i 1
n i n. j 59,25 59, 25 59,25
n
59 59,25 44 40,75 40 40,75 38 40,75 41 40,75
2 2 2 2 2
59,25 40,75 40,75 40,75 40,75
0,7765784
En general, será el número de columnas menos 1 por el número de filas menos 1: (c-1)(f-1).
Utilizando el p-valor:
WOLFRAMALPHA:
Probability 0.7765784<X, Chi Square Distribution degrees of freedom 3 0.8550605738
y D n (x) máx D n (x i )
i
Dn, representa la medida de las diferencias entre la función de distribución empírica obtenida
a partir de los datos de la muestra y los valores de F si H0 fuera cierta.