Professional Documents
Culture Documents
A. INTRODUCCIÓN A LA ESTADÍSTICA................................................................................... 2
1. ¿Por qué hablar de estadística?............................................................................... 2
2. Un concepto fundamental: la variabilidad. .................................................................. 2
3. Variabilidad debida al muestreo................................................................................ 2
4. En qué nos ayuda la Estadística.............................................................................. 2
5. Conozcamos algo más sobre variables. .................................................................... 3
6. La Muestra, La Población Muestreada, La Población ................................................. 3
B. ESTADÍSTICA DESCRIPTIVA.............................................................................................. 4
7. Formas de presentar la Información. ......................................................................... 4
C. ESTADÍSTICA INFERENCIAL.............................................................................................. 5
8. Fundamentos intuitivos de la estimación por intervalos ............................................... 5
9. Aplicación en la realidad.......................................................................................... 7
10. Regresión lineal y coeficiente de correlación ............................................................. 10
La estadística invade la literatura científica sobre salud. Por todas partes hay continuas referencias a los
"valores de p" y a "hallazgos estadísticamente significativos". Para leer de forma inteligente, crítica, hay
que tener unas cuantas ideas claras: NO TODO LO QUE SE PUBLICA ES VERDAD (por no hablar de lo
que nos quieren vender).
Como es sabido, la Epidemiología trabaja con grupos de personas más que con individuos; esto
introduce un motivo más de variabilidad: las personas son distintas unas de otras. En biología, la variabi-
lidad no es la excepción, sino la regla. Ello nos impide ser deterministas: afortunadamente no todos los
fumadores llegan a desarrollar un cáncer de pulmón, y hay (pocos, pero hay) cánceres de pulmón entre
los no fumadores, infartos de miocardio entre deportistas, casos de gripe entre los vacunados, etc. El
concepto de riesgo, como probabilidad de que ocurra un fenómeno no deseado o daño, nos permite ser
operativos: a pesar de tanta variabilidad, los problemas de salud no se distribuyen al azar.
Hace tiempo que la enfermedad o la muerte dejaron de ser un castigo divino o una lotería. Podemos
identificar factores asociados a distintas probabilidades de presentación de ese daño (factores de riesgo)
e intervenir sobre ellos para modificar la situación.
2
Podríamos definir pues la Estadística como un conjunto de técnicas que nos permiten, por un lado,
recoger, representar, clasificar, resumir datos de un colectivo (Estadística descriptiva). Por otro
lado, nos permite obtener conclusiones a partir de esos datos (Estadística inferencial).
a) Cualitativas: Son características que no se pueden medir, al menos numéricamente. Pueden tomar
dos valores o categorías, o varias. Por ejemplo, la variable sexo toma dos posibles valores: varón o
mujer. La variable nivel socioeconómico tiene varios posibles valores: Bajo, medio bajo, medio,
medio alto, alto. Dentro de estas mismas variables cualitativas podemos hacer un grupo aparte con
aquéllas que mantienen un cierto orden entre sus categorías, por ejemplo la ya dicha de nivel
socioeconómico. A estas variables les llamamos Ordinales.
b) Cuantitativas: Se pueden medir, asignándoles números; por ejemplo, la altura, el peso, la glucemia,
etc. Dentro de estas existen dos tipos a su vez:
• Discretas: Los valores que toman son aislados, representados por números naturales. Son de este
tipo la variable número de hijos que tiene una pareja, o la variable número de consultas que hace
una persona a un Centro de Salud a lo largo de un año.
• Continuas: Pueden tomar cualquier valor dentro de un rango, es decir teóricamente una persona
puede medir cualquier valor entre 1,70 y 1,71, únicamente depende de la precisión de nuestro
instrumento de medida.
¿Por qué este interés en diferenciar los tipos de variables?: el tratamiento estadístico que se da a
cada uno de estos tipos de variables es completamente distinto.
Para poder realizar inferencias desde una muestra hacia la población necesitamos que nuestra muestra
sea representativa, es decir, que nuestra muestra esté representando bien a la población que queremos
estudiar. Para ello existen unas técnicas de muestreo, que lo que intentan conseguir son muestras
representativas, tanto en número como en composición, es decir: ¿Cuántas personas necesito incluir en
la muestra? ¿ Quiénes han de estar presentes en la muestra?. Para ello existen dos reglas:
3
• Aleatoriedad: Todos los individuos de la población, tienen la misma probabilidad de estar incluidos
en la muestra.
• Homogeneidad con la población: Al menos en las variables importantes. Por ejemplo, la
composición por grupos de edad y sexo de la muestra ha de ser lo más semejante posible a la de
la población.
Para intentar cumplir estas reglas podemos recurrir a varias técnicas de muestreo:
B. ESTADÍSTICA DESCRIPTIVA
7. Formas de presentar la Información.
a) Tablas: Permiten resumir y representar valores. Tienen unas reglas muy sencillas:
• Han de ser lo más simples posible.
• Deben explicarse por sí solas.
• El título debe responder a las preguntas: qué, cuándo, donde.
• Se debe especificar claramente la procedencia de los datos.
• Contienen filas y columnas. En cada fila se representan las clases, es decir, las agrupaciones que
se hacen con los dotas. En las columnas se establecen las frecuencias, es decir, el número de
veces que se repite cada fenómeno. Esta frecuencia puede ser de varios tipos:
• Frecuencias absolutas: Es el número de veces que se repite cada clase.
• Frecuencia relativa: Es el cociente entre frecuencia absoluta y tamaño total.
• Frecuencia acumulada: La frecuencia acumulada de una clase, es la suma de las frecuencias
de las clases que le preceden.
4
c) Medidas numéricas que resumen la distribución de los datos (para variables cuantitativas):
• Medidas de tendencia central y posición:
Moda: la clase con más frecuencia
Mediana: divide a la muestra ordenada en dos partes iguales: la mitad a cada lado.
Percentil: el percentil i (pi) deja a su izquierda un i% de la muestra ordenada. (i = 1,2,...99).
Cuartil: c1 = p25; c 2 = p50; c 3 = p75.
Decil: d1 = p10; d2 = p20; ...; d9 = p90.
Σx i
Media aritmética: suma de todos los valores, dividido por el número de valores: x=
n
• Medidas de dispersión:
Rango: la diferencia entre el valor más grande y el más pequeño de la muestra.
Suma de cuadrados: Suma de las distancias al cuadrado de cada valor a la media
SC = ∑ (x i − x )
2
Varianza: es una especie de promedio de las distancias al cuadrado de cada valor a la media:
∑ (x − x)
2
i
s 2
=
n −1
Desviación típica: s = raíz cuadrada de la varianza; es una especie de promedio de las
distancias de cada valor a la media
Rango intercuartílico: c3 - c 1 ; señala entre qué valores se encuentra el 50% central
s
Coeficiente de variación: CV = ×100 ; indica la variabilidad con respecto a la media
x
C. ESTADÍSTICA INFERENCIAL
Se trata de una serie de métodos que permiten obtener conclusiones acerca de una población a partir
de una muestra representativa de la misma. Podríamos establecer dos grandes bloques: métodos de
estimación y pruebas de contraste de hipótesis.
La única forma exacta de conocer un parámetro que resuma la distribución de valores de una
variable en una población como una prevalencia p, o una media µ, o la varianza σ, es medir esta
variable en todos los individuos de la población y calcular el resumen a partir de estos datos. Como
esto suele ser imposible, lo que se hace es elegir una muestra, realizar las mediciones sólo en los
individuos seleccionados y calcular los resúmenes numéricos (llamados ahora estadísticos, o
estimadores) correspondientes: proporción muestral p̂ , media muestral x , varianza muestral s , etc.
2
De alguna forma, los valores que obtenemos en la muestra nos dan una idea de cómo son las cosas
en la población. Es lo que se llama estimación puntual: al desconocer el verdadero parámetro
poblacional, intentamos sustituirlo por un valor puntual, obtenido de la muestra. Pero a nadie
sorprenderá que lo más seguro es que el estimador no “acierte” con el verdadero valor del parámetro
poblacional. Y lo que es peor, no sabemos si nos equivocamos mucho o poco. La estimación por
intervalos viene a solventar en parte este problema. Vamos a intentar resumir los fundamentos en
los que se basa.
5
Si repetimos el proceso de muestreo infinitas veces, obtendremos una larga serie de estimaciones
puntuales: las medias de las infinitas muestras. Ahora no son niveles de colesterol de personas lo que
tenemos, sino medias de colesterol de distintas muestras de 100 personas cada una. Resulta bastante
intuitivo comprender que la media de todas estas medias coincidirá con la media µ de la población de la
que salieron las muestras: todas ellas son medidas de tendencia central de cada muestra, y a su vez
calculamos la tendencia central de todas ellas, así que apuntamos cada vez más al centro. Por tanto, en
nuestro ejemplo la media de la distribución de las medias valdría 225 mg de colesterol.
También resulta intuitivo otro hecho: si bien resulta relativamente fácil encontrar individuos en la
población con valores extremos de colesterol, pongamos por ejemplo 150 mg, o 370, ya no es tan
fácil que una muestra de 100 individuos tenga como media 150 mg. ¡Tendríamos que haber elegido a
100 individuos con unas cifras de colesterol extremadamente bajas!. Si nuestras muestras son
aleatorias, esto es muy difícil que ocurra. Es decir, la distribución de las medias tendrá una dispersión
mucho menor que la distribución de los niveles de colesterol en la población. Por otra parte, no sería
tan raro encontrar una media de 150 si nuestra muestra sólo tuviese un tamaño n=2. Podría ocurrir
que el azar del muestreo nos seleccionase a dos individuos con unas cifras de colesterol bajas. Con
muestras mucho mayores ocurriría lo contrario: serían mucho más raras las medias extremas. Es
decir, el tamaño de la muestra influye decisivamente en la dispersión de la distribución de las medias.
El Teorema Central del Límite demuestra que la dispersión de la distribución de las medias es raíz de
n veces menor que la dispersión de la población, es decir, σ n . Es lo que se llama error estándar
de la media (EEM). En nuestro ejemplo, valdría 50 100 = 5 .
25 75 125 175 225 275 325 375 425 25 75 125 175 225 275 325 375 425
Una última característica de esta distribución de las medias: a nadie le resulta extraño que, si la
distribución del colesterol en la población era una distribución Normal, la distribución de las medias
también lo sea. Se puede comprobar empíricamente que, aunque la distribución de la variable en la
población no sea Normal, para tamaños de muestra suficientemente grandes (n>=30), la distribución
de las medias sí que es Normal. De nuevo, si pensamos que son medidas de tendencia central, es
fácil concluir que se tratará de valores centrados alrededor de un punto (la media poblacional), con
algunos (aproximadamente la mitad) desviados hacia la izquierda y otros hacia la derecha.
En resumen, las medias de las posibles muestras que obtengamos de una población tienen una
distribución Normal (si n>=30), con media igual a la de la población y desviación típica el error
( )
estándar de la media σ n . Hemos planteado aquí el fundamento de toda la inferencia estadística:
conocer cómo es la distribución de las medias.
Sabemos, por las características de la distribución Normal, que el 95% de los valores se encuentran
entre la media menos 1,96 veces la desviación típica, y la media más 1,96 veces la desviación típica.
Es decir, aplicando esta propiedad a nuestra distribución de medias, obtenemos que la probabilidad
de que un valor cualquiera de la distribución (una media de cualquiera de las muestras) se encuentre
entre estos dos valores es de 0,95:
6
σ σ
P µ − 1.96 < x < µ + 1.96 = 0.95
n n
Es decir, el 95% de las muestras que obtengamos de esa población tendrán una media que estará
alrededor de la verdadera media poblacional µ, a una distancia no superior a 1.96 σ n . Con varias
operaciones simples podemos transformar fácilmente la expresión anterior en esta otra:
σ σ
P x − 1.96 < µ < x + 1.96 = 0.95
n n
Y esta última es una expresión muy importante: indica que la probabilidad de que la media
poblacional µ se encuentre entre dos valores, que podemos obtener de nuestra muestra, en realidad
la única que se toma para representar a la población (límite inferior, x - 1,96 σ n y límite superior,
x + 1,96 σ n ) es una probabilidad conocida: 0,95. Hasta ahora habíamos supuesto que la media
de colesterol de la población era conocida. En la realidad nunca la conocemos, pero ya tenemos un
mecanismo de dar una estimación para su verdadero valor indicando que hay una determinada
probabilidad, o confianza (habitualmente del 95%) de que se encuentre entre dos valores. A estos
dos valores se les llama límites de confianza, y al intervalo, intervalo de confianza.
9. Aplicación en la realidad
Todo lo anterior interesa sólo para comprobar que las fórmulas no salen de ningún sombrero de copa,
pero lo que hacemos en la realidad es simplemente calcular, a partir de una única muestra, la
estimación de por dónde anda más o menos el parámetro poblacional. El intervalo de confianza nos
informa de cuánto vale ese “más o menos”. Pero, además, nos informa de qué probabilidad de error
tenemos en la estimación.
Si establecemos el nivel de confianza en el 95%, concluiremos que en el 95% de las ocasiones (95
de cada 100 muestras que obtengamos) la media poblacional estará entre: x ± 1,96 σ n ,
mientras que 5 de cada 100 muestras nos darán un intervalo que no contenga realmente a la media
poblacional. Si establecemos el nivel de confianza en el 99% concluiremos que en 99 de cada 100
muestras que obtengamos la media poblacional estará entre: x ± 2,57 σ n , mientras que 1 de
cada 100 muestras nos dará un intervalo que no contenga realmente a la media poblacional.
Los números anteriores (1,96 y 2,57) expresan la relación, en una distribución normal, entre un valor
de la variable (x) y la probabilidad de estar por encima o por debajo de este valor (la suma de las dos,
la mitad a cada lado de la curva). Se obtienen de la siguiente tabla:
7
Distribución normal tipificada (media 0, desviación típica 1)
En el exterior de la tabla se da la probabilidad P(x) de que una
Normal típica caiga por debajo de -x o por encima de +x (x en el
interior de la tabla). El encabezamiento de la fila da el primer
decimal, y el de la columna el segundo. Por ejemplo, el valor teórico
correspondiente a una probabilidad de 0,23 (0,2 + 0,03) es 1,2. El
correspondiente a una P de 0,05 (0,0 + 0,05) es de 1,96
P (x) 0 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 ∞ 2,576 2,326 2,170 2,054 1,960 1,881 1,812 1,751 1,695
0,1 1,645 1,598 1,555 1,514 1,476 1,440 1,405 1,372 1,341 1,311
0,2 1,282 1,254 1,227 1,200 1,175 1,150 1,126 1,103 1,080 1,058
0,3 1,036 1,015 0,994 0,974 0,954 0,935 0,915 0,896 0,878 0,860
0,4 0,842 0,824 0,806 0,789 0,772 0,755 0,739 0,722 0,706 0,690
0,5 0,674 0,659 0,643 0,628 0,613 0,598 0,583 0,568 0,553 0,539
0,6 0,524 0,510 0,496 0,482 0,468 0,454 0,440 0,426 0,412 0,399
0,7 0,385 0,372 0,358 0,345 0,332 0,319 0,305 0,292 0,279 0,266
0,8 0,253 0,240 0,228 0,215 0,202 0,189 0,176 0,164 0,151 0,138
0,9 0,126 0,113 0,100 0,088 0,075 0,063 0,050 0,038 0,025 0,013
En el caso en que se desconozca el valor del parámetro σ (desviación típica poblacional), que es la
situación más frecuente, los límites de confianza se calcularían mediante la expresión x ±ts n , en
donde t corresponde a los valores tabulados de la distribución teórica t de Student (página siguiente),
y s es la desviación típica de la muestra, que usamos como estimación de σ.
Ejemplo: Para conocer la media de la distribución del colesterol en la ZBS de la Orden se ha obtenido
una muestra de 802 personas, con los siguientes resultados: x = 223,84; s=49. Dar un intervalo de
confianza al 95% para la media de colesterol de la población de la que se ha extraído esta muestra:
ts 2,004 × 49
Límite inferior: x− = 223,84 − = 220,37
n 802
ts 2,004 × 49
Límite superior: x + = 223,84 + = 227,3
n 802
La interpretación de este intervalo es sencilla: la población de la Orden tiene una cifra media de
colesterol que se encuentra entre 220,37 y 227,3. Y esto lo afirmamos con una probabilidad de
equivocarnos de un 5%. Más concretamente, el procedimiento nos garantiza que 95 de cada cien
muestras nos proporcionarían un intervalo que contendría a la verdadera media poblacional. Y
nosotros esperamos que nuestra muestra sea una de esas 95 que obtienen un resultado correcto, y
no de las 5 que nos inducirían a error.
8
Distribución t de Student
Para cada valor de los grados de libertad en la primera columna (gl=n-
1) y para cada valor de α en la primera fila, en el interior de la tabla se
da el valor tα tal que a la izquierda de -tα y a la derecha de tα queda un
área total de α. Por ejemplo, con n=31 (30 gl), el valor teórico
correspondiente es a un α del 5% es 2,042.
gl 0,5 0,4 0,3 0,2 0,1 0,05 0,02 0,01 0,001 0,0001
1 1,000 1,376 1,963 3,078 6,314 12,706 31,821 63,656 636,57 6370,54
2 0,816 1,061 1,386 1,886 2,920 4,303 6,965 9,925 31,600 100,136
3 0,765 0,978 1,250 1,638 2,353 3,182 4,541 5,841 12,924 28,014
4 0,741 0,941 1,190 1,533 2,132 2,776 3,747 4,604 8,610 15,534
5 0,727 0,920 1,156 1,476 2,015 2,571 3,365 4,032 6,869 11,176
6 0,718 0,906 1,134 1,440 1,943 2,447 3,143 3,707 5,959 9,080
7 0,711 0,896 1,119 1,415 1,895 2,365 2,998 3,499 5,408 7,888
8 0,706 0,889 1,108 1,397 1,860 2,306 2,896 3,355 5,041 7,120
9 0,703 0,883 1,100 1,383 1,833 2,262 2,821 3,250 4,781 6,594
10 0,700 0,879 1,093 1,372 1,812 2,228 2,764 3,169 4,587 6,212
11 0,697 0,876 1,088 1,363 1,796 2,201 2,718 3,106 4,437 5,923
12 0,695 0,873 1,083 1,356 1,782 2,179 2,681 3,055 4,318 5,695
13 0,694 0,870 1,079 1,350 1,771 2,160 2,650 3,012 4,221 5,513
14 0,692 0,868 1,076 1,345 1,761 2,145 2,624 2,977 4,140 5,364
15 0,691 0,866 1,074 1,341 1,753 2,131 2,602 2,947 4,073 5,239
16 0,690 0,865 1,071 1,337 1,746 2,120 2,583 2,921 4,015 5,134
17 0,689 0,863 1,069 1,333 1,740 2,110 2,567 2,898 3,965 5,043
18 0,688 0,862 1,067 1,330 1,734 2,101 2,552 2,878 3,922 4,966
19 0,688 0,861 1,066 1,328 1,729 2,093 2,539 2,861 3,883 4,899
20 0,687 0,860 1,064 1,325 1,725 2,086 2,528 2,845 3,850 4,838
21 0,686 0,859 1,063 1,323 1,721 2,080 2,518 2,831 3,819 4,785
22 0,686 0,858 1,061 1,321 1,717 2,074 2,508 2,819 3,792 4,736
23 0,685 0,858 1,060 1,319 1,714 2,069 2,500 2,807 3,768 4,694
24 0,685 0,857 1,059 1,318 1,711 2,064 2,492 2,797 3,745 4,654
25 0,684 0,856 1,058 1,316 1,708 2,060 2,485 2,787 3,725 4,619
26 0,684 0,856 1,058 1,315 1,706 2,056 2,479 2,779 3,707 4,587
27 0,684 0,855 1,057 1,314 1,703 2,052 2,473 2,771 3,689 4,556
28 0,683 0,855 1,056 1,313 1,701 2,048 2,467 2,763 3,674 4,531
29 0,683 0,854 1,055 1,311 1,699 2,045 2,462 2,756 3,660 4,505
30 0,683 0,854 1,055 1,310 1,697 2,042 2,457 2,750 3,646 4,482
35 0,682 0,852 1,052 1,306 1,690 2,030 2,438 2,724 3,591 4,389
40 0,681 0,851 1,050 1,303 1,684 2,021 2,423 2,704 3,551 4,321
45 0,680 0,850 1,049 1,301 1,679 2,014 2,412 2,690 3,520 4,269
50 0,679 0,849 1,047 1,299 1,676 2,009 2,403 2,678 3,496 4,228
60 0,679 0,848 1,045 1,296 1,671 2,000 2,390 2,660 3,460 4,169
80 0,678 0,846 1,043 1,292 1,664 1,990 2,374 2,639 3,416 4,095
100 0,677 0,845 1,042 1,290 1,660 1,984 2,364 2,626 3,390 4,054
∞ 0,674 0,842 1,036 1,282 1,645 1,960 2,326 2,576 3,291 3,891
Una cuestión que frecuentemente se plantea a la hora de iniciar un trabajo de investigación es ¿qué
tamaño de muestra necesito?. Si nuestro objetivo es conocer la media de una población (dar un intervalo
de confianza para ella), la respuesta puede deducirse fácilmente de la expresión anterior: El producto
ts n , es decir, el producto del valor teórico correspondiente a la confianza deseada por el EEM es la
cantidad que añadimos o quitamos a la media muestral para construir el intervalo. De alguna forma,
9
cuantifica el grado de error que cometemos por recoger información sólo de las muestras, y no de
poblaciones completas. Es el error debido al muestreo. Si lo representamos por d, la expresión
d = ts n nos recuerda que el grado de error cometido depende de la confianza que queramos tener
(t), la variabilidad de la variable (s) y el tamaño de la muestra. Para invertir el proceso, es decir, averiguar
qué tamaño se necesita para conseguir un grado de error máximo d, no tenemos más que despejar n:
2 2 2
n= t s /d .
La información necesaria, por tanto, para calcular n, es la confianza que queramos tener en nuestro
intervalo, el error global d requerido y la variabilidad s de la variable. El problema suele ser conocer
esto último. Para ello se puede obtener información de la bibliografía, o bien una muestra piloto,
inicial, que nos proporcione algo de información sobre la variable.
Para variables de tipo cualitativo, por ejemplo para determinar la prevalencia de hipertensión, las
cosas serían muy similares, salvo que, claro está, aquí no habría medias y desviaciones típicas, y sí
prevalencia estimada en la muestra p̂ : la verdadera prevalencia poblacional se encontraría en el
intervalo
pˆ qˆ 1
pˆ ± 1,96 + ( qˆ = 1 − pˆ )
n 2n
Pero esta expresión sólo se puede usar si se cumplen ciertas condiciones: en nuestro ejemplo, que
hubiese un mínimo de 20 hipertensos y de 20 no hipertensos en nuestra muestra. Por ejemplo, si
queremos conocer la prevalencia de hipertensión en una población a partir de la obtenida en una
muestra de 802 personas, de las cuales 192 presentan hipertensión, podríamos concluir que la
prevalencia buscada se encuentra entre el 20.92 y el 26,96%.
El tamaño mínimo de muestra requerido para dar intervalos de confianza para una proporción viene
2 2
dado por n=z pq/d . Si no se tiene ninguna información sobre el valor de p y q puede sustituirse por el
máximo valor que puede tomar su producto, es decir p=0.5 q=1-p=0.5; por tanto, pq=0.25
i
n
i
n
n
Trucos con la calculadora (si no puede calcular directamente regresión lineal): introducir las x, y
calcular x , sx y Σx; a partir de aquí, calcular sx2 . Hacer lo mismo con las y: y , sy , Σy, s 2y .
Ya sólo queda ir sumando todos los productos cruzados xy (Σxy), y entonces:
SCx = sx2 ( n − 1) ; SCy =s 2y ( n − 1) ; SPxy =Σx iy i – (Σx)(Σy)/n
SPxy
b) Estimación de la recta de regresión: yˆ = a + bx , con pendiente b = y altura a = y − bx
SCx
Si la calculadora puede hacer directamente regresión lineal, no hay más que introducir las parejas
de datos y pedirle directamente a y b.
SPxy2
SC y −
SCx
c) Estimación de la varianza de regresión: s 2yx = ; a partir de aquí, s yx = s yx
2
n−2
10
d) Condiciones de validez para la próxima sección: Los valores de la variable y, para cada valor de la
2
x, siguen distribuciones Normales de medias situadas sobre la línea recta α + βx y varianzas (σ )
iguales.
tα s yx
e) Inferencias sobre la pendiente: Intervalo de confianza: β∈b ±
SCx
Las tα se buscan en la tabla de la distribución t-Student con (n - 2) g.l.
11
D. ESTADÍSTICA INFERENCIAL: TEST DE HIPÓTESIS
Para tomar la decisión, debe elegirse la muestra o muestras apropiadas, que proporcionarán la información
necesaria sobre qué es lo que ocurre en la realidad, por encima de lo que afirmen o nieguen las hipótesis. Los
resultados obtenidos en la muestra se resumen en un número, llamado estadístico de contraste. Bajo la
suposición de que la H0 es cierta, se calcula la probabilidad de obtención de los resultados. Si éstos son raros, es
decir, poco probables, estarán en contradicción con la afirmación contenida en la H0. Esta contradicción entre la
teoría y la experiencia la resolveremos a favor de la experiencia, rechazando lo afirmado en la H0. Si los
resultados son los esperables, es decir, tienen una probabilidad alta de ocurrir si la H0 es cierta, no podremos
rechazarla.
Ilustraremos el proceso que se sigue con un sencillo ejemplo: supongamos que nos invitan a participar en un
juego de azar, con un sistema de apuestas. Consiste en el lanzamiento de una moneda: si el resultado es cara,
tendremos que pagar 100 Ptas.; si el resultado es cruz, obtendremos 100 Ptas. Antes de lanzarnos a jugar,
pedimos hacer una prueba: jugaremos sólo 10 partidas, y en función de la experiencia continuaremos o no. Si
nuestro contrincante obtiene 10 caras, nosotros habremos perdido 1000 Ptas., y seguramente no nos quedarán
ganas de seguir jugando. Aunque suponíamos (hipótesis nula) que el juego era honesto, es decir, que la
probabilidad de obtener cara en cada lanzamiento era de 0.5, los resultados parecen decir lo contrario (hipótesis
alternativa): han salido más caras de lo esperado. Si decidimos no seguir jugando (rechazo de la hipótesis nula)
podemos estar cometiendo una injusticia con nuestro contrincante: puede haber tenido suerte, y obtener, sin
trampas, unos resultados, que, aunque raros, son posibles. Tiene una probabilidad, siendo cierta la hipótesis
nula, de 0,510 = 0,001 de obtener esos resultados. Nuestra probabilidad de equivocarnos al decidir no seguir
jugando (de alguna forma le estamos llamando tramposo) es, por tanto, de una entre mil. Remota, pero existente.
Es lo que se llama error de tipo I, o error α : error que podemos cometer al rechazar la H0, siendo cierta.
¿Habríamos seguido jugando si hubiera obtenido 9 caras? ¿y 8?. Estos resultados van siendo progresivamente
más probables. De forma arbitraria se ha establecido que un resultado con una probabilidad inferior a 0,05 es un
resultado “poco probable”, y que por tanto lleva a rechazar la H0.
Si nuestro contrincante hubiera obtenido 6 caras, seguramente no se nos pasaría por la cabeza que nos
estuviera haciendo trampas, sino que nos parecería un resultado esperable. No podríamos, en este caso,
rechazar la H0, y continuaríamos jugando. Pero supongamos que nuestro adversario es un listillo que nos hace
trampa de un modo muy sutil, y tiene trucada la moneda, de manera que salga cara 6 veces de cada 10. Aunque
nunca nos daríamos cuenta (no rechazaríamos la hipótesis nula), lo cierto es que a la larga el juego nos
resultaría desfavorable: la H0 es falsa. Nos estaríamos equivocando de nuevo, esta vez con el error tipo II, o error
β: error que podemos cometer al no rechazar la H0 siendo falsa. Es decir, sea cual sea la decisión que tomemos,
siempre conllevará una posibilidad de error.
La estructura básica e interpretación de los tests de hipótesis es siempre la misma, si bien las
condiciones que deben cumplirse para que sean aplicables, así como la forma de resumir los
resultados de la experiencia en el estadístico de contraste para calcular la probabilidad
correspondiente cambian en función del tipo de variable que estemos manejando, del número de
poblaciones que queramos representar, de la estructura del muestreo, etc.
12
DE UNA MANERA UN POCO MÁS FORMAL: CONCEPTO GENERAL DE TEST DE HIPÓTESIS
1. Objetivo: Un test o contraste de hipótesis es un conjunto de reglas tendentes a decidir cual de dos hipótesis -
H0 (hipótesis nula) ó H1 (hipótesis alternativa)- debe aceptarse según el resultado obtenido en una muestra.
4. Método: Para tomar la decisión, debe elegirse un estadístico de contraste (una especie de resumen numérico
de la muestra obtenida) apropiado al problema, así como una predicción sobre los valores esperables
(aceptables) para el mismo. Observada la muestra, si el valor que toma en ella el estadístico de contraste es
un valor esperable (probable) según la hipótesis nula, no se puede rechazar H0 (estadísticamente no
significativo). Si el valor del estadístico de contraste es inesperado (poco probable), se rechaza la H0
(estadísticamente significativo).
5. Errores:
• Toda decisión de rechazar H0 viene acompañada por una posibilidad de error llamada error α, de
tipo I ó nivel de significación: α= P(rechazar H0 | es cierta H0).
• Toda decisión de no rechazar H0 viene acompañada por una probabilidad de error llamada error ß, o
de Tipo II: ß= P(no rechazar H0 | es falsa H0):
• El error α es controlable y fijado de antemano. Por ello las decisiones de rechazar H0 son siempre
fiables.
• El error ß no está controlado de antemano y suele ser grande. Por ello las decisiones de no rechazar
H0 no son de fiar.
• El error α es un único número, pero el error ß depende de la H1 que se considere.
• El error ß disminuye conforme la H1 se aleja de H0 y conforme aumenta el tamaño de la muestra (si
todo lo demás permanece fijo).
• Si un error disminuye, el otro aumenta (si todo lo demás permanece fijo).
6. Potencia: A 1-ß se le llama potencia del test. Potencia = P (rechazar H0 | es falsa H0). Es también función de
la hipótesis alternativa. Un test es tanto mejor cuanto más potente sea.
7. Valor p: Al mínimo error α al cual un resultado es significativo se le llama valor p ó nivel crítico p ó nivel
mínimo de significación.
• En los tests de una cola, p suele ser la mitad de su valor que en los tests de dos colas.
• Fijado α: si p = α se rechaza H0; si p > α no se rechaza H0.
13
12. Test de hipótesis con una muestra
pˆ − p0 − 12 n
z exp =
p0 q0
n
4. Cálculo de la probabilidad: se compara zexp con una zα de la distribución Normal. Si zexp > zα se
rechaza H0 con una probabilidad de error α.
14
Distribución F de Snedecor:
Para cada valor de los primeros gl (primera fila) y de los segundos gl
(primera columna) en el interior de la tabla se da el valor Fα que deja
a su derecha un área de α=10%. Por ejemplo, la probabilidad de que
un valor teórico de la distribución F de Snedecor con 30 y 40 g.
supere el 1,54 es de un 10%
Gl 1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120 ∞
1 39,86 49,50 53,59 55,83 57,24 58,20 58,91 59,44 59,86 60,19 60,71 61,22 61,74 62,00 62,26 62,53 62,79 63,06 63,33
2 8,53 9,00 9,16 9,24 9,29 9,33 9,35 9,37 9,38 9,39 9,41 9,42 9,44 9,45 9,46 9,47 9,47 9,48 9,49
3 5,54 5,46 5,39 5,34 5,31 5,28 5,27 5,25 5,24 5,23 5,22 5,20 5,18 5,18 5,17 5,16 5,15 5,14 5,13
4 4,54 4,32 4,19 4,11 4,05 4,01 3,98 3,95 3,94 3,92 3,90 3,87 3,84 3,83 3,82 3,80 3,79 3,78 3,76
5 4,06 3,78 3,62 3,52 3,45 3,40 3,37 3,34 3,32 3,30 3,27 3,24 3,21 3,19 3,17 3,16 3,14 3,12 3,10
6 3,78 3,46 3,29 3,18 3,11 3,05 3,01 2,98 2,96 2,94 2,90 2,87 2,84 2,82 2,80 2,78 2,76 2,74 2,72
7 3,59 3,26 3,07 2,96 2,88 2,83 2,78 2,75 2,72 2,70 2,67 2,63 2,59 2,58 2,56 2,54 2,51 2,49 2,47
8 3,46 3,11 2,92 2,81 2,73 2,67 2,62 2,59 2,56 2,54 2,50 2,46 2,42 2,40 2,38 2,36 2,34 2,32 2,29
9 3,36 3,01 2,81 2,69 2,61 2,55 2,51 2,47 2,44 2,42 2,38 2,34 2,30 2,28 2,25 2,23 2,21 2,18 2,16
10 3,29 2,92 2,73 2,61 2,52 2,46 2,41 2,38 2,35 2,32 2,28 2,24 2,20 2,18 2,16 2,13 2,11 2,08 2,06
11 3,23 2,86 2,66 2,54 2,45 2,39 2,34 2,30 2,27 2,25 2,21 2,17 2,12 2,10 2,08 2,05 2,03 2,00 1,97
12 3,18 2,81 2,61 2,48 2,39 2,33 2,28 2,24 2,21 2,19 2,15 2,10 2,06 2,04 2,01 1,99 1,96 1,93 1,90
13 3,14 2,76 2,56 2,43 2,35 2,28 2,23 2,20 2,16 2,14 2,10 2,05 2,01 1,98 1,96 1,93 1,90 1,88 1,85
14 3,10 2,73 2,52 2,39 2,31 2,24 2,19 2,15 2,12 2,10 2,05 2,01 1,96 1,94 1,91 1,89 1,86 1,83 1,80
15 3,07 2,70 2,49 2,36 2,27 2,21 2,16 2,12 2,09 2,06 2,02 1,97 1,92 1,90 1,87 1,85 1,82 1,79 1,76
16 3,05 2,67 2,46 2,33 2,24 2,18 2,13 2,09 2,06 2,03 1,99 1,94 1,89 1,87 1,84 1,81 1,78 1,75 1,72
17 3,03 2,64 2,44 2,31 2,22 2,15 2,10 2,06 2,03 2,00 1,96 1,91 1,86 1,84 1,81 1,78 1,75 1,72 1,69
18 3,01 2,62 2,42 2,29 2,20 2,13 2,08 2,04 2,00 1,98 1,93 1,89 1,84 1,81 1,78 1,75 1,72 1,69 1,66
19 2,99 2,61 2,40 2,27 2,18 2,11 2,06 2,02 1,98 1,96 1,91 1,86 1,81 1,79 1,76 1,73 1,70 1,67 1,63
20 2,97 2,59 2,38 2,25 2,16 2,09 2,04 2,00 1,96 1,94 1,89 1,84 1,79 1,77 1,74 1,71 1,68 1,64 1,61
21 2,96 2,57 2,36 2,23 2,14 2,08 2,02 1,98 1,95 1,92 1,87 1,83 1,78 1,75 1,72 1,69 1,66 1,62 1,59
22 2,95 2,56 2,35 2,22 2,13 2,06 2,01 1,97 1,93 1,90 1,86 1,81 1,76 1,73 1,70 1,67 1,64 1,60 1,57
23 2,94 2,55 2,34 2,21 2,11 2,05 1,99 1,95 1,92 1,89 1,84 1,80 1,74 1,72 1,69 1,66 1,62 1,59 1,55
24 2,93 2,54 2,33 2,19 2,10 2,04 1,98 1,94 1,91 1,88 1,83 1,78 1,73 1,70 1,67 1,64 1,61 1,57 1,53
25 2,92 2,53 2,32 2,18 2,09 2,02 1,97 1,93 1,89 1,87 1,82 1,77 1,72 1,69 1,66 1,63 1,59 1,56 1,52
26 2,91 2,52 2,31 2,17 2,08 2,01 1,96 1,92 1,88 1,86 1,81 1,76 1,71 1,68 1,65 1,61 1,58 1,54 1,50
27 2,90 2,51 2,30 2,17 2,07 2,00 1,95 1,91 1,87 1,85 1,80 1,75 1,70 1,67 1,64 1,60 1,57 1,53 1,49
28 2,89 2,50 2,29 2,16 2,06 2,00 1,94 1,90 1,87 1,84 1,79 1,74 1,69 1,66 1,63 1,59 1,56 1,52 1,48
29 2,89 2,50 2,28 2,15 2,06 1,99 1,93 1,89 1,86 1,83 1,78 1,73 1,68 1,65 1,62 1,58 1,55 1,51 1,47
30 2,88 2,49 2,28 2,14 2,05 1,98 1,93 1,88 1,85 1,82 1,77 1,72 1,67 1,64 1,61 1,57 1,54 1,50 1,46
40 2,84 2,44 2,23 2,09 2,00 1,93 1,87 1,83 1,79 1,76 1,71 1,66 1,61 1,57 1,54 1,51 1,47 1,42 1,38
60 2,79 2,39 2,18 2,04 1,95 1,87 1,82 1,77 1,74 1,71 1,66 1,60 1,54 1,51 1,48 1,44 1,40 1,35 1,29
120 2,75 2,35 2,13 1,99 1,90 1,82 1,77 1,72 1,68 1,65 1,60 1,55 1,48 1,45 1,41 1,37 1,32 1,26 1,19
∞ 2,71 2,30 2,08 1,94 1,85 1,77 1,72 1,67 1,63 1,60 1,55 1,49 1,42 1,38 1,34 1,30 1,24 1,17 1,00
15
3. Estadístico de contraste:
• Si las varianzas son iguales (test de la t de Student):
x1 − x2 s12 (n1 − 1) + s22 ( n2 − 1)
t exp = Con s=
1 1 n1 + n2 − 2
s +
n1 n2
4. Cálculo de la probabilidad: se compara texp con una zα de la distribución t de Student con (n1+n2-2)
grados de libertad. Si texp > t α se rechaza H0 con una probabilidad de error α.
1. H0: No hay diferencias en dos mediciones repetidas en los mismos individuos (µ1-µ2=µd=0)
2. Condiciones: dadas n parejas de datos (x 1i, x 2i), con i=1,2,....n, obtener sus diferencias di
(di=x 1i - x 2i) y, si son normales, la media y varianza, d y s d² de dicha muestra (d1,d2,....dn). Válido si
la variable diferencia presenta un distribución Normal, o, cuando no lo es, será válido
aproximadamente si los tamaños muestrales son mayores que 30.
3. Estadístico de contraste:
d
t exp =
sd
n
4. Cálculo de la probabilidad: se compara te xp con una tα de la distribución t de Student con n-1
grados de libertad. Si texp > t α se rechaza H0 con una probabilidad de error α.
Permite la comparación entre las distribuciones de una variable cuantitativa entre más de dos
grupos. Lógicamente, también entre sólo dos, coincidiendo en este caso con el test de la t de Student.
Se basa en la partición de la variabilidad total en un conjunto de datos en los componentes debidos a
las distintas fuentes de variación: los individuos dentro de los grupos que se comparan son distintos
entre sí, y además hay cierta variabilidad de unos grupos a otros. La comparación toma la forma de
una razón entre la varianza estimada a partir de las medias de los grupos (Variación ENTRE grupos)
y la varianza existente entre los individuos dentro de cada grupo (Variación DENTRO de los grupos)
1. H0 : Las medias de varias poblaciones son iguales (µ1 = µ2= ... = µn)
16
2. Condiciones: la variable cuantitativa sigue una distribución normal en todos los grupos que se
comparan, y con la misma varianza en todos los grupos. Esta última condición se comprueba
mediante el test de Bartlett, una extensión del test de la F de Snedecor anterior
3. Estadístico de contraste: se calcula mediante la siguiente tabla, donde:
k: nº de grupos que se comparan
ni: tamaño de muestra del grupo iésimo (i= 1, 2, .... k)
x i : media del grupo iésimo (i= 1, 2, .... k)
n: tamaño total de la muestra (n= n1 + n2 + ... + nk )
x ij: valor en el individuo jotaésimo (j= 1, 2,... ni) del grupo iésimo (i= 1, 2, .... k)
x : media de la totalidad de los individuos
Total n-1 k ni
SCT = ∑∑ ( xij − x ) 2
i =1 j =1
Trucos: recuerda que la información de esta tabla la puedes obtener fácilmente con las
medias ( xi ), varianzas ( si ) y tamaños muestrales (ni) de cada grupo uno de los grupos:
2
x= ∑xn i i
a partir de aquí, calcula SCE; SCD = ∑ SCi = ∑ si2 ( ni − 1)
n
4. Cálculo de la probabilidad: se compara Fexp con una Fα de la distribución F de Snedecor con k-1 y
n-k grados de libertad. Si Fexp > Fα se rechaza H0 con una probabilidad de error α.
En el apartado anterior vimos cómo la aplicación de los distintos métodos para comparación de
medias, tanto en muestras independientes como apareadas, requerían de una serie de condiciones
para su aplicación. Recordemos que estas condiciones se referían a la base conceptual del Teorema
Central del Límite: dada una variable X en una población que tuviese una distribución normal, la
distribución que siguen las medias xi de las infinitas muestras aleatorias de tamaño constante n que
se pudiesen obtener es una distribución normal, de media µ (igual que la de la población) y de una
variabilidad inferior a la de la población tantas veces como indique la raíz cuadrada del tamaño
muestral (error estándar de la media, σ ).
n
Aunque la variable no tenga una distribución normal en la población, si n es suficientemente grande lo
anterior sigue siendo cierto. Arbitrariamente se establece en 30 el tamaño de muestra que puede
considerarse “suficientemente grande”. En la práctica, todo esto implica que si estamos manejando
variables de distribución normal, no importe demasiado el tamaño muestral (con unos mínimos) y, por
el contrario, si tenemos un tamaño de muestra suficientemente grande, no sea muy importante la
condición de normalidad. El problema surge con los tamaños de muestra “pequeños” (n<30): al estar
todos los métodos anteriores basados en la hipótesis de normalidad, hay que verificar ésta antes de
poder aplicarlos. Existen varios métodos para hacerlo, siendo lo primero (aunque no suficiente) la
representación gráfica de la variable en la muestra: si es claramente no normal, podemos parar ahí; si
hay dudas, el test de normalidad de D’Agostino, que se puede realizar a mano, o algunos de los
17
procedimientos basados en el test de Kolmogorov-Smirnov o Shapiro-Wilks que aparecen en los
programas estadísticos nos sacarán de ellas.
Cuando las variables no son normales, el procedimiento siguiente permite realizar el test para
contrastar la hipótesis nula de igualdad de dos medias, independientemente del tamaño muestral. El
procedimiento es válido para cualquier variable aleatoria, no sólo para las no normales, y por ello es
un método no paramétrico, no condicionado por los parámetros de una distribución en concreto.
Aunque se utiliza como alternativa al test de la t de Student para comparar dos medias, las hipótesis
que se contrastan aquí no son estrictamente la igualdad o no de las medias. En realidad, H0 afirma
que las poblaciones comparadas son iguales, frente a H1, según la cual una población tiende a dar
valores más altos que la otra.
Tomemos un ejemplo del libro de “Estadística para las ciencias de la Salud”, de Martín Andrés y Luna
del Castillo: supongamos que se desea conocer la eficiencia de dos hospitales A y B en el manejo de
ciertos enfermos, y uno de los aspectos a considerar es la estancia tras una intervención quirúrgica
determinada. Como los dos hospitales son distintos y no hay asociación de los datos de una muestra
con los de otra, las muestras son independientes.
La cantidad experimental Rexp suma de los rangos de la muestra de menor tamaño se compara con lo
que debería haber ocurrido si la hipótesis nula fuese cierta. ¿Y cuál era la predicción? Si el hospital A
tiende a tener una estancia menor, al ordenar la muestra conjunta sus rangos tenderán a ser bajos, y
su suma Rexp un número pequeño. Si ocurre lo contrario, y la estancia en A es mayor que en B, los
rangos serán altos, y Rexp será un número grande. Es decir, valores altos o bajos de Rexp llevarán a
rechazar la hipótesis nula, mientras que valores intermedios no permitirán hacerlo. Una guía para
interpretar qué se entiende por valores altos o bajos de Rexp la obtenemos en las tablas
correspondientes (nº 14 del libro de A. Martín Andrés), que dan intervalos de aceptación para esta
18
cantidad. En nuestro ejemplo, Rexp= 34 , para n1 =5 y n2 =10, se encuentra dentro del rango que se
considera aceptable con una probabilidad de 0,1. Como no es suficientemente pequeña, no podemos
rechazar la hipótesis nula, y concluimos que ambos hospitales tienen igual estancia tras la
intervención quirúrgica. Si el resultado hubiera sido Rexp= 58, este valor hubiese estado fuera del
rango aceptable con una probabilidad 0,05. La hipótesis nula se hubiese rechazado con un error de
probabilidad p<0,05.
En este caso se calculan inicialmente las diferencias entre los valores apareados (fase paramétrica) y
se consideran como dos grupos de valores las diferencias positivas y negativas encontradas, es
decir, A y B son ahora las diferencias + y - encontradas. El resto del procedimiento es idéntico, salvo
que la probabilidad del resultado se localiza en la tabla 15 del libro de A Martín Andrés.
Veamos un ejemplo: Supongamos que se registran las presiones sistólicas en 10 alcohólicos antes y
después de dejar la bebida, con los siguientes resultados:
Individuo Nº 1 2 3 4 5 6 7 8 9 10
Antes: 140 165 160 160 175 190 170 175 155 160
Después: 145 150 150 160 170 175 160 165 145 170
Diferencia: + 15 10 0 5 15 10 10 10
- 5 10
Comparamos ahora las diferencias positivas y negativas, despreciando las parejas en las que no se
ha producido ningún cambio, por el mismo procedimiento anterior:
Diferencias + 5 10 10 10 10 15 15
ordenadas - 5 10
Nº de orden 1 2 3 4 5 6 7 8 9 Totales
Rangos ri + 1,5 5 5 5 5 8,5 8,5 R(+)= 38,5
- 1,5 5 R(-)= 6,5
Suma 45
Si la presión antes fuera superior a después, las diferencias deberían ser positivas y grandes, lo que
implicaría que R(+) sería grande. Si por el contrario la presión después de dejar la bebida fuese
superior, el valor de R(+) sería pequeño. Así pues, valores altos o bajos de R(+) llevarían a rechazar
la hipótesis nula. La tabla correspondiente (nº 15 del libro de A. Martín Andrés) proporciona los
intervalos de aceptación para R(+). En nuestro ejemplo, R(+) = 38,5, que para n=9 está fuera del
intervalo para α=0,05 pero no para α=0,1. Por tanto, la probabilidad de este resultado se encuentra
entre 0,05 y 0,1. No sería tan pequeña como para rechazar la hipótesis nula ni tan grande como para
aceptarla, por lo que lo más indicado sería no tomar ninguna decisión y aumentar el tamaño de la
muestra.
No es más que una generalización del test de Wilcoxon para la comparación de más de dos grupos.
En realidad, cuando el número de grupos es 2, ambos tests son idénticos. Cuando las medidas son
repetidas (apareadas) el test de Friedman, también no paramétrico, contrasta la hipótesis de igualdad
de todas las medidas. A su vez, es una extensión del test de Wilcoxon para muestras apareadas en el
caso de más de dos medidas.
19
VENTAJAS Y DESVENTAJAS DE LOS MÉTODOS NO PARAMÉTRICOS EN RELACIÓN CON
LOS PARAMÉTRICOS
Ventajas:
1. Los métodos no paramétricos valen siempre, sea cual sea la variable de partida. Así, su aplicación
no precisa de la hipótesis de normalidad, que no tiene por qué ser verificada (son tests más
generales) ni comprobada (se ahorra tiempo).
2. El cálculo manual es muy sencillo y rápido cuando las muestras son pequeñas.
Desventajas:
1. Cuando las variables son normales los tests paramétricos son más potentes (1-β) que los no
paramétricos. Viene a representar una reducción de potencia a un 95%, es decir, si con 100
observaciones se podría detectar una diferencia mediante un test no paramétrico, con el
paramétrico bastarían 95.
2. El cálculo se hace más complejo con las muestras mayores.
3. Los métodos no paramétricos permiten menos refinamientos en el análisis posterior de los datos,
como intervalos de confianza para las diferencias detectadas, o búsqueda de los grupos que son
diferentes si se están comparando más de dos.
2
16. El test χ (chi-cuadrado o ji-cuadrado) y sus aplicaciones
1. H0: la distribución de una variable cualitativa en una población se ajusta bien a una distribución de
parámetros conocidos (las proporciones especificadas en la H0 son las correctas para cada valor
de la variable)
2. Condiciones de aplicación: Si los n individuos de una muestra pueden caer en una y sólo una de
las k clases exhaustivas y excluyentes C1, C2,..., Ck con probabilidades p1, p2,...,pk ,
respectivamente, dadas por H0, y si O1, O2,...Ok es el número de individuos, de entre los n de la
muestra, que caen en las clases C1, C2,... Ck (valores observados Oi experimentalmente) ,
entonces, calculados los valores esperados (bajo H0) E1= np1, E2= np2,...Ek = npk (ΣEi= n), si
ninguna Ei es < 1 y no más del 20% de ellas pueden ser ≤ 5. Los datos pueden presentarse como
en la tabla siguiente:
(O − E
i i −1
2
) 2
• Si k ≤ 4 y n ≤ 200: χexp
2
=Σ
Ei
2 2 2
4. Cálculo de la probabilidad: se compara χ exp
con una χ α de la distribución χ con k-1 grados de
2 2
libertad. Si χ exp > χ α se rechaza H0 con una probabilidad de error α.
20
Para cada gl gl 0,9 0,2 0,1 0,05 0,025 0,01 0,001
(columnas) y para
1 0,016 1,645 2,706 3,841 5,204 6,635 10,828
cada α (filas) se da
2 0,211 3,219 4,605 5,991 7,378 9,210 13,816
en el interior de la
3 0,584 4,642 6,251 7,851 9,348 11,345 16,266
2
tabla el valor de χ
4 1,064 5,989 7,779 9,488 11,143 13,277 18,467
que deja a5 su 1,610 7,289 9,236 11,070 12,833 15,086 20,515
derecha un área α.
6 2,204 8,558 10,645 12,592 14,449 16,812 22,458
7 2,833 9,803 12,017 14,067 16,013 18,475 24,322
Por ejemplo, con un gl, la probabilidad de que 8 3,490 11,030 13,362 15,507 17,535 20,090 26,124
2
una χ supere el 3,841 e es de un 5% 9 4,168 12,242 14,684 16,919 19,023 21,666 27,877
10 4,865 13,442 15,987 18,307 20,483 23,209 29,588
1. H0: la proporción de individuos que caen en cierta clase es la misma para todas las poblaciones, y
esto vale para todas las clases. Dadas r muestras cuyos individuos se clasifican en s clases como
en la tabla siguiente, en la cual:
2. Condiciones de validez: Calcular las cantidades esperadas Eij= Fi Cj / T y entonces el test que
sigue es válido si:
• En tablas 2 × 2: si T > 40, ó si 20 ≤ T ≤ 40 pero todas las Eij son > 5
• En otras tablas: ninguna Ei debe ser inferior a 1 y no más del 20% de ellas < 5.
χ = ×T
2 11
F1 F2 C1C2
• En otras tablas:
OI2
χ =Σ
2
−T
EI
2
4. Cálculo de la cantidad teórica: en tablas de χ con (r-1) (s-1) grados de libertad.
21
TEST DE INDEPENDENCIA PARA VARIABLES CUALITATIVAS
(una población, dos variables cualitativas)
1. H0: los caracteres A y B son independientes. Si los T individuos de una muestra aleatoria son
clasificados con arreglo a dos caracteres A y B, el primero dividido en r clases y el segundo en s
clases, obteniéndose una tabla como la anterior (cambiando muestras y clases por "clases del
carácter A" y "clases del carácter B" respectivamente, entonces las condiciones de validez, el
cálculo de las cantidades experimentales y teóricas son idénticas a las del test anterior (Test de
homogeneidad de un conjunto de muestras cualitativas).
O11/C1
• Riesgo relativo (del factor de riesgo B para la enfermedad A) RR = --------
O12/C2
En ambos casos, un valor superior a 1 significaría un aumento del riesgo, un valor cercano a 1
igualdad de riesgo, y un valor inferior a 1 disminución del riesgo (factor de protección).
Tanto para la OR como para el RR tiene sentido, si se demuestra que existe una asociación
estadística, que se calcule un intervalo de confianza que informe acerca de la precisión con que se
mide el riesgo. Un método sencillo para calcularlo viene dado por la expresión:
1. 96 1 .96
1± 1±
χ χ
IC (95%) : OR
; IC (95%) : RR
donde el límite inferior del intervalo se obtiene elevando OR (o RR) a (1-1.96/χ), y el superior a
2
(1+1.96/χ), y χ es la raíz cuadrada del estadístico de contraste χ .
1. H0: La variable dependiente toma el mismo valor para todos los valores de la independiente, o lo
que es igual, la pendiente es 0 (H0≡β=0)
2. Condiciones de validez: Los valores de la variable y, para cada valor de la x, siguen distribuciones
2
Normales de medias situadas sobre la línea recta α + βx y varianzas (σ ) iguales.
b SCx
3. Test: t exp =
s 2yx
4. Cálculo de la cantidad teórica: Las tα se buscan en la tabla de la distribución t-Student con (n - 2)
grados de libertad
22
Alternativamente, se puede contrastar la misma hipótesis (H0≡β=0) mediante la realización de un
intervalo de confianza para β (ver apartado 10). Si el intervalo excluye el valor β=0, puede concluirse
que la pendiente es distinta de 0.
MC reg = Fexp =
k −1 MC res
SCres = ∑ ( y − yˆ ) SC reg
Residual n-k 2
MCres =
n−k
Total n-1
SC y = ∑ ( y − y )
2
En realidad, el modelo de regresión es un modelo más general, que incluye como caso particular al
análisis de la varianza, y lo podríamos usar para comparar las medias de dos grupos, si éstos están
definidos por los valores de una variable dicotómica, como por ejemplo el sexo (1: varones, 0:
mujeres).
2
El coeficiente de determinación, r , expresa el porcentaje de la variabilidad de y explicada por x:
SC reg
r2 = ; a partir de aquí, el coeficiente de correlación, r = r2
SC y
23
E. ALGUNAS CUESTIONES A TENER EN CUENTA EN LA REVISION ESTADISTICA DE
ARTICULOS CIENTÍFICOS
1. Anotar los fines del trabajo y enumerarlos, en términos no estadísticos, lo más precisamente
posible.
2. Encontrar las variables que se han elegido para alcanzar los fines propuestos. Enumerarlas
detalladamente, asignándoles sus tipos (cuantitativas o cualitativas, discretas o continuas) y
planteándose, siempre que se pueda, el conocimiento, aunque sea aproximado, de su distribución
(Normal, Binomial, Poisson, o ninguna de ellas).
3. Con respecto a la muestra estudiar los siguientes extremos:
• Cómo se ha extraído
• Si la extracción hace que la muestra pueda considerarse aleatoria
• Estudiar si han sido recogidas variables como la edad o el sexo, que nos permitan "asegurarnos" de
que la muestra representa suficientemente bien a la población (se distribuye por edad y sexo igual
que la población)
• Identificar a la población de la que ha sido extraída la muestra, con objeto de ver si las conclusiones
obtenidas lo son para esa o para otras poblaciones.
• Enumerar, según el conocimiento del problema, los posibles sesgos en los que se pueda incurrir, y
si éstos sesgos han sido evitados o no. Si no han sido evitados, en qué sentido afectarían a los
resultados.
• Analizar el tamaño de la muestra del que se ha dispuesto, viendo si ha sido calculado fijando
condiciones previas y cuáles son éstas. Si no se sabe cómo ha sido fijado el tamaño de muestra
(que es lo más común) habrá que ver si ha sido suficiente o no.
4. Especificar las hipótesis de cada uno de los tests a realizar (ahora de manera estadística)
5. Observar si se verifican las condiciones de los tests. Esas condiciones son vitales para poder
aplicarlos. Si no se verifican, su aplicación es incorrecta y sus resultados, y por tanto las
conclusiones que se extraen de ellos, pueden estar muy apartados de la realidad.
6. Siempre que se puedan comprobar los resultados de los tests, debería hacerse. Hay veces que los
resultados que se obtienen son distintos de los que se dan, indicando esto que no se han hecho en
el artículo los tests que se dicen.
7. El nivel de significación "p" debe comprobarse en las tablas. Recuérdese que lo habitual es conside-
rar un test significativo si p < 0.05.
8. Compruébese cómo se interpreta la significación de los tests, pensando en las hipótesis
identificadas anteriormente. Es muy común concluir al revés. Estudiar asimismo las conclusiones
que se deducen de tests no significativos (atención al tamaño de muestra).
9. Observar si las conclusiones finales del artículo van más allá o no de los tests realizados.
10. Pensar en tests alternativos para obtener las conclusiones del trabajo. Estudiar si tales tests son
más apropiados que los usados. Es muy común usar tests que impliquen una pérdida de
información importante (ej.: agrupamiento en clases).
11. No olvidar nunca que, por encima de la significación estadística, los valores de p, etc., debe
situarse siempre la relevancia clínica o biológica de las diferencias o asociaciones encontradas.
24
F. PRINCIPALES TIPOS DE PROBLEMAS, Y MÉTODOS PARA SU RESOLUCIÓN
1.COMPARACION DE DISTRIBUCIONES
Dos variables:
2
Cualitativas χ (tablas de contingencia)
Cuantitativas Correlación V. Normales Correlación lineal simple
V. Cualesquiera Correlación no paramétrica: ρ de Spearman
2
Mixtas Cualitivizar la cuantitativa: χ poco deseable, al perder información
se convierte en una escala
Cuantitivizar la cualitativa Correlación
(si es ordinal→1,2,3...)
Comprobar si la distribución de la Comparación de medias
cuantitativa es igual en todas las ANOVA
categorías de la cualitativa
25