You are on page 1of 25

RESUMEN - FORMULARIO DE BIOESTADÍSTICA

A. INTRODUCCIÓN A LA ESTADÍSTICA................................................................................... 2
1. ¿Por qué hablar de estadística?............................................................................... 2
2. Un concepto fundamental: la variabilidad. .................................................................. 2
3. Variabilidad debida al muestreo................................................................................ 2
4. En qué nos ayuda la Estadística.............................................................................. 2
5. Conozcamos algo más sobre variables. .................................................................... 3
6. La Muestra, La Población Muestreada, La Población ................................................. 3

B. ESTADÍSTICA DESCRIPTIVA.............................................................................................. 4
7. Formas de presentar la Información. ......................................................................... 4

C. ESTADÍSTICA INFERENCIAL.............................................................................................. 5
8. Fundamentos intuitivos de la estimación por intervalos ............................................... 5
9. Aplicación en la realidad.......................................................................................... 7
10. Regresión lineal y coeficiente de correlación ............................................................. 10

D. ESTADÍSTICA INFERENCIAL: TEST DE HIPÓTESIS ........................................................... 12


11. Concepto de test de hipótesis.................................................................................. 12
12. Test de hipótesis con una muestra.......................................................................... 14
TEST PARA UNA MEDIA: ....................................................................................... 14
TEST PARA UNA PROPORCION: ........................................................................... 14
13. Test de homogeneidad con dos muestras ................................................................. 14
A. COMPARACIÓN DE MEDIAS DE DOS MUESTRAS INDEPENDIENTES................ 14
B. COMPARACIÓN DE MEDIAS PARA MUESTRAS APAREADAS ........................... 16
14. Análisis de la varianza (ANOVA).............................................................................. 16
15. Test no paramétricos .............................................................................................. 17
TEST DE WILCOXON PARA COMPARAR DOS GRUPOS......................................... 18
COMPARACIÓN DE DOS GRUPOS CON MUESTRAS APAREADAS:....................... 19
COMPARACIÓN DE VARIOS GRUPOS: TEST DE KRUSKAL-WALLIS ...................... 19
VENTAJAS Y DESVENTAJAS DE LOS MÉTODOS NO PARAMÉTRICOS
EN RELACIÓN CON LOS PARAMÉTRICOS................................................. 20
2
16. El test χ (chi-cuadrado o ji-cuadrado) y sus aplicaciones........................................... 20
TEST DE BONDAD DE AJUSTE:............................................................................. 20
TEST DE HOMOGENEIDAD DE UN CONJUNTO DE MUESTRAS
CUALITATIVAS: ......................................................................................... 21
TEST DE INDEPENDENCIA PARA VARIABLES CUALITATIVAS ............................... 22
MEDIDAS DE DEPENDENCIA EN TABLAS DE CONTINGENCIA ............................... 22
17. Contraste de hipótesis en regresión.......................................................................... 22

E. ALGUNAS CUESTIONES A TENER EN CUENTA EN LA REVISION ESTADISTICA


DE ARTICULOS CIENTÍFICOS ............................................................................................ 24

F. PRINCIPALES TIPOS DE PROBLEMAS, Y MÉTODOS PARA SU RESOLUCIÓN ................... 25

José Luis Sánchez Ramos


A. INTRODUCCIÓN A LA ESTADÍSTICA

1. ¿Por qué hablar de estadística?


La información es, cada vez más, una de las materias primas más importantes de nuestro trabajo como
profesionales de la salud. Esta información es más cuantitativa que descriptiva, y la estadística es el
lenguaje necesario para producir, manejar, comunicar e interpretar correctamente esta información. La
investigación, al menos la positivista predominante, se basa fundamentalmente en la metodología
estadística, sobre todo en la comprobación de hipótesis o "pruebas de significación".

La estadística invade la literatura científica sobre salud. Por todas partes hay continuas referencias a los
"valores de p" y a "hallazgos estadísticamente significativos". Para leer de forma inteligente, crítica, hay
que tener unas cuantas ideas claras: NO TODO LO QUE SE PUBLICA ES VERDAD (por no hablar de lo
que nos quieren vender).

2. Un concepto fundamental: la variabilidad.


La información que nos interesa está formada por conjuntos de datos referidos a características medidas
en distintos indivi duos. Como toda medición, está sujeta a variaciones por distintas causas: si le tomamos
la tensión arterial a una persona, obtendremos, en mediciones repetidas, distintos valores. Esto se debe,
en primer lugar, al fenómeno que estamos midiendo: la tensión arterial varía a lo largo del día
dependiendo de diversos factores (variabilidad debida al fenómeno en sí ). Por otro lado, depende de
quién realice la medición, y en qué momento: uno puede no coincidir consigo mismo al repetir una
medición, y mucho menos con otro compañero (variabilidad intra e interobservador). Por último, con
distintos esfigmomanómetros, obtendremos tensiones diferentes (variabilidad debida al instrumento
de medida).

Como es sabido, la Epidemiología trabaja con grupos de personas más que con individuos; esto
introduce un motivo más de variabilidad: las personas son distintas unas de otras. En biología, la variabi-
lidad no es la excepción, sino la regla. Ello nos impide ser deterministas: afortunadamente no todos los
fumadores llegan a desarrollar un cáncer de pulmón, y hay (pocos, pero hay) cánceres de pulmón entre
los no fumadores, infartos de miocardio entre deportistas, casos de gripe entre los vacunados, etc. El
concepto de riesgo, como probabilidad de que ocurra un fenómeno no deseado o daño, nos permite ser
operativos: a pesar de tanta variabilidad, los problemas de salud no se distribuyen al azar.

Hace tiempo que la enfermedad o la muerte dejaron de ser un castigo divino o una lotería. Podemos
identificar factores asociados a distintas probabilidades de presentación de ese daño (factores de riesgo)
e intervenir sobre ellos para modificar la situación.

3. Variabilidad debida al muestreo.


Hay una causa más de variación: normalmente no medimos la característica que nos interesa en toda la
población: si queremos saber cuál es la prevalencia de caries en nuestra población infantil no es
necesario que les midamos el índice CAO (Caries/Ausencia/Obturación) a todos los niños de la zona;
esto sería muy largo, costoso, y quizá, de peor calidad. Si escogemos bien una muestra de los niños, de
forma que representen bien al total de ellos, podemos estimar la prevalencia que nos interesa de toda la
población infantil a partir de la prevalencia que hemos medido en nuestra muestra. Lógicamente, la
prevalencia de la muestra no coincidirá exactamente con la de la población, y será algo diferente con
una muestra a si hubiésemos elegido otra distinta, pero existen maneras de asegurarse de que esa
pérdida de precisión no es demasiado importante.

4. En qué nos ayuda la Estadística.


La Estadística nos puede ayudar a poner un poco de orden en todo este lío de variabilidades. No reduce
la variabilidad, ni siquiera reduce la incertidumbre que nos produce esa variabilidad; únicamente nos
puede ayudar mediante el mantenimiento de esa incertidumbre dentro de unos límites tolerables, que no
nos dejen inválidos, que nos permitan la acción.

2
Podríamos definir pues la Estadística como un conjunto de técnicas que nos permiten, por un lado,
recoger, representar, clasificar, resumir datos de un colectivo (Estadística descriptiva). Por otro
lado, nos permite obtener conclusiones a partir de esos datos (Estadística inferencial).

5. Conozcamos algo más sobre variables.


Una variable no es más que una característica que no es constante para todos los individuos de una
población. Así, las personas no tienen la misma altura ni el mismo peso unas que otras, etc. Hay distintos
tipos de variables:

a) Cualitativas: Son características que no se pueden medir, al menos numéricamente. Pueden tomar
dos valores o categorías, o varias. Por ejemplo, la variable sexo toma dos posibles valores: varón o
mujer. La variable nivel socioeconómico tiene varios posibles valores: Bajo, medio bajo, medio,
medio alto, alto. Dentro de estas mismas variables cualitativas podemos hacer un grupo aparte con
aquéllas que mantienen un cierto orden entre sus categorías, por ejemplo la ya dicha de nivel
socioeconómico. A estas variables les llamamos Ordinales.

b) Cuantitativas: Se pueden medir, asignándoles números; por ejemplo, la altura, el peso, la glucemia,
etc. Dentro de estas existen dos tipos a su vez:
• Discretas: Los valores que toman son aislados, representados por números naturales. Son de este
tipo la variable número de hijos que tiene una pareja, o la variable número de consultas que hace
una persona a un Centro de Salud a lo largo de un año.
• Continuas: Pueden tomar cualquier valor dentro de un rango, es decir teóricamente una persona
puede medir cualquier valor entre 1,70 y 1,71, únicamente depende de la precisión de nuestro
instrumento de medida.

¿Por qué este interés en diferenciar los tipos de variables?: el tratamiento estadístico que se da a
cada uno de estos tipos de variables es completamente distinto.

6. La Muestra, La Población Muestreada, La Población


Habitualmente en Estadística trabajamos con muestras; la muestra es la parte de la población en la que
se efectúa el estudio, en el ejemplo de la caries pues serían aquellos niños a los que realmente le
miramos las caries que tenían. La población muestreada sería aquella población de la que se obtiene la
muestra. Sobre ella puede establecerse una conclusión. Llamaríamos población objetivo al conjunto de
individuos en los que deseamos estudiar un fenómeno. Los datos los obtenemos de la muestra; a partir
de ella y mediante el proceso de inferencia estadística podemos obtener conclusiones acerca de la
población muestreada. El salto desde la muestra a la población muestreada lo realizamos con un
determinado grado de error. Este es el error aleatorio debido al muestreo (variabilidad debida al
muestreo). Desde la población muestreada a la población objetivo hemos de dar otro salto. Aquí
únicamente importa hasta qué punto la población muestreada se parece a la población objetivo. Por
ejemplo, el archivo de historias clínicas del Centro de Salud del que obtenemos una muestra de historias,
sería la población muestreada. Nuestra población objetivo sería aquí el total de personas que viven en la
zona básica de salud. ¿Se diferencian mucho las personas que tienen abierta historia de las personas
que no tienen abierta historia?. En esa diferencia estriba el error que podemos cometer al intentar
obtener conclusiones sobre la población objetivo, es decir sobre toda la zona básica, a partir de la
población muestreada.

Para poder realizar inferencias desde una muestra hacia la población necesitamos que nuestra muestra
sea representativa, es decir, que nuestra muestra esté representando bien a la población que queremos
estudiar. Para ello existen unas técnicas de muestreo, que lo que intentan conseguir son muestras
representativas, tanto en número como en composición, es decir: ¿Cuántas personas necesito incluir en
la muestra? ¿ Quiénes han de estar presentes en la muestra?. Para ello existen dos reglas:

3
• Aleatoriedad: Todos los individuos de la población, tienen la misma probabilidad de estar incluidos
en la muestra.
• Homogeneidad con la población: Al menos en las variables importantes. Por ejemplo, la
composición por grupos de edad y sexo de la muestra ha de ser lo más semejante posible a la de
la población.

Para intentar cumplir estas reglas podemos recurrir a varias técnicas de muestreo:

• Muestreo aleatorio simple: Sorteo con bolas, o tablas de números aleatorios.


• Muestreo estratificado: permite lograr la máxima homogeneidad. En él se obtienen muestras de
cada estrato de la población, entendiéndose por estrato cada grupo de la población, por ejemplo,
los grupos por sexo, por edad, etc.
• Muestreo por conglomerado (etapas): Permite aprovechar agrupaciones naturales de la población.

B. ESTADÍSTICA DESCRIPTIVA
7. Formas de presentar la Información.
a) Tablas: Permiten resumir y representar valores. Tienen unas reglas muy sencillas:
• Han de ser lo más simples posible.
• Deben explicarse por sí solas.
• El título debe responder a las preguntas: qué, cuándo, donde.
• Se debe especificar claramente la procedencia de los datos.
• Contienen filas y columnas. En cada fila se representan las clases, es decir, las agrupaciones que
se hacen con los dotas. En las columnas se establecen las frecuencias, es decir, el número de
veces que se repite cada fenómeno. Esta frecuencia puede ser de varios tipos:
• Frecuencias absolutas: Es el número de veces que se repite cada clase.
• Frecuencia relativa: Es el cociente entre frecuencia absoluta y tamaño total.
• Frecuencia acumulada: La frecuencia acumulada de una clase, es la suma de las frecuencias
de las clases que le preceden.

b) Gráficos. Permiten representar distribuciones de frecuencias mediante sistemas de coordenadas


cartesianas (x e y) . Tienen las mismas reglas que las tablas. Los principales tipos de gráficos son:
• Diagramas de barras: Se utilizan para representar frecuencias de variables discretas o cualitativas.
• Histogramas: Para variables continuas. Cada clase se representa por un rectángulo de área
proporcional a la frecuencia.
• Polígono de frecuencias: Resulta de unir en un histograma los puntos centrales de cada clase. Es
especialmente útil para comparaciones.
• Diagramas de sectores ("Tarta"). Es un sector circular de ángulo proporcional a la frecuencia. Es,
como el diagrama de barras, una buena representación para variables discretas o cualitativas.
• Pictogramas: representación ideográfica de la variable, de tamaño proporcional a la frecuencia.
• Mapas: muy útiles para expresar la distribución geográfica del fenómeno que nos interesa.

Vivimos en la era de la informática, y es relativamente sencillo acceder a ordenadores que


construyen los gráficos más inverosímiles a partir de nuestros datos. Pero hay que tener cuidado: si
uno no lleva una idea clara del resultado que quiere obtener, puede acabar perdido entre los
montones de opciones, que a veces estorban al propósito principal: la claridad en la expresión de los
resultados.

4
c) Medidas numéricas que resumen la distribución de los datos (para variables cuantitativas):
• Medidas de tendencia central y posición:
Moda: la clase con más frecuencia
Mediana: divide a la muestra ordenada en dos partes iguales: la mitad a cada lado.
Percentil: el percentil i (pi) deja a su izquierda un i% de la muestra ordenada. (i = 1,2,...99).
Cuartil: c1 = p25; c 2 = p50; c 3 = p75.
Decil: d1 = p10; d2 = p20; ...; d9 = p90.
Σx i
Media aritmética: suma de todos los valores, dividido por el número de valores: x=
n
• Medidas de dispersión:
Rango: la diferencia entre el valor más grande y el más pequeño de la muestra.
Suma de cuadrados: Suma de las distancias al cuadrado de cada valor a la media
SC = ∑ (x i − x )
2

Varianza: es una especie de promedio de las distancias al cuadrado de cada valor a la media:
∑ (x − x)
2
i
s 2
=
n −1
Desviación típica: s = raíz cuadrada de la varianza; es una especie de promedio de las
distancias de cada valor a la media
Rango intercuartílico: c3 - c 1 ; señala entre qué valores se encuentra el 50% central
s
Coeficiente de variación: CV = ×100 ; indica la variabilidad con respecto a la media
x

C. ESTADÍSTICA INFERENCIAL
Se trata de una serie de métodos que permiten obtener conclusiones acerca de una población a partir
de una muestra representativa de la misma. Podríamos establecer dos grandes bloques: métodos de
estimación y pruebas de contraste de hipótesis.

La única forma exacta de conocer un parámetro que resuma la distribución de valores de una
variable en una población como una prevalencia p, o una media µ, o la varianza σ, es medir esta
variable en todos los individuos de la población y calcular el resumen a partir de estos datos. Como
esto suele ser imposible, lo que se hace es elegir una muestra, realizar las mediciones sólo en los
individuos seleccionados y calcular los resúmenes numéricos (llamados ahora estadísticos, o
estimadores) correspondientes: proporción muestral p̂ , media muestral x , varianza muestral s , etc.
2

De alguna forma, los valores que obtenemos en la muestra nos dan una idea de cómo son las cosas
en la población. Es lo que se llama estimación puntual: al desconocer el verdadero parámetro
poblacional, intentamos sustituirlo por un valor puntual, obtenido de la muestra. Pero a nadie
sorprenderá que lo más seguro es que el estimador no “acierte” con el verdadero valor del parámetro
poblacional. Y lo que es peor, no sabemos si nos equivocamos mucho o poco. La estimación por
intervalos viene a solventar en parte este problema. Vamos a intentar resumir los fundamentos en
los que se basa.

8. Fundamentos intuitivos de la estimación por intervalos


Supongamos que tenemos una población cuyo nivel de colesterol se distribuye según la típica forma
de campana de la distribución Normal, con media µ = 225 mg y desviación típica σ = 50 mg (figura 1).
Esto quiere decir que en el espacio comprendido entre µ-σ (175 mg de colesterol) y µ+σ (225 mg de
colesterol) se encuentra el aproximadamente el 68% de los individuos. También significa que entre µ -
1,96 σ (127 mg) y µ + 1,96 σ (323 mg) se encuentra el 95%. Estos límites configuran el intervalo de
probabilidad. Si de esta población obtenemos una muestra aleatoria de tamaño n = 100 personas, les
medimos su colesterol, y calculamos la media de la muestra x, podremos obtener una cifra que se
aproxime a la media poblacional (estimación puntual), aunque será raro que coincida exactamente
con ella. Si obtuviéramos una segunda muestra, probablemente variará algo con respecto a la
primera. Lo mismo ocurriría con una tercera, etc.

5
Si repetimos el proceso de muestreo infinitas veces, obtendremos una larga serie de estimaciones
puntuales: las medias de las infinitas muestras. Ahora no son niveles de colesterol de personas lo que
tenemos, sino medias de colesterol de distintas muestras de 100 personas cada una. Resulta bastante
intuitivo comprender que la media de todas estas medias coincidirá con la media µ de la población de la
que salieron las muestras: todas ellas son medidas de tendencia central de cada muestra, y a su vez
calculamos la tendencia central de todas ellas, así que apuntamos cada vez más al centro. Por tanto, en
nuestro ejemplo la media de la distribución de las medias valdría 225 mg de colesterol.

También resulta intuitivo otro hecho: si bien resulta relativamente fácil encontrar individuos en la
población con valores extremos de colesterol, pongamos por ejemplo 150 mg, o 370, ya no es tan
fácil que una muestra de 100 individuos tenga como media 150 mg. ¡Tendríamos que haber elegido a
100 individuos con unas cifras de colesterol extremadamente bajas!. Si nuestras muestras son
aleatorias, esto es muy difícil que ocurra. Es decir, la distribución de las medias tendrá una dispersión
mucho menor que la distribución de los niveles de colesterol en la población. Por otra parte, no sería
tan raro encontrar una media de 150 si nuestra muestra sólo tuviese un tamaño n=2. Podría ocurrir
que el azar del muestreo nos seleccionase a dos individuos con unas cifras de colesterol bajas. Con
muestras mucho mayores ocurriría lo contrario: serían mucho más raras las medias extremas. Es
decir, el tamaño de la muestra influye decisivamente en la dispersión de la distribución de las medias.
El Teorema Central del Límite demuestra que la dispersión de la distribución de las medias es raíz de
n veces menor que la dispersión de la población, es decir, σ n . Es lo que se llama error estándar
de la media (EEM). En nuestro ejemplo, valdría 50 100 = 5 .

Distribución del colesterol en la población Distribución de las medias de 100 individuos


Media 225, desviación típica 50mg Media 225, desviación típica 5 mg

25 75 125 175 225 275 325 375 425 25 75 125 175 225 275 325 375 425

Una última característica de esta distribución de las medias: a nadie le resulta extraño que, si la
distribución del colesterol en la población era una distribución Normal, la distribución de las medias
también lo sea. Se puede comprobar empíricamente que, aunque la distribución de la variable en la
población no sea Normal, para tamaños de muestra suficientemente grandes (n>=30), la distribución
de las medias sí que es Normal. De nuevo, si pensamos que son medidas de tendencia central, es
fácil concluir que se tratará de valores centrados alrededor de un punto (la media poblacional), con
algunos (aproximadamente la mitad) desviados hacia la izquierda y otros hacia la derecha.

En resumen, las medias de las posibles muestras que obtengamos de una población tienen una
distribución Normal (si n>=30), con media igual a la de la población y desviación típica el error
( )
estándar de la media σ n . Hemos planteado aquí el fundamento de toda la inferencia estadística:
conocer cómo es la distribución de las medias.

Sabemos, por las características de la distribución Normal, que el 95% de los valores se encuentran
entre la media menos 1,96 veces la desviación típica, y la media más 1,96 veces la desviación típica.
Es decir, aplicando esta propiedad a nuestra distribución de medias, obtenemos que la probabilidad
de que un valor cualquiera de la distribución (una media de cualquiera de las muestras) se encuentre
entre estos dos valores es de 0,95:

6
 σ σ 
P µ − 1.96 < x < µ + 1.96  = 0.95
 n n

Es decir, el 95% de las muestras que obtengamos de esa población tendrán una media que estará
alrededor de la verdadera media poblacional µ, a una distancia no superior a 1.96 σ n . Con varias
operaciones simples podemos transformar fácilmente la expresión anterior en esta otra:
 σ σ 
P x − 1.96 < µ < x + 1.96  = 0.95
 n n

Y esta última es una expresión muy importante: indica que la probabilidad de que la media
poblacional µ se encuentre entre dos valores, que podemos obtener de nuestra muestra, en realidad
la única que se toma para representar a la población (límite inferior, x - 1,96 σ n y límite superior,
x + 1,96 σ n ) es una probabilidad conocida: 0,95. Hasta ahora habíamos supuesto que la media
de colesterol de la población era conocida. En la realidad nunca la conocemos, pero ya tenemos un
mecanismo de dar una estimación para su verdadero valor indicando que hay una determinada
probabilidad, o confianza (habitualmente del 95%) de que se encuentre entre dos valores. A estos
dos valores se les llama límites de confianza, y al intervalo, intervalo de confianza.

9. Aplicación en la realidad

Todo lo anterior interesa sólo para comprobar que las fórmulas no salen de ningún sombrero de copa,
pero lo que hacemos en la realidad es simplemente calcular, a partir de una única muestra, la
estimación de por dónde anda más o menos el parámetro poblacional. El intervalo de confianza nos
informa de cuánto vale ese “más o menos”. Pero, además, nos informa de qué probabilidad de error
tenemos en la estimación.

Si establecemos el nivel de confianza en el 95%, concluiremos que en el 95% de las ocasiones (95
de cada 100 muestras que obtengamos) la media poblacional estará entre: x ± 1,96 σ n ,
mientras que 5 de cada 100 muestras nos darán un intervalo que no contenga realmente a la media
poblacional. Si establecemos el nivel de confianza en el 99% concluiremos que en 99 de cada 100
muestras que obtengamos la media poblacional estará entre: x ± 2,57 σ n , mientras que 1 de
cada 100 muestras nos dará un intervalo que no contenga realmente a la media poblacional.
Los números anteriores (1,96 y 2,57) expresan la relación, en una distribución normal, entre un valor
de la variable (x) y la probabilidad de estar por encima o por debajo de este valor (la suma de las dos,
la mitad a cada lado de la curva). Se obtienen de la siguiente tabla:

7
Distribución normal tipificada (media 0, desviación típica 1)
En el exterior de la tabla se da la probabilidad P(x) de que una
Normal típica caiga por debajo de -x o por encima de +x (x en el
interior de la tabla). El encabezamiento de la fila da el primer
decimal, y el de la columna el segundo. Por ejemplo, el valor teórico
correspondiente a una probabilidad de 0,23 (0,2 + 0,03) es 1,2. El
correspondiente a una P de 0,05 (0,0 + 0,05) es de 1,96

P (x) 0 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 ∞ 2,576 2,326 2,170 2,054 1,960 1,881 1,812 1,751 1,695
0,1 1,645 1,598 1,555 1,514 1,476 1,440 1,405 1,372 1,341 1,311
0,2 1,282 1,254 1,227 1,200 1,175 1,150 1,126 1,103 1,080 1,058
0,3 1,036 1,015 0,994 0,974 0,954 0,935 0,915 0,896 0,878 0,860
0,4 0,842 0,824 0,806 0,789 0,772 0,755 0,739 0,722 0,706 0,690
0,5 0,674 0,659 0,643 0,628 0,613 0,598 0,583 0,568 0,553 0,539
0,6 0,524 0,510 0,496 0,482 0,468 0,454 0,440 0,426 0,412 0,399
0,7 0,385 0,372 0,358 0,345 0,332 0,319 0,305 0,292 0,279 0,266
0,8 0,253 0,240 0,228 0,215 0,202 0,189 0,176 0,164 0,151 0,138
0,9 0,126 0,113 0,100 0,088 0,075 0,063 0,050 0,038 0,025 0,013

Tabla para valores pequeños de P(x):


P(x) 0,002 0,001 0,0001 0,00001 0,000001 0,0000001
X 3,090 3,290 3,891 4,414 4,892 5,327

En el caso en que se desconozca el valor del parámetro σ (desviación típica poblacional), que es la
situación más frecuente, los límites de confianza se calcularían mediante la expresión x ±ts n , en
donde t corresponde a los valores tabulados de la distribución teórica t de Student (página siguiente),
y s es la desviación típica de la muestra, que usamos como estimación de σ.

Ejemplo: Para conocer la media de la distribución del colesterol en la ZBS de la Orden se ha obtenido
una muestra de 802 personas, con los siguientes resultados: x = 223,84; s=49. Dar un intervalo de
confianza al 95% para la media de colesterol de la población de la que se ha extraído esta muestra:
ts 2,004 × 49
Límite inferior: x− = 223,84 − = 220,37
n 802
ts 2,004 × 49
Límite superior: x + = 223,84 + = 227,3
n 802

La interpretación de este intervalo es sencilla: la población de la Orden tiene una cifra media de
colesterol que se encuentra entre 220,37 y 227,3. Y esto lo afirmamos con una probabilidad de
equivocarnos de un 5%. Más concretamente, el procedimiento nos garantiza que 95 de cada cien
muestras nos proporcionarían un intervalo que contendría a la verdadera media poblacional. Y
nosotros esperamos que nuestra muestra sea una de esas 95 que obtienen un resultado correcto, y
no de las 5 que nos inducirían a error.

8
Distribución t de Student
Para cada valor de los grados de libertad en la primera columna (gl=n-
1) y para cada valor de α en la primera fila, en el interior de la tabla se
da el valor tα tal que a la izquierda de -tα y a la derecha de tα queda un
área total de α. Por ejemplo, con n=31 (30 gl), el valor teórico
correspondiente es a un α del 5% es 2,042.

gl 0,5 0,4 0,3 0,2 0,1 0,05 0,02 0,01 0,001 0,0001
1 1,000 1,376 1,963 3,078 6,314 12,706 31,821 63,656 636,57 6370,54
2 0,816 1,061 1,386 1,886 2,920 4,303 6,965 9,925 31,600 100,136
3 0,765 0,978 1,250 1,638 2,353 3,182 4,541 5,841 12,924 28,014
4 0,741 0,941 1,190 1,533 2,132 2,776 3,747 4,604 8,610 15,534
5 0,727 0,920 1,156 1,476 2,015 2,571 3,365 4,032 6,869 11,176
6 0,718 0,906 1,134 1,440 1,943 2,447 3,143 3,707 5,959 9,080
7 0,711 0,896 1,119 1,415 1,895 2,365 2,998 3,499 5,408 7,888
8 0,706 0,889 1,108 1,397 1,860 2,306 2,896 3,355 5,041 7,120
9 0,703 0,883 1,100 1,383 1,833 2,262 2,821 3,250 4,781 6,594
10 0,700 0,879 1,093 1,372 1,812 2,228 2,764 3,169 4,587 6,212
11 0,697 0,876 1,088 1,363 1,796 2,201 2,718 3,106 4,437 5,923
12 0,695 0,873 1,083 1,356 1,782 2,179 2,681 3,055 4,318 5,695
13 0,694 0,870 1,079 1,350 1,771 2,160 2,650 3,012 4,221 5,513
14 0,692 0,868 1,076 1,345 1,761 2,145 2,624 2,977 4,140 5,364
15 0,691 0,866 1,074 1,341 1,753 2,131 2,602 2,947 4,073 5,239
16 0,690 0,865 1,071 1,337 1,746 2,120 2,583 2,921 4,015 5,134
17 0,689 0,863 1,069 1,333 1,740 2,110 2,567 2,898 3,965 5,043
18 0,688 0,862 1,067 1,330 1,734 2,101 2,552 2,878 3,922 4,966
19 0,688 0,861 1,066 1,328 1,729 2,093 2,539 2,861 3,883 4,899
20 0,687 0,860 1,064 1,325 1,725 2,086 2,528 2,845 3,850 4,838
21 0,686 0,859 1,063 1,323 1,721 2,080 2,518 2,831 3,819 4,785
22 0,686 0,858 1,061 1,321 1,717 2,074 2,508 2,819 3,792 4,736
23 0,685 0,858 1,060 1,319 1,714 2,069 2,500 2,807 3,768 4,694
24 0,685 0,857 1,059 1,318 1,711 2,064 2,492 2,797 3,745 4,654
25 0,684 0,856 1,058 1,316 1,708 2,060 2,485 2,787 3,725 4,619
26 0,684 0,856 1,058 1,315 1,706 2,056 2,479 2,779 3,707 4,587
27 0,684 0,855 1,057 1,314 1,703 2,052 2,473 2,771 3,689 4,556
28 0,683 0,855 1,056 1,313 1,701 2,048 2,467 2,763 3,674 4,531
29 0,683 0,854 1,055 1,311 1,699 2,045 2,462 2,756 3,660 4,505
30 0,683 0,854 1,055 1,310 1,697 2,042 2,457 2,750 3,646 4,482
35 0,682 0,852 1,052 1,306 1,690 2,030 2,438 2,724 3,591 4,389
40 0,681 0,851 1,050 1,303 1,684 2,021 2,423 2,704 3,551 4,321
45 0,680 0,850 1,049 1,301 1,679 2,014 2,412 2,690 3,520 4,269
50 0,679 0,849 1,047 1,299 1,676 2,009 2,403 2,678 3,496 4,228
60 0,679 0,848 1,045 1,296 1,671 2,000 2,390 2,660 3,460 4,169
80 0,678 0,846 1,043 1,292 1,664 1,990 2,374 2,639 3,416 4,095
100 0,677 0,845 1,042 1,290 1,660 1,984 2,364 2,626 3,390 4,054
∞ 0,674 0,842 1,036 1,282 1,645 1,960 2,326 2,576 3,291 3,891

Una cuestión que frecuentemente se plantea a la hora de iniciar un trabajo de investigación es ¿qué
tamaño de muestra necesito?. Si nuestro objetivo es conocer la media de una población (dar un intervalo
de confianza para ella), la respuesta puede deducirse fácilmente de la expresión anterior: El producto
ts n , es decir, el producto del valor teórico correspondiente a la confianza deseada por el EEM es la
cantidad que añadimos o quitamos a la media muestral para construir el intervalo. De alguna forma,

9
cuantifica el grado de error que cometemos por recoger información sólo de las muestras, y no de
poblaciones completas. Es el error debido al muestreo. Si lo representamos por d, la expresión
d = ts n nos recuerda que el grado de error cometido depende de la confianza que queramos tener
(t), la variabilidad de la variable (s) y el tamaño de la muestra. Para invertir el proceso, es decir, averiguar
qué tamaño se necesita para conseguir un grado de error máximo d, no tenemos más que despejar n:
2 2 2
n= t s /d .

La información necesaria, por tanto, para calcular n, es la confianza que queramos tener en nuestro
intervalo, el error global d requerido y la variabilidad s de la variable. El problema suele ser conocer
esto último. Para ello se puede obtener información de la bibliografía, o bien una muestra piloto,
inicial, que nos proporcione algo de información sobre la variable.

Para variables de tipo cualitativo, por ejemplo para determinar la prevalencia de hipertensión, las
cosas serían muy similares, salvo que, claro está, aquí no habría medias y desviaciones típicas, y sí
prevalencia estimada en la muestra p̂ : la verdadera prevalencia poblacional se encontraría en el
intervalo
 pˆ qˆ 1 
pˆ ± 1,96 +  ( qˆ = 1 − pˆ )
 n 2n 
Pero esta expresión sólo se puede usar si se cumplen ciertas condiciones: en nuestro ejemplo, que
hubiese un mínimo de 20 hipertensos y de 20 no hipertensos en nuestra muestra. Por ejemplo, si
queremos conocer la prevalencia de hipertensión en una población a partir de la obtenida en una
muestra de 802 personas, de las cuales 192 presentan hipertensión, podríamos concluir que la
prevalencia buscada se encuentra entre el 20.92 y el 26,96%.

El tamaño mínimo de muestra requerido para dar intervalos de confianza para una proporción viene
2 2
dado por n=z pq/d . Si no se tiene ninguna información sobre el valor de p y q puede sustituirse por el
máximo valor que puede tomar su producto, es decir p=0.5 q=1-p=0.5; por tanto, pq=0.25

10. Regresión lineal y coeficiente de correlación


a) Cálculos previos: Dadas n parejas de valores cuantitativos (x i, y i), siendo i= 1,2,...,n:

Suma de cuadrados de x (SCX ): SCx = ∑ ( xi − x ) 2


( x)
= ∑x − ∑
2 i
2

i
n

Suma de cuadrados de y (SCy ): SCy = ∑ ( yi − y ) 2


( y)
= ∑y − ∑ 2 i
2

i
n

Suma de productos cruzados xy (SPx y ): SPxy = ∑ ( xi − x )( yi − y ) = ∑ xi yi −


(∑ x )(∑ y )
i i

n
Trucos con la calculadora (si no puede calcular directamente regresión lineal): introducir las x, y
calcular x , sx y Σx; a partir de aquí, calcular sx2 . Hacer lo mismo con las y: y , sy , Σy, s 2y .
Ya sólo queda ir sumando todos los productos cruzados xy (Σxy), y entonces:
SCx = sx2 ( n − 1) ; SCy =s 2y ( n − 1) ; SPxy =Σx iy i – (Σx)(Σy)/n

SPxy
b) Estimación de la recta de regresión: yˆ = a + bx , con pendiente b = y altura a = y − bx
SCx
Si la calculadora puede hacer directamente regresión lineal, no hay más que introducir las parejas
de datos y pedirle directamente a y b.
SPxy2
SC y −
SCx
c) Estimación de la varianza de regresión: s 2yx = ; a partir de aquí, s yx = s yx
2

n−2
10
d) Condiciones de validez para la próxima sección: Los valores de la variable y, para cada valor de la
2
x, siguen distribuciones Normales de medias situadas sobre la línea recta α + βx y varianzas (σ )
iguales.
tα s yx
e) Inferencias sobre la pendiente: Intervalo de confianza: β∈b ±
SCx
Las tα se buscan en la tabla de la distribución t-Student con (n - 2) g.l.

f) Estimación del coeficiente de correlación (se puede obtener directamente de la calculadora):


SPxy
r= 2
; a partir de aquí, se calcula el coeficiente de determinación r
SC x × SC y

Escala de valoración para r: <0.6: mala correlación


0.6<0.8: mediana
0.8 y más: buena correlación
2
El coeficiente de determinación r informa del porcentaje de variación de la variable dependiente
que es explicado por la variable independiente.

11
D. ESTADÍSTICA INFERENCIAL: TEST DE HIPÓTESIS

11. Concepto de test de hipótesis


Un test o contraste de hipótesis es un conjunto de reglas tendentes a decidir cuál de dos hipótesis, llamadas H0
(hipótesis nula) y H1 (hipótesis alternativa) debe aceptarse, según el resultado obtenido en una muestra. La H0
consiste habitualmente en una afirmación sobre el valor de un parámetro, o sobre la igualdad entre los grupos
que se comparan. La H1 será una negación de la H0; esta negación puede ser completa (test de dos colas) o
parcial (test de una cola). Si se están comparando dos tratamientos, la H0 afirmará que tienen el mismo efecto.
En nuestro ejemplo, la H1 en un test de dos colas afirmaría que los dos tratamientos son distintos; en un test de
una cola, que uno de los tratamientos en particular es más eficaz que el otro.

Para tomar la decisión, debe elegirse la muestra o muestras apropiadas, que proporcionarán la información
necesaria sobre qué es lo que ocurre en la realidad, por encima de lo que afirmen o nieguen las hipótesis. Los
resultados obtenidos en la muestra se resumen en un número, llamado estadístico de contraste. Bajo la
suposición de que la H0 es cierta, se calcula la probabilidad de obtención de los resultados. Si éstos son raros, es
decir, poco probables, estarán en contradicción con la afirmación contenida en la H0. Esta contradicción entre la
teoría y la experiencia la resolveremos a favor de la experiencia, rechazando lo afirmado en la H0. Si los
resultados son los esperables, es decir, tienen una probabilidad alta de ocurrir si la H0 es cierta, no podremos
rechazarla.

Ilustraremos el proceso que se sigue con un sencillo ejemplo: supongamos que nos invitan a participar en un
juego de azar, con un sistema de apuestas. Consiste en el lanzamiento de una moneda: si el resultado es cara,
tendremos que pagar 100 Ptas.; si el resultado es cruz, obtendremos 100 Ptas. Antes de lanzarnos a jugar,
pedimos hacer una prueba: jugaremos sólo 10 partidas, y en función de la experiencia continuaremos o no. Si
nuestro contrincante obtiene 10 caras, nosotros habremos perdido 1000 Ptas., y seguramente no nos quedarán
ganas de seguir jugando. Aunque suponíamos (hipótesis nula) que el juego era honesto, es decir, que la
probabilidad de obtener cara en cada lanzamiento era de 0.5, los resultados parecen decir lo contrario (hipótesis
alternativa): han salido más caras de lo esperado. Si decidimos no seguir jugando (rechazo de la hipótesis nula)
podemos estar cometiendo una injusticia con nuestro contrincante: puede haber tenido suerte, y obtener, sin
trampas, unos resultados, que, aunque raros, son posibles. Tiene una probabilidad, siendo cierta la hipótesis
nula, de 0,510 = 0,001 de obtener esos resultados. Nuestra probabilidad de equivocarnos al decidir no seguir
jugando (de alguna forma le estamos llamando tramposo) es, por tanto, de una entre mil. Remota, pero existente.
Es lo que se llama error de tipo I, o error α : error que podemos cometer al rechazar la H0, siendo cierta.
¿Habríamos seguido jugando si hubiera obtenido 9 caras? ¿y 8?. Estos resultados van siendo progresivamente
más probables. De forma arbitraria se ha establecido que un resultado con una probabilidad inferior a 0,05 es un
resultado “poco probable”, y que por tanto lleva a rechazar la H0.

Si nuestro contrincante hubiera obtenido 6 caras, seguramente no se nos pasaría por la cabeza que nos
estuviera haciendo trampas, sino que nos parecería un resultado esperable. No podríamos, en este caso,
rechazar la H0, y continuaríamos jugando. Pero supongamos que nuestro adversario es un listillo que nos hace
trampa de un modo muy sutil, y tiene trucada la moneda, de manera que salga cara 6 veces de cada 10. Aunque
nunca nos daríamos cuenta (no rechazaríamos la hipótesis nula), lo cierto es que a la larga el juego nos
resultaría desfavorable: la H0 es falsa. Nos estaríamos equivocando de nuevo, esta vez con el error tipo II, o error
β: error que podemos cometer al no rechazar la H0 siendo falsa. Es decir, sea cual sea la decisión que tomemos,
siempre conllevará una posibilidad de error.

En resumen, un test o contraste de hipótesis:


1. comienza siempre con el planteamiento de una H0 y una H1
2. se comprueba si se cumplen o no las condiciones de aplicación
3. para contrastar las hipótesis, se obtiene información de la realidad mediante muestras y se resume ésta en
un único número, llamado estadístico de contraste
4. se calcula la probabilidad de haber obtenido esos resultados; si los resultados son poco probables (p<0.05)
se rechaza la H0. Si los resultados son probables, no se puede rechazar

La estructura básica e interpretación de los tests de hipótesis es siempre la misma, si bien las
condiciones que deben cumplirse para que sean aplicables, así como la forma de resumir los
resultados de la experiencia en el estadístico de contraste para calcular la probabilidad
correspondiente cambian en función del tipo de variable que estemos manejando, del número de
poblaciones que queramos representar, de la estructura del muestreo, etc.

12
DE UNA MANERA UN POCO MÁS FORMAL: CONCEPTO GENERAL DE TEST DE HIPÓTESIS

1. Objetivo: Un test o contraste de hipótesis es un conjunto de reglas tendentes a decidir cual de dos hipótesis -
H0 (hipótesis nula) ó H1 (hipótesis alternativa)- debe aceptarse según el resultado obtenido en una muestra.

2. Tipos: a) De 2 colas ó bilateral: si H1 es la negación de H0


b) De 1 cola ó unilateral: si H1 es una parte de la negación de H0

3. Elecciones previas: Antes de realizar un test, el investigador debe decidir:


• H0: viene dada por una igualdad ó afirmación positiva.
• H1: es la hipótesis que se quiere demostrar fuera de toda duda. Es una negación de H0
• α: valor que será tanto más pequeño cuantas más garantías se precisen de que una decisión de
rechazar H0 sea correcta. Usualmente es α=5%

4. Método: Para tomar la decisión, debe elegirse un estadístico de contraste (una especie de resumen numérico
de la muestra obtenida) apropiado al problema, así como una predicción sobre los valores esperables
(aceptables) para el mismo. Observada la muestra, si el valor que toma en ella el estadístico de contraste es
un valor esperable (probable) según la hipótesis nula, no se puede rechazar H0 (estadísticamente no
significativo). Si el valor del estadístico de contraste es inesperado (poco probable), se rechaza la H0
(estadísticamente significativo).

5. Errores:
• Toda decisión de rechazar H0 viene acompañada por una posibilidad de error llamada error α, de
tipo I ó nivel de significación: α= P(rechazar H0 | es cierta H0).
• Toda decisión de no rechazar H0 viene acompañada por una probabilidad de error llamada error ß, o
de Tipo II: ß= P(no rechazar H0 | es falsa H0):
• El error α es controlable y fijado de antemano. Por ello las decisiones de rechazar H0 son siempre
fiables.
• El error ß no está controlado de antemano y suele ser grande. Por ello las decisiones de no rechazar
H0 no son de fiar.
• El error α es un único número, pero el error ß depende de la H1 que se considere.
• El error ß disminuye conforme la H1 se aleja de H0 y conforme aumenta el tamaño de la muestra (si
todo lo demás permanece fijo).
• Si un error disminuye, el otro aumenta (si todo lo demás permanece fijo).

6. Potencia: A 1-ß se le llama potencia del test. Potencia = P (rechazar H0 | es falsa H0). Es también función de
la hipótesis alternativa. Un test es tanto mejor cuanto más potente sea.

7. Valor p: Al mínimo error α al cual un resultado es significativo se le llama valor p ó nivel crítico p ó nivel
mínimo de significación.
• En los tests de una cola, p suele ser la mitad de su valor que en los tests de dos colas.
• Fijado α: si p = α se rechaza H0; si p > α no se rechaza H0.

8. Tamaño de muestra: Determinando el tamaño de muestra n de antemano, las conclusiones de rechazar o no


H0 son ambas fiables. Para determinar n hace falta especificar:
• El error α del test.
• La primera hipótesis alternativa de interés (mínima diferencia entre H0 y H1 que resulte importante).
• El error ß aceptable para tal alternativa.

9. Reglas para tomar la decisión


• Si p = 5%: rechazar H0.
• Si p > 15% ó 20% (depende de n): no rechazar H0.
• En otro caso (5% < p < 15%): no rechazar H0 provisionalmente, pero aumentar el tamaño de muestra.
10. Intervalos de confianza tras un test de hipótesis: En el caso de test de hipótesis acerca de parámetros (ej.:
media o proporción poblacionales), es conveniente dar un intervalo de confianza para el/los parámetro/s
implicado/s tanto si se rechaza H0 como si no.

13
12. Test de hipótesis con una muestra

TEST PARA UNA MEDIA:


(una población, una variable cuantitativa)

1. H0 : La media de una población presenta un valor determinado (µ = µ0)


2. Condiciones: si la variable es de distribución Normal ó n ≥ 30
3. Estadístico de contraste:
x − µ0
t exp =
s
n
4. Cálculo de la probabilidad: se compara te xp con una tα de la distribución t de Student con n-1
grados de libertad. Si texp > t α se rechaza H0 con una probabilidad de error α.

TEST PARA UNA PROPORCION:


(una población, una variable cualitativa)

1. H0 : La proporción de una población presenta un valor determinado (p = p0)


2. Condiciones: Sea x el número de individuos de entre n que verifican una característica, p̂ la
proporción de individuos de la muestra que la verifican y qˆ = 1 − pˆ ; se cumplen las condiciones si
p̂ y q̂ son mayores que 0.05 y tanto x como (n-x) son ambas > 5
3. Estadístico de contraste:

pˆ − p0 − 12 n
z exp =
p0 q0
n
4. Cálculo de la probabilidad: se compara zexp con una zα de la distribución Normal. Si zexp > zα se
rechaza H0 con una probabilidad de error α.

13. Test de homogeneidad con dos muestras

A. COMPARACIÓN DE MEDIAS DE DOS MUESTRAS INDEPENDIENTES


(dos poblaciones, una variable cuantitativa)

1. H0 : Las medias de dos poblaciones son iguales (µ1 = µ2)


2. Condiciones: La variable sigue una distribución Normal en ambas poblaciones. Si esto no es
así, el procedimiento sigue siendo válido siempre que los tamaños de ambas muestras sean al
menos de 30. Es preciso comprobar previamente si las dos poblaciones que se comparan
tienen o no la misma dispersión (varianza). Esto se realiza, a su vez, mediante un contraste
de hipótesis (test de la F de Snedecor), en donde H0 : las varianzas de ambas poblaciones son
2 2 2 2
iguales (σ1 =σ2 ). La probabilidad del estadístico Fexp=s 1 /s 2 (siendo s1>s 2) se obtiene de una
tabla de la distribución F de Snedecor con n1-1 (columnas) y n2-1 (filas) grados de libertad:

14
Distribución F de Snedecor:
Para cada valor de los primeros gl (primera fila) y de los segundos gl
(primera columna) en el interior de la tabla se da el valor Fα que deja
a su derecha un área de α=10%. Por ejemplo, la probabilidad de que
un valor teórico de la distribución F de Snedecor con 30 y 40 g.
supere el 1,54 es de un 10%

Gl 1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120 ∞
1 39,86 49,50 53,59 55,83 57,24 58,20 58,91 59,44 59,86 60,19 60,71 61,22 61,74 62,00 62,26 62,53 62,79 63,06 63,33
2 8,53 9,00 9,16 9,24 9,29 9,33 9,35 9,37 9,38 9,39 9,41 9,42 9,44 9,45 9,46 9,47 9,47 9,48 9,49
3 5,54 5,46 5,39 5,34 5,31 5,28 5,27 5,25 5,24 5,23 5,22 5,20 5,18 5,18 5,17 5,16 5,15 5,14 5,13
4 4,54 4,32 4,19 4,11 4,05 4,01 3,98 3,95 3,94 3,92 3,90 3,87 3,84 3,83 3,82 3,80 3,79 3,78 3,76
5 4,06 3,78 3,62 3,52 3,45 3,40 3,37 3,34 3,32 3,30 3,27 3,24 3,21 3,19 3,17 3,16 3,14 3,12 3,10
6 3,78 3,46 3,29 3,18 3,11 3,05 3,01 2,98 2,96 2,94 2,90 2,87 2,84 2,82 2,80 2,78 2,76 2,74 2,72
7 3,59 3,26 3,07 2,96 2,88 2,83 2,78 2,75 2,72 2,70 2,67 2,63 2,59 2,58 2,56 2,54 2,51 2,49 2,47
8 3,46 3,11 2,92 2,81 2,73 2,67 2,62 2,59 2,56 2,54 2,50 2,46 2,42 2,40 2,38 2,36 2,34 2,32 2,29
9 3,36 3,01 2,81 2,69 2,61 2,55 2,51 2,47 2,44 2,42 2,38 2,34 2,30 2,28 2,25 2,23 2,21 2,18 2,16
10 3,29 2,92 2,73 2,61 2,52 2,46 2,41 2,38 2,35 2,32 2,28 2,24 2,20 2,18 2,16 2,13 2,11 2,08 2,06
11 3,23 2,86 2,66 2,54 2,45 2,39 2,34 2,30 2,27 2,25 2,21 2,17 2,12 2,10 2,08 2,05 2,03 2,00 1,97
12 3,18 2,81 2,61 2,48 2,39 2,33 2,28 2,24 2,21 2,19 2,15 2,10 2,06 2,04 2,01 1,99 1,96 1,93 1,90
13 3,14 2,76 2,56 2,43 2,35 2,28 2,23 2,20 2,16 2,14 2,10 2,05 2,01 1,98 1,96 1,93 1,90 1,88 1,85
14 3,10 2,73 2,52 2,39 2,31 2,24 2,19 2,15 2,12 2,10 2,05 2,01 1,96 1,94 1,91 1,89 1,86 1,83 1,80
15 3,07 2,70 2,49 2,36 2,27 2,21 2,16 2,12 2,09 2,06 2,02 1,97 1,92 1,90 1,87 1,85 1,82 1,79 1,76
16 3,05 2,67 2,46 2,33 2,24 2,18 2,13 2,09 2,06 2,03 1,99 1,94 1,89 1,87 1,84 1,81 1,78 1,75 1,72
17 3,03 2,64 2,44 2,31 2,22 2,15 2,10 2,06 2,03 2,00 1,96 1,91 1,86 1,84 1,81 1,78 1,75 1,72 1,69
18 3,01 2,62 2,42 2,29 2,20 2,13 2,08 2,04 2,00 1,98 1,93 1,89 1,84 1,81 1,78 1,75 1,72 1,69 1,66
19 2,99 2,61 2,40 2,27 2,18 2,11 2,06 2,02 1,98 1,96 1,91 1,86 1,81 1,79 1,76 1,73 1,70 1,67 1,63
20 2,97 2,59 2,38 2,25 2,16 2,09 2,04 2,00 1,96 1,94 1,89 1,84 1,79 1,77 1,74 1,71 1,68 1,64 1,61
21 2,96 2,57 2,36 2,23 2,14 2,08 2,02 1,98 1,95 1,92 1,87 1,83 1,78 1,75 1,72 1,69 1,66 1,62 1,59
22 2,95 2,56 2,35 2,22 2,13 2,06 2,01 1,97 1,93 1,90 1,86 1,81 1,76 1,73 1,70 1,67 1,64 1,60 1,57
23 2,94 2,55 2,34 2,21 2,11 2,05 1,99 1,95 1,92 1,89 1,84 1,80 1,74 1,72 1,69 1,66 1,62 1,59 1,55
24 2,93 2,54 2,33 2,19 2,10 2,04 1,98 1,94 1,91 1,88 1,83 1,78 1,73 1,70 1,67 1,64 1,61 1,57 1,53
25 2,92 2,53 2,32 2,18 2,09 2,02 1,97 1,93 1,89 1,87 1,82 1,77 1,72 1,69 1,66 1,63 1,59 1,56 1,52
26 2,91 2,52 2,31 2,17 2,08 2,01 1,96 1,92 1,88 1,86 1,81 1,76 1,71 1,68 1,65 1,61 1,58 1,54 1,50
27 2,90 2,51 2,30 2,17 2,07 2,00 1,95 1,91 1,87 1,85 1,80 1,75 1,70 1,67 1,64 1,60 1,57 1,53 1,49
28 2,89 2,50 2,29 2,16 2,06 2,00 1,94 1,90 1,87 1,84 1,79 1,74 1,69 1,66 1,63 1,59 1,56 1,52 1,48
29 2,89 2,50 2,28 2,15 2,06 1,99 1,93 1,89 1,86 1,83 1,78 1,73 1,68 1,65 1,62 1,58 1,55 1,51 1,47
30 2,88 2,49 2,28 2,14 2,05 1,98 1,93 1,88 1,85 1,82 1,77 1,72 1,67 1,64 1,61 1,57 1,54 1,50 1,46
40 2,84 2,44 2,23 2,09 2,00 1,93 1,87 1,83 1,79 1,76 1,71 1,66 1,61 1,57 1,54 1,51 1,47 1,42 1,38
60 2,79 2,39 2,18 2,04 1,95 1,87 1,82 1,77 1,74 1,71 1,66 1,60 1,54 1,51 1,48 1,44 1,40 1,35 1,29
120 2,75 2,35 2,13 1,99 1,90 1,82 1,77 1,72 1,68 1,65 1,60 1,55 1,48 1,45 1,41 1,37 1,32 1,26 1,19
∞ 2,71 2,30 2,08 1,94 1,85 1,77 1,72 1,67 1,63 1,60 1,55 1,49 1,42 1,38 1,34 1,30 1,24 1,17 1,00

15
3. Estadístico de contraste:
• Si las varianzas son iguales (test de la t de Student):
x1 − x2 s12 (n1 − 1) + s22 ( n2 − 1)
t exp = Con s=
1 1 n1 + n2 − 2
s +
n1 n2
4. Cálculo de la probabilidad: se compara texp con una zα de la distribución t de Student con (n1+n2-2)
grados de libertad. Si texp > t α se rechaza H0 con una probabilidad de error α.

3b. Estadístico de contraste:


• Si las varianzas son distintas (test de Welch):
2
 s12 s22 
 + 
x1 − x 2 n n
t exp = Con f =  12 2  2 grados de libertad
s12 s22  s12   s22 
+    
n1 n2
 n1  +  n2 
n1 − 1 n2 − 1
4b. Cálculo de la probabilidad: se compara texp con una tα de la distribución t de Student con f grados
de libertad. Si texp > t α se rechaza H0 con una probabilidad de error α.

B. COMPARACIÓN DE MEDIAS PARA MUESTRAS APAREADAS


(una población, una variable cuantitativa medida de forma repetida)

1. H0: No hay diferencias en dos mediciones repetidas en los mismos individuos (µ1-µ2=µd=0)
2. Condiciones: dadas n parejas de datos (x 1i, x 2i), con i=1,2,....n, obtener sus diferencias di
(di=x 1i - x 2i) y, si son normales, la media y varianza, d y s d² de dicha muestra (d1,d2,....dn). Válido si
la variable diferencia presenta un distribución Normal, o, cuando no lo es, será válido
aproximadamente si los tamaños muestrales son mayores que 30.
3. Estadístico de contraste:
d
t exp =
sd
n
4. Cálculo de la probabilidad: se compara te xp con una tα de la distribución t de Student con n-1
grados de libertad. Si texp > t α se rechaza H0 con una probabilidad de error α.

14. Análisis de la varianza (ANOVA)


(dos o más poblaciones, una variable cuantitativa)

Permite la comparación entre las distribuciones de una variable cuantitativa entre más de dos
grupos. Lógicamente, también entre sólo dos, coincidiendo en este caso con el test de la t de Student.
Se basa en la partición de la variabilidad total en un conjunto de datos en los componentes debidos a
las distintas fuentes de variación: los individuos dentro de los grupos que se comparan son distintos
entre sí, y además hay cierta variabilidad de unos grupos a otros. La comparación toma la forma de
una razón entre la varianza estimada a partir de las medias de los grupos (Variación ENTRE grupos)
y la varianza existente entre los individuos dentro de cada grupo (Variación DENTRO de los grupos)

1. H0 : Las medias de varias poblaciones son iguales (µ1 = µ2= ... = µn)

16
2. Condiciones: la variable cuantitativa sigue una distribución normal en todos los grupos que se
comparan, y con la misma varianza en todos los grupos. Esta última condición se comprueba
mediante el test de Bartlett, una extensión del test de la F de Snedecor anterior
3. Estadístico de contraste: se calcula mediante la siguiente tabla, donde:
k: nº de grupos que se comparan
ni: tamaño de muestra del grupo iésimo (i= 1, 2, .... k)
x i : media del grupo iésimo (i= 1, 2, .... k)
n: tamaño total de la muestra (n= n1 + n2 + ... + nk )
x ij: valor en el individuo jotaésimo (j= 1, 2,... ni) del grupo iésimo (i= 1, 2, .... k)
x : media de la totalidad de los individuos

Fuente de grados Suma de cuadrados Media Estadístico F


variación de SC Cuadrática
libertad
Entre k-1 k
SCE MCE
grupos SCE = ∑ ni ( x i − x ) 2 MCE = Fexp =
i =1 k −1 MCD
Dentro de n-k k ni SCD
los grupos SCD = ∑∑ ( x ij − x i ) 2 = SCT − SCE MCD =
i =1 j =1
n−k

Total n-1 k ni

SCT = ∑∑ ( xij − x ) 2
i =1 j =1

Trucos: recuerda que la información de esta tabla la puedes obtener fácilmente con las
medias ( xi ), varianzas ( si ) y tamaños muestrales (ni) de cada grupo uno de los grupos:
2

x= ∑xn i i
a partir de aquí, calcula SCE; SCD = ∑ SCi = ∑ si2 ( ni − 1)
n

4. Cálculo de la probabilidad: se compara Fexp con una Fα de la distribución F de Snedecor con k-1 y
n-k grados de libertad. Si Fexp > Fα se rechaza H0 con una probabilidad de error α.

15. Test no paramétricos

En el apartado anterior vimos cómo la aplicación de los distintos métodos para comparación de
medias, tanto en muestras independientes como apareadas, requerían de una serie de condiciones
para su aplicación. Recordemos que estas condiciones se referían a la base conceptual del Teorema
Central del Límite: dada una variable X en una población que tuviese una distribución normal, la
distribución que siguen las medias xi de las infinitas muestras aleatorias de tamaño constante n que
se pudiesen obtener es una distribución normal, de media µ (igual que la de la población) y de una
variabilidad inferior a la de la población tantas veces como indique la raíz cuadrada del tamaño
muestral (error estándar de la media, σ ).
n
Aunque la variable no tenga una distribución normal en la población, si n es suficientemente grande lo
anterior sigue siendo cierto. Arbitrariamente se establece en 30 el tamaño de muestra que puede
considerarse “suficientemente grande”. En la práctica, todo esto implica que si estamos manejando
variables de distribución normal, no importe demasiado el tamaño muestral (con unos mínimos) y, por
el contrario, si tenemos un tamaño de muestra suficientemente grande, no sea muy importante la
condición de normalidad. El problema surge con los tamaños de muestra “pequeños” (n<30): al estar
todos los métodos anteriores basados en la hipótesis de normalidad, hay que verificar ésta antes de
poder aplicarlos. Existen varios métodos para hacerlo, siendo lo primero (aunque no suficiente) la
representación gráfica de la variable en la muestra: si es claramente no normal, podemos parar ahí; si
hay dudas, el test de normalidad de D’Agostino, que se puede realizar a mano, o algunos de los

17
procedimientos basados en el test de Kolmogorov-Smirnov o Shapiro-Wilks que aparecen en los
programas estadísticos nos sacarán de ellas.

Cuando las variables no son normales, el procedimiento siguiente permite realizar el test para
contrastar la hipótesis nula de igualdad de dos medias, independientemente del tamaño muestral. El
procedimiento es válido para cualquier variable aleatoria, no sólo para las no normales, y por ello es
un método no paramétrico, no condicionado por los parámetros de una distribución en concreto.

TEST DE WILCOXON PARA COMPARAR DOS GRUPOS


(dos poblaciones, una variable cuantitativa)

Aunque se utiliza como alternativa al test de la t de Student para comparar dos medias, las hipótesis
que se contrastan aquí no son estrictamente la igualdad o no de las medias. En realidad, H0 afirma
que las poblaciones comparadas son iguales, frente a H1, según la cual una población tiende a dar
valores más altos que la otra.
Tomemos un ejemplo del libro de “Estadística para las ciencias de la Salud”, de Martín Andrés y Luna
del Castillo: supongamos que se desea conocer la eficiencia de dos hospitales A y B en el manejo de
ciertos enfermos, y uno de los aspectos a considerar es la estancia tras una intervención quirúrgica
determinada. Como los dos hospitales son distintos y no hay asociación de los datos de una muestra
con los de otra, las muestras son independientes.

Días de A 12, 14, 11, 30, 10


Estancia B 16, 11, 14, 21, 18, 34, 22, 7, 12, 12
Datos A 10 11 12 14 30
Ordenados B 7 11 12 12 14 16 18 21 22 34
nº de orden 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 Totales
Rangos ri A 2 3,5 6 8,5 14 34= R(A)
B 1 3,5 6 6 8,5 10 11 12 13 15 86= R(B)
Suma 120

Pasos a seguir en la elaboración de esta tabla (coinciden con las filas):


1. Separar de los datos de estancia de ambos hospitales, (nA y nB ), con nA < nB
2. Ordenar, de menor a mayor, las estancias de cada paciente, considerándolos como una sola
muestra de tamaño n
3. Asignar nº de orden, desde 1 hasta n, prestando especial atención a los “empates”, es decir,
enfermos con igual nº de días de estancia en el hospital A que en el B.
4. Asignar rangos definitivos: nº de orden de cada enfermo en la muestra global, y en caso de
empate, se asigna el rango promedio de los que hubiesen correspondido: para las estancias de 11
días, a los nº de orden 3 y 4 se les asigna un rango de 3,5; para las estancias de 12 días, a los nº
de orden 5,6 y 7 se les asigna el rango 6. Las barras verticales separan los empates.
Seguidamente se calcula la suma de los rangos de cada una de las muestras. Para el hospital A,
Σri= 2 + 3,5 + 6 + 8,5 + 14 = 34. Para B, Σri = 86.
5. Como comprobación de los cálculos debe ocurrir que R(A) + R(B) sea igual que la suma desde 1
hasta n (1 + 2 + 3 + ....+ 15) = 120. Abreviadamente, esta suma se puede calcular:
n( n + 1)
∑ n
1
= en nuestro caso, (15 × 16 )/2 = 120
2
Para realizar el test, basta con calcular la suma de rangos de la muestra de menor tamaño, pero
conviene hacer los cálculos completos para comprobar el paso 5.

La cantidad experimental Rexp suma de los rangos de la muestra de menor tamaño se compara con lo
que debería haber ocurrido si la hipótesis nula fuese cierta. ¿Y cuál era la predicción? Si el hospital A
tiende a tener una estancia menor, al ordenar la muestra conjunta sus rangos tenderán a ser bajos, y
su suma Rexp un número pequeño. Si ocurre lo contrario, y la estancia en A es mayor que en B, los
rangos serán altos, y Rexp será un número grande. Es decir, valores altos o bajos de Rexp llevarán a
rechazar la hipótesis nula, mientras que valores intermedios no permitirán hacerlo. Una guía para
interpretar qué se entiende por valores altos o bajos de Rexp la obtenemos en las tablas
correspondientes (nº 14 del libro de A. Martín Andrés), que dan intervalos de aceptación para esta

18
cantidad. En nuestro ejemplo, Rexp= 34 , para n1 =5 y n2 =10, se encuentra dentro del rango que se
considera aceptable con una probabilidad de 0,1. Como no es suficientemente pequeña, no podemos
rechazar la hipótesis nula, y concluimos que ambos hospitales tienen igual estancia tras la
intervención quirúrgica. Si el resultado hubiera sido Rexp= 58, este valor hubiese estado fuera del
rango aceptable con una probabilidad 0,05. La hipótesis nula se hubiese rechazado con un error de
probabilidad p<0,05.

COMPARACIÓN DE DOS GRUPOS CON MUESTRAS APAREADAS:


(una población, una variable cuantitativa medida de forma repetida)

En este caso se calculan inicialmente las diferencias entre los valores apareados (fase paramétrica) y
se consideran como dos grupos de valores las diferencias positivas y negativas encontradas, es
decir, A y B son ahora las diferencias + y - encontradas. El resto del procedimiento es idéntico, salvo
que la probabilidad del resultado se localiza en la tabla 15 del libro de A Martín Andrés.
Veamos un ejemplo: Supongamos que se registran las presiones sistólicas en 10 alcohólicos antes y
después de dejar la bebida, con los siguientes resultados:

Individuo Nº 1 2 3 4 5 6 7 8 9 10
Antes: 140 165 160 160 175 190 170 175 155 160
Después: 145 150 150 160 170 175 160 165 145 170
Diferencia: + 15 10 0 5 15 10 10 10
- 5 10

Comparamos ahora las diferencias positivas y negativas, despreciando las parejas en las que no se
ha producido ningún cambio, por el mismo procedimiento anterior:

Diferencias + 5 10 10 10 10 15 15
ordenadas - 5 10
Nº de orden 1 2 3 4 5 6 7 8 9 Totales
Rangos ri + 1,5 5 5 5 5 8,5 8,5 R(+)= 38,5
- 1,5 5 R(-)= 6,5
Suma 45

Como comprobación, se sigue cumpliendo que n(n+1)/2 = (9 × 10) / 2 = 45

Si la presión antes fuera superior a después, las diferencias deberían ser positivas y grandes, lo que
implicaría que R(+) sería grande. Si por el contrario la presión después de dejar la bebida fuese
superior, el valor de R(+) sería pequeño. Así pues, valores altos o bajos de R(+) llevarían a rechazar
la hipótesis nula. La tabla correspondiente (nº 15 del libro de A. Martín Andrés) proporciona los
intervalos de aceptación para R(+). En nuestro ejemplo, R(+) = 38,5, que para n=9 está fuera del
intervalo para α=0,05 pero no para α=0,1. Por tanto, la probabilidad de este resultado se encuentra
entre 0,05 y 0,1. No sería tan pequeña como para rechazar la hipótesis nula ni tan grande como para
aceptarla, por lo que lo más indicado sería no tomar ninguna decisión y aumentar el tamaño de la
muestra.

COMPARACIÓN DE VARIOS GRUPOS: TEST DE KRUSKAL-WALLIS


(dos o más poblaciones, una variable cuantitativa)

No es más que una generalización del test de Wilcoxon para la comparación de más de dos grupos.
En realidad, cuando el número de grupos es 2, ambos tests son idénticos. Cuando las medidas son
repetidas (apareadas) el test de Friedman, también no paramétrico, contrasta la hipótesis de igualdad
de todas las medidas. A su vez, es una extensión del test de Wilcoxon para muestras apareadas en el
caso de más de dos medidas.

19
VENTAJAS Y DESVENTAJAS DE LOS MÉTODOS NO PARAMÉTRICOS EN RELACIÓN CON
LOS PARAMÉTRICOS

Ventajas:
1. Los métodos no paramétricos valen siempre, sea cual sea la variable de partida. Así, su aplicación
no precisa de la hipótesis de normalidad, que no tiene por qué ser verificada (son tests más
generales) ni comprobada (se ahorra tiempo).
2. El cálculo manual es muy sencillo y rápido cuando las muestras son pequeñas.

Desventajas:
1. Cuando las variables son normales los tests paramétricos son más potentes (1-β) que los no
paramétricos. Viene a representar una reducción de potencia a un 95%, es decir, si con 100
observaciones se podría detectar una diferencia mediante un test no paramétrico, con el
paramétrico bastarían 95.
2. El cálculo se hace más complejo con las muestras mayores.
3. Los métodos no paramétricos permiten menos refinamientos en el análisis posterior de los datos,
como intervalos de confianza para las diferencias detectadas, o búsqueda de los grupos que son
diferentes si se están comparando más de dos.

2
16. El test χ (chi-cuadrado o ji-cuadrado) y sus aplicaciones

TEST DE BONDAD DE AJUSTE:


(una población, una variable cuantitativa)

1. H0: la distribución de una variable cualitativa en una población se ajusta bien a una distribución de
parámetros conocidos (las proporciones especificadas en la H0 son las correctas para cada valor
de la variable)
2. Condiciones de aplicación: Si los n individuos de una muestra pueden caer en una y sólo una de
las k clases exhaustivas y excluyentes C1, C2,..., Ck con probabilidades p1, p2,...,pk ,
respectivamente, dadas por H0, y si O1, O2,...Ok es el número de individuos, de entre los n de la
muestra, que caen en las clases C1, C2,... Ck (valores observados Oi experimentalmente) ,
entonces, calculados los valores esperados (bajo H0) E1= np1, E2= np2,...Ek = npk (ΣEi= n), si
ninguna Ei es < 1 y no más del 20% de ellas pueden ser ≤ 5. Los datos pueden presentarse como
en la tabla siguiente:

clases C1 C2......Ck Totales


probabilidades p1 p2......pk 1
valores observados O1 O2......Ok n
valores esperados E1 E2......Ek n

3. Cálculo del estadístico de contraste:


(O − E ) 2 Oi2
• Si k > 4 ó n > 200: χ 2
=∑ =∑ −n
E Ei
exp

(O − E
i i −1
2
) 2

• Si k ≤ 4 y n ≤ 200: χexp
2

Ei
2 2 2
4. Cálculo de la probabilidad: se compara χ exp
con una χ α de la distribución χ con k-1 grados de
2 2
libertad. Si χ exp > χ α se rechaza H0 con una probabilidad de error α.

20
Para cada gl gl 0,9 0,2 0,1 0,05 0,025 0,01 0,001
(columnas) y para
1 0,016 1,645 2,706 3,841 5,204 6,635 10,828
cada α (filas) se da
2 0,211 3,219 4,605 5,991 7,378 9,210 13,816
en el interior de la
3 0,584 4,642 6,251 7,851 9,348 11,345 16,266
2
tabla el valor de χ
4 1,064 5,989 7,779 9,488 11,143 13,277 18,467
que deja a5 su 1,610 7,289 9,236 11,070 12,833 15,086 20,515
derecha un área α.
6 2,204 8,558 10,645 12,592 14,449 16,812 22,458
7 2,833 9,803 12,017 14,067 16,013 18,475 24,322
Por ejemplo, con un gl, la probabilidad de que 8 3,490 11,030 13,362 15,507 17,535 20,090 26,124
2
una χ supere el 3,841 e es de un 5% 9 4,168 12,242 14,684 16,919 19,023 21,666 27,877
10 4,865 13,442 15,987 18,307 20,483 23,209 29,588

TEST DE HOMOGENEIDAD DE UN CONJUNTO DE MUESTRAS CUALITATIVAS:


(dos o más poblaciones, una variable cualitativa)

1. H0: la proporción de individuos que caen en cierta clase es la misma para todas las poblaciones, y
esto vale para todas las clases. Dadas r muestras cuyos individuos se clasifican en s clases como
en la tabla siguiente, en la cual:

Oij= nº de individuos de la muestra i que caen en la clase j = cantidades observadas


Fi = total de fila i= nº de individuos de la muestra i
Cj = total de columna j= nº de individuos de la clase j
T = nº total de individuos considerados = ΣFi= ΣCj= ΣΣOij

Clase 1 Clase 2 ... Clase j ... Clase s Totales


Muestra 1 O11 O12 ... O1j ... O1s F1
Muestra 2 O21 O22 ... O2j ... O2s F2
... ... ... ... ... ... ... ...
Muestra i Oi1 Oi2 ... Oij ... Ois Fi
... ... ... ... ... ... ... ...
Muestra r Or1 Or2 ... Orj ... Ors Fr
Totales C1 C2 ... Cj ... Cs T

Para tablas 2*2: (dos filas y dos columnas)

Clase 1 Clase 2 Totales


Muestra 1 O11 O12 F1
Muestra 2 O21 O22 F2
Totales C1 C2 T

2. Condiciones de validez: Calcular las cantidades esperadas Eij= Fi Cj / T y entonces el test que
sigue es válido si:
• En tablas 2 × 2: si T > 40, ó si 20 ≤ T ≤ 40 pero todas las Eij son > 5
• En otras tablas: ninguna Ei debe ser inferior a 1 y no más del 20% de ellas < 5.

3. Cálculo del estadístico de contraste:

• En tablas 2 × 2: (O O22 − O12O21 − T / 2 )


2

χ = ×T
2 11

F1 F2 C1C2
• En otras tablas:
OI2
χ =Σ
2
−T
EI
2
4. Cálculo de la cantidad teórica: en tablas de χ con (r-1) (s-1) grados de libertad.

21
TEST DE INDEPENDENCIA PARA VARIABLES CUALITATIVAS
(una población, dos variables cualitativas)

1. H0: los caracteres A y B son independientes. Si los T individuos de una muestra aleatoria son
clasificados con arreglo a dos caracteres A y B, el primero dividido en r clases y el segundo en s
clases, obteniéndose una tabla como la anterior (cambiando muestras y clases por "clases del
carácter A" y "clases del carácter B" respectivamente, entonces las condiciones de validez, el
cálculo de las cantidades experimentales y teóricas son idénticas a las del test anterior (Test de
homogeneidad de un conjunto de muestras cualitativas).

MEDIDAS DE DEPENDENCIA EN TABLAS DE CONTINGENCIA

Para ver el grado de dependencia (fuerza de la asociación) de ambos criterios de clasificación en


tablas de 2×2 se definen:
O11 O22
• Razón del producto cruzado (odds ratio): OR = ---------
O12 O21

Puede calcularse en estudios de casos y controles y también en estudios de cohortes

O11/C1
• Riesgo relativo (del factor de riesgo B para la enfermedad A) RR = --------
O12/C2

Sólo tiene sentido en estudios de cohortes, comparando la frecuencia de enfermedad A (O11)


entre el grupo expuesto al factor de riesgo B (C1), es decir, la incidencia O11/C1 con la incidencia
en el grupo no expuesto (O12/C2)

En ambos casos, un valor superior a 1 significaría un aumento del riesgo, un valor cercano a 1
igualdad de riesgo, y un valor inferior a 1 disminución del riesgo (factor de protección).
Tanto para la OR como para el RR tiene sentido, si se demuestra que existe una asociación
estadística, que se calcule un intervalo de confianza que informe acerca de la precisión con que se
mide el riesgo. Un método sencillo para calcularlo viene dado por la expresión:
 1. 96   1 .96 
 1±   1± 
χ  χ 
IC (95%) : OR 
; IC (95%) : RR 

donde el límite inferior del intervalo se obtiene elevando OR (o RR) a (1-1.96/χ), y el superior a
2
(1+1.96/χ), y χ es la raíz cuadrada del estadístico de contraste χ .

17. Contraste de hipótesis en regresión


Una vez realizados los cálculos previos (ver apartado 10 en este mismo documento), se pueden
comprobar hipótesis en regresión:

1. H0: La variable dependiente toma el mismo valor para todos los valores de la independiente, o lo
que es igual, la pendiente es 0 (H0≡β=0)
2. Condiciones de validez: Los valores de la variable y, para cada valor de la x, siguen distribuciones
2
Normales de medias situadas sobre la línea recta α + βx y varianzas (σ ) iguales.
b SCx
3. Test: t exp =
s 2yx
4. Cálculo de la cantidad teórica: Las tα se buscan en la tabla de la distribución t-Student con (n - 2)
grados de libertad

22
Alternativamente, se puede contrastar la misma hipótesis (H0≡β=0) mediante la realización de un
intervalo de confianza para β (ver apartado 10). Si el intervalo excluye el valor β=0, puede concluirse
que la pendiente es distinta de 0.

Otra alternativa es contrastar la independencia de ambas variables (x e y) descomponiendo la


varianza total de y mediante una tabla de ANOVA, que divida la suma de cuadrados total de y ( SCy )

SCreg = ∑ ( yˆ − y ) y la residual: SCres = ∑ ( y − yˆ ) :


2 2
en dos partes: la debida a regresión:

Fuente de grados Suma de cuadrados Media Estadístico F


variación de SC Cuadrática
libertad
SCreg = ∑ ( yˆ − y ) SC reg MC reg
Regresión k-1 2

MC reg = Fexp =
k −1 MC res
SCres = ∑ ( y − yˆ ) SC reg
Residual n-k 2
MCres =
n−k
Total n-1
SC y = ∑ ( y − y )
2

k: número de variables. Si sólo hay una variable predictora x, k=2 (x e y)

En realidad, el modelo de regresión es un modelo más general, que incluye como caso particular al
análisis de la varianza, y lo podríamos usar para comparar las medias de dos grupos, si éstos están
definidos por los valores de una variable dicotómica, como por ejemplo el sexo (1: varones, 0:
mujeres).
2
El coeficiente de determinación, r , expresa el porcentaje de la variabilidad de y explicada por x:
SC reg
r2 = ; a partir de aquí, el coeficiente de correlación, r = r2
SC y

23
E. ALGUNAS CUESTIONES A TENER EN CUENTA EN LA REVISION ESTADISTICA DE
ARTICULOS CIENTÍFICOS

1. Anotar los fines del trabajo y enumerarlos, en términos no estadísticos, lo más precisamente
posible.
2. Encontrar las variables que se han elegido para alcanzar los fines propuestos. Enumerarlas
detalladamente, asignándoles sus tipos (cuantitativas o cualitativas, discretas o continuas) y
planteándose, siempre que se pueda, el conocimiento, aunque sea aproximado, de su distribución
(Normal, Binomial, Poisson, o ninguna de ellas).
3. Con respecto a la muestra estudiar los siguientes extremos:
• Cómo se ha extraído
• Si la extracción hace que la muestra pueda considerarse aleatoria
• Estudiar si han sido recogidas variables como la edad o el sexo, que nos permitan "asegurarnos" de
que la muestra representa suficientemente bien a la población (se distribuye por edad y sexo igual
que la población)
• Identificar a la población de la que ha sido extraída la muestra, con objeto de ver si las conclusiones
obtenidas lo son para esa o para otras poblaciones.
• Enumerar, según el conocimiento del problema, los posibles sesgos en los que se pueda incurrir, y
si éstos sesgos han sido evitados o no. Si no han sido evitados, en qué sentido afectarían a los
resultados.
• Analizar el tamaño de la muestra del que se ha dispuesto, viendo si ha sido calculado fijando
condiciones previas y cuáles son éstas. Si no se sabe cómo ha sido fijado el tamaño de muestra
(que es lo más común) habrá que ver si ha sido suficiente o no.
4. Especificar las hipótesis de cada uno de los tests a realizar (ahora de manera estadística)
5. Observar si se verifican las condiciones de los tests. Esas condiciones son vitales para poder
aplicarlos. Si no se verifican, su aplicación es incorrecta y sus resultados, y por tanto las
conclusiones que se extraen de ellos, pueden estar muy apartados de la realidad.
6. Siempre que se puedan comprobar los resultados de los tests, debería hacerse. Hay veces que los
resultados que se obtienen son distintos de los que se dan, indicando esto que no se han hecho en
el artículo los tests que se dicen.
7. El nivel de significación "p" debe comprobarse en las tablas. Recuérdese que lo habitual es conside-
rar un test significativo si p < 0.05.
8. Compruébese cómo se interpreta la significación de los tests, pensando en las hipótesis
identificadas anteriormente. Es muy común concluir al revés. Estudiar asimismo las conclusiones
que se deducen de tests no significativos (atención al tamaño de muestra).
9. Observar si las conclusiones finales del artículo van más allá o no de los tests realizados.
10. Pensar en tests alternativos para obtener las conclusiones del trabajo. Estudiar si tales tests son
más apropiados que los usados. Es muy común usar tests que impliquen una pérdida de
información importante (ej.: agrupamiento en clases).
11. No olvidar nunca que, por encima de la significación estadística, los valores de p, etc., debe
situarse siempre la relevancia clínica o biológica de las diferencias o asociaciones encontradas.

24
F. PRINCIPALES TIPOS DE PROBLEMAS, Y MÉTODOS PARA SU RESOLUCIÓN

1.COMPARACION DE DISTRIBUCIONES

Una Variable cuantitativa:


Una población Intervalo de confianza para una media
test de contraste para una media
Dos poblaciones Distribución Normal (o n≥30) Muestras Varianzas iguales: t-Student
(comparación de dos medias) independientes Varianzas distintas: Welch
Muestras t-Student para muestras
apareadas apareadas
Distribuciones cualesquiera Muestras Wilcoxon, Kruskal-Wallis
(no normales, y n<30) independientes tests no paramétricos
Muestras Wilcoxon para muestras
apareadas apareadas
>dos poblaciones Análisis de la Varianza (ANOVA)

Una Variable cualitativa:


Una población Intervalo de confianza para una proporción
Dos categorías: test para una proporción
2
Más de dos categorías: test de bondad de ajuste: χ
Dos poblaciones Muestras independientes Test de homogeneidad : χ2,
Test de Fisher, si no se cumplen las
2
condiciones para el χ
Muestras apareadas Test de McNemar
>dos poblaciones Muestras independientes χ2
Muestras apareadas Test de Cochrane

2.COMPROBAR LA ASOCIACIÓN O RELACIÓN ENTRE VARIABLES

Dos variables:
2
Cualitativas χ (tablas de contingencia)
Cuantitativas Correlación V. Normales Correlación lineal simple
V. Cualesquiera Correlación no paramétrica: ρ de Spearman
2
Mixtas Cualitivizar la cuantitativa: χ poco deseable, al perder información
se convierte en una escala
Cuantitivizar la cualitativa Correlación
(si es ordinal→1,2,3...)
Comprobar si la distribución de la Comparación de medias
cuantitativa es igual en todas las ANOVA
categorías de la cualitativa

Más de dos variables:


Correlación parcial
Estadística multivariante

3.PREDICCIÓN DE LOS VALORES DE UNA VARIABLE

Variables dependientes Normales Regresión (lineal simple, múltiple, curvilínea


Variables dependientes Binomiales Regresión logística
Variables dependientes de Poisson Regresión de Poisson

25

You might also like