Professional Documents
Culture Documents
,..
ANALISIS
DE DATOS,..
EN PSICOLOGIA 11
EDICIONES PIRAMIDE
COLECCIÓN «PSICOLOGÍA»
Prólogo............................................................................. 15
O. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
l. Qué es el análisis de datos . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2. Para qué sirve el análisis de datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3. Niveles de indagación: descriptivo, relacional, explicativo . . . . . . . . . . . . . . . . . . . . 21
4. Escalas de medida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.1. Escala nominal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.2. Escala ordinal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.3. Escala de intervalo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.4. Escala de razón . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.5. Un comentario más sobre las escalas de medida . . . . . . . . . . . . . . . . . . . . . . . 29
5. Sobre los contenidos de este libro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
6. Software para el análisis de datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
PARTE PRIMERA
La inferencia estadística
1. Muestreo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.1. Conceptos básicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.1.1. Población . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. .. . . . . . . . .. . . . . . . . 40
1.1.2. Muestra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.1.3. Parámetro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
1.1.4. Estadístico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.2. Tipos de muestreo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
1.2.1. Muestreo aleatorio en población finita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
1.2.2. Muestreo aleatorio en población infinita .. .. . . . . . . . . . . . . . . . . . . . . . . . . 54
1.2.3. Muestreo aleatorio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
1.2.4. Otros tipos de muestreo . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
1.3. Distribuciones muestrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
1.3.1. Concepto de distribución muestra) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
1.3.2. Distribución muestra) de la media . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
1.3.3. Distribución muestra( de la varianza . .. . . . . . . . . . . . . . . . . . . . . . . . .. . . . 71
1.3.4. Distribución muestra( de la proporción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
Apéndice l . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
© Ediciones Pirámide
10 / Indice
2. Estimación de parámetros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
2.1. Estimación puntual .. . . . . .. . .. . . . .. . .. .. .. .. .. . . . . . . .. . . . . . . . . . . . . . . .. . . . . . 90
2.1.1. Concepto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
2.1.2. Propiedades de un buen estimador .. . . . . . . . . .. . . . . . . . . . . .. . . . . . .. . . 90
2.1.3. Ejemplos de buenos estimadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
2.2. Estimación por intervalos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
2.2.1. Concepto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
2.2.2. Intervalo de confianza para la media . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
2.2.3. Intervalo de confianza para la varianza .. .. .. .. .. .. .. .. .. .. .. .. .. .. . 106
2.2.4. Intervalo de confianza para la proporción . . . . . . . . . . . . . . . . . . . . . . . . . . 109
2.2.5. Precisión de la estimación y tamaño de la muestra . . . . . . . . . . . . . . . . . 111
Apéndice 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
PARTE SEGUNDA
Análisis de datos cuantitativos
© Ediciones Pirámide
Indice / 11
© Ediciones Pirámide
12 / Indice
PARTE TERCERA
Análisis de datos semicuantitativos
© Ediciones Pirámide
Indice / 13
PARTE CUARTA
Análisis de datos cualitativos
© Ediciones Pirámide
Prólogo
© Ediciones Pirámide
1ntroducción
o
' Esta obra, Análisis de daros en psicología //, es continuación de Análisis de daros en psicología I
(Botella, León y San Martín, 1993); en consecuencia, para comprender los contenidos de esta segunda
parte es conveniente, en general, haber asimilado antes los de la primera.
© Ediciones Pirámide
20 / Análisis de datos en psicología 11
Ya ha quedado dicho que el análisis de datos debe ser entendido, ante todo,
como una herramienta metodológica al servicio de la investigación empírica. Ahora
bien, la investigación empírica puede desarrollarse en diferentes niveles de indaga-
ción (puede consultarse la obra de Rosenthal y Rosnow, 1991, para profundizar en
las ideas que siguen).
© Ediciones Pirámide
22 / Análisis de datos en psicología 11
han llegado a ser de la forma que son (o de otra forma, por qué las cosas son como
son). Este nivel de indagación permite establecer relaciones de tipo causal entre los
eventos, de manera que lo que ocurre con uno o varios de ellos puede ser explicado
recurriendo a otro o varios diferentes: por ejemplo, las pautas motivacionales
i'!fluyen sobre el nivel de comprensión lectora; es decir, los sujetos difieren en
comprensión lectora porque poseen (entre, probablemente, otras cosas) pautas
motivacionales diferentes.
Por supuesto, estos diferentes niveles de indagación, descriptivo, relacional y
explicativo, no son mutuamente exclusivos; de hecho, muchos trabajos de investiga-
ción abarcan o se sitúan en más de un nivel.
Esta distinción entre niveles de indagación o investigación es de fundamental
importancia a la hora de establecer el tipo de conclusiones que es posible extraer de
un análisis de datos. Ciertamente, las técnicas de análisis de datos pueden ser
utilizadas en cualquiera de los niveles de indagación mencionados: en todos ellos se
dispone de datos susceptibles de ser analizados. Pero una técnica de análisis de
datos no determina el nivel de indagación en el que nos podemos situar. Es decir,
una técnica de análisis no nos dice si las conclusiones que podemos extraer de unos
datos concretos deben situarse en el nivel descriptivo, relacional o explicativo. Esto
viene determinado, como veremos a continuación, por la estrategia de recogida de
datos que adoptemos.
Dependiendo del fenómeno que deseemos estudiar y del nivel de comprensión
que nos propongamos obtener del mismo, la recogida de datos (denominada,
generalmente, diseño de investigación) puede efectuarse siguiendo dos caminos
alternativos: 1) esperando que aparezca el fenómeno que se desea estudiar y
observándolo cuando ocurre (metodología observacional); 2) provocando que ocurra
bajo determinadas circunstancias y registrándolo al producirse (metodología experi-
mental). Estas dos formas alternativas de diseñar la recogida de datos (con todas las
variantes que se quieran añadir a cada una de ellas) difieren, básicamente, en el
grado de control que se ejerce sobre los diferentes elementos de la situación en la
que se da el fenómeno que se desea estudiar, siendo este control máximo en la
metodología experimental y mínimo en la observacional. Cuando el psicólogo de
nuestro ejemplo se encontraba en el nivel descriptivo, se había limitado a seleccio-
nar una muestra aleatoria de sujetos y a obtener un registro de la respuesta que
deseaba estudiar: no ejerció control sobre ningún elemento de la situación. Poste-
riormente, al situarse en el nivel explicativo, ejerció control sobre el tipo de pautas
motivacionales (manipuló esa variable estableciendo dos niveles: orientación hacia
el aprendizaje y orientación hacia la ejecución) y creó una situación en la que se
podrían haber controlado más variables (igualando los dos grupos respecto al nivel
de comprensión lectora; igualando los dos grupos en alguna otra variable extraña
sospechosa de afectar a la comprensión lectora, como el CI; etc.).
A medio camino entre la metodología observacional y la experimental se
encuentra la metodología correlaciona[ o selectiva (también llamada cuasi-experi-
mental): no se da en ella el grado de control propio de la metodología experimental
(no existe manipulación de las variables), pero sí un grado de control superior al de
© Ediciones Pirámide
24 / Análisis de datos en psicología 11
4. Escalas de medida
2 La posibilidad de establecer relaciones de tipo causal entre variables no es algo que venga
determinado exclusivamente (aunque tal vez sí principalmente) por la metodología de recogida de datos
utilizada (diseño de investigación). Cuando un cuerpo de conocimientos bien organizado (teoría) es capaz
de predecir determinado tipo de estructura relacional entre variables, es posible llegar a conclusiones de
tipo causal independientemente del nivel de indagación alcanzado debido a las restricciones impuestas
por el diseño de investigación (puede consultarse Davis, 1985).
© Ediciones Pirámide
Introducción / 25
las variables no se miden todas de la misma forma (los números que se asignan no
significan siempre lo mismo) porque entre sus valores no se da siempre el mismo
tipo de relación. La medición será en unos casos mejor que en otros, en el sentido de
que en unos casos permitirá establecer mayor número de relaciones que en otros.
De esto parece desprenderse que, dependiendo de la riqueza de las relaciones
que se puedan establecer entre los diferentes valores de una variable, existirán
diferentes niveles o escalas de medida 3 . En Análisis de Datos en Psicología l (Botella,
León y San Martín, 1993) se ha presentado ya un análisis y discusión de la
problemática referida a las diferentes escalas de medida (escalas definidas original-
mente por Stevens, 1946, 1951). No obstante, dada su importancia a la hora de
efectuar una selección apropiada de las técnicas de análisis de datos que expondre-
mos aquí, creemos conveniente hacer un repaso general de las características de las
mismas.
3 Utilizaremos indistintamente los términos escalas de medida y niveles de medida. Así, de un objeto
medido, por ejemplo. en escala ordinal podremos decir, queriendo significar lo mismo, que se encuentra
en el nivel de medida original.
© Ediciones Pirámide
Introducción / 27
matizado. Si atendemos a las características de las diferentes escalas de medida, parece claro que no
podemos considerarlas exclusivas, pues todas las propiedades de una escala de medida inferior están
contenidas en cualquiera de las escalas superiores a ella. Sin embargo, si atendemos al nivel de medida
más alto que una variable puede alcanzar en función del tipo de relaciones que puedan establecerse entre
sus niveles (es decir, si atendemos a la escala de medida más fuerte que es posible utilizar con una
determinada variable), entonces sí es posible hablar de exclusividad, pues a una variable dada sólo le
corresponde un nivel de medida.
© Ediciones Pirámide
30 / Análisis de datos en psicología 11
© Ediciones Pirámide
Introducción / 31
vienen otros muchos factores que intentaremos hacer explícitos al describir cada
una de las técnicas.
Conviene mencionar, también, que este libro ha sido pensado para servir de
texto en un curso de análisis de datos de duración cuatrimestral. Este hecho impone
límites al número de técnicas de análisis a las que es posible prestar atención, por lo
que nuestra selección se ha centrado en las técnicas de análisis de diseños con una
sola variable dependiente, dejando las técnicas de análisis de diseños con más de
una variable dependiente (conocidas como técnicas multivariadas) para posteriores
cursos más avanzados. Además, el hecho de que esta obra haya sido concebida
fundamentalmente como libro de texto para alumnos de psicología ha determinado
que en la explicación de los diferentes procedimientos de análisis que se incluyen se
hayan evitado, donde ha sido posible, desarrollos matemáticos complicados. Esto
significa que la mayor parte de las explicaciones pueden seguirse sin dificultad sin
poseer una base matemática fuerte. No obstante, creemos que el investigador
deseoso de profundizar en alguno de los procedimientos que aquí se describen
encontrará todo lo necesario para justificar el significado de cada uno de ellos y la
lógica de su utilización.
Al final de cada capítulo se ha añadido un apéndice con algunos contenidos que,
no siendo, a nuestro juicio, imprescindibles en un curso cuatrimestral sobre análisis
de datos para estudiantes de psicología, pueden resultar especialmente útiles para el
analista interesado en aclarar determinadas cuestiones. No es necesario estudiar los
apéndices para seguir el hilo argumental del texto. Su inclusión obedece, en parte, al
deseo de los autores de que este libro sirva, además de como libro de texto, como
obra de consulta para investigadores con una base matemática poco sólida.
Debemos señalar, por último, que se ha intentado cuidar la presentación al
máximo con la finalidad de hacer más fácil la lectura. Las definiciones y las
cuestiones de especial relevancia se han incluido en un recuadro sombreado para
realzarlas. Los ejemplos se han mecanografiado con un tipo de letra diferente y se
han colocado en un recuadro para distinguirlos fácilmente de lo demás. Y allí
donde se ha considerado conveniente, se han incluido figuras aclaratioras de los
conceptos explicados en el texto.
(PC, Macintosh, etc.), los cuales, cada vez más, se encuentran al alcance de un mayor
número de personas. A estos últimos paquetes nos referiremos en adelante, pues a la
ventaja de estar al alcance de un mayor número de personas hay que añadir el
hecho de que las diferencias entre ellos y los diseñados para los grandes ordenado-
res se van haciendo cada vez más pequeñas.
Afortunadamente, los paquetes de software estadístico son bastante sencillos de
manejar y suelen ir acompañados de excelentes manuales que facilitan su uso. Sin
embargo, no todos poseen la misma capacidad de análisis ni se encuentran
igualmente accesibles. De entre los paquetes disponibles en el mercado merecen
destacarse, a nuestro juicio, cuatro de ellos: SPSS, BMDP, SAS y SYSTAT. Pro-
bablemente, cualquiera de los cuatro serviría para satisfacer las necesidades habi-
tuales del analista más exigente, pero eso no significa que sea necesario aprender
a manejar los cuatro. Hay que optar por uno de ellos y, nosotros, por razones de
potencia de cálculo, actualización vanguardista, sencillez de manejo y accesibilidad,
recomendamos el SPSS (SPSS Inc., 1998).
No enseñaremos aquí a utilizar el SPSS; para eso existen excelentes manuales
que no tenemos intención de suplir. Nuestra recomendación del SPSS no implica
que los procedimientos propuestos requieran del uso del SPSS para ser ejecutados.
Con cierto esfuerzo, todos los procedimientos pueden ejecutarse con una simple
calculadora de bolsillo y eso es lo que hay que aprender a hacer en primer lugar.
Sin embargo, los beneficios de aprender un paquete estadístico como el propuesto
se irán haciendo patentes a medida que vayamos avanzando en el estudio de las
diferentes técnicas de análisis de datos.
© Ediciones Pirámide
PARTE PRIMERA
La inferencia estadística
Muestreo
1
1 .1 . Conceptos básicos
1 .1 .1. Población
1.1.2. Muestra
Al contrario de lo que ocurre con las poblaciones, que suelen ser conjuntos de
elementos de gran tamaño, las muestras suelen ser conjuntos de elementos de
tamaño reducido.
Por supuesto, para poder describir con exactitud las propiedades de una
población cualquiera, sería necesario examinar cada uno de los elementos que
componen esa población. Pero existen algunas razones que nos obligan a trabajar
con muestras en lugar de hacerlo con poblaciones. Una de esas razones ya ha sido
mencionada: las poblaciones que habitualmente interesa estudiar en psicología o
son infinitas o son tan grandes que, normalmente, resulta muy difícil (si no
imposible) tener acceso a todos sus elementos. Bajo estas circunstancias, es de las
muestras de donde podemos obtener la información necesaria para poder describir
las propiedades de las poblaciones objeto de estudio.
El conocimiento que nos formamos en nuestra vida cotidiana acerca del mundo
que nos rodea está, muy frecuentemente, basado en muestras: con sólo comer una
vez en un restaurante nos formamos una opinión acerca de la calidad de la comida
y del servicio de ese restaurante; con sólo ver un par de películas de cine del mismo
director nos formamos una opinión sobre ese director; con sólo conocer a un par de
personas de un determinado colectivo nos formamos una idea sobre el tipo de
personas que forman ese colectivo; etc.
Con el análisis de datos se intenta hacer algo parecido: extraer conclusiones
referidas a todos los elementos de la población a partir de la observación de sólo
unos pocos de esos elementos. Ahora bien, para que esto sea posible, es decir, para
© Ediciones Pirámide
42 / Análisis de datos en psicología 11
1.1.3. Parámetro
sujetos poseen y otros no. sino a características en las que los sujetos difieren. Por ejemplo, todas las
personas tienen la característica esrado cid/. pero no todas las personas comparten el mismo estado civil:
hay solteros, casados. viudos. divorciados, etc.
Hay dos aspectos de los parámetros que nos interesa resaltar. En primer lugar,
conviene saber que los parámetros son, en general, valores poblacionales desconoci-
dos: las poblaciones con las que se suele trabajar son tan grandes que sus elementos
raramente resultan accesibles en su totalidad; esto impide el cálculo de cualquier
valor numérico basado en el total de los elementos. En segundo lugar, los paráme-
tros son valores numéricos constantes (es decir, no son variables): definida una
población cualquiera y un parámetro en ella, ese parámetro sólo puede tomar un
valor numérico concreto (el CI medio de la población de varones mayores de 30
años viene determinado por las puntuaciones individuales de cada varón en CI; la
proporción de varones en la población de pacientes depresivos viene determinada
por el número de varones depresivos; etc.).
Por último, es necesario señalar que para referirnos a los parámetros utilizare-
mos (así es como se hace generalmente) letras griegas minúsculas: µ, u, 7t, etc.
1 .1 .4. Estadístico
_X 1 +X 2 + .. ·+Xn_I~
Y- - - L. X;
n n;=1
n
z= Xi + x~ + .. · + x; = ¿ x¡
i= 1
n
V=; (X¡ - k)2 + (X2 - k) 2 + "·(Xn - k) 2 = L (X¡ - k) 2
i= 1
© Edicicmes Pirámide
44 / Análisis de datos en psicología 11
2 Obviamente, si utilizamos N para referirnos al tamaño de una población es porque esta población
puede realizarse de dos maneras: con reposición (es decir, devolviendo cada elemento a la población una
vez que ha sido seleccionado; lo que significa que ese elemento puede aparecer más de una vez en la
misma muestra) y sin reposición (es decir, sin devolver a la poblaci~'m los elementos que van siendo
seleccionados). Si la muestra se obtiene con reposición, el número de muestras que es posible obtener
viene dado por las variaciones con repetición de N elementos tomados de n en n. es decir, N". Si la
muestra se obtiene sin reposición, el número de muestras posibles viene dado por las variaciones sin
repetición de N elementos tomados de n en n, es decir, N!/(N - n)!
© Ediciones Pirámide
Muestreo / 45
muestra, sino del proceso de extracción de esa muestra. En realidad, observando los elementos de una
muestra no es posible determinar si esa muestra es o no aleatoria. De lo único que podemos estar
seguros es de si el método de extracción utilizado ha sido o no aleatorio.
© Ediciones Pirámide
Muestreo / 47
Ahora es cuando tiene sentido hablar de una muestra aleatoria simple de tamaño
n como de una secuencia de n variables aleatorias (X 1 , X2 ,. •• , X n) igualmente
distribuidas (primera propiedad) e independientes (segunda propiedad).
El número de muestras diferentes que es posible obtener con el muestreo
aleatorio con reposición es N x N x ··· x N, es decir, el número de variaciones con
repetición que podemos formar con N elementos tomados de n en n:
~= Nn (1.1)
1 1
(1.2)
NN N Nn
lo que significa que las Nn muestras de tamaño n que es posible obtener con
reposición de una población de tamaño N tienen, todas ellas, exactamente la misma
probabilidad de ser extraídas.
© Ediciones Pirámide
48 / Análisis de datos en psicología 11
TABLA 1.1
Muestras de tamaño n = 2 que es
posible extraer con reposición de una
población de N = 5 elementos
© Ediciones Pirámide
50 / Análisis de datos en psicología 11
probabilidad asociada a cada uno de ellos: / 1(x 1 ) = f 2(x 2 ). La tabla 1.2 refleja esta
circunstancia.
TABLA 1.2
Funciones de probabilidad individuales, f 1(xi) y f 2 (x 2 ), y conjunta, f(x 1,x 2 ), de
X 1 = «resultado obtenido en la primera extracción» y X 2 = «resultado
obtenido en la segunda extracción». Muestreo aleatorio con reposición
x,
1 2 3 4 5 f2(X2)
© Ediciones Pirámide
Muestreo / 51
TABLA 1.3
Funciones de probabilidad individua/es, f 1(x.) y / 2 (x 2 ). y conjunta, /(x 1 ,x 2 ). de
X 1 = «resultado obtenido en la primera extracción» y X 2 = «resultado
obtenido en la segunda extracción». Muestreo aleatorio sin reposición
1 2 3 4 5 f2(X2)
TABLA 1.4
Muestras de tamaño n = 2 que es posible extraer con
reposición de una población de N = 1O personas de las
que 4 son varones (V) y 6 son mujeres (M)
Primera Segunda
Número de muestras
extracción extracción
V V (4)(4) = 16
V M (4)(6) = 24
M V (6)(4) = 24
M M (6)(6) = 36
100
© Ediciones Pirámide
52 / Análisis de datos en psicología 11
extracción (recordemos que el muestreo es con reposición). Así pues, todos los
elementos poblacionales tienen la misma probabilidad de formar parte de la muestra.
La probabilidad conjunta de que uno cualquiera de los 10 elementos aparezca en
la primera extracción y uno cualquiera de esos mismos IO elementos aparezca en la
segunda vale 1/10(1/IO) = 1/100. Lo cual equivale a afirmar que, puesto que hay 100
muestras posibles y todas ellas son, según sabemos, equiprobables, la probabilidad de
obtener una cualquiera de esas 100 muestras posibles vale 1/100.
Podemos definir ahora las variables aleatorias X 1 = «sexo de la persona selecciona-
da en la primera extracción» y X 2 = «sexo de la persona seleccionada en la segunda
extracción». La variable aleatoria X 1 puede tomar cualquiera de los dos valores
posibles 5 : varón, mujer. Y lo mismo vale decir de la variable aleatoria X 2 . La tabla 1.5
muestra las funciones de probabilidad individuales y conjunta de X 1 y X 2 . Podemos
comprobar en ella que se verifican las dos propiedades del muestreo aleatorio con
reposición: las funciones de probabilidad de X 1 y X 2 son iguales, es decir,
f 1(xi) = f 2(x 2); y la función de probabilidad conjunta es igual al producto de las
funciones de probabilidad individuales, es decir, f(x 1,x 2 ) =f1(x 1 )f2 (x 2 ).
TABLA 1.5
Funciones de probabilidad individuales, f 1(x¡) y f 2 (x 2 ).
y conjunta.f(x 1,x 2 ), de X 1 =«sexo de la persona
seleccionada en la primera extracción» y X 2 = «sexo
de la persona seleccionada en la segunda extracción».
Muestreo aleatorio con reposición
X1
V M fz(Xz)
5 Conviene en este momento aprender a distinguir los conceptos de población y espacio muestra/. En
el ejemplo 1.1 la población estaba formada por 5 elementos diferentes: 1, 2, 3, 4 y 5. En cada extracción
era posible obtener uno cualquiera de esos 5 elementos poblacionales. Los posibles resultados de una
cualquiera de las extracciones (es decir, el espacio muestra( del experimento aleatorio consistente en
efectuar una extracción al azar de esa población) eran justamente los 5 elementos poblacionales. La
población y el espacio muestra( coincidían en el ejemplo l. l. En el ejemplo 1.2 la situación ha cambiado.
La población está formada ahora por 10 elementos de los que 4 son varones y 6 son mujeres. En cada
extracción estamos interesados en si el resultado es la elección de un varón o la elección de una mujer. El
espacio muestra( ahora (es decir, los posibles resultados del experimento aleatorio consistente en efectuar
una extracción y observar si la persona seleccionada es varón o mujer) no es cada uno de los 10
elementos poblacionales, sino si el elemento seleccionado es un varón o es una mujer. Mientras la
población tiene ahora 10 elementos (las 10 personas que la componen), el espacio muestra( sólo tiene 2
(ser varón o ser mujer), lo que significa que los conceptos de población y espacio muestra( son conceptos
distintos (aunque en ocasiones puedan referirse a los mismos elementos).
© Ediciones Pirámide
Muestreo / 53
TABLA 1.6
Muestras de tamaño n = 2 que es posible extraer sin
reposición de una población de N = 1O personas de las
que 4 son varones y 6 son mujeres ( V= varón,
M =mujer)
Primera Segunda
Número de muestras
extracción extracción
V V (4)(3) = 12
V M (4)(6) = 24
M V (6)(4) = 24
M M (6)(5) = 30
90
TABLA 1.7
Funciones de probabilidad individuales, f 1 (x 1 ) y f 2 (x 2 ).
y conjunta. f(x 1, x 2 ). de X 1 = «sexo de la persona
seleccionada en la primera extracción» y X 2 = «sexo
de la persona seleccionada en la segunda extracción».
Muestreo aleatorio sin reposición
Xi
V M f 2 (x 2 )
V 12/90 24/90 4/10
X2
M 24/90 30/90 6/10
© Ediciones Pirámide
54 / Análisis de datos en psicología 11
Hasta ahora nos hemos limitado a hablar del muestreo aleatorio en poblaciones
finitas. Al tratar con poblaciones infinitas la situación cambia por completo:
disponemos de un número infinito de elementos poblacionales y de un número
infinito de muestras posibles de cualquier tamaño. Bajo estas condiciones no tiene
mucho sentido definir el muestreo aleatorio como el proceso que garantiza que
todos los elementos poblacionales tienen la misma probabilidad de ser elegidos o
todas las muestras posibles de tamaño n la misma probabilidad de ser extraídas.
Obviamente, en una población infinita esas probabilidades valdrán cero. En
consecuencia, al trabajar con poblaciones infinitas necesitamos aproximarnos al
concepto de muestreo aleatorio utilizando una estrategia diferente.
Imaginemos que en un estudio sobre discriminación visual queremos determinar
el tiempo de reacción medio que corresponde a un sujeto concreto ante determina-
do estímulo. En una de las sesiones podemos presentar n veces ese estímulo a
nuestro sujeto y registrar las n respuestas dadas (en tiempo de reacción). Tendremos
así una muestra de n respuestas. Podríamos repetir las sesiones indefinidamente
obteniendo en cada una de ellas n respuestas correspondientes a ese estímulo.
Tendríamos así un número infinito de muestras de tamaño n extraídas de una
población infinita: la formada por las posibles respuestas que ese sujeto podría
emitir ante las infinitas sucesivas presentaciones del mismo estímulo.
Seleccionemos al azar una cualquiera de esas infinitas muestras de tamaño n.
Definamos las variables aleatorias X 1 = respuesta emitida en la primera presentación
del estímulo, X 2 = respuesta emitida en la segunda presentación del estímulo, ... ,
X. = respuesta emitida en la enésima presentación del estímulo. El valor tomado por
X 1 podrá ser cualquier respuesta del repertorio de posibles respuestas de nuestro
sujeto. Y lo mismo ocurrirá con X 2 y con todas las demás variables definidas (pues
todas ellas son, en realidad, la misma variable). Cada posible respuesta podrá
aparecer en la primera presentación, en la segunda o en la enésima con idéntica
probabilidad, pues la respuestas que aparecen en primer lugar, en segundo, en
enésimo, han sido extraídas al azar de entre el número de posibles respuestas. De lo
que podemos deducir que las funciones de densidad de probabilidad individuales de
X 1 , X 2 , ... ,X. serán iguales (primera de las propiedades del muestreo aleatorio con y
sin reposición).
Pero además, la probabilidad de una cualquiera de las respuestas dadas por el
sujeto no se verá afectada por las restantes; en principio, una respuesta ya emitida
puede volver a aparecer (recordemos que esto mismo era típico del muestreo
aleatorio con reposición) y no existe ninguna razón para pensar que la respuesta
emitida en primer lugar, por ejemplo, pueda condicionar a la respuesta emitida en
segundo lugar. Por tanto, las variables aleatorias X 1 , X 2 , ... ,X. serán independien-
tes, es decir, la función de densidad de probabilidad conjunta de las variables
X 1 , X 2 , ••• ,X. será igual al producto de sus funciones de densidad de probabilidad
individuales.
Así pues, vemos que en el muestreo aleatorio en poblaciones infinitas se verifican
© Ediciones Pirámide
Muestreo / 55
las dos propiedades ya estudiadas a propósito del muestreo aleatorio con reposición
en poblaciones finitas:
Hemos hablado hasta ahora de tres tipos de muestreo aleatorio: 1) con reposi-
ción en población finita, 2) sin reposición en población finita y 3) con o sin
reposición (indistintamente) en población infinita. En el primero (con reposición en
población finita) y en el tercero (con o sin reposición en población infinita) se
verifican las mismas propiedades: igualdad de distribuciones e independencia.
Podemos considerar que se trata de dos tipos de muestreo equivalentes. Para
referirnos a ellos utilizaremos el término muestreo aleatorio simple o, simplemente,
muestreo aleatorio.
El segundo tipo de muestreo (sin reposición en población finita) no verifica la
propiedad de independencia y eso constituye un pequeño problema. Curiosamente,
mientras las herramientas estadísticas habitualmente utilizadas en el análisis de
datos se construyen a partir del supuesto de independencia entre las observaciones
muestreadas, el tipo de muestreo útil en la práctica suele, paradójicamente, incum-
plir la condición de independencia. Es decir, las poblaciones reales con las que se
trabaja suelen ser finitas y el tipo de muestreo utilizado suele ser el muestreo
aleatorio sin reposición: si deseamos estudiar la población de varones mayores de 30
años seleccionamos aleatoriamente una muestra de n sujetos diferentes; si deseamos
estudiar el efecto de un fármaco sobre los pacientes aquejados de insomnio
seleccionamos una muestra de n pacientes diferentes; etc.
No obstante, aunque las poblaciones con las que se suele trabajar son finitas, lo
cierto es que, normalmente, son tan grandes que a todos los efectos pueden ser
consideradas infinitas sin riesgo grave. En consecuencia, siempre que la población
con la que trabajemos sea infinita o muy grande 6 , cuando hablemos de muestreo
aleatorio nos estaremos refiriendo al muestreo que verifica las propiedades del
muestreo aleatorio simple: igualdad de distribuciones e independencia.
6 No existe una regla fija para determinar cuándo una población es lo bastante grande, pero
podemos afirmar que, cuanto más grande sea, mejor. Algunos autores sugieren que para tratar
una población tanto finita como infinita sin que ello constituya ningún tipo de problema, el tamaño de la
población debería ser al menos 100 veces el de la muestra (ver, por ejemplo, Glass y Stanley, 1986, pág.
242), pero este criterio no deja de ser arbitrario.
© Ediciones Pirámide
56 / Análisis de datos en psicología 11
7 El objetivo de este apartado es el ofrecer una visión general de los diferentes tipos de muestreo
probabilístico. El lector interesado es profundizar o ampliar estos contenidos puede consultar cualquiera
de las varias excelentes obras mPnográlicas que existen sobre muestreo (por ejemplo, Azorín y Sánchez-
Crespo, 1986).
© Ediciones Pirámide
Muestreo / 57
Una distribución muestra/ es una distribución teórica que asigna una probabi-
lidad concreta a cada uno de los valores que puede tomar un estadístico en
todas las muestras del mismo tamaño que es posible extraer de una determi-
nada población.
a) Un caso concreto
Comencemos considerando el estadístico media aritmética: X. El valor de X
depende de la muestra concreta en la que sea calculada. Ya sabemos que de una
población cualquiera es posible extraer más de una muestra de tamaño n (en una
población infinita es posible extraer un número infinito de muestras de cualquier
tamaño). Si en cada una de las muestras que vamos extrayendo calculamos X,
podremos comprobar que no siempre toma el mismo valor, sino que varía de una
muestra a otra.
Supongamos 8 que estamos trabajando con una población formada por N = 5
puntuaciones: X¡ = {t, 2, 3, 4, 5}. Si de esa población seleccionamos aleatoriamente y
con reposición todas las muestras posibles de tamaño n = 2, tendremos
N. = 52 = 25 muestras posibles, las cuales, de acuerdo con lo estudiado a propósito
del muestreo aleatorio con reposición, serán equiprobables; es decir, tendrán, todas
ellas, la misma probabilidad de ser extraídas: 1/25. Si ahora calculamos en cada
una de esas 25 muestras el estadístico X, llegaremos al resultado presentado en la
tabla 1.8. En ella aparecen las 25 muestras y el valor tomado por el estadístico X en
cada una de ellas.
En esa tabla podemos observar diferentes cosas. Por ejemplo, que mientras en
sólo una de las 25 muestras se obtiene X = 1, en tres de ellas se obtiene X = 2,5. Lo
cual significa que el estadístico X puede tomar el mismo valor en más de una
muestra diferente. Por tanto, aunque las 25 muestras sean equiprobables, los valores
que puede tomar X no lo serán: habrá unos valores de X que serán más probables
que otros porque unos podrán obtenerse en mayor número de muestras qu::: otros;
8 El ejemplo utilizado en este apartado es a todas luces un ejemplo irreal sin ningún tipo de relación
con la investigación psicológica o de otro tipo. Sin embargo, su simplicidad le confiere la virtud de
permitirnos explicar con claridad el importantísimo concepto de distribución muestra!.
© Ediciones Pirámide
60 / Análisis de datos en psicología 11
TABLA 1.8
Muestras de tamaño n = 2 que es posible
extraer con reposición de una población
de N = 5 elementos, valor tomado por el
estadístico X en cada una de ellas y probabilidad
asociada a cada valor de X
Valores
Muestra X .f!.xJ
muestrales
podemos observar en Ja tabla 1.8 que, efectivamente, existen más muestras en las
que se obtiene, por ejemplo, X= 2,5 que X= 1,5.
Estas consideraciones sugieren que Ja tabla 1.8 puede ser resumida tal como se
muestra en Ja tabla 1.9. En ella aparecen Jos valores que puede tomar el estadístico
X y Ja probabilidad asociada a cada uno de esos valores. Es decir, en Ja tabla 1.9
aparecen los diferentes valores de Ja variable aleatoria X y su función de probabili-
dad: la distribución muestra[ de la media.
La distribución muestra) de Ja media puede obtenerse, como veremos en el
siguiente apartado, por procedimientos puramente matemáticos, sin necesidad de
tener que extraer todas las posibles muestras de tamaño n de una determinada
© Ediciones Pirámide
Muestreo / 61
TABLA 1.9
Distribución muestra/ de la media
formada a partir de los valores
obtenidos en la tabla 1.8
Número de Valor de la
f(.xl
muestras media X
1 1,0 1/25
2 1,5 2í25
3 2,0 3/25
4 2,5 4/25
5 3,0 5/25
4 3,5 4/25
3 4,0 3/25
2 4,5 2/25
1 5,0 1/25
población (lo cual, por otra parte, resultaría imposible si estuviéramos trabajando
con una población infinita). Sin embargo, la obtención de la distribución muestra!
de un estadístico a partir de la extracción de todas las posibles muestras de tama-
ño n tiene la ventaja de ayudarnos a reparar en ciertos detalles que de otro modo
podrían pasarnos desapercibidos. En la tabla 1.9 podemos comprobar que, si
seleccionamos aleatoriamente una muestra de tamaño 2 de una población formada
por los elementos 1, 2, 3, 4 y 5, lo más probable es que el estadístico X tome el valor
3, pues P(X = 3) = 5/25 = 0,20 es la probabilidad más alta asociada a los diferen-
tes valores de X. Curiosamente, la media (µ) de la población X¡= { 1, 2, 3, 4, 5}
de donde hemos extraído las 25 muestras de tamaño n = 2 vale µ =
= (1 + 2 + 3 + 4 + 5)/5 = 3. Si decidimos utilizar el estadístico X para estimar 9
el parámetro µ, sabemos que existe una probabilidad de 0,20 de que el valor de X
sea exactamente el mismo que el valor deµ; es decir, existe una probabilidad de 0,20
de efectuar una estimación correcta. Pero también sabemos, por ejemplo, que la
probabilidad de que una estimación se separe del verdadero valor de µ en no más
de medio punto (3 ± 0,5) vale 4/25 + 5/25 + 4/25 = 13/25 = 0,52 (es decir, la suma
de las probabilidades asociadas a los valores 2,5, 3 y 3,5 de X). El razonamiento
puede seguirse argumentando que la probabilidad de que el valor obtenido en una
muestra concreta para el estadístico X no se separe del verdadero valor de µ en más
de 1 punto (3 ± 1) vale 3/25 + 4/25 + 5/25 + 4/25 + 3/25 = 19/25 = 0,76, etc. Todo
lo cual sirve para recordarnos que la distribución muestra! de un estadístico, en
cuanto función de probabilidad que es, nos proporciona la probabilidad asociada a
cada uno de los valores que ese estadístico puede tomar en las diferentes muestras
9 En el siguiente capítulo trataremos lo relativo a la estimación de parámetros.
© Ediciones Pirámide
62 / Análisis de datos en psicología 11
Distribución poblacional de X,
µ=3
.f{x,) u2 =2
"'.iu 1
1 11 11 11 1
2 3 4 5
x,
0,5
l.
1,0
1
1,5
1
2,0 2,5
1 1
3,0
1
Figura !.!.-Gráfico ilustrativo del procedimiento seguido para construir la distribución muestra! de X
en el caso concreto de N = 5 y n = 2 (adaptado de Kirk, 1978, pág. 205).
© Ediciones Pirámide
Muestreo / 63
de tamaño n que es posible extraer de una población (lo cual, como tendremos
ocasión de comprobar en los dos próximos capítulos, constituye el fundamento de
la estimación de parámetros y del contraste de hipótesis estadísticas).
Continuando con nuestra aproximación intuitiva al concepto de distribución
muestral hemos elaborado el gráfico de la figura 1.1. En ese gráfico se ilustra el
procedimiento mediante el cual es posible llegar a construir la distribución muestra!
del estadístico X a partir de una población de 5 elementos equiprobables, seleccio-
nando todas las posibles muestras de tamaño 2 y calculando el estadístico X en
cada una de ellas. Puede observarse en el gráfico que el histograma de la distribu-
ción muestral de X no se parece en nada al histograma de la distribución poblacio-
nal: mientras la distribución poblacional es uniforme (todos los elementos poblacio-
nales son equiprobables), la distribución muestral de la media tiene forma de
distribución normal. (Lo cierto es que, según aclararemos en un próximo apartado,
la distribución muestral de la media se va aproximando más y más a la normalidad
a medida que el tamaño de la muestra va aumentando).
TABLA 1.10
Muestras de tamaño n = 3 que es posible extraer con repos1cion de una
población de N = 1O personas de las que 6 son varones y 4 son mujeres
(V= varón, M =mujer) 10
Proporción
Primera Segunda Tercera Número de
de varones
extracción extracción extracción muestras p
V V V 216 3/3
V V M 144 2/3
V M V 144 2/3
M V V 144 2/3
V M M 96 1/3
M V M 96 1/3
M M V 96 1/3
M M M 64 o
1.000
TABLA 1.11 11
X p f(x) =f(p)
3 3/3 0,216
2 2/3 0,432
1 1/3 0,288
o o 0,064
recurre al teorema fundamental de la combinatoria. Así, si consideramos una muestra formada por un
varón, una mujer y otro varón (V, M, V), tendremos que el primero de los sucesos (V) puede ocurrir de 6
maneras (tenemos 6 varones en la población); el segundo de los sucesos (M) puede ocurrir de 4 maneras
(tenemos 4 mujeres en la población); y el tercer suceso (V) puede ocurrir de 6 maneras (tenemos 6
varones y el muestreo es con reposición). Por tanto, los tres sucesos juntos pueden ocurrir de
6 x 4 x 6 = 144 maneras.
11 En la tabla 1.11, f(x) y f(p) representan las funciones de probabilidad de los estadísticos X y P,
respectivamente. Así, por ejemplo, en la tabla 1.10, vemos que hay 3( 144) = 432 muestras de las 1.000
posibles en las que el número de varones es 2. Eso, en la tabla 1.11, está reílejado en que la probabilidad
de que X tome el valor 2 vale 432/1.000 = 0,432 (obviamente.f(x) es igual a f(p), pues exactamente lo
mismo da hablar de la probabilidad de que en una muestra de 3 personas aparezcan X = 2 varones que de
la probabilidad de que en esa muestra la proporción de varones sea P = 2/3).
© Ediciones Pirámide
Muestreo / 65
Recordemos ahora que estamos trabajando con una población formada por 1O
personas de las que 6 son varones. Esto significa que la proporción de varones en la
población es: 7t = 6/10 = 0,6. Puede comprobarse que, en la distribución muestral
de P (tabla 1.11 ), el valor esperado de P coincide con el de su correspondiente
parámetro n. En efecto:
3 2 1
E(P) = L p f(p) = -0,216 + -0,432 + -0,288 = 0,6
3 3 3
De nuevo podemos constatar que una distribución muestral nos proporciona la
probabilidad asociada a cada uno de los valores que puede tomar un estadístico en
todas las posibles muestras de tamaño n. Así, por ejemplo, si de una población de
10 personas formada por 6 varones y 4 mujeres extraemos aleatoriamente una
muestra de tamaño 3, sabemos, considerando los datos proporcionados por la tabla
1.11, que lo más probable (0,432) es que la proporción de varones P en esa mues-
tra sea de 2/3 = 0,67 (o, lo que es lo mismo, lo más probable es que en una muestra
aleatoriamente seleccionada nos encontremos con 2 varones: X = 2). Y sabemos
también, por ejemplo, que la probabilidad de que sólo una de las tres personas
seleccionadas sea varón (P = 1/3 = 0,33) vale 0,288, etc.
e) El caso general
Vemos, por tanto, que con poblaciones y muestras pequeñas resulta relativa-
mente sencillo conocer la distribución muestral de cualquier estadístico y, a partir
de ella, el comportamiento mostrado por el mismo en las diferentes muestras de
tamaño n en las que puede ser calculado. Pero ocurre con mucha frecuencia que las
poblaciones con las que nos vemos en la necesidad de trabajar no son, ni mucho
menos, tan pequeñas como las de los ejemplos que acabamos de presentar. De
hecho, lo que generalmente ocurre es justamente todo lo contrario: las poblaciones
que habitualmente tiene sentido estudiar suelen ser muy grandes e incluso, en
ocasiones, infinitas. Lo cual significa que, para obtener la distribución muestral de
un estadístico cualquiera, por simple que este sea, no resulta posible proceder de la
forma que lo hemos hecho hasta ahora. Sin embargo, el concepto de distribución
muestral sigue siendo el mismo sea cual sea el tamaño de la población y de la
muestra con las que trabajemos. En una población infinita, la distribución muestra)
de, por ejemplo, el estadístico X sigue siendo la distribución resultante de extraer
infinitas muestras de tamaño n y calcular en todas ellas X.
Por supuesto, no es posible extraer las infinitas muestras de tamaño n de una
población para conocer la distribución muestral de un estadístico. Pero eso no
significa que tengamos que renunciar a conocer la distribución muestral de un
estadístico cuando estamos trabajando con una población infinita (o muy grande):
podemos ir seleccionando una muestra tras otra y suponer (con toda lógica) que, a
medida que vamos disponiendo de más y más muestras, la distribución muestral
que vamos obteniendo se va aproximando poco a poco a la teóricamente verda-
dera.
© Ediciones Pirámide
66 / Análisis de datos en psicología 11
(1.6)
© Ediciones Pirámide
Muestreo / 67
E(X) = l: k;E(X;)
(1.7)
ai = l: kfat
Y dado que X 1, X 2 , •.. ,X" tienen la misma distribución, tendrán también los
mismos valores esperados y varianzas:
_ ¿xi 1 1 1
X=--=-X 1 +-X 2 + ···+-X" (1.9)
n n n n
de modo que:
- 1 1
E(X) = -E(X¡ + X2 + ... + Xn) = -[E(X¡) + E(X2) + ... + E(Xn)J
n n
1 1
=-(µ¡ +µ2 + ··· +µn)=-nµ (1.1 O)
n n
=µ
y:
2 12 1 2 2 2 1 2
ªx = n2 ax, +x,+ ... +x. = n2 ªx, + ªx, + ··· + ªx. = n2 na (1.11)
<12
Ahora bien, si X es una variable aleatoria que, bajo las mencionadas circunstan-
cias, se distribuye normalmente, bajo esas mismas circunstancias la variable
tipificada:
X-µ
Z=-- (1.12)
u/Jn
se distribuirá N(O, 1). Lo que significa que podremos utilizar la distribución normal
estandarizada para conocer las probabilidades asociadas a los diferentes valores del
estadístico X en su distribución muestral.
Conviene señalar aquí que el error típico (o su cuadrado, la varianza) es un
concepto de fundamental importancia a la hora de intentar caracterizar una
distribución muestral. Y conviene señalar, además, que el tamaño muestra) se
encuentra íntimamente relacionado con el error típico de una distribución muestral.
En la distribución muestral de la media se puede apreciar con claridad este hecho.
Hemos visto que o"}= u 2 /n. lo cual significa que, a medida que n va aumentando, la
varianza de la distribución muestral, u}. va disminuyendo. Con muestras de
tamaño n = 1, u} es igual a u 2 • Con muestras de tamaño n = 10, u} es 1/10 de u 2 •
Con muestras de tamaño n = 1000, u} es 1/1000 de u 2 • Conforme el tamaño <!e la
muestra va tendiendo a infinito, la varianza de la distribución muestral de X va
12 En una situación de muestreo aleatorio sin reposición en población finita podemos seguir
suponiendo que X 1,X 2 , ...,X. son variables todas ellas con la misma distribución, pero ya no podemos
seguir suponiendo que son independientes (como lo serían en una situación de muestreo aleatorio simple).
Esto tiene sus consecuencias sobre la varianza (y. por tanto. sobre el error típico) de la distribución
muestra( de la media, que pasa a ser (ver Amón, 1984, págs. 221-222):
u~=
x
"2[~]
n N- 1
normalidad ya es lo bastante buena. Con n > 30 la aproximación es lo bastante buena incluso con
distribuciones poblacionales originales muy asimétricas.
z=2
: = -1,33 z = 1,33
2
X=-
ns; ( 1.13)
u2
z
T = ---;:e==== (l.14)
Jx;_ 1/(n - 1)
© Ediciones Pirámide
Muestreo / 71
X-µ
z a/Jn (1.15)
T=--;::===
Jx /(n -
2 1) ns;,¡a 2
n-l
1 • Conviene recordar que T sólo se distribuirá según el modelo de probabilidad t de Student con
© Ediciones Pirámide
72 / Análisis de datos en psicología 11
donde:
A = z¡ + z~ + ··· + z; = x;
(n - l)S;_ 1 ns; 2
B= 2 2 =xn-1
=-
C1 C1
© Ediciones Pirámide
Muestreo / 73
A=B+C
nS 2
l.2n = -(12
n + l.21 ( 1.17)
2 2 2 ns;
Xn - X1 = Xn- 1 = -2
u
( 1.18)
Según esto:
( 1.19)
Por tanto:
n-1
E(S;) = - - u2 y E(S; _ 1 ) = u2 (1.20)
n
1
/ , = j2(n -
t1
1) ( 1.21)
por lo que:
2 j2(n - 1)
u
n2 ªs' = j2(n - 1)
• = u,=u
s. n (1.22)
n-1 ~---
-2-u5, = J2(n - 1)
u • 1
= u 520 _ 1 = u 2J2/(n - 1)
© Ediciones Pirámide
74 / Análisis de datos en psicología 11
y (l.23)
2 ns; 30(9,5)
X =-=--=475
(12 6 '
(ns;¡a 2 ) - (n - 1) 30(9,5)/6 - 29
z= = = 2,43
~ J2(29)
© Ediciones Pirámide
Muestreo / 75
1 7 El teorema central del límite no sólo es aplicable al estadístico X, sino también al estadístico
suma total, es decir, a nX. Lo que significa que, en el contexto de la distribución binomial, tanto P (que es
una media) como X (que es un total: X = nP) se verán afectados en su tendencia a la normalidad a
medida que n vaya aumentando.
© Ediciones Pirámide
76 / Análisis de datos en psicología 11
habremos definido una nueva variable aleatoria que tenderá a distribuirse N(O, 1) a
medida que vaya aumentando el tamaño de la muestra 18 • Así pues:
18 Al igual que ocurre con el estadístico media. con el estadístico proporció11 la aproximación normal
es lo bastante buena a partir de tamaños muestrales relativamente pequeños. Si rr no toma valores
extremos (es decir, si rr toma valores próximos a 0,5), tamaños muestrales de 11 = 10 o 11 = 15 permiten
obtener ya una buena aproximación; cuanto más extremos son los valores de rr (es decir, cuanto más se
alejan de 0,5). mayor necesita ser el tamaño muestra( 11 para que la aproximación normal resulte
satisfactoria.
19 Si hablamos de la probabilidad de obtener 8 éxitos en 10 ensayos, estamos hablando de una
variable discreta: en 10 ensayos puede haber O, l. 2, etc., éxitos, pero no puede haber. por ejemplo. 4,5
éxitos. Por tanto, al aproximar la distribución binomial a la normal estamos aproximando una
distribución discreta a una continua. Para que la aproximación sea más exacta podemos intentar hacer,
de alguna manera, que los valores discretos se conviertan en continuos. Así, podemos considerar que. por
ejemplo, obtener 3 éxitos equivale a obtener éxitos comprendidos entre las puntuaciones 2,5 y 3.5. Del
mismo modo, podemos considerar que obtener 8 éxitos o más equivale a obtener una puntuación de 7.5
o mayor, etc. El término ±0,5 que aparece en la ecuación [1.28], debe utilizarse teniendo esto en cuenta.
© Ediciones Pirámide
Muestreo / 77
AP!:NDICE 1
© Ediciones Pirámide
78 / Análisis de datos en psicología 11
de tamaño N < 10; 2 grupos para poblaciones con tamaño 10 :s:; N < 100; 3 grupos para
poblaciones con tamaño 100 :s:; N < 1000; etc.) y asignar a cada grupo tantas papeletas
numeradas como valores posibles pueda tomar cada dígito del tamaño poblacional. Así, si
queremos extraer una muestra aleatoria de una población de tamaño N = 50, formaremos
dos grupos de papeletas (pues los dígitos de 50 son dos: el 5 y el O); el primer grupo estará
formado por 6 papeletas con los números O, 1, 2, 3, 4, y 5, que son los valores que puede
tomar el primer dígito del tamaño poblacional; el segundo grupo estará formado por 10
papeletas con los números O, 1, 2, 3, 4, 5, 6, 7, 8 y 9, que son los valores que puede tomar el
segundo dígito del tamaño poblacional. Hecho esto, realizaremos n extracciones al azar de
cada grupo de papeletas hasta completar los n elementos que configurarán la muestra. En
cada extracción, la combinación de los números de las papeletas de cada grupo nos dará el
número del elemento poblacional que pasará a formar parte de la muestra (en cualquier,
caso, siempre será necesario desechar el número O).
Siguiendo la misma lógica de estos dos procedimientos podrían diseñarse muchos otros
distintos capaces de garantizar la aleatoriedad del proceso de extracción. No obstante,
siempre existe el riesgo de que la persona que realiza la extracción muestre alguna tendencia
(sesgo) en algún sentido. Por esta razón muchos investigadores prefieren utilizar una tabla de
números aleatorios. Las tablas de números aleatorios (como la tabla A del apéndice final) han
sido elaboradas de tal forma que todos los dígitos del O al 9 aparecen con la misma
frecuencia y repartidos de forma aleatoria (los dígitos suelen aparecer en estas tablas
formando grupos de 2 o de 5, pero esa agrupación no tiene otro significado que el de facili-
tar su lectura).
Veamos cómo usar la tabla de números aleatorios. Supongamos que tenemos que extraer
una muestra de tamaño n = 50 de una población de tamaño N = 800. El primer paso
consiste en numerar los elementos poblacionales de 1 a 800 (normalmente se trabaja con
listas que tienen resuelto este aspecto). A continuación vamos a la tabla de números
aleatorios y vemos que está formada por 1.000 dígitos. Seleccionamos al azar uno cualquiera
de los 1.000 dígitos que aparecen. Supongamos que nuestra elección recae sobre el dígito
colocado en la fila 17 en la columna 5: hemos elegido el número 7. Leyendo a partir de esa
posición de izquierda a derecha (aunque podríamos hacerlo en cualquier otra dirección)
encontramos los siguientes números de tres dígitos (tres dígitos porque ése es el número de
dígitos del tamaño poblacional: 800): 574, 345, 796, etc. Seguimos así hasta obtener los 50
elementos que deben formar parte de nuestra muestra. Vemos que si reanudamos la
secuencia donde la hemos dejado, el siguiente número es 950; como 950 es mayor que 800
(tamaño poblacional), desechamos ese valor y pasamos al siguiente: 776, 688, etc. Por
supuesto, podemos decidir continuar en la fila de abajo o podemos hacerlo en la de arriba;
cualquier dirección que adoptemos nos proporcionará una secuencia aleatoria de números.
© Ediciones Pirámide
Muestreo / 79
© Ediciones Pirámide
80 / Análisis de datos en psicologla 11
TABLA 1.10
x, .f(x,) F(x,)
o 0,23 0,23
1 0,34 0,57
2 0,23 0,80
3 0,12 0,92
4 0,06 0,98
5 0,02 1,00
Tras generar 100 números aleatorios u; tendríamos ya una muestra aleatoria de tamaño
n = 100. Si ahora repetimos el proceso, por ejemplo, 10.000 veces (tarea bastante simple de
realizar con un ordenador) tendremos 10.000 muestras aleatorias de tamaño n = 100. Y si en
cada una de esas muestras calculamos el estadístico X, podremos construir, de forma muy
aproximada, la distribución muestral de la media. Vemos, pues, que con el método Monte
Cario podemos extraer cualquier número de muestras aleatorias y de cualquier tamaño
siempre que la distribución poblacional muestreada sea conocida.
Por supuesto, cuanto más complejas son las distribuciones poblacionales, más complica-
do resulta generar muestras aleatorias. Los ejemplos que acabamos de presentar se refieren a
distribuciones bastante simples (la binomial y la multinomial) y por ello la obtención de
muestras aleatorias resulta también bastante sencilla. Con distribuciones más complejas
(como, por ejemplo, la normal), el método de extracción se vuelve algo más complicado y,
sobre todo, menos intuitivo. En el caso concreto de la distribución normal existen diferentes
procedimientos que permiten obtener muestras aleatorias de distribuciones N(O, 1). Algunos
de esos procedimientos se basan, al igual que los ejemplos comentados más arriba, en
números aleatorios distribuidos de forma uniforme en el rango (O, l); tal es el caso, por
ejemplo, de la muy conocida y utilizada técnica Box-Muller (ver Lewis y Orav, 1989, pági-
nas 45-47). Otros, más sofisticados, se basan en números aleatorios no distribuidos uniforme-
mente. Desde luego, no es nuestro propósito detallar aquí esos procedimientos, sino sólo
advertir de su existencia y, lo que es más importante, señalar que, en la mayor parte de los
programas de análisis estadístico (y, desde luego, en el SPSS), existen diferentes rutinas que
permiten extraer muestras aleatorias de prácticamente cualquier tipo de distribución.
© Ediciones Pirámide
Muestreo / 81
EJERCICIOS
1.1. Un sujeto responde al azar a un test que consta de 3 preguntas con dos alternativas de
respuesta cada una: V= Verdadero, F = Falso. Si formamos la variable aleatoria
X = «número de respuestas V dadas»:
1.7. La variable aleatoria X; se distribuye según el modelo de probabilidad N(30, 10). A con-
tinuación ofrecemos la función de distribución de algunos de sus valores tipificados:
© Ediciones Pirámide
82 / Análisis de datos en psicología 11
TABLA 1.11
x, o 10 20 30 40 50 60
z, ( ) ( ) ( ) ( ) ( ) ( ) ( )
a) Completa la tabla.
h) En una muestra aleatoria con n = 100, ¿cuánto valdrá P(X ~ 28)?
1.8. En el ejercicio 1.7, calcular la puntuación típica que corresponde a una puntuación X= 10
y la probabilidad de obtener puntuaciones mayores que 10.
1.9. Siendo X la media aritmética de una muestra aleatoria de tamaño 9 extraída de una
población distribuida N( 1, 3), calcular el valor de X sabiendo que vale 0,25 la probabilidad de
obtener medias como esa o mayores.
1.IO. ¿Cuál debe ser el tamaño de una muestra aleatoria extraída de una población en la
que X se distribuye N(40, 10) para que valga 0,99 la probabilidad de que la media X de dicha
muestra sea menor que 42?
1.12. Consideremos una población constituida por los valores 1, 2 y 3. Extraigamos de ella,
con reposición, muestras aleatorias de tamaño 2.
a) Calcular p y u 1 .
h) Construir la distribución muestra! de s;; y s;;_ 1.
e) Determinar la relación existente entre los valores esperados de ambas vananzas
muestrales y la varianza de la población.
1.14. Supongamos que el peso (en gramos) de los recién nacidos españoles se distribuye
N(3.200, 200). Si seleccionamos una muestra aleatoria de 31 recién nacidos, cuál es la
probabilidad de que la desviación típica tome un valor inferior a 150 gramos?
© Ediciones Pirámide
Muestreo / 83
1.16. En una reciente encuesta sobre el divorcio realizada a una muestra de 10.000
universitarios madrileños, 6.500 afirmaron ser partidarios del mismo. Si tomáramos 120
muestras de 25 sujetos cada una,
a) ¿Cuál será la media y la varianza de la distribución muestra( del número de
estudiantes que se muestran partidarios del divorcio?
b) ¿En cuántas muestras cabe esperar que más de 18 o menos de 15 sujetos se muestren
partidarios del divorcio?
1.18. Consideremos un test formado por 10 preguntas, cada una de las cuales consta de 4
alternativas con sólo una correcta. Si una muestra de 100 sujetos responde al azar a las 10
preguntas, ¿cuántos sujetos cabe esperar que acierten más de 4 preguntas?
1.19. En una distribución muestra( formada a partir de las medias obtenidas con muestras
de tamaño n = 49, a la media X = 76 le corresponde una puntuación típica z = 2. Si el error
típico de esa distribución muestra( vale 3,
a) ¿Cuál es el valor de la media poblacional?
b) ¿Cuál es el valor de la varianza poblacional?
© Ediciones Pirámide
84 / Análisis de datos en psicologfa 11
SOLUCIONES
1.1. a)
X, f(x,)
o 1/8
1 3/8
2 3/8
3 1/8
f(i) f(i)
X con rep. sin rep.
o 1/25 0/20
1 2/25 2/20
2 1/25 0/20
2,5 2/25 2/20
3,5 2/25 2/20
5 1/25 0/20
6 2/25 2/20
7 2/25 2/20
8 2/25 2/20
8,5 2/25 2/20
9 2/25 2/20
10,5 2/25 2/20
12 1/25 0/20
14 2/25 2/20
16 1/25 0/20
e) µ = 7; 11 2 = 36,8.
1.3. a) Con reposición: E(X) = 7; 11} = 18,4.
Sin reposición: E(X) = 7; 11} = 13,8.
b) Con reposición: E(X) = µ = 7; 11} = 11 2 /n = 18,4.
Sin reposición: E(X) = µ = 7; 11} = (11 2/n)[(N - n)/(N - I)] = 13,8.
1.4. z<d• -i> = -2,25; zcde 2 •5¡ = 0,37; P(-2,25 ~ Z ~ 0,37) = 0,6321.
1.5. T = 3,25; P(T~ 3,25) = 0,005 (en la distribución t 9 ).
© Ediciones Pirámide
Muestreo / 85
TABLA 1.11
X, o 10 20 30 40 50 60
1.9. X= 1,67.
1.10. n ~ 136.
o 3/9 o 3/9
0,25 4/9 0,5 4/9
1 2/9 2 2/9
1.15. Sin corrección por continudad: P(X ~ 31) = P(Z ~ 1,70) = 0,0446.
Con corrección por continuidad: P(X ~ 30,5) = P(Z ~ 1,56) = 0,0594.
1.17. Sin corrección por continuidad: P(X ~ 11) = P(Z ~ 2,05) = 0,0202.
Con corrección por continuidad: P(X ~ 10,5) = P(Z ~ 1,81) = 0,0351.
1.19. a) 11 = 70.
b) o- 2 = 441.
© Ediciones Pirámide
Estimación de parámetros
2
© Ediciones Pirámide
90 / Análisis de datos en psicologfa 11
2.1.1. Concepto
Parece razonable pensar que un buen estimador debe cumplir, como primera
propiedad, la de ofrecer estimaciones correctas. No obstante, dado que un estima-
dor, en cuanto estadístico que es, no es una constante sino una variable, no siempre
tomará el mismo valor; su valor concreto, ya lo sabemos, dependerá de la muestra
en la que sea calculado. Por tanto, no todos los valores muestrales que obtengamos
© Ediciones Pirámide
Estimación de parámetros / 91
coincidirán exactamente con el valor del parámetro que deseamos estimar. Aun así,
podemos esperar de un buen estimador que ofrezca, al menos como promedio.
estimaciones correctas. A esta propiedad de ofrecer, en promedio, estimaciones
correctas se le llama carencia de sesgo y, se dice, por tanto, que un estimador es
insesgado si su valor esperado coincide con el parámetro que estima. Es decir, si:
E(U) =e (2.1)
para una cantidad b infinitamente pequeña. De esta definición se deduce que todo
estadístico que verifique las siguientes dos condiciones, es consistente (aunque no
todo estadístico consistente tiene por qué verificarlas):
(2.3)
(2.4)
E(X) = µ
E(S;_ 1) = a2
E(P) = n
n- 1
E(S;) = - - a 2
n
(12
u 2- = - -+ O cuando n tiende a infinito
X n
2u 4
-+ O cuando n tiende a infinito
n- 1
2 7t(l - 7t)
uP = -+ O cuando n tiene a infinito
n
© Ediciones Pirámide
Estimación de parámetros / 93
En tercer lugar, no todos los estadísticos son igualmente eficientes. Sabemos, por
ejemplo, que en una distribución simétrica la media y la mediana coinciden.
Podemos, por tanto, utilizar la media aritmética X o la mediana Mdn para estimar
¡1. Sin embargo, es preferible, en general, utilizar X pues, además de ser un
estimador insesgado y consistente, es más eficiente que Mdn. En el caso concreto de
una distribución normal:
(l2 (l2
u}= - < uidn = 1,57-
n n
También para estimar el parámetro a 2 disponemos de dos estadísticos: y 1. s; s;_
Hemos visto que, aunque ambos son estimadores consistentes, sólo 1 es insesga- s;_
do. Veamos cuál de Jos dos es más eficiente. Sabemos que:
2 n- 1
us; = 2u4 ~
2 2u 4 n- 1
u = - - = 2u4 - - -2
s:; 1 n- 1 (n - 1)
P = X/n
© Ediciones Pirámide
94 / Análisis de datos en psicología 11
podemos comprobar que en todos los casos se utiliza toda la información muestral:
los cuatro estadísticos están basados en todos los elementos muestrales. De alguna
manera, podríamos decir que todos ellos agotan la información muestra) disponible.
(Conviene señalar que el concepto de suficiencia es mucho más complejo de lo que
nuestra exposición puede dar a entender; no obstante, consideramos que lo expues-
to hasta aquí es adecuado para formarnos una idea lo bastante útil para nuestros
propósitos).
Para terminar, la figura 2.1 puede ayudarnos a comprender dos de las propieda-
des estudiadas; en concreto: carencia de sesgo y eficiencia. Los cuatro cuadros de la
figura 2.1 representan dianas sobre las que se han efectuado 10 disparos. Lógica-
mente, los disparos se han efectuado intentando buscar el centro de la diana. La
situación puede extrapolarse fácilmente al contexto de la estimación de parámetros:
el centro de la diana representaría al parámetro que deseamos estimar y los 10
disparos corresponderían a 10 estimaciones efectuadas con un determinado estima-
dor calculado en 10 muestras diferentes.
En la diana A los disparos están muy dispersos alrededor del centro. Podríamos
decir que se trata de una serie de disparos en los que, aun no existiendo una
desviación sistemática en ninguna dirección, el acierto es bastante escaso. En el
contexto de la estimación de parámetros se trataría de un estimador insesgado pero
poco eficiente. En la diana B los disparos están muy concentrados en torno al
blanco. No sólo no existe ningún tipo de desviación sistemática, sino que el acierto
es bastante alto. En el contexto de la estimación de parámetros podríamos hablar
de un estimador insesgado y eficiente. En la diana C los disparos están concentrados
en un punto alejado del blanco. Aunque podríamos decir que el acierto es bastante
alto, pues los disparos van siempre casi al mismo sitio, existe una desviación
sistemática del blanco. Esta situación reflejaría el comportamiento de un estimador
eficiente pero sesgado. En la diana D. por último, los disparos se encuentran
dispersos y alejados del blanco, al igual que en la diana A, pero además existe una
desviación sistemática hacia la derecha. Estaríamos ahora ante un estimador
sesgado y poco eficiente.
A B e D
© Ediciones Pirámide
Estimación de parámetros / 95
2.2.1 . Concepto
E= 10- 01 (2.5)
a) Un caso concreto
Consideremos una población formada por los siguientes elementos X;=
= {1,2,3,4,5}. Si extraemos de ella, con reposición, todas las posibles muestras
aleatorias de tamaño n = 2 y en cada una calculamos el estadístico X, podemos
© Ediciones Pirámide
96 / Análisis de datos en psicología 11
TABLA 2.1
Distribución muestra/ de la media formada a partir
de las muestras de tamaño n = 2 que es posible
extraer de una población de tamaño N = 5
Valor de la
Muestras posibles /'(.x)
media X
- u
E(X) =µ =3 y Ug =- =1
Jn
Nos encontramos en una situación en la que conocemos el parámetro µ y
deseamos saber qué ocurre si lo estimamos a partir de una cualquiera de las 25
posibles medias muestrales. Al efectuar 2 extracciones de nuestra población de 5
elementos podemos obtener una cualquiera de esas 25 muestras. El valor de X
dependerá de la muestra concreta que obtengamos. Pues bien, la estrategia utilizada
para estimar el parámetro µ consiste en pensar que el verdadero valor de µ no se
alejará del estadístico X obtenido en más de una determinada cantidad. Suponga-
mos que esa cantidad es un error típico (lag). Esto equivaldría a afirmar que el
verdadero valor del parámetro µ se encuentra entre:
L¡ = X - 1u x y L, = X + 1u x
capítulo anterior hemos formado la distribución muestra! de la media a partir de muestras de tamaño
n = 2 extraídas de esa población (ver apartado 1.3.1.a).
© Ediciones Pirámide
Estimación de parámetros / 97
Adoptar esta estrategia significa que el error muestra/ max1mo que estamos
dispuestos a admitir no es mayor de un error típico: Emax = 1a X· Ahora bien, ¿cuál
es la probabilidad de que nuestra estimación sea correcta? Para calcularla, veamos
lo que ocurre con cada una de las medias que es posible obtener al extraer muestras
de tamaño n = 2. Si extraemos la muestra (1, 1), la media aritmética X valdrá l. Al
construir el intervalo de confianza para efectuar la estimación, como Emáx =
= 1ax = 1, obtendremos:
L¡ = 1- 1= O y L, = 1+ 1= 2
lo que nos llevará a estimar que el verdadero valor del parámetro µ se encuentra
entre los valores O y 2. Dado que el verdadero valor del parámetro µes 3, con esta
muestra nos habríamos equivocado, es decir, habríamos asignado al parámetro µ
un rango de valores entre los que, de hecho, no se encuentra el verdadero valor
de ¡1.
Si en lugar de extraer la muestra ( 1, 1) extraemos las muestras (1, 2) o (2, 1), el
intervalo de confianza lo construiremos a partir de X = 1,5 y los límites de con-
fianza resultantes serán:
L¡ = 2 - 1 = 1 y L. = 2 + 1 = 3
Ahora sí habríamos acertado en nuestra estimación, pues estamos afirmando
que el verdadero valor del parámetro (que esµ = 3) se encuentra entre los valores 1
y 3. Igualmente efectuaríamos una estimación correcta con las muestras: ( 1, 4), ( 1, 5),
(2.3). (2,4), (2,5), (3,2), (3,3), (3,4), (3,5), (4, 1), (4,2), (4,3), (4,4), (5, 1), (5,2) y (5,3),
pues todas ellas nos proporcionarían valores para X que nos permitirían construir
intervalos de confianza entre cuyos límites estaría incluido el verdadero valor del
© Ediciones Pirámide
98 / Análisis de datos en psicología 11
parámetro µ. Sin embargo, además de con las muestras ( 1, 1), ( 1, 2) y (2, 1), también
construiríamos intervalos de confianza erróneos (intervalos entre cuyos límites no
se encontraría el parámetro µ) con las muestras (4, 5), (5, 4) y (5, 5).
En consecuencia, 19 de las 25 muestras posibles nos permitirán construir
intervalos correctos y 6 de esas 25 muestras posibles nos llevarán a construir
intervalos incorrectos. Existe, por tanto, una probabilidad de 19/25 = 0,76 de
construir un intervalo que capte el valor de µ; y una probabilidad de
6/25 = 1 - 0,76 = 0,24 de construir un intervalo que no capte el valor de µ. La
figura 2.2 muestra gráficamente esta situación: en la zona no rayada se encuentran
las 19 medias X que nos permitirán construir intervalos correctos; en la zona rayada
se encuentran las 6 medias que nos llevarán a construir intervalos incorrectos.
f(X) 0,76
5/25
4/25
0,12 0,12
3/25
,---A-, ,---A-,
0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0 4,5 5,0 5,5
Figura 2.2. -Distribución muestra! de la media formada a partir de las muestras de tamaño n = 2 que es
posible extraer de una población de N = 5 elementos.
Según esto, al construir un intervalo con Emáx = lux= 1, podemos afirmar que
el verdadero valor del parámetro µ se encontrará dentro de ese intervalo con un
nivel de confianza de 0,76; o, de forma equivalente, con un nivel de riesgo de 0,24:
Lo cual significa que el 76 por 100 de los intervalos que es posible construir
incluirán el verdadero valor de µ y el 24 por 100 de esos intervalos no lo incluirán.
Por lo que si de una población de N = 5 elementos seleccionamos aleatoriamente
© Ediciones Pirámide
Estimación de parámetros / 99
b) El caso general
Ciertamente, las poblaciones con las que se suele trabajar son tan grandes que
no resulta tarea fácil encontrar todas las muestras de tamaño n que es posible
extraer de ellas. Esto podría hacernos pensar que si estamos trabajando con
poblaciones muy grandes no podemos proceder como lo hemos hecho hasta ahora.
Sin embargo, ocurre que, para construir intervalos de confianza, todo lo que
necesitamos conocer es la distribución muestral2 del estadístico utilizado como
estimador. Conocida la distribución muestral del estimador, podremos conocer la
probabilidad asociada a cada uno de sus valores y eso nos permitirá seguir la
estrategia anterior.
Supongamos que un estadístico cualquiera O, utilizado como estimador del
parámetro (), se distribuye normalmente. Sabemos que, en una distribución normal:
2 Según hemos visto en el capítulo anterior, para conocer la distribución muestral de un estadístico
no es necesario contar con todas las muestras de tamaño n que es posible extraer de una población.
Existen procedimientos matemáticos que nos permiten conocer con exactitud la forma, el valor esperado
y el error típico de las distribuciones muestrales de diversos estadísticos.
© Ediciones Pirámide
1 00 / Análisis de datos en psicologla 11
0,0228 0,0228
Figura 2.3.-Probabilidades asociadas a los valores (} ± 2un con un estimador distribuido normalmente.
Exactamente el mismo razonamiento seguido hasta ahora con Emáx = 2crn puede
seguirse utilizando diferentes tamaños para Emáx: lera, l,96crn, 2,58crn, etc. El número
de errores típicos que utilicemos determinará el tamaño de Emáx y, dependiendo del
tamaño de Em,., construiremos uno u otro intervalo con un nivel de confianza y
un nivel de riesgo específicos. Lógicamente, cuanto mayor sea Emáx• mayor será la
© Ediciones Pirámide
Estimación de parámetros / 101
d) Resumiendo
E(X) =µ
ax= a/Jn
También sabemos que en la distribución normal estandarizada, es decir, en la
distribución N(O, 1):
X-µ
Z=--
a/Jn
se distribuirá N(O, 1); por lo que:
(2.6)
Esto significa que, haciendo Emáx = lza 12 la/Jn, podemos afirmar, con un nivel de
confianza de 1 - ix, que el valor del parámetro µ no se alejará del estimador X en
© Ediciones Pirámide
Estimación de parámetros / 103
- (1 - (1
L; = X - I=, 21 --.~ y L, =X+ lz 2 d7 (2.7)
.jn ...¡n
La figura 2.4 refleja una situación concreta con 1 - :x = 0,95. Con ese nivel de
confianza, el valor de Emax es 1,96u X· Cualquier media perteneciente a la zona
rayada nos llevará a construir intervalos incorrectos (intervalos que no captarán el
parámetro µ). La probabilidad de que eso ocurra es :x = 0,025 + 0,025 = 0,05. Por
el contrario, cualquier media de la zona no rayada nos permitirá construir inter-
valos correctos (intervalos que captarán el parámetro µ). La probabilidad de que
ocurra esto último es 1 - :x = 0,95.
0,025
X
Jl
X,
XJ
X1 x4
- l,96ax + l,96ax - l,96ax + l,96ax
Si utilizamos otro nivel de confianza, como por ejemplo 0,99, el error máximo
valdrá Ema. = 2,58ux. Con este nuevo nivel de confianza perderemos precisión
(pues el intervalo construido será más amplio), pero disminuiremos el riesgo (de 0,05
a 0,01) y será mayor la probabilidad de que el parámetro estimado se encuentre
dentro de los límites de nuestro intervalo. En esta nueva situación, es decir, con
1 - :x = 0,99, cabe esperar que de cada 100 intervalos que construyamos, 99 sean
correctos (capten el parámetro µ) y 1 sea incorrecto (no capte el parámetro µ).
© Ediciones Pirámide
104 / Análisis de datos en psicología 11
X-µ X-µ
T= = =tn-1
Snlfn=I Sn-1/Jn
por lo que:
Por tanto, haciendo Emáx = 1a12 tn- i1Snffn=I, podemos afirmar, con un nivel
de confianza de l - IX, que el valor del parámetro µ no se alejará del estimador X en
más de la cantidad Emáx· En consecuencia, el intervalo de confianza para la media,
cuando desconocemos u, vendrá definido por los siguientes límites de confianza:
(2.9)
© Ediciones Pirámide
Estimación de parámetros / 105
l. ex= 0,01
2. Jo.oost99J ~ 2,626
3.
A s._ 1 10
ux=--=--= 1
Jn ~
4. Em1.x =2,626(1) = 2,626
5. L; = 80 - 2,626 = 77,374
L, = 80 + 2,626 = 82,626
l. ex= 0,01
2. Jzo.oosJ ~ 2,575
3.
A s.-1
ªx =-- = - - = 1
10
Jn ~
4. Emh = 2,575(1) = 2,575
5. L; = 80 - 2,575 = 77,425
L, = 80 + 2,575 = 82,575
una situación de muestreo aleatorio sin reposición en población finita, el error típico de la distribución
muestral de la media (tanto si conocemos u como si no la conocemos) necesita ser corregido:
El procedimiento para construir un intervalo de confianza para la media sigue siendo el mismo. Sólo
debemos tener en cuenta que, si estamos trabajando con una población de tamaño N y el muestreo es sin
reposición, el error típico de la distribución muestra( de la media necesita ser corregido según acabamos
de señalar. Por supuesto, a medida que vaya aumentando N, el término corrector (N - n)/(N - 1) irá
tendiendo a 1, lo que significa que muestrear sin reposición una población finita grande será equivalente
a muestrearla con reposición.
© Ediciones Pirámide
106 / Análisis de datos en psicologla 11
P( 2
•!2Xn-I
ns;
:::;;7:::;; 2
1-012Xn-1
,
)-
-1-oc
Figura 2.5. Distribución x2 con n - 1 grados de libertad. Probabilidades asociadas a los puntos , 12 ¿_ 1
y 1- ,,,x;_ ,.
Dividiendo por ns; los tres términos de las desigualdades del paréntesis,
obtenemos:
de donde:
ns;
p (- - 2 - ~u
2
~
ns;2 ) = 1 - or: (2.10)
012Xn-1 1-012Xn-1
Por tanto, el intervalo de confianza para la varianza vendrá definido por los
siguientes límites de confianza:
(2.11)
~J Ediciones Pirámide
Estimación de parámetros / 107
(2.12)
1
o.91sX~o::::::: z(l,96 + J2(30) - 1) 2 = 46,476
valor casi idéntico al cuantil 97,5 proporcionado por la tabla de x2 con 30 grados
de libertad.
Por último, recordemos 5 que cuando n es muy grande ( > 100) la distribución
muestra! de la varianza se aproxima a la normalidad, con:
E(S2) = a2
as, = ª2 Nn : : :. s2 Nn
5 Puede consultarse, en el capítulo anterior, el apartado 1.3.3 sobre la distribución muestr'l.I de la
varianza.
© Ediciones Pirámide
1 08 / Análisis de datos en psicología 11
(2.14)
EJEMPLO 2.2. Sabemos que, en la población española, los varones tienen una
altura media superior a la de las mujeres. Sabemos también que, según las últimas
tallas realizadas para el servicio militar, las alturas de los varones entre 18 y 20 años se
distribuyen normalmente con varianza 4,41. Sin embargo, no sabemos nada acerca del
valor de la varianza de la variable altura en la población de mujeres españolas de esa
edad. Tomamos al azar una muestra de 100 mujeres de edades comprendidas entre 18
y 20 años, medimos la altura y encontramos una desviación típica de 1,8. ¿Entre qué
límites se encontrará la verdadera varianza de las mujeres españolas de 18 a 20 años,
con un nivel de confianza de 0,99?
Si suponemos que la altura se distribuye normalmente en la población de mujeres,
la variable aleatoria:
ns; 100(1,8) 2
cr2 cr2
© Ediciones Pirámide
Estimación de parámetros / 109
P- n
Z=----;::c===
Jn(1-n)/n
P-n ) (2.15)
P ( Za/2 ~ ~ Z¡ -a/2 = 1- OC
Jn(1 - n)/n
P-n )
p ( Za/2 ~ ~ Z¡ -a/2 = 1- iX
Jn(l - n)/n
Por tanto:
(P - n) 2 2 )
p( ~ Za/2 = 1- OC
n(l - n)/n
© Ediciones Pirámide
11 O / Análisis de datos en psicología 11
(P - n)2
----=z;¡2
n(I - n)/n
(P - n)2 2
----=z
n(l - n)/n
nP 2 - 2nPn + nn 2 = nz 2 - n2z2
n ( z2
L - = - - P+--z
JP(l - P) 2
+z-2 )
' n + z2 2n n 4n (2.17)
z2 P(l - P) z2 )
L . = n- - ( P+-+z ----+-
n + z2 2n n 4n 2
(2.18)
que no son otra cosa que las ecuaciones presentadas e~ (2.16), pero sustituyendo P
por n (lo cual tiene sentido si consideramos que, al ser P un estimador consistente
de n, a medida que n va aumentando, <Tp va tendiendo a cero y, en consecuencia,
cualquier valor muestra! de P se va pareciendo más y más al verdadero valor de n).
EJEMPLO 2.3. Uno de los líderes de un colectivo laboral desea plantear una
cuestión a todos los miembros del grupo. Si más de la mitad respondieran no.
preferiría no plantearla para no minar su prestigio. Para salir de dudas, elige
aleatoriamente a 10 trabajadores a los que, independientemente, plantea la cuestión.
© Ediciones Pirámide
Estimación de parámetros / 111
Solamente 3 responden no. ¿Entre qué límites cabe esperar que se encuentre la
verdadera proporción de trabajadores que responderán no a la cuestión, con un nivel
de confianza de 0,99?
Tenemos: n = 10; P = 3/10 = 0,30 y lzo.oosl = 2,58. Por tanto:
Podemos afirmar, con una confianza del 99 por 100, que la verdadera proporción
de trabajadores que dirán no se encuentra entre 0,079 y 0,674. Es posible, por tanto,
que el líder de nuestro ejemplo, si plantea la cuestión a todo el colectivo de trabajado-
res, pueda encontrarse con que más de la mitad de ellos respondan no a su cuestión.
A pesar que n es pequeño, podemos utilizar, simplemente como ejemplo, la
aproximación propuesta en (2.18) para muestras grandes. Tendremos:
1
=> P(IU - 01 > lklan) < k2 (2.19)
(2.20)
(2.21)
a) El caso de la media
Ya sabemos que a1' = a 2 /n. Haciendo k = z, tendremos:
2
2 Za/2
=> n=<T - (2.22)
n E2
que, para un nivel de riesgo dado, nos proporciona el tamaño muestra) n necesario
para obtener una precisión concreta.
Si desconocemos a 2 , ya sabemos que la tipificación del estadístico media no
sigue la distribución normal, sino la distribución t de Student. En tal caso, haciendo
k = t, tendremos:
=> (2.23)
© Ediciones Pirámide
Estimación de parámetros / 113
l. iX = 0,05
2. lo.02st9I = 2,262
3. ux =s._ 1¡Jn = 1,2/jiO = 0,3795
4. Emáx = lo.02st9lux = 2,262(0,3795) = 0,8584
5. L¡ = 4 - 0,8584 = 3,14; L, = 4 + 0,8584 = 4,86
Con n = 20:
l. iX = 0,05
2. lo.02st 191 = 2,093
3. ux = s.-i!Jn = 1,2/fo = 0,2683
4. Emáx = lo.o2sl 1 9lax = 2,093(0,2683) = 0,5616
5. L¡ = 4 - 0,5616 = 3,44; L, = 4 + 0,5616 = 4,56
b) El caso de la varianza
Recordemos que, con muestras muy grandes, el error típico de la varianza, tanto
de la sesgada como de la insesgada, es:
z z 2cr4
<152 ~ U52 ~ -
n n-1 n
© Ediciones Pirámide
114 / Análisis de datos en psicología 11
Por tanto:
2a 4
=> (2.24)
n
Dado que suponemos que estamos trabajando con muestras grandes, podemos
sustituir a 2 por o por s; s;_
¡, indistintamente, y ello nos permitirá obtener el
tamaño muestral n aproximado necesario para alcanzar una precisión determinada.
l. IX = 0,01
2. lzo.oosl = 2,58
3. ªs~ = s;.jVn = 124,4j27100 = 17,593
4. Emáx = 2,58(17,593) = 45,39
5. L¡ = 124,4 - 45,39 = 79,01; L, = 124,4 + 45,39 = 169,79
n = 2a 4 -
z; 12
= 2(124,4) 2
(- 2,58) 2
= 329,63:::::: 330
E2 25 2
e) El caso de la proporción
ap = jP(I - P)/n
© Ediciones Pirámide
Estimación de parámetros / 115
En consecuencia:
P(l - P) z2
=> n = P(I - P)~ (2.25)
n Ei
EJEMPLO 2.6. Deseamos saber hasta qué punto una lista de 7 pares asociados
puede ser memorizada con una sola presentación. Nuestro interés se centra en
averiguar si la proporción de sujetos capaces de memorizar la lista es superior a 0,75 o
inferior a 0,25, pues en tal caso consideraremos que la lista no es discriminativa y
deberá ser descartada como prueba de diagnóstico. Seleccionada una muestra aleato-
ria de 40 sujetos hemos encontrado que 18 de ellos han sido capaces de memorizar la
lista. Con un nivel de confianza de 0,95: a) ¿Entre qué límites se encontrará la
verdadera proporción de sujetos capaces de memorizar la lista? h) ¿Cuál debería ser el
tamaño de la muestra para lograr una precisión (amplitud) de O, 1?
Tenemos que P = 18/40 = 0,45. El tamaño de la muestra permite suponer que la
distribución muestral de P se aproxima a la normal; por tanto:
l. ex= 0,05
2. lzo.02sl = 1,96
3. up = [P(I - P)/n] 1' 2 = [0,45(0,55)/40] 1' 2 = 0,0787
4. Emáx = 1,96(0,0787) = 0,154
5. L; = 0,45 - 0, 154 = 0,296; L, = 0,45 + 0, 154 = 0,604
Para lograr una precisión de O, 1, es decir, un Emáx de 0,05, el tamaño muestra) debe
ser:
z2 (-1 96) 2
n = P(I - P)--'!!!_ = 0,45(0,55) ' = 380,32 ~ 380
E 2 0,05 2
Necesitamos, por tanto, pasar de 40 a 380 sujetos para reducir la amplitud del
intervalo de 2(0, 154) = 0,308 a O, l.
APÉNDICE 2
En el apartado 2.1.2 hemos expuesto ya algunas de las propiedades que debe tener un
buen estimador. Para encontrar estimadores que posean todas o algunas de esas propiedades
existen diferentes métodos de estimación que, aunque sólo sea superficialmente, conviene
conocer.
Uno de estos métodos, debido a Fisher, se conoce con el nombre de máxima verosimilitud.
Consiste en seleccionar como estimador de un parámetro aquel valor capaz de maximizar la
verosimilitud del resultado muestra! concreto obtenido, entendiendo por verosimilitud la
© Ediciones Pirámide
116 / Análisis de datos en psicologfa 11
probabilidad de, dados uno o más parámetros concretos, obtener el resultado muestra( de
hecho obtenido.
Consideremos una variable aleatoria X¡ con distribución de probabilidad poblacional
conocida (el método de máxima verosimilitud exige conocer la forma de la distribución de
probabilidad con la que se va a trabajar) y supongamos que de esa distribución de
probabilidad, aunque conocemos la forma, desconocemos el parámetro O (o los parámetros
0 1,0 2 , ••• ,0k) que la caracteriza. Extraigamos una muestra aleatoria de tamaño n y represente-
mos por (x 1 , x 2 , •.. , x.) el resultado muestra) concreto obtenido. Llamamos función de
rerosimilitud a la función de probabilidad (o de densidad de probabilidad) conjunta asociada
al resultado muestra( concreto (x 1 , x 2 , ..• , x.). dado el parámetro O:
(2.26)
(2.27)
Por supuesto, también podemos utilizar la tabla de la distribución binomial del apéndice
final (tabla 8). De una u otra forma obtendremos, para n = 0,10:
Para n = 0,20:
Para n = 0,30:
© Ediciones Pirámide
Estimación de parámetros / 117
Podemos seguir calculando, para cada posible valor de rr, la probabilidad de obtener el
resultado muestral concreto X = 6. Pero a partir de 11: = 0,30 esas probabilidades comienzan
a disminuir (el lector puede comprobarlo fácilmente). De modo que el principio de máxima
verosimilitud nos llevará a concluir que el parámetro 11: = 0,30 es el que hace más probable
el resultado muestral X= 6. Por lo que decidiremos utilizar 1t = 0,30 como estimación
maximoverosímil del parámetro 11: = proporción de varones en la población.
Este sencillo ejemplo sirve para formarnos una idea de cómo funciona el método de
estimación de máxima verosimilitud. Pero para conocer cuál es el valor del parámetro que
maximiza la probabilidad de un resultado muestral concreto no necesitamos calcular una a
una todas las probabilidades de ese resultado muestral bajo todos los posibles valores
asumibles por el parámetro en cuestión. Podemos maximizar V utilizando procedimientos
matemáticos mucho más directos (ver, por ejemplo, Ríos, 1985, págs. 328-330; o Amón, 1984,
páginas 249-254).
Sin embargo, no es nuestro interés que el lector conozca la forma concreta de obtener una
estimación por el método de máxima verosimilitud. Nos interesa más destacar el importante
punto de vista general que subyace bajo el principio o método de máxima verosimilitud. Este
punto de vista se refiere a que las características poblaciona/es verdaderas deberán ser aquellas
que hagan probables nuestros resultados muestra/es. Si una situación teórica convierte en
improbables nuestros resultados empíricos, deberemos dudar de ella. La razón es sencilla de
entender. Si una situación teórica hace improbable la aparición de un resultado empírico
concreto y, de hecho, ese resultado empírico se produce, deberemos pensar que la situación
teórica planteada no puede ser la verdadera. Las afirmaciones teóricas son creíbles en la
medida en que los datos empíricos se muestran compatibles con ellas. (Por supuesto, los
datos de un único experimento nunca deben ser considerados definitivos a la hora de
confirmar o desconfirmar una teoría; se requieren varias réplicas, variaciones en el diseño,
diferentes tipos de medida, etc., y aun así la confirmación o desconfirmación dificilmente se
convierte en definitiva; sin embargo, el punto de vista subyacente en el principio de máxima
verosimilitud siempre está presente en los diferentes procedimientos de análisis de datos y,
consecuentemente, en la propia metodología científica).
Otro importante método de estimación (muy útil en ciertos casos; ver capítulo 8) consiste
en utilizar como estimación de un parámetro aquel valor que hace mínimas las distancias al
cuadrado entre ese valor estimado y los resultados muestrales observados. Este método no
requiere conocer la forma de la distribución de probabildad con la que se está trabajando
(como ocurre con el método de máxima verosimilitud) pero no es válido para obtener
estimaciones con todo tipo de parámetros.
Consideremos el caso de la media. Extraigamos de una población cualquiera una muestra
aleatoria de tamaño n. Llamemos (y 1 ,y 2 ,. •.,y.) al resultado muestra! concreto obtenido.
Siguiendo el método de mínimos cuadrados utilizaremos como estimador de µ el valor {i. que
haga mínima la expresión:
es decir, utilizaremos como estimador de µ el valor que consiga hacer mínimas las distancias
al cuadrado respecto a los n elementos del resultado muestral obtenido.
© Ediciones Pirámide
118 / Análisis de datos en psicología 11
n
= L[(Y¡- Y)2 + (Y-µ¡2 + 2(Y¡- Y)(Y-,12)]
i
n n n
= ¿ ( l'í - n2 +¿ ( v- µ¡2 + ¿ 2( l'í - ñ v- µ¡
i i
n
¿{Y¡- Y)2
n
s;=_i____ ~ ¿(l'í - n2 =ns;
n
Por tanto, sustituyendo en (2.30) y teniendo en cuenta que tanto Y como µ son términos
constantes y que el sumatorio de una constante es n veces esa constante, llegamos a:
n
I<l'í - µ) 2 =ns; + n(Y- J2) 2 (2.31)
Puesto que ninguno de los tres términos de la ecuación (2.31) puede ser negativo (en los
tres casos se trata de cantidades elevadas al cuadrado), la suma de las desviaciones (Y¡ - J2) 2
siempre será menor o igual que ns;. Y esa suma será mínima cuando n(Y- ,12) 2 valga cero, lo
cual sólo será posible si Y= µ. De modo que la media muestra) Y será el estimador
minimocuadrático de la media poblacional µ.
© Ediciones Pirámide
Estimación de parámetros / 123
b) 11 2 (01) = 4
11 2(02) = 5,78
= 5,33
11 2 (03)
El estimador 01 es el más eficiente.
2.7. 1- :X = 0,9876.
2.9. n ~ 603.
2.11. 1- :X = 0,9876.
© Ediciones Pirámide
Contraste de hipótesis
3
1 Por supuesto, no todas las hipótesis científicas requieren de la utilización del contraste de hipótesis
para ser verificadas. Recordemos a este respecto lo dicho en la introducción sobre los fenómenos
deterministas y aleatorios. Una afirmación del tipo «este sujeto posee una inteligencia superior a la
media» puede ser verificada simplemente observando a ese sujeto. Sin embargo, una afirmación del tipo
«las personas radicales poseen un nivel intelectual superior a la media» no puede ser verificada
recurriendo a la observación: dificilmente podríamos observar a todas las personas radicales. Es
justamente en las situaciones en las que no tenemos acceso a todos los elementos de la población donde
se hace necesario recurrir a la inferencia estadística (y, por tanto, al contraste de hipótesis) para poder
verificar una hipótesis científica.
© Ediciones Pirámide
Contraste de hipótesis / 129
conseguir: parece razonable pensar que, si una hipótesis concreta referida a una
distribución poblacional es correcta, al extraer una muestra de esa población
debemos encontrarnos con un resultado muestra) similar al que esa hipótesis
propone para la distribución poblacional. O lo que es lo mismo: una hipótesis será
compatible con los datos empíricos cuando a partir de ella sea posible deducir o
predecir un resultado muestra! (un estadístico) con cierta precisión.
Supongamos que nuestra hipótesis consiste en afirmar que los varones y las
mujeres no difieren en inteligencia. En términos estadísticos: µv = µm. Si nuestra
hipótesis es correcta, debemos esperar que, al extraer una muestra aleatoria de la
población de varones y otra de la de mujeres, las medias observadas X v y X m en
inteligencia sean similares. Una discrepancia importante entre la afirmación pro-
puesta en nuestra hipótesis y el resultado muestral encontrado puede estar indicado
dos cosas diferentes: bien nuestra hipótesis es correcta y la discrepancia observada
es producto de fluctuaciones esperables por azar; bien nuestra hipótesis es incorrec-
ta y, por tanto, incapaz de proporcionarnos predicciones acertadas. La cuestión
clave que se nos plantea en ese momento es la de determinar cuándo la discrepancia
encontrada es lo bastante grande como para poder considerar que el resultado
muestral observado es incompatible con la hipótesis formulada y, en consecuencia,
para hacernos pensar que esa discrepancia encontrada no es explicable por fluctua-
ciones debidas al azar sino por el hecho de que la hipótesis planteada es incorrecta.
Necesitamos, y este es el tercer paso del proceso, una regla de decisión. Y esa
regla de decisión debe establecerse en términos de probabilidad. Si en el ejemplo
planteado sobre la inteligencia de los varones y de las mujeres pudiéramos trabajar
con las poblaciones completas de varones y mujeres (es decir, si pudiéramos medir
la inteligencia de todos los varones y todas las mujeres), no tendríamos que recurrir
a la teoría de la probabilidad porque tampoco sería necesario efectuar ningún tipo
de contraste de hipótesis: conoceríamos los valores de µ,, y µm, y sabríamos si son
iguales o no. Pero la necesidad de trabajar con muestras en lugar de poblacio-
nes nos obliga a establecer una regla de decisión en términos de probabilidad.
Ahora bien, el número de reglas de decisión que podemos establecer en una
situación particular es casi ilimitado. Por supuesto, unas reglas serán mejores o más
útiles que otras y, probablemente, ninguna de ellas será lo bastante buena como
para resultar de utilidad en todo tipo de situaciones. Afortunadamente, la teoría de
la decisión se ha encargado de proporcionarnos unos cuantos principios elementales
que podemos trasladar al contexto del contraste de hipótesis. En general, la regla de
decisión que utilizaremos será una afirmación de este tipo: si el resultado muestral
observado es, suponiendo correcta nuestra hipótesis, muy poco probable, considera-
remos que nuestra hipótesis es incompatible con los datos; por el contrario, si el
resultado muestral observado es, suponiendo correcta nuestra hipótesis, probable,
consideraremos que nuestra hipótesis es compatible con los datos 2 •
Imaginemos que deseamos averiguar si un psicólogo posee o no la capacidad de
detectar, por medio de la escritura, la presencia de trastornos de tipo neuróti\:O.
2 Sobre el significado de los términos probable y poco probable volveremos más adelante.
© Ediciones Pirámide
130 / Análisis de datos en psicología 11
3 Aunque este razonamiento será matizado más adelante, puede servirnos como primera aproxima-
ción a la lógica del contraste de hipótesis.
4 En la inferencia estadística no existe un único punto de vista. Es frecuente encontrarse con la
distinción entre el enfoque clásico, en el que se considera que la única información disponible sobre la
población es la contenida en la muestra, y el enfoque bayesiano, en el que, además de la información
muestra!, se hace uso de conocimientos previos. Las ideas sobre el contraste de hipótesis, tal como va ser
expuesto aquí, introducidas inicialmente por Ronald A. Fisher en varios trabajos (1925, entre otros) y
consolidadas más tarde por Neyman y Pearson (1932, 1933), deben ser enmarcadas dentro del enfoque
clásico.
© Ediciones Pirámide
Contraste de hipótesis / 131
l · Edu.:mne~ P1ram1de
132 / Análisis de datos en psicología 11
H1:µ1<µ2
H 1 : p#O
H 1 : n < 0,5
Cuando en H 1 aparece el signo « # », decimos que el contraste es bilateral o
bidireccional. Cuando en H 1 aparecen Jos signos « < » o « > » decimos que el
contraste es unilateral o unidireccional. Más adelante trataremos detenidamente
esta cuestión.
Las hipótesis nula y alternativa suelen plantearse como hipótesis rivales. Son
hipótesis exhaustivas y mutuamente exclusivas, Jo cual implica que si una es
verdadera, Ja otra es necesariamente falsa. Considerando los ejemplos que hemos
venido comentando, podemos plantear, con Jo que ya sabemos, las siguientes
hipótesis:
a) Ho:µv=µm
H¡: µv "# µm
b) H o: 1tacierto ~ 0,5
H 1: 1tacierto > 0,5.
Las hipótesis a se refieren al ejemplo sobre diferencias en inteligencia entre
varones y mujeres. La hipótesis nula afirma que Jos varones y las mujeres no
difieren en inteligencia; Ja hipótesis alternativa afirma que sí existen diferencias. Son
hipótesis exhaustivas y mutuamente exclusivas. Las hipótesis b se refieren al
ejemplo del psicólogo capaz de diagnosticar a través de Ja escritura. La hipótesis
nula afirma que el psicólogo no posee esa capacidad; la hipótesis alternativa afirma
que sí la posee. También estas dos hipótesis son exhaustivas y mutuamente
exclusivas.
~ El nombre de hipótesis nula para la hipótesis que se somete a contraste se debe a que, cuando se
está trabajando con dos o más parámetros, H 0 suele afirmar que el valor de esos parámetros es el mismo,
es decir, que la diferencia entre ellos es nula.
© Ediciones Pirámide
Contraste de hipótesis / 133
entonces será posible predecir con cierta precisión qué es lo que podemos encon-
trarnos al extraer una muestra aleatoria de esa población.
Un ejemplo sencillo nos ayudará a comprender mejor estas ideas. Supongamos
que deseamos contrastar la hipótesis nula H 0 : µ = 30 frente a la alternativa H 1 :
µ -:f. 30. En la hipótesis nula se hace referencia a una distribución poblacional con
media 30, pero nada más; nada sabemos sobre su forma ni sobre su varianza. Para
tomar una decisión respecto al valor de µ necesitamos recurrir a la evidencia
muestral. En concreto, necesitamos extraer una muestra de tamaño n y calcular el
valor de X. Si el valor de X es parecido a 30, diremos que la hipótesis nula
planteada es compatible con los datos. Pero si el valor de X es muy diferente de 30
diremos que la hipótesis nula es incompatible con los datos. Ahora bien, para
decidir cuándo el valor tomado por X es lo bastante parecido a 30 debemos
establecer, según veremos enseguida, una regla de decisión en términos de probabili-
dad. Y, según sabemos ya, para conocer las probabilidades asociadas a los diferen-
tes valores de X debemos servirnos de la distribución muestral de X. Esa distribu-
ción muestral es normal con parámetros µ y u/Jn. Como desconocemos u, pues
nada se ha dicho de ella en la hipótesis, tendremos que estimarla, en cuyo caso la
transformación T = (X - µ)/(S" _ d Jn)
seguirá el modelo de probabilidad t de
Student con n - 1 grados de libertad 6 ; de modo que la transformación T nos
permitirá conocer las probabilidades asociadas a los diferentes valores de X. Ahora
bien, para poder utilizar esa transformación, es decir, para que la transformación T
se distribuya según la t de Student, es necesario que la distribución poblacional de
partida sea normal y que la muestra utilizada para obtener X sea aleatoria. Y dado
que nada de eso está afirmado en H 0 , necesitamos formularlo como supuesto. Sólo
de este modo la distribución poblacional de partida quedará completamente
especificada: se tratará de una distribución normal, con parámetros µ = 30 y u
desconocida pero estimada a partir del valor tomado por sn - 1 en una muestra
aleatoria extraída de esa población. Bajo estas condiciones, la distribución muestral
de X es conocida y, por tanto, susceptible de ser utilizada para tomar una decisión
sobre H 0 en términos de probabilidad.
Otro ejemplo. Recordemos al psicólogo supuestamente capaz de detectar
trastornos de tipo neurótico a través de la escritura. Para verificar si el psicólogo
posee o no esa capacidad, planteábamos las hipótesis estadísticas: H 0 : nacierto ~ 0,5;
H 1 : 1tacierto > 0,5. Y para contrastar estas hipótesis presentábamos al psicólogo 1O
pares de muestras de escritura. Pues bien, si los 1O pares de muestras de escritura se
presentan de forma independiente y en cada presentación sólo hay dos resultados
posibles (acierto-error) con 1tacierto = 0,5 en cada presentación, la variable número de
aciertos tendrá una distribución de probabilidad completamente especificada 7 (la
binomial, con parámetros n = 10 y n = 0,5) y eso nos permitirá poder tomar una
decisión respecto a H 0 en términos de probabilidad.
Vemos, por tanto, que los supuestos de un contraste de hipótesis hacen referen-
6 Puede consultarse, en el capítulo 1, el apartado 1.3.2 sobre la distribución muestra! de la media.
7 Puede consultarse, en el capítulo 1, el apartado 1.3.4 sobre la distribución muestra! de la
proporción.
© Ediciones Pirámide
Contraste de hipótesis / 135
cia al conjunto de condiciones que deben cumplirse para poder tomar una decisión
sobre la hipótesis nula H 0 basada en una distribución de probabilidad conocida.
Pero ese conjunto de condiciones que hemos necesitado establecer no se refieren
únicamente a la distribución poblacional de partida. También hacen referencia a
ciertas características de los datos muestrales: si la muestra es aleatoria .... si las
presentaciones son independientes ... Esto significa que, para apoyar nuestra decisión
en una distribución de probabilidad conocida, necesitamos, por un lado, especificar
por completo la distribución poblacional a partir de la cual se establecen las
predicciones formuladas en H 0 (normalidad, simetría, etc.) y, por otro, definir las
características de los datos con los que se contrastarán esas predicciones (muestra
aleatoria, nivel de medida, etc).
Resumiendo:
Algunos de estos supuestos son más restrictivos o exigentes que otros. Para
contrastar la hipótesis H 0 : µ = 30 del primer ejemplo comentado hemos necesitado
suponer que la distribución poblacional de partida era normal y que la muestra
extraída de ella era aleatoria. Sin embargo, para contrastar la hipótesis H 0 :
1tacierto :::;; 0,5 del segundo ejemplo, sólo hemos necesitado suponer que las 1O
presentaciones eran independientes (muestra aleatoria de 10 elementos) y que la
probabilidad de acierto en cada presentación era la misma (1tacierto = 0,5). Es más
difícil conseguir que se cumplan los supuestos necesarios para contrastar H 0 :
µ = 30 que los necesarios para contrastar 1tacierto = 0,5 y, en ese sentido, decimos de
los supuestos del primer contraste que son mas restrictivos o exigentes que los del
primero.
Es importante tener presente que el incumplimiento de uno o varios supuestos
podría invalidar el contraste y llevarnos a una decisión errónea. Conviene, por
tanto, que los supuestos sean pocos y poco exigentes. Aun así, en muchas ocasiones
nos veremos en la necesidad de establecer varios y muy exigentes. No obstante,
veremos que existen procedimientos para comprobar el cumplimiento de la mayor
parte de los supuestos que necesitemos establecer.
Suponiendo, según hemos señalado antes, que las presentaciones de los to pares
de muestras de escritura son independientes y que la probabilidad de cada uno de
los dos resultados posibles (acierto-error) es la misma en cada presentación,
la distribución muestral de las variables o estadísticos de contraste X y P será la
binomial con parámetros n = 10 y n = 0,5. Según esto, la probabilidad asociada
a cada uno de los valores de X y P (tabla 3.1) vendrá dada por la función 8 :
8 Por supuesto, las probabilidades asociadas a los estadisticos X y P también pueden obtenerse a
partir de la tabla de la distribución binomial, con n = 10 y n: = 0,5, sin necesidad de realizar cálculos.
© Ediciones Pirámide
Contraste de hipótesis / 137
TABLA 3.1
Distribución muestra/ de X y P
con n = 0,5 y n = l O
X p f(x)
o 0,0 0,001
1 0,1 0,010
2 0,2 0,044
3 0,3 0,117
4 0,4 0,205
5 0,5 0,246
6 0,6 0,205
7 0,7 0,117
8 0,8 0,044
9 0,9 0,010
10 1,0 0,001
Así pues, se rechaza una hipótesis sometida a contraste cuando el valor del
estadístico de contraste cae en la zona crítica; y se rechaza porque eso significa que
el valor tomado por el estadístico de contraste se aleja demasiado de la predicción
establecida en esa hipótesis, es decir, porque, si la hipótesis planteada fuera
verdadera, el estadístico de contraste no debería haber tomado ese valor (sería muy
poco probable que lo tomara); como de hecho el estadístico ha tomado ese valor, la
conclusión más razonable será que la hipótesis planteada no es verdadera.
El tamaño de las zonas de rechazo y aceptación se determina fijando el valor de
tx, es decir, fijando el nivel de significación con el que se desea trabajar. Por
supuesto, si tenemos en cuenta que tx es la probabilidad que vamos a considerar
como lo bastante pequeña para que valores con esa probabilidad o menor no
ocurran bajo H 0 verdadera, comprenderemos que tx será, necesariamente, un valor
pequeño. Cómo de pequeño es algo que debe establecerse de forma arbitraria 9 , si
bien los niveles de significación habitualmente propuestos para :x en la literatura
estadística y utilizados en la investigación empírica son 0,01 y 0,05 (también
referidos como 1 por 100 y 5 por 100, respectivamente).
Recordemos ahora que, dependiendo de cómo formulemos H 1 • los contrastes de
hipótesis pueden ser bilaterales o unilaterales:
l. Contraste bilateral: H 0 : µ .. = µm
H1: µ,. # µm
2. Contraste unilateral: H 0 : 1tacierto ~ 0,5
H 1: 1tacierto > 0,5.
La forma de dividir la distribución muestra! en zona de rechazo o crítica y zona
de aceptación depende de si el contraste es bilateral o unilateral. La zona crítica
debe estar situada allí donde puedan aparecer los valores muestrales incompatibles
con H 0 , es decir, allí donde puedan aparecer los valores muestrales que apunten en
la dirección propuesta en H 1 • Así, en el contraste 1, dada la afirmación establecida
en H 1 , la zona crítica debe recoger tanto los valores muestrales que vayan en la
" En ocasiones, no tan arbitrariamente. Más adelante veremos que, en todo contaste, pueden
cometerse dos tipos de errores. Pues bien, hay ocasiones en que el nivel de significación :x conviene fijarlo
buscando minimizar la probabilidad de comerter uno de esos dos errores.
© Ediciones Pirámide
Contraste de hipótesis / 139
dirección X,. - Xm >O, como los que vayan en la dirección X,. - Xm <O. Dicho de
otra forma: si H 0 : µ,, = µm es falsa, lo será tanto si µ,. es mayor que µm como si µ,. es
menor que µm, por lo que la zona crítica deberá recoger ambas posibilidades. Por
esta razón, en los contrastes bilaterales, la zona crítica se encuentra, generalmente 10 ,
repartida a partes iguales entre las dos colas de la distribución muestra/ (figura 3.1.A).
A B
Figura 3.1.--Ejemplo de zonas críticas en un contraste bilateral (figura A) y un contraste unilateral
derecho (figura B) con una distribución muestra! de forma normal.
1 0 Decimos generalmente porque. dependiendo del tipo de distribución muestra! que utilicemos, nos
© Ediciones Pirámide
140 / Análisis de datos en psicología 11
Cuando decidimos mantener una hipótesis nula, queremos significar con ello
que consideramos que esa hipótesis es compatible con los datos.
Cuando decidimos rehazar una hipótesis nula, queremos significar con ello
que consideramos probado que esa hipótesis es falsa.
La razón de que esto sea así es doble. Por un lado, dada la naturaleza
inespecífica de H 1 , raramente es posible afirmar que H 1 no es verdadera; las
desviaciones pequeñas de H 0 forman parte de H 1 • por lo que al mantener una H 0
particular, también se están manteniendo, muy probablemente, algunos valores de
H 1 ; debe concluirse, por tanto, que se mantiene o no rechaza H 0 , pero nunca que se
acepta como verdadera. Por otro lado, en el razonamiento estadístico que lleva a la
toma de una decisión respecto a H 0 , puede reconocerse el argumento deductivo
modus tollens, aunque de tipo probabilístico: si H 0 es verdadera, entonces, muy
probablemente. el estadístico de contraste T tomará valores comprendidos entre a y b;
T no toma un valor comprendido entre a y b; luego, muy probablemente, H 0 no es
verdadera. Este argumento es impecable, nada hay en él que lo invalide desde el
11 El propio Fisher mantendría una postura más radical en este punto: si una hipótesis sometida a
contraste no puede ser rechazada, debemos suspender el juicio, no decidir nada, porque nada podemos
probar sobre esta hipótesis (Fisher, 1955).
© Ediciones Pirámide
Contraste de hipótesis / 141
punto de vista lógico. Sin embargo, si una vez establecida la primera premisa se
continúa de esta otra manera: T toma un valor comprendido entre a y b; luego H 0 ,
muy probablemente, es verdadera, se comete un error lógico llamado falacia de la
afirmación del consecuente: obviamente, T puede haber tomado un valor comprendi-
do entre a y b por razones diferentes de las contenidas en H 0 12 .
Estas ideas proporcionan una valiosa pista a la hora de decidir cómo plantear
las hipótesis nula y alternativa en un contraste concreto. Si estamos interesados en
determinar si una afirmación sobre una distribución poblacional es falsa, debemos
plantear esa afirmación como hipótesis nula; así, si la rechazamos, podremos
concluir que hemos probado que esa hipótesis es falsa. Si, por el contrario, estamos
interesados en determinar si esa afirmación es verdadera, debemos plantearla como
hipótesis alternativa; así, si rechazamos la hipótesis nula, lo haremos en favor de la
alternativa (pues la hipótesis alternativa es, recordémoslo, la negación de la nula).
Todo esto sin olvidar que el signo « = » siempre debe ir en la hipótesis nula.
EJEMPLO 3.1. Al describir cada uno de los pasos de que consta un contraste de
hipótesis hemos comentado, entre otros, un ejemplo referido a un psicólogo supuesta-
mente capaz de diagnosticar trastornos de tipo neurótico a través de la escritura.
Vamos a utilizar ahora ese mismo ejemplo para resumir los pasos descritos.
Supongamos que presentamos al psicólogo los 10 pares de muestras de escritura
(recordemos que en cada par de muestras de escritura el psicólogo debe decidir cuál de
las dos escrituras corresponde al paciente con trastornos de tipo neurótico) y que éste
consigue efectuar un diagnóstico correcto en 7 de ellos. Con este resultado muestra),
¿qué podemos concluir sobre la supuesta capacidad del psicólogo?
l. Hipótesis:
H 0: 0,5. (H 0 : el psicólogo no posee capacidad de diagnóstico).
1tacierto :::;;
2. Supuestos:
- 1O ensayos independientes con dos resultados posibles en cada ensayo: acierto
y error.
- La probabilidad de cada resultado permanece constante en cada ensayo; en
concreto, 1tacierto = 1terror = 0,5.
12 Este punto de vista, por otra parte, es perfectamente coherente con el comúnmente aceptado por
los filósofos de la ciencia sobre la verificación de una hipótesis científica: nunca podemos afirmar la
verdad de una hipótesis o teoría científica; podemos, simplemente, sentirnos más seguros de ella a medida
que se va mostrando repetidamente conforme con la evidencia empírica; en realidad, sólo podemos
considerarla como provisionalmente verdadera (Popper, 1982; Hempel, 1984; etc.). De ahí que la labor
investigadora deba ir más orientada hacia la falsación o refutación de teorías que hacia la verificación de
las mismas (sobre esta temática puede consultarse la discusión de Klayman y Ha, 1987).
© Ediciones Pirámide
142 / Análisis de datos en psicologla 11
4. Regla de decisión:
Rechazar H 0 si T toma un valor tan grande que la probabilidad de obtener un
valor como ése o mayor es menor que :x.
Los valores habituales de :x son, según hemos señalado, 0,05 y 0,01. Pero en
este ejemplo concreto, por sencillez (y por conveniencia, según veremos más tarde
al estudiar el concepto de potencia), vamos a fijar un :x de 0,011. Fijar un :x de
0,011 equivale a establecer la siguiente regla de decisión: rechazar H 0 si T toma un
valor igual o mayor que 9 (ver la distribución muestra) de Ten el apartado 3.1.3).
5. Decisión:
Dado que en la muestra de 10 presentaciones hemos obtenido 7 aciertos y que
7 es menor que 9 (o, de otro modo, dado que la probabilidad de obtener valores
mayores o iguales que 7 vale 0,172 y que 0,172 es mayor que :x = 0,011), debemos
tomar la decisión de mantener H 0 •
Podemos concluir que no disponemos de evidencia empírica suficiente para
rechazar H 0 ; por lo que no podemos pensar que el psicólogo posea la capacidad
de diagnosticar correctamente trastornos de tipo neurótico a través de la escritura.
A pesar de que 7 aciertos son más de los que cabría esperar por puro azar (cabría
esperar 5), es un número de aciertos cuya probabilidad de ocurrencia, suponiendo
n = 0,5, es mayor que el riesgo que nosotros estamos dispuestos a asumir en nuestra
decisión. Es decir, respondiendo al azar, la probabilidad de obtener 7 o más aciertos es
mayor que 0,05, por lo que podemos pensar que ese resultado es compatible (puede
ocurrir) si la hipótesis n :o::; 0,5 es verdadera.
(A lo largo de las páginas que siguen volveremos repetidamente sobre este ejemplo;
presentaremos además gráficos de diferente tipo que nos ayudarán a entender mejor
cada uno de los pasos seguidos.)
EJEMPLO 3.2. Algunos trabajos sobre memoria icónica indican que el promedio
de letras recordadas en presentación taquistoscópica de 1 segundo, por un sujeto
normal, es de 4,5, con una desviación típica de 1,4. Sin embargo, los trabajos que se
vienen realizando en la Universidad Autónoma de Madrid no parecen estar de
acuerdo con esa hipótesis. Deseamos, por tanto, contrastar la hipótesis 11 = 4,5. Para
ello. hemos seleccionado una muestra aleatoria de 25 sujetos y. tras presentarles un
conjunto de letras por taquistoscopio. hemos encontrado un promedio de palabras
recordadas de 5,1. Utilizando un nivel de significación de :x = 0,05, ¿a qué conclusión
llegaremos?
1. Hipótesis:
H 0 : µ = 4,5.
H 1 : µ '# 4,5 (contraste bilateral).
© Ediciones Pirámide
Contraste de hipótesis / 143
2. Supuestos:
El estadístico de contraste capaz de proporcionarnos información relevante
sobre µ es X. Debemos, por tanto, establecer las condiciones necesarias para
conocer la distribución muestra( de X:
- La variable número de palabras recordadas se distribuye normalmente en la
población.
- La muestra de 25 observaciones es aleatoria.
4. Regla de decisión:
Rechazar H 0 si el estadístico de contraste Z toma un valor mayor que el per-
centil 100(1 - '1./2) = 100(1 - 0,025) = 97,5 o menor que el percentil 100('1./2) =
= 100(0,025) = 2,5 de la distribución N(O, 1), es decir, un valor mayor que 1,96 o
menor que -1,96.
5. Decisión:
Dado que z = 2,14 es mayor que 1,96, debemos rechazar H 0 y concluir que el
promedio de letras recordadas es distinto de 4,5. La figura 3.2 nos ilustra la
situación.
z = 2,14
© Ediciones Pirámide
144 / Análisis de datos en psicología 11
Naturaleza de Ha
Verdadera Falsa
© Ediciones Pirámide
Contraste de hipótesis / 145
mismo tamaño para a, vamos ensanchando poco a poco las dos distribuciones: el
resultado será que el tamaño del área f3 irá aumentando.
En el siguiente apartado, al hablar de la potencia (1 - /3), aprenderemos a
calcular el valor de {3. Pero antes, debemos hacer un último comentario sobre los
errores de tipo 1 y 11. En general, un buen contraste o una buena regla de decisión
debe tender a minimizar los dos tipos de error inherentes a toda decisión. Ya
sabemos que el valor de a lo establece arbitrariamente el investigador procurando
que sea un valor pequeño (habitualmente, 0,05 o 0,01). Por tanto, disminuir la
probabilidad de cometer un error de tipo 1 (a) en un determinado contraste es tan
sencillo como seleccionar para a un valor tan pequeño como deseemos. Pero
acabamos de ver que disminuir a tiene como resultado directo un aumento de {3. La
reducción arbitraria de a, por tanto, no representa una solución razonable.
Más razonable parece detenerse a considerar cuál de los dos errores que
podemos cometer podría resultar más grave en una situación concreta y procurar
disminuirlo a costa del otro. Así, si es importante evitar cometer un error de tipo 1
(por ejemplo, decidir aplicar un tratamiento que conlleva graves efectos secundarios
cuando en realidad no es necesaria la aplicación del mismo), será conveniente
seleccionar un valor muy pequeño para a (0,001, por ejemplo). Si es importante
evitar cometer un error de tipo 11 (por ejemplo, mandar a alguien a casa cuando de
hecho necesita tratamiento inmediato), será conveniente seleccionar para a un valor
más grande (0,10 o 0,20, por ejemplo). Con todo, de entre los diferentes factores de
los que depende el valor de {3, la manipulación del tamaño muestral n es el que
proporciona una solución más eficaz, al tiempo que sencilla (en el apéndice 3 tra-
tamos esta cuestión).
14 Probablemente (como sugiere Howell, 1992, pág. 204) existen varias razones históricas que
justifican este descuido. Entre ellas, la escasa atención prestada en los manuales de estadística a los
problemas relacionados con la potencia, o un tratamiento de los mismos poco apropiado para ser
digerido por el nivel de preparación medio de la comunidad investigadora. Hoy, sin embargo, después de
los trabajos aparecidos en los últimos años, especialmente impulsados por Cohen (ver Cohen, 1988), las
cuestiones relacionadas con la potencia parecen lo basta!He clarificadas y divulgadas como para merecer
nuestra atención.
© Ediciones Pirámide
Contraste de hipótesis / 149
este ejemplo concreto, dadas las probabilidades individuales de la distribución muestra! de T1 bajo H 0 ,
un a de 0,011 nos permite simplificar el problema.
© Ediciones Pirámide
150 / Análisis de datos en psicología 11
TABLA 3.2
Distribuciones muestra/es de T 1 bajo H 0 : n = 0,5
y H 1 : n = 0,7
H 0 : n = 0,5 H 1: n = 0,7
T, P(T,=t.) T, P(T, = r 1 )
o 0,001 o 0,000
1 0,010 1 0,000
2 0,044 2 0,001
3 0,117 3 0,009
4 0,205 1-IX 4 0,037 /f
5 0,246 5 0,103
6 0,205 6 0,200
7 0,117 7 0,267
8 0,044 8 0,233
0,010 0,121
9
10 0,001 } iX
9
10 0,028
} 1- /f
0.25
0.20
0.15
0.10
0.05
o 2 3 4 5 6 7 8 9 10
Figura 3.6. Error tipo 11 y potencia en un contraste unilateral derecho con H 1: rr = 0,7 y n = 10.
© Ediciones Pirámide
152 / Análisis de datos en psicología 11
P(T, =1 1 )
0,40
0,35
0,30
0,25
0,20
0,15
0,10·
0,05
o 2 3 4 5 6 7 8 9 10
Figura 3.7.-Error tipo 11 y potencia en un contraste unilateral derecho con H 1 : '/[ = 0,9 y n = 10.
z = (X ± 0,5) - mi:
(3.1)
Jmr(l - n)
(9 - 0,5) - 10(0,5)
z= = 2 21
jl0(0,5)(0,5) '
proporción.
© Ediciones Pirámide
Contraste de hipótesis / 153
mayores que z = 2,21. Esa probabilidad, suponiendo que el verdadero valor del
parámetro n es 0,5, puede obtenerse en la tabla de la distribución normal estandari-
zada: P(Z ~ 2,21) = 0,0136. Así pues, con la regla de decisión adoptada y utilizando
el estadístico Z, la probabilidad de cometer un error de tipo 1 (oc) vale 0,0136 (valor
muy parecido al utilizado anteriormente con el estadístico T1 y la distribución
binomial).
Ahora bien, si la hipótesis H 0 : n = 0,5 es falsa, corremos el riesgo de cometer un
error de tipo 11, el cual, como sabemos, se proáucirá cuando tomemos la decisión de
mantener esa H 0 . ¿Cuál será la probabilidad de cometer ese error? Es decir, ¿cuál
será el valor de f3? Si suponemos que la hipótesis verdadera es H 1 : n = 0,7, el valor
de f3 vendrá dado por la probabilidad de encontrar valores menores que 9 (único
caso en el que decidiríamos mantener H 0 : n = 0,5) en la distribución definida por
n = 0,7. Utilizando el estadístico Z obtenemos:
(9 - 0,5) - 10(0, 7)
z= = 1,04
jl0(0,7)(0,3)
© Ediciones Pirámide
154 / Análisis de datos en psicología 11
p= 0,8508
o
Figura 3.8.--Áreas correspondientes a las probabilidades ex. {J. 1 - ex y 1 - fJ en un contraste unilateral
derecho (H 1 : ¡¡ = 0,7; n = 10).
2,14
A
Figura 3.9. ·-Zonas críticas en un contraste bilateral con ac = 0,05 (figura A) y ac = 0,01 (figura B).
© Ediciones Pirámide
156 / Análisis de datos en psicología 11
se obtiene, generalmente, multiplicando por 2 la probabilidad asociada a los valores mayores (si el
estadístico de contraste cae en la cola derecha) o menores (si el estadístico cae en la cola izquierda) que el
estadístico de contraste. Pero, como veremos en próximos capítulos, existen contrastes bilaterales en los
que la zona crítica está situada, toda ella, en la cola derecha de la distribución muestral. En estos casos,
el nivel crítico es la probabilidad asociada a los valores mayores que el estadístico de contraste.
© Ediciones Pirámide
Contraste de hipótesis / 157
ventaja adicional que nos permite superar, en parte, el segundo de los inconvenien-
tes atribuidos líneas más arriba a la utilización de un nivel de significación
establecido a priori. El nivel crítico, no sólo nos ayuda a tomar una decisión sobre
H 0 , sino que su tamaño nos informa sobre el grado de compatibilidad o discrepan-
cia existente entre la evidencia muestra) observada y esa H 0 . Un nivel crítico de
0,70, por ejemplo, nos está indicando que el resultado muestral obtenido es
perfectamente compatible con la hipótesis planteada; es decir, un nivel crítico de ese
tamaño nos está indicando que, si suponemos que la H 0 planteada es verdadera, la
probabilidad de encontrar un resultado muestra) como el encontrado o más
extremo vale 0,70. Un nivel crítico de 0,05 nos está indicando que el resultado
muestra) observado es poco compatible con H 0 ; sólo encontraríamos un valor como
ese o más extremo en 5 de cada 100 contrastes idénticos que lleváramos a cabo. Un
nivel crítico de 0,000001 nos está indicando que el resultado muestra) observado se
encuentra tan alejado de la predicción efectuada en H 0 que sólo en 1 de cada millón
de contrastes idénticos encontraríamos un resultado semejante; con un nivel crítico
de 0,000001 podríamos sentirnos razonablemente seguros de que la H 0 planteada es
falsa. Podemos decir, por tanto, que el tamaño del nivel crítico nos está inforinando
sobre el grado en el que la evidencia empírica obtenida se muestra incompatible con
la H 0 planteada (información ésta que pasa desapercibida cuando nos limitamos a
tomar la decisión de mantener o rechazar H 0 apoyados en un nivel de significación
previamente establecido).
Pero recordemos en este momento que el tamaño del error típico de la distribu-
ción muestra) de un estadístico se ve fuertemente afectado por el tamaño de la
muestra utilizada (en el apartado 3.2 de este mismo capítulo hemos tratado esta
cuestión). Permaneciendo todo lo demás constante, el valor del estadístico de con-
traste será tanto más extremo (es decir, tomará un valor tanto más alejado de la
predicción formulada en H 0 ) cuanto mayor sea el tamaño de la muestra. En el
estadístico Z utilizado en los ejemplos 3.2 y 3.3 se puede apreciar claramente este
hecho. Cuanto mayor sea n, menor será el denominador (el error típico de la me-
dia) y más extremo el valor de Z. De manera que con la misma media muestra)
X, la misma media poblacional µ y la misma varianza poblacional a 2, aumentando
n obtendremos un valor Z más extremo y, en consecuencia, un nivel crítico más
pequeño.
Por supuesto, lo que ocurre con el estadístico Z puede generalizarse a otro tipo
de estadísticos. Con todos ellos el nivel crítico tiende a O y, por tanto, a indicar gran
discrepancia entre H 0 y el estadístico de contraste, a medida que el tamaño
muestra) n va aumentando (lo que tiene relación directa con el hecho de que la
potencia tienda a 1 a medida que n va aumentando; puede consultarse, en este
mismo capítulo, el apéndice 3 y, en especial, el ejemplo 3.4).
Estos comentarios sugieren que la utilización del nivel crítico como una medida
del grado de discrepancia entre la H 0 planteada y la evidencia muestra) observada
tiene el inconveniente de que el valor del nivel crítico está condicionado por el
tamaño de la muestra concreta utilizada. Necesitamos, por tanto, otra medida de
ese grado de discrepancia que no dependa del tamaño de la muestra. Precisamente
© Ediciones Pirámide
158 / Análisis de datos en psicología 11
20 En León (1984) puede encontrarse una interesante discusión sobre el significado del concepto
significativo utilizado en el contexto del análisis de datos y fuera de él. Decir que un resultado muestra( es
estadísticamente significativo no implica necesariamente que ese resultado es teóricamente relevante.
21 Ver capítulo 8.
© Ediciones Pirámide
Contraste de hipótesis / 159
En situaciones de este tipo, el investigador o bien no posee una idea previa sobre
la dirección en la que se pueden producir resultados muestrales incompatibles con
H 0 , o bien considera relevante que los resultados muestrales se muestren incompati-
bles con H 0 tanto en una dirección como en la otra. En el caso 1, H 0 será rechazada
tanto sin es mayor que 0,5 como si es menor; en el caso 2, H 0 será rechazada tanto
si µ 1 es mayor que µ 2 como si µ 1 es menor que µ 2; en el caso 3, H 0 será rechazada
tanto si la relación es positiva como si es negativa. A este tipo de contrastes se les
llama bilaterales o bidireccionales. Las hipótesis formuladas no contienen ninguna
predicción sobre la dirección en la que se puede producir un resultado muestra)
incompatible con la afirmación establecida en H 0 . Lo cual está reflejado en H 1 con
el signo « # ».
Así, por ejemplo, si se quiere estudiar si los varones y las mujeres difieren en
inteligencia, y no existe una expectativa justificada (estudios previos, intereses
concretos, etc.) sobre cuál de los dos grupos es más inteligente, lo razonable será
plantear un contraste bilateral: H 0 : µv = µm; H 1 : µv # µm.
Cuando se utiliza la distribución normal o la distribución t de Student en un
contraste bilateral, la zona crítica está repartida, generalmente en partes iguales,
entre las dos colas de la distribución muestra) (ver figura 3.lA). De ahí el nombre
de bilateral. No obstante, existen contrastes bilaterales en los que la zona crítica se
encuentra, toda ella, en la cola derecha de la distribución. Tal es el caso de algunos
contrastes en los que se utiliza la distribución x2 o la F. Esto es algo que tendremos
ocasión de estudiar con detalle en los próximos capítulos.
La situación cambia cuando un investigador desea comprobar si el valor de un
parámetro ha aumentado, si un grupo supera o es mejor que otro en alguna
variable, si dos variables se encuentran negativamente relacionadas, etc., puede
someter a contraste hipótesis como éstas:
l. H 0 : n ~ 0,65
H 1 : n > 0,65
© Ediciones Pirámide
160 / Análisis de datos en psicología 11
2. H 0 : µ 1 ~ µ2
H1: µ¡ >µ2
3. H 0 :p~O
H 1 : p <0
Aquí, el investigador, o bien posee una idea previa sobre la dirección en la que
se producirán los resultados muestrales incompatibles con H 0 , o bien considera que
sólo son relevantes los resultados muestrales que se muestren incompatibles con H 0
en una de las dos direcciones. En el caso 1, H 0 será rechazada si n es mayor que
0,65, pero no si es menor; en el caso 2, H 0 será rechazada si µ 1 es mayor que µ 2 ,
pero no si es menor; en el caso 3, H 0 será rechazada si la relación es negativa, pero
no si es positiva. A este tipo de contrastes se les llama unilaterales o unidireccionales.
Las hipótesis contienen una predicción concreta sobre la dirección en la que se
puede producir un resultado muestral incompatible con la afirmación establecida en
H 0 . Lo cual está reflejado en H 1 con los signos « < » y « > ».
Si deseamos comprobar, por ejemplo, si un psicólogo posee o no la capacidad
de diagnosticar correctamente trastornos de tipo neurótico a través de la escritura,
consideraremos que el psicólogo posee tal capacidad cuando, al presentarle pares de
muestras de escritura pertenecientes a un sujeto con trastorno y a otro sin trastor-
no, su proporción de aciertos sea mayor que la proporción de aciertos que cabe
esperar por azar; y consideraremos que no posee esa capacidad cuando su propor-
ción de aciertos sea igual o menor que la esperable por azar. Las hipótesis que
tendrá sentido plantear serán: H 0 : 7l:acierto ~ 0,5; H 1 : nacierto > 0,5.
Cuando se utiliza la distribución normal o la distribución t de Student en un
contraste unilateral, la zona crítica está en una de las dos colas de la distribución
(ver figura 3.1 B). De ahí el nombre de unilateral. Con otras distribuciones ocurre algo
parecido, pero esto también es algo que tendremos ocasión de estudiar con más
detenimiento en los próximos capítulos.
Conviene saber que los contrastes bilaterales y los unilaterales no poseen la
misma potencia. Dada una situación experimental concreta, si la verdadera H 1 se
separa de H 0 en la dirección de la zona crítica, los contrastes unilaterales son más
potentes que los bilaterales para cualquier valor posible de oc Por el contrario, si la
verdadera H 1 se aleja de H 0 en dirección contraria a la zona crítica, los contrastes
unilaterales son menos potentes que los bilaterales (en estos casos, la potencia de los
contrastes unilaterales no será mayor que ex).
Estas consideraciones, sin embargo, no deben guiar nuestra decisión sobre si en
una situación concreta debe utilizarse un contraste bilateral o unilateral. Esto debe
decidirse únicamente atendiendo a los intereses del investigador, es decir, atendien-
do a aquello que el investigador desea poner a prueba. Si deseamos comprobar si
un nuevo método terapéutico supera en proporción de mejoras al método tradicio-
nal, el contraste deberá ser unilateral: concluiremos que el nuevo método no
consigue aumentar la proporción de mejoras tanto si con él se obtienen menos
mejoras que con el tradicional, como si obtienen las mismas. Pero si lo que estamos
interesados en comprobar es si los pacientes histéricos difieren de los obsesivos en
© Ediciones Pirámide
Contraste de hipótesis / 161
0,025
µo+ l,96ux
intervalo son falsas. Y lo mismo ocurnra con cualquier otro parámetro sobre el
que deseemos construir un intervalo de confianza o efectuar un contraste de hipó-
tesis.
a) Hipótesis:
H 0 : /1 = 23.
H 1 : f1 # 23 (contraste bilateral).
b) Supuestos:
Muestra aleatoria de 100 observaciones.
Las puntuaciones en conservadurismo se distribuyen normalmente.
© Ediciones Pirámide
Contraste de hipótesis / 163
d) Regla de decisión:
Rechazar Ha si el estadístico de contraste Z toma un valor mayor que el
percentil 100(1 - 'Y./2) = 100(1 - 0,025) = 97,5 o menor que el percentil 100(':1./2) =
= 2,5 de la distribución N(O, 1), es decir, un valor mayor que za. 975 = 1,96 o menor
que za.a 25 = -1,96.
e) Decisión:
Dado que Z = 3 es mayor que za. 975 = 1,96, debemos rechazar Ha y concluir
que disponemos de evidencia empírica suficiente para pensar que Ha: µ = 23 es
falsa. Podemos concluir que la población estudiada ha alterado su promedio en
conservadurismo.
Veamos qué ocurre si, en lugar de efectuar un contraste de hipótesis, intentamos
responder a la pregunta construyendo un intervalo de confianza para µ:
AP~NDICE 3
Curva de potencias
Hemos visto que la potencia de un contraste se ve afectada (al igual que ocurre con la
probabilidad de cometer un error de tipo 11) por el valor concreto de H 1 • Ya sabemos que H 1
es una afirmación inexacta, en el sentido de que asigna diferentes valores al parámetro de
referencia o a la forma de una distribución. La hipótesis H 1: n: > 0,5, por ejemplo, está
asignando al parámetro n: todos los posibles valores mayores de 0,5 y, por tanto, no está
asignando un valor concreto, sino muchos. Pues bien, tanto la potencia como la probabilidad
de cometer un error de tipo 11 dependen de cuál de todos esos valores incluidos en H 1
consideremos como verdadero. Según hemos visto, cuanto más alejado se encuentre el
verdadero parámetro del valor propuesto para él en H ª' menor será la probabilidad de
encontrar valores compatibles con Ha y menor también, por tanto, la probabilidad de tomar
una decisión incorrecta (/J). Lo cual significa que existirán tantos valores para fJ (y, por tanto,
para 1 - /J) como valores para el parámetro en cuestión estén definidos en H 1 • En este
sentido, se habla de curva o función de potencias para expresar, en un contraste concreto, la
relación entre cada uno de los valores asignados al parámetro en H 1 y la potencia correspon-
diente a esos valores. permaneciendo todo lo demás constante.
Sigamos con nuestro ejemplo del psicólogo supuestamente capaz de diagnosticar a través
de la escritura. Habíamos planteado las hipótesis: Ha: n: :::;; 0,5, H 1 : n: > 0,5. Como H 1 es una
© Ediciones Pirámide
164 / Análisis de datos en psicología 11
TABLA 3.3
Distribución muestra/ del estadístico T1 con n = 1O y diferentes valores de rr
T, 110 = 0,50 11, = 0,60 11, = 0,70 11¡ = 0,80 11, = 0,90 11, = 0,95 11, = 0,99
22 Todo lo dicho sobre la curva de potencias y los factores de los que depende ha estado referido a
un contraste unilateral (H 0 : 7t .;; 0,5; H 1 : 7t > 0,5). En un contraste bilateral es posible obtener la potencia
y la curva de potencias utilizando razonamientos similares a los expuestos. Estos razonamientos pueden
consultarse, por ejemplo, en San Martín, Espinosa y Fernández, 1987, apartado 6.7.
© Ediciones Pirámide
Contraste de hipótesis / 165
1 - {J
1,00
0,90
0,80
0,70
0,60
0,50
0,40
0,30
0,20
0,10
o
0,50 0,60 0,70 0,80 0,90 0,99
0,95
TABLA 3.4
Potencia asociada a diferentes valores de n: 1 y oc
(resultados obtenidos a partir de la tabla 3.3)
© Ediciones Pirámide
166 / Análisis de datos en psicología 11
Según hemos estudiado en el apartado 3.3, el primero de los factores que afectan a la
potencia es el valor concreto de H 1 considerado como verdadero. Pero lo cierto es que saber
esto no nos sirve de mucho a la hora de intentar aumentar la potencia de un contraste. Por
un lado, el verdadero valor de un parámetro concreto no es algo que dependa de nuestros
intereses, por lo que dificilmente podremos manipular ese valor para conseguir con ello
modificar la potencia de un contraste. Por otro lado, puesto que desconocemos cuál es el
verdadero valor del parámetro estudiado (si lo conociéramos no necesitaríamos efectuar un
contraste sobre él) ni siquiera podemos determinar cuál de todas las afirmaciones abarcadas
por H 1 es la verdadera para, con ello, conocer la potencia del contraste.
En segundo lugar, ya sabemos que un aumento de IX tiene como consecuencia directa una
reducción de la probabilidad de cometer un error de tipo 11 (fi) y, por tanto, un aumento de
la potencia. Podríamos, pues, aumentar arbitrariamente IX y conseguir, de esa forma tan
sencilla, una reducción automática de p y un aumento de la potencia. Pero ya sabemos que
aumentar IX significa aumentar la probabilidad asociada al error de tipo l. Por lo que un
aumento de IX con la finalidad de conseguir hacer más potente el contraste no parece
constituir una solución lo bastante razonable (excepto en el caso de que cometer un error de
tipo 11 sea claramente más grave que cometer un error de tipo 1).
Más razonable parece intentar conseguir un aumento de la potencia a través de una
reducción del error típico de la distribución muestra( del estadístico utilizado en el contraste.
Según hemos visto en el apartado 3.2, con una operación tan sencilla como aumentar el
tamaño de la muestra podemos obtener una reducción del tamaño del error típico de la
distribución muestra( del estadístico utilizado y, como consecuencia de ello, una disminución
de P y un aumento de la potencia.
Continuando con nuestro ejemplo del psicólogo supuestamente capaz de diagnosticar
trastornos de tipo neurótico a través de la escritura, recordemos que al contrastar la hipótesis
nula H 0 : n: = 0,5 frente a la alternativa H 1 : n: = 0,7 mediante el estadístico Z y con un
tamaño muestra( n = 10, hemos obtenido una potencia de 0,1492 (apartado 3.3.1).
Manteniendo la misma regla de decisión que entonces y, por tanto, el mismo valor para IX (es
decir, 0,0136), veamos qué ocurre ahora si, en lugar de utilizar una muestra de tamaño
n = 10, utilizamos una muestra de tamaño n = 25 (permaneciendo igual lo demás).
Dado que IX vale 0,0136, rechazaremos H 0 cuando el estadístico Z tome un valor igual o
mayor que 2,21 (ver figura 3.8; esto no ha cambiado respecto a la situación anterior: 2,21 era
y sigue siendo el valor en puntuaciones Z que corresponde a la línea vertical en la
distribución de H 0 ). Esto equivale a decir que rechazaremos H 0 cuando T1 (el número de
aciertos) tome un valor mayor o igual que 18,525, pues:
© Ediciones Pirámide
Contraste de hipótesis / 167
Cl = 0,0136
17,5 18,525
--------..-------z
o 0,23
Figura 3.12. Áreas correspondientes a las probabilidades ex, p, 1 - ex y 1 - p en un contraste unilateral
derecho (H i: n = O, 7; n = 25).
~ = 0,0136
El efecto del tamaño muestra! sobre la potencia puede apreciarse con toda claridad
observando la curva de potencias. Para un nivel de significación ex dado, la curva de potencias
muestra un notable incremento en la potencia de un contraste a medida que el tamaño
muestra! va aumentando. La figura 3.14 ilustra esta idea. En ella están representadas las
curvas de potencias obtenidas al contrastar H 0 : n = 0,5 frente a H 1 : n > 0,5. Esas curvas se
han dibujado a partir de los datos de la tabla 3.5, los cuales se han obtenido utilizando la
tabla de la distribución binomial con: n = 0,5, 0,6, ... , 0,99; n = 10, 20; y ex = 0,001.
Por supuesto, al decir que la potencia de un contraste aumenta conforme lo hace el
tamaño muestra), lo que estamos diciendo es que la probabilidad de rechazar la H 0 sometida
a contraste es tanto mayor cuanto mayor es el tamaño de la muestra utilizada. La consecuen-
cia de esto es tan llamativa que no nos puede pasar desapercibida: cualquier hipótesis que se
nos ocurra plantear puede terminar siendo rechazada con la única condición de que el
23 La relación entre la potencia y el tamaño de la muestra es similar a la relación antes vista entre la
potencia y el verdadero valor de H 1 • Hemos visto que, a medida que el valor propuesto para el
parámetro en H 1 se va alejando del valor propuesto en H 0 , la potencia va aumentando. Del mismo
modo, a medida que 11 va aumentando, también la potencia lo va haciendo, permaneciendo todo lo
demás igual.
© Ediciones Pirámide
Contraste de hipótesis / 169
1-P
1,00
0,90
0,80
0,70
0,60
0,50
0,40
0,30
0,20
0,10
o
0,50 0,60 0,70 0,80 0,90 0,99
0,95
TABLA 3.5
Potencias asociadas a diferentes tamaños muestra/es
( n = 10 y n = 20) al contrastar
H 0 : n = 0,5 frente a H 1 : n > 0,5 con :x = 0,001
1 - p con n = 10 1-Pconn=20
"•
0,50 0,001 0,001
0,60 0,006 0,015
0,70 0,028 0,108
0,80 0,107 0,412
0,90 0,349 0,867
0,95 0,599 0,984
0,99 0,904 1,000
tamaño de la muestra sea lo bastante grande (siempre, claro está, que esa hipótesis no sea
exactamente verdadera; es decir, siempre que exista una ligera discrepancia, por pequeña que
sea, entre la hipótesis plateada y la situación verdadera). Un sencillo ejemplo nos ayudará a
comprender esta idea.
© Ediciones Pirámide
170 / Análisis de datos en psicología 11
riamente una muestra de 25 personas radicales y, tras medir su CI obtiene una media
de 102. ¿Podemos, con estos datos y con un nivel de confianza de 0,95, afirmar que la
inteligencia media de las personas radicales es superior a la de la población española?
Se trata de un contraste sobre la media de una población. El procedimiento que
debemos seguir es idéntico al expuesto en el ejemplo 3.2.
l. Hipótesis:
H 0 : µ = 100.
H 1 : µ > 100 (contraste unilateral derecho).
2. Supuestos:
Podemos suponer, como se nos dice, que la variable CI se distribuye normal-
mente en la población.
Extraemos una muestra aleatoria de 25 observaciones.
4. Regla de decisión:
Rechazar H 0 si el estadístico de contraste Z toma un valor mayor que el
percentil 100(1 - oc)= 100(1 - 0,05) = 95 de la distribución N(O, 1), es decir, un
valor mayor que z0 . 95 = 1,64 (contraste unilateral derecho).
5. Decisión:
Dado que z = 0,67 es menor que z0 • 95 = 1,64, debemos mantener H 0 y
concluir que no disponemos de evidencia suficiente para pensar que H 0 : µ = 100
es falsa. No podemos concluir que la población de personas radicales poseen un
CI superior al del resto de la población.
A esta conclusión hemos llegado utilizando una muestra de 25 sujetos. Veamos qué
ocurre si vamos aumentando el tamaño de la muestra y suponemos que el CI
observado es siempre el mismo: 102. Comencemos con un tamaño muestra! de 50:
z = (102 - 100)/(15/.jSo) = 0,94. Dado que z = 0,94 es menor que z0 •95 = 1,64, con
n = 50 seguimos manteniendo H 0 .
Con n = 100: z = (102 - 100)/(15/..jTOO) = 1,33. Como z = 1,33 es menor que
z0 •95 = 1,64, también con n = 100 mantenemos H 0 .
Con n = 200: z = (102 - 100)/(15/)200) = 1,89. Como z = 1,89 es mayor que
z0 , 95 = 1,64, rechazamos H 0 •
A pesar de que una discrepancia de 2 puntos (la que hay entre 100 y 102) es
bastante pequeña en términos de CI, aumentando el tamaño muestra) lo suficiente
(hasta 200) hemos terminado rechazando la hipótesis H 0 : µ = 1OO.
© Ediciones Pirámide
Contraste de hipótesis / 171
Llegados a este punto, cabe preguntarse cuál ha de ser el tamaño de la muestra para
conseguir que un contraste concreto alcance una determinada potencia. Continuemos con el
ejemplo del psicólogo supuestamente capaz de diagnosticar a través de la escritura. Plantee-
mos la hipótesis nula H 0 : n = 0,5 frente a la alternativa H 1 : n = O, 7 y llamemos Pe al punto
que separa la zona crítica de la zona de aceptación. Si nos fijamos en la figura 3.13 podremos
constatar que, en la distribución correspondiente a H 0 , se verifica:
(3.2)
(3.4)
por lo que:
(3.5)
La ecuación (3.5) nos permite obtener el tamaño muestra! necesario para alcanzar una
determinada potencia, con un nivel de significación oc y una distancia dada entre n 0 y n 1 . Es
decir, el tamaño necesario para que el contraste sea capaz de detectar, con una probabilidad
1 - p, que H 0 : n = n 0 es falsa (y siendo verdadera H 1 : n = n ¡). En todo momento nos
estamos refiriendo a un contraste unilateral (derecho o izquierdo, indistintamente). Si el
contraste es bilateral, basta con sustituir z 1 - · por z 1 _ 012 •
En ocasiones, obtener una determinada potencia requerirá un tamaño muestra! demasia-
do grande, un tamaño tal vez dificil de conseguir. Muchas de las investigaciones llevadas a
cabo en el contexto de las ciencias sociales, y especialmente en psicología, necesitan utilizar
diseños en los que resulta muy costoso y nada fácil trabajar con muestras grandes. Es el
investigador quien debe evaluar la importancia de cometer cada tipo de error en una
situación concreta y si la ganancia que se obtiene al aumentar la potencia del contraste
compensa el esfuerzo necesario para incrementar el tamaño muestra!.
La ecuación (3.5) es fácilmente generalizable a otro tipo de situaciones. Incluso puede
simplificarse considerablemente cuando el error típico de la distribución muestra! utilizada
sea el mismo bajo H 0 y H 1 , como en el caso de la media. Dado que ax= a/Jn,
tendremos,
de acuerdo con (3.4):
(J (J
por lo que:
(3.7)
© Ediciones Pirámide
172 / Análisis de datos en psicologfa 11
nos permitirá obtener el tamaño muestra) necesario para alcanzar una determinada potencia,
para un nivel de significación IX y para una distancia dada entre µ 0 y µ 1 • Si desconocemos u 2 ,
podemos estimarla.
0,7 - 0,5
l,64J0,25 - (-0,84)J0,21) 2
=( = 36 297
0,2 '
Redondeando al entero mayor, vemos que el tamaño necesario para obtener una
potencia de 0,80, con IX = 0,05 y n 1 - n 0 = 0,2 es de 37.
EJERCICIOS
3.4. Queremos contrastar la hipótesis de que el nivel de ingresos medio de cierto colectivo
español es de 115.000 pesetas, con u = 30.000, frente a la hipótesis alternativa de que el nivel
de ingresos medio es de 100.000 pesetas. Si utilizamos una muestra aleatoria de 25 sujetos y
un nivel de confianza de 0,95, ¿cuál será la potencia del contraste?
© Ediciones Pirámide
Contraste de hipótesis / 173
3.6. ¿Cuánto vale, utilizando un nivel de riesgo de 0,01, la probabilidad de cometer un error
de tipo 11 al contrastar la hipótesis nula H 0 : µ = 60 frente a la alternativa H 1 : µ = 65 con una
muestra aleatoria de 40 sujetos extraída de una población normal con a 2 = 160?
3.7. ¿Qué tamaño debería tener la muestra del ejercicio anterior para que la potencia del
contraste aumentara un 15 por ciento? (ver apéndice 3).
3.9. Utilizando ex= 0,05 y una muestra aleatoria de 20 sujetos extraída de una poblaciór1
normal con a 2 = 80, trace la curva de potencias que se obtendría al contrastar la hipótesis
nula H 0 : µ = 30 frente a las alternativas H 1 : µ = 31, H 1 : µ = 32, H 1 : µ = 33, H 1 : µ = 34, H 1 :
µ = 35, H 1 : µ = 36 y H 1 : µ = 37 (ver apéndice 3).
3.10. ¿Qué curva de potencias obtendríamos si efectuáramos los contrastes del ejercicio
anterior con el mismo nivel de significación pero con una muestra de 80 sujetos? (ver
apéndice 3).
TABLA 3.6
TABLA 3.7
X o 1 2 3 4
© Ediciones Pirámide
174 / Análisis de datos en psicología 11
3.15. Supongamos que la variable aleatoria C¡ se distribuye N(µ, 10) en una determinada
población. Planteamos dos hipótesis acerca del parámetro desconocido µ:
H 0 : µ = 50
H 1 : µ = 58
3.16. Para contrastar la hipótesis de que el 50 por 100 de los sujetos de una ciudad española
se encuentran en paro se adoptó la siguiente regla de decisión: rechazar dicha hipótesis si en
una muestra de tamaño 100 seleccionada aleatoriamente de esa ciudad se obtienen menos de 40
o más de 60 sujetos en paro: mantenerla en caso contrario. Averiguar:
a) La probabilidad de rechazar la hipótesis cuando en realidad es verdadera.
b) La probabilidad de mantener la hipótesis cuando en realidad hay un 70 por 100 de
parados.
© Ediciones Pirámide
Contraste de hipótesis / 175
3.17. Los habitantes de Niagara-Falls (Estados Unidos) corren el riesgo de sufrir taras
genéticas irremediables debidas a ciertos desechos químicos enterrados en el subsuelo. Las
autoridades proponen evacuar la ciudad si más de la quinta parte de la población presenta
anomalías cromosómicas.
Hace unas semanas se tomaron aleatoria e independientemente muestras de sangre de 36
habitantes, 11 de los cuales presentaron anomalías cromosómicas. Ante los datos obtenidos
en la muestra:
a) ¿A partir de qué nivel de significación se tomará la decisión de evacuar la población?
b) ¿Cuál es la potencia del contraste frente a la hipótesis de que la verdadera proporción
de afectados es de un tercio?
3.20. Consideremos una población en la que la variable aleatoria Y¡ se distribue N(µ, 15). Se
desea contrastar la hipóteis nula H 0 : µ = 30 frente a la alternativa H 0 : µ = 33, con una
muestra de tamaño 100. Deseamos que la probabilidad de mantener H 0 siendo verdadera
valga como mínimo 0,95.
a) ¿Cuál será el valor de rY.?
b) ¿Cuál será el valor de fJ?
e) ¿Cuál ha de ser el tamaño de la muestra para que, sin modificar rY., el valor de Pquede
reducido a la mitad?
SOLUCIONES
3.1. La e y la d.
(2) p
(4) 1 -(1.
(1) 1 -P
© Ediciones Pirámide
176 / Análisis de datos en psicología 11
3.5. O, 1651.
3.7. n = 47.
3.19. a) P(Z ~ 2,333) < 0,01; por tanto, rechazamos H 0 y concluimos que, con los datos
disponibles, existe evidencia suficiente para pensar que la media de la población
española es mayor que 100.
b) 1 - p = P(Z ~ 0,33) = 0,3707.
e) /1 = 395.
© Ediciones Pirámide
PARTE SEGUNDA
Análisis de datos cuantitativos
Estudiados Jos conceptos fundamentales relacionados con Ja inferencia estadísti-
ca, Ja estimación y el contraste, nuestro interés quedará centrado a partir de ahora
en Ja descripción de diferentes procedimientos inferenciales concretos. Estos proce-
dimientos concretos, a Jos que generalmente llamaremos técnicas de análisis, poseen
peculiaridades específicas dependiendo del tipo de situación experimental para la
que han sido diseñados: unos procedimientos permiten comparar dos grupos, otros
permiten comparar más de dos grupos; unos procedimientos permiten analizar
datos obtenidos con grupos de sujetos diferentes, otros permiten analizar datos
obtenidos con los mismos sujetos; unos procedimientos aprovechan las propiedades
cuantitativas de Jos datos, otros se limitan a las propiedades cualitativas de Jos
mismos; etc.
Atendiendo a estas peculiaridades, podríamos agrupar o clasificar las diferentes
técnicas de análisis de datos utilizando diferentes criterios. De entre ellos, nosotros
hemos optado aquí por clasificar Jos procedimientos inferenciales o técnicas de
análisis basándonos en el tipo de datos que permiten manipular. Este criterio nos ha
llevado distinguir entre a) técnicas de análisis para datos cuantitativos; b) técnicas de
análisis para datos semicuantitativos; y c) técnicas de análisis para datos cualitativos.
Con datos cuantitativos nos estamos refiriendo a datos obtenidos utilizando una
escala de medida de intervalo o de razón. Con datos semicuantitativos nos referimos
a datos obtenidos utilizando una escala de medida ordinal. Con datos cualitativos
nos referimos, por último, a datos cuyas propiedades se corresponden con las del
nivel de medida nominal. Cualquier otra clasificación podría resultar igualmente
válida. Esta nuestra obedece al hecho de que Jos datos obtenidos con una escala de
medida concreta poseen ciertas propiedades que no se dan en Jos obtenidos con
otra escala de medida diferente; lo cual queda reflejado de forma definitiva en el
hecho de que los procedimientos de análisis diseñados para cada tipo de datos
poseen, según tendremos ocasión de comprobar, peculiaridades propias.
En esta segunda parte nos vamos a ocupar de Ja descripción de los procedimien-
tos de análisis diseñados para el tratamiento de datos de tipo cuantitativo. Cual-
quiera que sea el nivel de medida de Jos datos con Jos que trabajemos, las técnicas
de análisis de mayor utilidad son, generalmente, las que permiten comparar grupos
de sujetos y estudiar Ja relación entre dos o más variables. Con datos cuantitativos,
en concreto, para comparar grupos y estudiar la relación entre variables nos
serviremos de Jos estadísticos media y correlación, pues esos son Jos estadísticos que
© Ediciones Pirámide
182 / Análisis de datos en psicología 11
resulta relevante estudiar (al menos en una primera aproximación) cuando el nivel
de medida de los datos es de intervalo o razón (es decir, esos son los estadísticos
que nos proporcionan la información más completa en esos niveles de medida).
Es muy importante señalar en este momento que, aunque el tipo de datos
disponibles condiciona en gran medida el tipo de análisis que es posible efectuar, la
elección de la técnica de análisis apropiada viene también, y tal vez principalmente,
condicionada por el diseño de investigación utilizado. Por supuesto, éste no es el
lugar para profundizar en el concepto de diseño de investigación (ver, para ello,
León y Montero, 1997), pero sí nos parece necesario recordar brevemente algunas
ideas básicas de especial utilidad para el resto de los contenidos que siguen.
Los diseños experimentales y cuasiexperimentales (o selectivos), que son a los
que se aplican las técnicas de análisis incluidas en esta parte, pueden ser
clasificados, en primer lugar, atendiendo al número de variables independientes
utilizadas. Si sólo hay una variable independiente (VI), el diseño es de un factor o
unifactorial; si hay dos o más VI, el diseño es factorial. También pueden distinguirse
los diseños por el número de variables dependientes utilizadas, pero nosotros aquí
únicamente haremos referencia a diseños con una variable dependiente.
En los diseños unifactoriales resulta útil establecer una distinción relacionada
con el número de valores o niveles de la VI. Una VI puede tomar dos valores o más;
cuando toma dos valores hablamos de diseños de dos muestras; cuando toma más
de dos valores, hablamos de diseños de J muestras. Un caso especial lo constituye
aquel en el que no existe ninguna VI; simplemente medimos una variable para
estudiarla y ver qué ocurre con ella; hablamos entonces de diseño de una muestra.
Una última característica de los diseños tiene que ver con el tipo de muestras
que se utilizan. En Diseño de investigaciones (León y Montero, 1997) se establece la
distinción entre diseños con sujetos diferentes y diseños con los mismos sujetos.
Dentro de los diseños con sujetos diferentes podemos distinguir entre diseños de
grupos aleatorios y diseños de bloques aleatorios. En primer lugar, desde el punto
de vista del análisis de datos, hablar de grupos aleatorios es equivalente a hablar de
muestras independientes: se forman tantos grupos de sujetos (de cualquier tamaño y,
por tanto, no necesariamente del mismo) como niveles tiene la VI y cada grupo es
asignado aleatoriamente a cada uno de los niveles de la VI. Así mismo, hablar de
bloques aleatorios (en el caso de más de un sujeto por nivel y bloque) equiva-
le también a hablar de muestras independientes. Por tanto, las técnicas de análisis de
datos para muestras independientes permiten analizar tanto los datos de un diseño
de grupos aleatorios como los datos de un diseño de bloques aleatorios con más de
un sujeto por nivel y bloque.
En segundo lugar, hablar de diseños con los mismos sujetos equivale, en el
contexto del análisis de datos, a hablar de muestras relacionadas: a los mismos
sujetos se les toma J ( J = niveles de la VI) medidas. En estos casos hablamos de
diseños intrasujetos o de medidas repetidas: bien porque se miden J variables
diferentes en los mismos sujetos, bien porque la misma variable es medida en los
mismos sujetos en J momentos diferentes. Así mismo, hablamos de muestras
relacionadas cuando, como en el caso de los diseños de bloques aleatorios con un
© Ediciones Pirámide
Análisis de datos cuantitativos / 183
sujeto por nivel y bloque, esas J medidas no se toman al mismo sujeto sino a J
sujetos igualados o emparejados utilizando algún criterio considerado relevante. Por
tanto, las técnicas de análisis de datos para muestras relacionadas permiten analizar
tanto los datos de un diseño con los mismos sujetos (diseños intrasujetos o de
medidas repetidas) como los datos de un diseño de bloques aleatorios con un sujeto
por nivel y bloque.
Por ejemplo, en una investigación sobre memoria se quiere evaluar el efecto de
cierto distractor sobre el recuerdo; tenemos una VI con dos niveles: presencia del
distractor y ausencia del distractor; y tenemos una variable dependiente: el recuerdo
(el cual puede medirse de diferentes maneras). Para evaluar el efecto del distractor
sobre el recuerdo podemos proceder de tres maneras diferentes: l) seleccionando
dos grupos de sujetos y asignado cada uno de ellos a cada nivel de la VI; 2)
seleccionando un solo grupo de sujetos y aplicando a todos ellos ambos niveles de
la VI; 3) seleccionando un grupo de pares 1 de sujetos igualados en alguna variable
considerada de interés (CI, edad, nivel de estudios, etc.) y asignando al azar un
miembro de cada par a cada uno de los niveles de la VI. En el caso l estaríamos
utilizando dos muestras independientes (grupos aleatorios); en los casos 2 y 3, dos
muestras relacionadas (medidas repetidas en el caso 2 y bloques aleatorios con un
sujeto por nivel y bloque en el caso 3). En los tres casos podemos determinar si
existe efecto del distractor comparando el recuerdo obtenido con distractor y el
obtenido sin distractor. En general, es preferible (cuando es posible) el uso de
muestras relacionadas pues de esa forma se elimina variación debida a las diferen-
cias entre sujetos 2 •
Conviene señalar, para terminar esta breve introducción, que el concepto
de muestra no debe ser confundido con el concepto de grupo. En el contexto del
análisis de datos, muestra se refiere, no a grupo de sujetos, sino a un conjunto de
datos. Siempre hay una muestra de datos para cada nivel de la VI. En los diseños
de grupos aleatorios muestra y grupo coinciden: cada grupo de sujetos genera una
muestra de datos. Pero en los diseños de medidas repetidas, por ejemplo, muestra y
grupo no coinciden: cada grupo genera más de una muestra de datos. Resulta
posible, por tanto, disponer de más de una muestra de datos con un único grupo de
sujetos.
1 Decimos pares porque los niveles de la VI son dos. Si fueran tres, seleccionaríamos tríos de sujetos,
etcétera.
2 Si utilizamos muestras independientes, la variabilidad en el recuerdo medio puede deberse no sólo
a las condiciones del experimento, sino a factores no sujetos a control como el sexo, la edad, el CI, el
nivel cultural, etc. Si se utilizan los mismos sujetos o sujetos emparejados, es mucho más probable que
la variabilidad observada se deba a las condiciones experimentales.
© Ediciones Pirámide
Contrastes de hipótesis
sobre medias
4
El contraste de hipótesis sobre una media sirve para tomar decisiones acerca del
verdadero valor poblacional que corresponde a la media de una variable. Nos
encontramos, por tanto, ante un diseño con una muestra. Ya hemos estudiado en el
capítulo 1 (apartado 1.3.2) la distribución muestral de la media. Además, al describir
la lógica general del contraste de hipótesis, hemos utilizado ejemplos referidos a la
media. Esto ayudará, sin duda, a que los procedimientos concretos diseñados para
contrastar hipótesis sobre la media sean fácilmente asimilables ahora.
Sabemos que si extraemos una muestra aleatoria de tamaño n de una población
normal N(µ, u) y calculamos la media Y, esa media es un estadístico (una variable
aleatoria) distribuido normalmente N(µ, u/Jn). Sabemos también, por el teorema
central del límite, que, aun desconociendo la forma de la población de donde
extraemos la muestra, el estadístico Ytiende a distribuirse normalmente N(µ,u/Jn)
a medida que el tamaño de la muestran va aumentando. Y también sabemos, por
último, que, bajo las mencionadas circunstancias, la transformación:
(Y-µ)
Z=-- (4.1.)
u/Jn
se distribuye según el modelo normal N(O, 1), por lo que podemos utilizar la
distribución normal estandarizada para conocer las probabilidades asociadas a los
diferentes valores de Y.
Precisamente el conocimiento de esas probabilidades es el que nos proporciona
la posibilidad de tomar decisiones respecto al parámetro µ. Para ello, basta con
seguir los pasos descritos en el capítulo anterior al hablar de la lógica del contraste
de hipótesis. En el ejemplo 3.2 hemos seguido esos pasos. Y el ejemplo 4.1 que
aparece a continuación también los sigue.
© Ediciones Pirámide
188 / Análisis de datos en psicología 11
un nuevo método que, según él, es más económico y eficaz. El centro estaría dispuesto
a adoptar ese nuevo método siempre que no se demostrara que con él el rendimiento
es inferior al obtenido con el método antiguo. Se selecciona una muestra aleatoria de
36 niños y, durante un periodo de tiempo, se aplica el nuevo método. Tras la
instrucción, se pasa la prueba estandarizada de comprensión lectora y se obtiene una
media de 5. Si asumimos que la desviación típica es la misma con los dos métodos,
¿qué decisión deberá tomarse? (oc = 0,01).
3. Estadístico de contraste:
Y-µ 5-6
Z = - - = - - = -3
u/Jn 2/fi
4. Distribución muestra(: Z se distribuye N(O, 1).
Y-µ Y-µ
T=---- (4.2)
Sn_ifJn S,J~
© Ediciones Pirámide
Contraste de hipótesis sobre medias / 189
CUADRO 4.1
Contraste de hipótesis sobre una media. Resumen del procedimiento
1. Hipótesis:
a) Contraste bilateral: H 0 : µ = µ 0 ; H 1: µ ':#. µ 0 •
b) Contraste unilateral derecho: H0 : µ :S µ 0 ; H 1: µ > µ 0 •
e) Contraste unilateral izquierdo: H0 : µ ~ µ 0 ; H 1: µ < µ 0 •
2. Supuestos:
a) Población de partida normal.
b) Muestra aleatoria de tamaño n.
3. Estadístico de contraste 2:
T= =-----
Y-µº
S,/...ffi""=l
4. Distribución muestra]: T se distribuye t 11 _ 1•
5. Zona crítica:
a) Contraste bilateral: T:S al'.!.t 1 y T~ 1 _a12f
11 _ 11 _1.
© Ediciones Pirámide
190 / Análisis de datos en psicología 11
(4.3)
EJEMPLO 4.2. De acuerdo con los datos recogidos durante los últimos años por
un psicólogo escolar, los estudiantes de COU que no reciben orientación vocacional
obtienen una media de 190 en una prueba de madurez (Y). El psicólogo opina que los
estudiantes que sí reciben orientación vocacional obtienen un promedio superior en la
mencionada prueba. Para obtener alguna evidencia sobre su sospecha, toma una
muestra aleatoria de 65 estudiantes de COU que habían recibido orientación voca-
cional y les pasa la prueba de madurez. Obtiene una media de 198 y una desviación
típica de 24. ¿Podemos pensar, con un nivel de significación de 0,05, que estos datos
apoyan la opinión del psicólogo?
l. Hipótesis: H 0 : µ ~ 190
H 1 : µ > 190 (contraste unilateral derecho).
3. Estadístico de contraste:
7. Nivel crítico 3 : p = P(T~ 2,667) < 0,005 ( <ix). También nos lleva al rechazo de H 0 .
3 La tabla de la distribución t que aparece en el apéndice final no es lo bastante amplia como para
permitirnos obtener el nivel crítico exacto. Sin embargo, esto no debe ser considerado un inconveniente
importante; es suficiente con disponer de información relativa a si el nivel crítico es mayor o menor que
el nivel de significación establecido.
© Ediciones Pirámide
192 / Análisis de datos en psicología 11
muestrales. Pero según sabemos ya, una estimación de este tipo (una estimación
puntual) está sujeta a error muestral (ver apartado 2.2.1 ). No existe ninguna garantía
de que la estimación efectuada sea correcta.
Podemos extraer dos muestras de tamaños n 1 y n 2 (una de cada población) y
calcular Y1 - Y2 . El valor de Y1 - Y2 dependerá, obviamente, de las muestras
concretas extraídas. Si repetimos el proceso de nuevo, obtendremos un nuevo valor
para Y1 - Y2 que será, seguramente, diferente del anterior. Y si repetimos el proceso
un número indefinido de veces obtendremos todos los posibles valores de Y1 - Y2 y
la frecuencia con la que cada uno de ellos se repite; es decir, obtendremos la
distribución muestral de Y1 - Y2 , la cual nos permitirá conocer las probabilidades
asociadas a cada valor de Y1 - Y2 • En consecuencia, para efectuar inferencias sobre
µ 1 - µ 2 , podemos basarnos en Y1 - Y2 y en su distribución muestral y, de esta
manera (al igual que ocurría al estimarµ a partir de Y) conocer el error de nuestra
estimación. Veamos, pues, cuáles son las características de la distribución muestral
de Y 1 - Y2.
Si de la población 1 extraemos una muestra aleatoria de tamaño n 1 y de la
población 2 extraemos, independientemente, una muestra aleatoria de tamaño n 2 , y
en ambas muestras medimos la variable aleatoria Y¡, tendremos, de acuerdo con lo
que ya sabemos:
E(Y) = µ1
(4.4)
<To
CTy, = '~
- V 11,
(4.5)
2 2
2 2 2 O'¡ 0'2
O'- -
Y, - Y,
= O'-
Y,
+ O'-
Y,
= -n1 + -n2
(4.6)
© Ediciones Pirámide
Contraste de hipótesis sobre medias / 193
3. Estadístico de contraste:
7. Nivel crítico: p = P(Z:;;;; -1,94) = 0,0262 (<IX). También nos lleva al rechazo
de H 0 .
© Ediciones Pirámide
194 / Análisis de datos en psicología 11
• (n 1 - l)Si + (n 2 - l)S~
a2 = --------- (4.8)
n1 + n2 - 2
(4.9)
(4.10)
© Ediciones Pirámide
Contraste de hipótesis sobre medias / 195
CUADRO 4.2
Contraste de hipótesis sobre dos medias independientes.
Resumen del procedimiento
1. Hipótesis 5 :
a) Contraste bilateral: H 0 : µ 1 - J1 2 = k: H 1: µ 1 -11 2 #- k.
b) Contraste unilateral derecho: H 0 : µ 1 - µ 2 ~ k: H 1: J1 1 - J1 2> k.
e) Contraste unilateral izquierdo: H 0 : µ 1 - µ 1 ~ k: H 1: J1 1 - µ 2 < k.
2. Supuestos:
a) Dos poblaciones de partida normales con cr 1 y u 2 desconocidas pero supuestas
iguales.
b) Dos muestras aleatorias de tamaños 11 1 y 11 2 extraídas independientemente.
3. Estadístico de contraste 6 :
5. Zona crítica:
a) Contraste bilateral: T ~ 212 t 01 +n, - 2 y T ~ 1 -2 2t., +n, - 2·
ªr,-r, =
© Ediciones Pirámide
196 / Análisis de datos en psicologfa 11
7. Nivel critico:
al Contraste bilateral: p = 2[P(T ~ l1k1l]. siendo 11 el valor concreto tomado por
el estadistico T.
hl Contraste unilateral derecho: p = P( T ~ t kl·
d Contraste unilateral izquierdo: p = P(T ~ tkl·
8. Intervalo de confianza:
Y; S;
Grupo 1 19 16
Grupo 2 30 21
3. Estadístico de contraste:
19 - 30
39(16) 2 + 39(21) 2
40+40-2
J
----;:======--;:::::=== =
1 + 1
40 40
- 2,64
© Ediciones Pirámide
Contraste de hipótesis sobre medias / 197
7. Nivel crítico: p = 2[P(T~ 2,64)] ~ 0,01 (<oc). También nos lleva al rechazo de H 0 •
7 Ya sabemos que los supuestos de un contraste de hipótesis son las condiciones necesarias para que
un determinado estadístico de contraste siga la distribución muestra! propuesta. Cuando decimos que un
estadístico se ve afectado por la violación o incumplimiento de algún supuesto, o que la violación de
algún supuesto tiene consecuencias no deseables sobre las conclusiones del contraste queremos significar
con ello que ese estadístico ya no sigue exactamente la distribución muestra! propuesta. Esto se traduce
en que la probabilidad de cometer un error de tipo I (es decir, ot) cambia, pasando a ser mayor o menor
que el valor propuesto.
© Ediciones Pirámide
198 / Análisis de datos en psicología 11
podremos suponer sin riesgo grave que las varianzas poblacionales también lo son.
Ahora bien, si nos vemos en la necesidad de trabajar con muestras de diferente
tamaño, no podremos suponer, sin más, que las varianzas poblacionales son iguales.
Es justamente en esos casos donde hay que ser prudentes en el uso del estadístico T.
Una estrategia bastante útil en la práctica consiste en: a) utilizar T (la ecuación
[ 4.10]) si los tamaños muestrales son iguales o aproximadamente iguales, o b)
utilizar alguno de los procedimientos alternativos que presentamos en el siguiente
apartado si los tamaños muestrales son distintos. En cualquiera de los casos,
conviene que los tamaños muestrales sean razonablemente grandes.
(4.12)
tcritico = (4.13)
(4.14)
" Satterthwaitc ( 1946) ha llegado. al parecer de forma independiente. a la misma solución propuesta
por Welch.
" El propio Welch (1947) ha sugerido posteriormente que hacer:
(~+~)2]
g/'
.
=
f 111
(SU11 1) 2
111 - 1
112
+ (S~/11 2 ) 2
112 - 1
- 2
puede ofrecer una solución más exacta para g/'. No obstante, la diferencia entre ambas soluciones es, en
la mayor parte de los casos, insignificante.
© Ediciones Pirámide
200 / Análisis de datos en psicología 11
(4.15)
3. Estadistico de contraste:
19- 30
-----;::==== -2,47
16 2 21 2
-+-
50 30
© Ediciones Pirámide
Contraste de hipótesis sobre medias / 201
(~+~)2
50 30
g/' = = 49,19
. (16 2/50) 2 (21 2/30) 2
---+---
50 - 1 30 - 1
8. Intervalo de confianza:
16 2 21 2
(19-30)± 1,973 ----+----
50(0,9592) 30(0,9310)
-2,01(16) 2 -2,045(21) 2
----+-----
50 30
tcritico(izquicrdo) = - - - -1-6-2- -2-1-2- - - = -2,036
-+-
50 30
© Ediciones Pirámide
202 / Análisis de datos en psicología //
2,01(16) 2 2,045(21) 2
---+----
50 30
lcritico(derecho) = - - - - - - - - = 2,036
16 2 21 2
-+-
50 30
la otra puntuación del mismo par. Por esta razón utilizamos el término muestras
relacionadas 10 .
Cuando éste es el caso, puesto que las puntuaciones de cada par pertenecen al
mismo sujeto o a dos sujetos emparejados, podemos transformar las puntuaciones
originales en diferencias: D¡ = Y¡ 1 - Y¡ 2 , haciendo así que a cada sujeto o par
corresponda una única puntuación. Estas puntuaciones D¡ informan sobre el
cambio producido entre las puntuaciones de cada par: D; valdrá cero cuando las
dos puntuaciones del mismo par sean iguales; será menor que cero cuando la
segunda puntuación del par sea mayor que la primera (lo que indicará que se ha
producido una ganancia); y será mayor que cero cuando la segunda puntuación del
par sea menor que la primera (lo que indicará que se ha producido una pérdida).
Tendremos así una única variable D; con media D de la que podremos servirnos
para efectuar inferencias sobre µ 0 = µ 1 - µ 2 •
Así pues, desde el punto de vista del análisis de datos, en el contraste sobre dos
medias relacionadas disponemos de una única población (la población de las
diferencias) con media µ 0 y varianza u~. Si de esa población extraemos aleatoria-
mente n observaciones D;, el estadístico D = "í:.D;/n será una variable aleatoria con
valor esperado E(D) = E(Y1 - Y2 ) = µ 1 - µ 2 = µ 0 y error típico UiJ = u 0 / Jn. Nos
encontramos, por tanto, ante una situación idéntica a la descrita en el apartado 4.2
al hablar del contraste de hipótesis sobre una media. Si conociéramos UiJ, la
transformación:
iJ - E(D) D - (µ1 - µ1)
Z= =~~~~~- (4.16)
UiJ Uo/Jn
•
O'jj = -So (4.17)
Jn
(4.18)
'º El término muestras relacionadas se aplica de forma genérica tanto si utilizamos un grupo de
sujetos al que tomamos dos medidas, como si utilizamos sujetos emparejados. Para referirnos a las
situaciones en las que se utilizan los mismos sujetos también utilizaremos el término medidas repetidas
¡en el contexto de los diseños se habla de diseños con los mismos sujetos o diseños intrasujetos). Y para
referirnos a las situaciones en las que se utilizan sujetos emparejados (pares, tríos, etc.) también
utilizaremos el término muestras dependientes (en el contexto de los diseños, se habla de bloques con
un sujeto por nivel y bloque).
© Ediciones Pirámide
204 / Análisis de datos en psicología 11
CUADR04.3.
Contraste de hipátesis sohre dos medias relacionadas. Res11111en del procedimiento
l. Hipótesis 12 :
a) Contraste bilateral: H 0 : µ 0 = µ 1 - µ 2 = c5 0 ; H 1 : µ 0 = µ 1 - µ 2 # Ó0 •
b) Contraste unilateral derecho: H 0 : µ 0 = J1 1 - µ 2 ~ 80 ; H 1 : Jln = J1 1 - J1 2 > 80 .
e) Contraste unilateral izquierdo: H 0 : µ 0 = µ 1 - µ 2 ~ c5 0 ; H 1 : Jln = µ 1 - µ 2 < 80 .
2. Supuestos:
a) La población de diferencias es normal.
b) Muestra aleatoria de n pares o diferencias.
3. Estadístico de contraste:
fj -(µ¡ - µ2)
T=----- (siendo S 0 = J~(D; - l5) /(n -
2 1))
So/Jn
4. Distribución muestral: T se distribuye según la t de Student con n - 1 grados de
libertad.
5. Zona crítica:
a) Contraste bilateral: T ~ •12 1. _ 1 y T ~ 1 - • 12 1. - 1.
7. Nivel crítico:
a) Contraste bilateral: p = 2[P(T ~ lttl)], siendo tk el valor concreto tomado por
el estadístico T.
b) Contraste unilateral derecho: p = P(T ~ ltl·
e) Contraste unilateral izquierdo: p = P(T ~ ltl·
11 Recordemos los supuestos relacionados con la distribución muestra! de la media (apartado 1.3.2.).
12 Al igual que en el contraste sobre dos medias independientes. generalmente 60 = O, pues la
hipótesis que habitualmente tendrá sentido contrastar será H 0 : µ 1 = µ,. es decir, µ 0 =O.
© Ediciones Pirámide
Contraste de hipótesis sobre medias / 205
8. Intervalo de confianza:
EJEMPLO 4.6. Según sugieren algunos trabajos, los niños con problemas percepti-
vos aumentan su rendimiento, con entrenamiento adecuado, en preguntas del test de
Raven que habitualmente no resuelven por carecer de las estrategias adecuadas. Con el
fin de obtener evidencia adicional sobre esta afirmación, un investigador seleccionó
una muestra aleatoria de 10 niños con problemas perceptivos y les pasó el test de
Raven para obtener una medida inicial de los 10 niños en el test. Después los entrenó
durante 2 meses en tareas similares, pero no iguales, a las planteadas por el test de
Raven y, terminado el entrenamiento, volvió a pasarles el test para obtener una
medida post-tratamiento. Los resultados obtenidos aparecen en la tabla 4.1.
TABLA 4.1
Sujetos 1 2 3 4 5 6 7 8 9 10
Antes 70 72 80 75 77 80 74 81 76 73
Después 74 73 84 75 84 95 88 86 80 79
¿Hay evidencia suficiente en los datos para afirmar, con un nivel de significación de
0,01, que el tipo de entrenamiento efectuado consigue aumentar el rendimiento en el
test Raven de los sujetos con problemas perceptivos?
3. Estadístico de contraste: construir una tabla como la 4.2 nos facilita los cálculos
necesarios para la obtención del estadístico de contraste.
TABLA 4.2
Sujetos 1 2 3 4 5 6 7 8 9 10 I
Antes 70 72 80 75 77 80 74 81 76 73 758
Después 74 73 84 75 84 95 88 86 80 79 818
D; -4 -1 -4 o -7 -15 -14 -5 -4 -6 -60
Df 16 1 16 o 49 225 196 25 16 36 580
© Ediciones Pirámide
206 / Análisis de datos en psicología 11
- 758
Yantes = - = 75,8
10
fj = Y.ntes - f.tespués = 7,58 - 81,8 = -6
- 818
l'después = - = 81,8
10
580 10
sn =--(-6)
2
10
2 =22 = s;_ 1 =--22=24,44
10 - 1
= s._ 1 =Sd=4,94
l5 - (µ¡ - µ2) -6 - o
T = = = -3,84
Sv/Jn 4,94/j!O
(4.20)
(4.21)
(n 1 - l)Si + (n 2 - l)S~
a= n1 + n2 - 2
(4.22)
13 Esta formulación de {¡ está referida al caso de dos medias; en el caso de los contrastes sobre una
media:
. lµo - µ,I
Ó=---
<1
donde µ 0 se refiere al valor propuesto paraµ en H 0 , µ 1 se refiere al valor propuesto para µ 1 enH 1 (valor
que estimamos mediante ñ. y u se refiere a la desviación típica poblacional (valor que estimamos
mediaPtt: S._ 1 ).
14 Aunque utilizando (4.22) d sigue siendo un estimador sesgado, el sesgo puede ser eliminado
(suponiendo que se dan las condiciones de aplicación del estadístico T: normalidad y homocedasticidad)
multiplicando d por un término corrector llamado c(m) (Hedges, 1982):
3
c(m)~ l---
4m- 1
© Ediciones Pirámide
Contraste de hipótesis sobre medias / 209
Figura 4.1.-Tamaño del efecto expresado por el parámetro b (distancia entre las medias poblacionales
en número de desviaciones típicas).
Las ecuaciones recién propuestas son apropiadas para estimar el tamaño del
efecto en los diseños con muestras independientes. Con muestras relacionadas,
Gibbons, Hedeker y Davis (1993) proponen utilizar como estimador del tamaño del
efecto:
(4.24)
© Ediciones Pirámide
21 O / Análisis de datos en psicología 11
Sv=--
vJn (4.26)
T
Otra medida del tamaño del efecto muy utilizada en los diseños de dos muestras
es el coeficiente de correlación r de Pearson (inicialmente propuesto para tal
finalidad por Friedman, 1968; y muy recomendado, entre otros, por Rosenthal,
1984). Tanto si se está trabajando con muestras independientes como si se está
haciendo con muestras relacionadas, la correlación se calcula entre las puntuaciones
de la variable dependiente (la variable en la cual se desea comparar a los dos
grupos) y la variable grupo (variable dicotómica cuyos niveles vienen definidos por
la pertenencia a uno u otro grupo) 15 . El cálculo de r es directo a partir del
estadístico T:
d
r = ----;======= (4.29)
Jd2 + 1/[p(l - p)]
15 Cuando el coeficiente de correlación r de Pearson se aplica a una variable dicotómica (es decir, a
una variable con dos valores, O y 1; en nuestro caso: O = pertenencia al primer grupo. 1 = pertenencia al
segundo grupo) y a una variable continua, recibe el nombre de correlación hiserial-puntual (ver San
Martín y Pardo, 1989, págs. 464-470).
© Ediciones Pirámide
Contraste de hipótesis sobre medias / 211
EJEMPLO 4.7. En el ejemplo 4.4 nos hemos servido de dos grupos de tamaño
n 1 =ni = 40 para estudiar el efecto de Ja utilización de ilustraciones en el aprendizaje
de palabras. Tras rechazar la hipótesis de igualdad de medias hemos concluido que los
niños a los que se les enseñan palabras con ilustraciones aprenden más palabras que
los niños a Jos que no se les enseña con ilustraciones. ¿Cómo podemos ahora
cuantificar el tamaño de efecto? Es decir, ¿cómo podemos cuantificar la mejora
obtenida en el aprendizaje de palabras como consecuencia de la utilización de
ilustraciones?
Recordemos que las medias y desviaciones típicas obtenidas con cada grupo fueron
las siguientes:
y sn- 1
1Grupo 1 19 16
Grupo 2 30 21
Por tanto:
n 1 +ni - 2 40+40-2
'-Í~
-2,64i
r = T2+9/ = ----=0,29
-2,64i + 78
© Ediciones Pirámide
212 / Análisis de datos en psicologfa 11
AP~NDICE 4
Según sabemos 16 :
(n - os;_.
-----x2 (12 - ·- 1
En consecuencia:
(n 1 - l)Si (n 2 - l)S~
----=x;,-•
(12
Y
(1
2 = x;,-•
Y de acuerdo con la propiedad aditiva 1 7 de x2 :
x;, -1 + x;,-. = x;, +n,-2
Por tanto:
(n 1 - l)Si + (n 2 - l)S~ 2
(1
2 =x.,+.,-2 (4.30)
z
T=-;:.::::;::==
Jx
2 /(n - 1)
© Ediciones Pirámide
Contraste de hipótesis sobre medias / 213
siendo Z una variable distribuida normalmente y xi una variable distribuida según xi con
n - 1 grados de libertad. En consecuencia, haciendo, de acuerdo con las ecuaciones (4.7) y
(4.30):
Jui/n 1 + ui/ni ui
la variable aleatoria:
(4.31)
(4.32)
© Ediciones Pirámide
214 / Análisis de datos en psicología 11
ambos métodos no quedarían reflejadas en las medias, pero sí en las varianzas, por lo que
sólo acompañando el contraste de medias con un contraste de varianzas podríamos obtener
información real sobre lo que ha ocurrido. .
Existen diferentes procedimientos para contrastar la hipótesis de que dos varianzas
poblacionales son iguales. Uno de los más simples, debido a Levene (1960), consiste en
transformar los valores originales Y¡i U se refiere al j-ésimo grupo: j = 1,2; i se refiere al i-
ésimo sujeto; por tanto: i = 1, 2, ... , n 1 cuando j = 1, i = 1, 2, ... , n 2 cuando j = 2) en puntuacio-
nes diferenciales en valor absoluto:
t5 1 = "LD; 1/n 1
D2 = "LD;2/n2
la hipótesis de que ambas muestras proceden de poblaciones con la misma media, es decir:
H 0 : Jlv;, = µ 0 ;,. Si las varianzas poblacionales son iguales, las medias D 1 y D2 serán
parecidas; si las varianzas poblacionales son distintas, las medias D1 y D2 serán distintas. Por
tanto, si el estadístico T nos lleva al rechazo de H 0 : µ 01 = 11 0 ,. podremos concluir que las
varianzas poblacionales son distintas (es decir, podremos rechazar H 0 : af = an.
Este y otros procedimientos 19 se han propuesto como alternativas a la tradicional prueba
F sobre igualdad de varianzas 20 (Hartley, 1940, 1950):
F = s;;s~ (4.33)
donde Si representa la varianza insesgada más grande de las dos que se están comparando
y S~ la más pequeña. Si las poblaciones de partida son normales, este estadístico F sigue el
modelo de distribución de probabilidad F de Fisher-Snedecor con ng - 1 y nP - 1 grados de
libertad (siendo ng y nP los tamaños muestrales correspondientes a Sg y Sp). De modo que
podremos utilizarlo para tomar decisiones respecto a H 0 : ai = ªª·
En concreto, rechazare-
mos la hipótesis de igualdad de varianzas si F toma un valor mayor que el punto crítico
l -2¡2Fn 9 -1.np-1·
© Ediciones Pirámide
Contraste de hipótesis sobre medias / 215
3. Estadístico de contraste:
s2 21 2
F=_!__=-=172
s;
16 2 '
6. Decisión: Como 1,72 < 2,10, mantenemos H 0 • Concluimos que, con los datos
disponibles, no existe evidencia suficiente para pensar que las varianzas poblacio-
nales son distintas.
Si las muestras están relacionadas podemos contrastar la hipótesis H 0 : 11~ = 11~ recurrien-
do (ver, por ejemplo, Snedecor y Cochran, 1967) a:
(F- l)Jn"=2
T=---;:::==:- (4.34)
2jF(l - r 2 )
Una media
El cálculo de la potencia, tal como será abordado aquí, consiste en obtener un valor, al
que llamaremos ~ (delta mayúscula), a partir del cual es posible conocer directamente la
© Ediciones Pirámide
216 / Análisis de datos en psicología 11
(4.35)
(4.36)
lµo-µil 16-51
f>=
(J
=--
2 =05
,
.1 = t>Jn = 0,5)36 = 3
La tabla L, para .1 = 3 y :x = 0,01, nos ofrece una potencia de 0,75. Lo cual significa que,
siendo µ = 5 el verdadero valor de la media poblacional, rechazaremos la hipótesis nula H 0 :
µ = 6 en 75 de cada 100 veces que la contrastemos.
La pregunta sobre la potencia de un contraste puede transformarse fácilmente en la
pregunta sobre el tamaño muestra! necesario para alcanzar una determinada potencia. A
partir de (4.35) obtenemos la ecuación necesaria para conocer ese tamaño muestra!:
,12
n=- (4.37)
1>2
© Ediciones Pirámide
Contraste de hipótesis sobre medias / 217
(4.38)
siendo z una variable distribuida N(O, 1). Utilizando la ecuación (4.38), la potencia viene dada
por la probabilidad de obtener valores mayores o iguales que z. Por supuesto, esta
aproximación será tanto mejor cuanto mayor sea el tamaño muestra!. Supongamos que al
contrastar H 0 : µ = 10 frente a H 1: µ f:- 10 con una muestra de 50 sujetos obtenemos una
desviación típica insesgada de 3. Queremos conocer la potencia del contraste para detectar
una diferencia de 1,5 puntos utilizando rx = 0,05. Tendremos:
Al trabajar con dos medias independientes, el tamaño del efecto viene dado por:
(4.39)
(recordemos que suponemos poblaciones normales con varianzas iguales). Si los tamaños
muestrales son iguales (n 1 =ni = n), !l puede obtenerse mediante:
(4.40)
Y, consecuentemente:
!li
n=2- (4.41)
(Ji
Puesto que n se refiere al tamaño de una cualquiera de las dos muestras, el obtenido con
(4.41) se refiere también al tamaño de cada una de las dos muestras.
Si los tamaños muestrales son diferentes, podemos calcular la media armónica de n 1 y ni:
_ 2n 1 ni
na=--- (4.42)
n1 + n,
y utilizar, en la ecuación (4.40), ñ en lugar de n para obtener !l.
0
© Ediciones Pirámide
218 / Análisis de datos en psicología 11
y:
ii 2 2 90 2
n = 2- = 2-'- = 67 28
[J2 0,52 •
Necesitamos 67 sujetos en cada grupo para que el contraste detecte una diferencia de 2
puntos con una probabilidad de 0,90. Es decir, necesitamos 67 sujetos para que al contrastar
la hipótesis nula H 0 : µv - µm =O frente a la alternativa H 1 : µv - Jlm = -2, siendo verdadera
H 1 • la potencia del contraste sea de 0,90.
Si desconocemos a, podemos estimarla mediante el promedio ponderado de las desviacio-
nes típicas muestrales (tal como hemos hecho en [4.22]) y utilizar, para calcular la potencia,
la ecuación (4.38) de idéntica manera a como hemos hecho en el apartado anterior.
El procedimiento que nos permite obtener la potencia de los contrastes sobre dos medias
relacionadas es idéntico al expuesto en el apartado anterior excepto (y esto es fundamental)
en lo que se refiere al parámetro b. Ahora:
(4.43)
donde a 0 se refiere a la desviación típica poblacional de las n diferencias entre las puntuacio-
nes de cada par. Esto, en la práctica, supone una dificultad añadida, pues ahora no sólo
necesitamos conocer (o estimar), como en el caso anterior, el parámetro a sino, además, el
parámetro p (coeficiente de correlación entre las puntuaciones de ambas poblaciones), pues:
a 0 = aj2(1 - p) (4.44)
© Ediciones Pirámide
Contraste de hipótesis sobre medias / 219
EJERCICIOS
4.1. Un investigador sospecha que los hombres y las mujeres difieren en sus actitudes hacia
el aborto. Para confirmar sus sospechas selecciona aleatoriamente 30 varones y 30 mujeres y
les pasa una escala para medir la mencionada actitud. Los resultados obtenidos fueron los
siguientes:
Y; S;
1Varones 38 6
Mujeres 31 5
Sabiendo que cuanto mayores son las puntuaciones en la escala más favorable es la
actitud hacia el aborto, ¿qué concluirá el investigador con un nivel de confianza de 0,95?
4.2. Las puntuaciones que se obtienen en la Escala de Inteligencia para Adultos de Wechsler
(WAIS) se distribuyen normalmente conµ= 100 y u= 16. Un psicólogo ha construido una
nueva prueba de inteligencia y desea saber si la media estandarizada que se obtiene con ella
se parece o no a la proporcionada por el WAIS. Para ello, selecciona una muestra aleatoria
de 100 sujetos y, tras pasarles la prueba, obtiene una media de 104. ¿A qué conclusión llegará
el psicólogo, con un nivel de confianza de 0,95?
Y¡ S¡
© Ediciones Pirámide
220 / Análisis de datos en psicología 11
Con estos resultados y utilizando '.1. = 0,05, ¿qué concluirá el investigador sobre la
resistencia de los introvertidos y extrovertidos a manifestar indefensión?
TABLA 4.3
Sujetos 1 2 3 4 5 6 7 8 9 JO 11 12 13 14 15 16 17 18 19 20 21 22 23 24
Antes 8 12 14 11 16 6 11 9 JO JO 19 12 17 8 13 12 16 15 15 9 19 14 12 16
Después 9 16 23 21 17 JO 14 8 11 12 19 16 16 13 17 11 18 14 15 16 20 19 17 15
© Ediciones Pirámide
Contraste de hipótesis sobre medias / 221
4.8. Deseamos medir el nivel medio de ansiedad de los alumnos de l.º y 2.º de psicología de
la UAM. Para ello utilizamos la escala de ansiedad de Spielberger y una muestra aleatoria de
4 alumnos de l.º y 6 de 2.º. Hemos obtenido los siguientes datos:
l.º: 25 40 50 45
2. 0 : 27 30 32 39 31 33
Suponiendo que ambas poblaciones se distribuyen normalmente en la escala de ansiedad,
¿podemos concluir, con a:= 0,05, que los alumnos de l.º y 2. 0 difieren en ansiedad?
4.9. Con el fin de estudiar el posible influjo del tipo de instrucciones sobre la ejecución de
una tarea se seleccionó aleatoriamente una muestra de 13 sujetos. Cinco de ellos realizaron la
tarea tras recibir instrucciones breves y sencillas; el resto, tras recibir instrucciones largas y
explícitas. Suponiendo normalidad en las distribuciones poblacionales de origen y a la vista
de los resultados obtenidos, ¿qué podemos concluir acerca del efecto del tipo de instrucciones
sobre la ejecución de esa tarea? (a: = 0,05).
Grupo A (instrucciones breves): 3 6 7 8
Grupo B (instrucciones largas): 3 5 6 5 8 9 8 4
4.10. En un estudio diseñado para comparar dos métodos de enseñanza de las matemáticas
se seleccionó una muestra aleatoria de 20 sujetos. Los sujetos fueron agrupados en parejas a
partir de su cociente intelectual. Los miembros de cada pareja fueron asignados aleatoria-
mente a cada uno de los dos métodos. Al final de la instrucción, todos los sujetos realizaron
una prueba de matemáticas con los resultados que aparecen en la tabla 4.4. El método B es
más cómodo y sencillo a la hora de ser aplicado y se prefiere sobre el A a menos que se
demuestre que el A es más eficaz. ¿Qué decisión se tomará con un nivel de significación
de 0,05?
TABLA 4.4
Pares l.º 2.º 3.º 4.º 5.º 6.º 7.º 8.º 9.º 10.°
Método A 19 33 31 28 29 37 25 30 26 32
Método B 15 34 28 25 29 25 30 27 20 33
Sin alcohol 4 3 5 7 8 5 4 6 4 5
Con alcohol 2 1 1 3 2 5 1 3 3 2
© Ediciones Pirámide
222 / Análisis de datos en psicología 11
TABLA 4.6
T o 1 2 3 4 5 6 7
4.14. Existe evidencia empírica que apoya la hipótesis de que Ja mujeres que han sufrido
algún tipo de abuso sexual en la infancia desarrollan en Ja edad adulta ciertas pautas de
comportamiento que reflejan Ja presencia de secuelas importantes derivadas del abuso expe-
rimentado. Entre otras cosas, son más ansiosas que las mujeres que no han sufrido tal abuso
y muestran con frecuencia síntomas depresivos y fóbicos. Nada sabemos, sin embargo, sobre
su conducta de afrontamiento.
Para estudiar esto último, hemos formado dos grupos: uno de mujeres en cuyo historial
clínico existe algún episodio de abuso sexual y otro de mujeres sin la presencia de tales
episodios; y tras evaluar en ambos grupos la respuesta de afrontamiento hemos obtenido
los resultados que muestra la tabla 4.7.
TABLA 4.7
Y; S'1
"
1Grupo experimental 39,5 20 20
Grupo control 43,0 15 60
¿Podemos afirmar, con rx. = 0,01, que las mujeres que han sufrido abuso sexual (grupo
experimental) puntúan en afrontamiento más bajo que las mujeres que no Jo han sufrido
(grupo control)?
4.15. Un investigador afirma que el número de cigarrillos/día que fuman los varones es
más alto, en promedio, que el que fuman las mujeres. Tras efectuar una encuesta a una
muestra aleatoria y comparar las medias de los varones y de las mujeres, ha obtenido un
estadístico de contraste T = 2,681. La tabla 4.8 ofrece la función de distribución de algunos
de los valores del estadístico T:
© Ediciones Pirámide
Contraste de hipótesis sobre medias / 223
TABLA 4.8
4.18. Para contrastar una determinada hipótesis nula utilizamos dos estadísticos: V y W
Sabemos que V se distribuye según el modelo t de Student y W según el modelo normal
N(O, 1). En una muestra aleatoria obtenemos V = W = k. Según esto, siendo k un valor
cualquiera y dado un mismo nivel de significación (señale la/s alternativa/s correcta/s):
a) Si mantenemos H0 con V, es imposible rechazarla con W
b) Si rechazamos H 0 con V, necesariamente la rechazaremos con W
e) Es más probable que rechacemos H 0 con V que con W
d) Si mantenemos H 0 con V, necesariamente la mantendremos con W
e) Si rechazamos H 0 con V, es posible que la mantengamos con W
4.20. ¿Cuál sería la potencia del contraste del ejercicio 4. 7 si el verdadero valor de µ fuera
12 y utilizáramos un nivel de significación de 0,01?
© Ediciones Pirámide
224 / Análisis de datos en psicología 11
SOLUCIONES
4.1. Contraste sobre dos medias independientes. Suponemos varianzas poblacionales iguales,
pues n 1 = n 2 •
Ho: µ,, = µm; H¡: µ,,'f. µm.
T = 4,91; o,915l5s:::::: 2; rechazamos H 0 .
Concluimos que los varones mantienen hacia el aborto una actitud más favorable que
la de las mujeres.
© Ediciones Pirámide
Contraste de hipótesis sobre medias / 225
4.8. Contraste sobre dos medias independientes. Suponemos varianzas poblacionales distintas.
Ha: µ1 .. =µ2 .. ; H1: µ¡ .. #µ2"·
T' = 1,42; y/máximo= 8; a,91sts = 2,306; mantenemos Ha·
No podemos afirmar que los promedios poblacionales de ambos grupos sean difere!ltes.
4.9. Contraste sobre dos medias independientes. Suponemos varianzas poblacionales distintas.
Ha: µA= µB; H1: µA#- µB.
T' = -0,66; y/máximo= 11; a.a2st11 = -2,201; mantenemos Ha.
No podemos concluir que las instrucciones dadas afecten al rendimiento.
4.14. Contraste de hipótesis sobre dos medias independientes. Suponemos varianzas pobla-
cionales distintas.
© Ediciones Pirámide
226 / Análisis de datos en psicología 11
4.17. b.
4.18. b.
© Ediciones Pirámide
Análisis de varianza
de un factor
5
(5.1)
© Ediciones Pirámide
232 / Análisis de datos en psicología 11
A pesar de que los modelos de ANOVA son muy variados puede obtenerse una
clasificación bastante simple de los mismos atendiendo a unos pocos criterios.
Nosotros no vamos a estudiar todos los posibles modelos de ANOVA, pero sí los
más representativos, los cuales, por un lado, son los más frecuentemente utilizados
en la investigación empírica y, por otro, permiten resolver la mayor parte de las
situaciones experimentales con las que un investigador se puede encontrar en la
práctica. Tres criterios nos bastan para clasificar los modelos de ANOV A a los que
vamos a prestar atención: el número de factores, el tipo de aleatorización seguida y
el tipo de muestreo efectuado sobre los niveles de los factores.
a) Número de factores
b) Tipo de a/eatorización
de los 40 sujetos a uno de los 4 grupos. Por último, podemos asignar, aleatoria-
mente también, cada grupo a uno de los cuatro niveles del factor. Procediendo de
esta manera habremos construido un diseño completamente aleatorizado.
Pero este tipo de aleatorización no es el único disponible. Si sospechamos que
existe alguna variable extraña que puede alterar de forma apreciable las conclusio-
nes de nuestro experimento, podemos ejercer sobre ella un control directo modifi-
cando el tipo de aleatorización. Supongamos que el fármaco cuya influencia sobre
el insomnio deseamos determinar posee la peculiaridad de afectar de forma diferen-
ciada a los pacientes dependiendo del grado de insomnio padecido. Podemos
controlar ese efecto formando bloques: si clasificamos a los 40 sujetos de nuestra
muestra como pacientes con insomnio severo, pacientes con insomnio moderado y
pacientes con insomnio leve (tres bloques) 1 y, tras esto, asignamos aleatoriamente
los sujetos de cada bloque a cada uno de los niveles del factor, habremos consegui-
do que dentro de cada nivel haya tanto pacientes con insomnio severo, como
pacientes con insomnio moderado y pacientes con insomnio leve: el efecto de la
variable extraña habrá quedado controlado al estar todos los grupos igualados en
grado de insomnio. Procediendo de esta manera habremos construido un diseño de
bloques aleatorios. Y el ANOVA que permite analizar los datos así obtenidos recibe
el nombre de ANOVA de un factor aleatorizado en bloques (equivalente a un
diseño de dos factores).
Un caso extremo de bloqueo es aquel en el que cada bloque está formado por
un único sujeto. Es decir, aquel en el que a todos y cada uno de los sujetos se les
aplican todos y cada uno de los niveles de la variable independiente o factor. La
homogeneidad dentro de cada bloque es máxima (y por tanto mínima la presencia
de variables extrañas atribuibles a diferencias entre los sujetos) porque todas las
puntuaciones dentro de un mismo bloque pertenecen a un mismo sujeto. Cuando
éste es el caso ya no se habla de diseño de bloques, sino que de diseño intrasujetos: y
al ANOVA que permite analizar los datos obtenidos con un diseño de ese tipo se le
llama ANOVA de medidas repetidas.
Estas distinciones basadas en el concepto de aleatorización son equivalentes a
las ya establecidas en el capítulo anterior (págs. 182-183) al hablar de muestras
independientes y muestras relacionadas: hablar de diseños completamente aleatori-
zados es equivalente a hablar de muestras independientes (a cada nivel del factor
se asigna un grupo distinto de sujetos); y hablar de diseños intrasujetos es equiva-
lente a hablar de muestras relacionadas (bien porque los sujetos de un mismo
bloque -tantos sujetos como niveles- han sido igualados -emparejados- aten-
diendo a algún criterio, bien porque todos los grupos están formados por los mis-
mos sujetos).
1 Aunque en este ejemplo concreto hemos establecido tres bloques, el número de bloques que pueden
establecerse es arbitrario. Oscila entre un mínimo de dos (o formamos al menos dos bloques o no
formamos ninguno) y un máximo de N/k, siendo N el tamaño de la muestra y k el número de niveles del
factor (en cada bloque debe haber, como mínimo, tantos sujetos como niveles tenga el factor).
© Ediciones Pirámide
234 / Análisis de datos en psicología 11
e) Muestreo de niveles
1 Los modelos utilizados con mayor frecuencia en la investigación psicológica son los de efectos fijos.
pero existen situaciones concretas donde resulta apropiado recurrir a un modelo de efectos aleatorios.
Veamos un ejemplo. Es posible que la eficacia de una determinada terapia venga condicionada por las
características personales del terapeuta que la aplica. Pero no poque haya algunas características
personales conocidas que determinen tal efecto, sino, simplemente, porque distintos terapeutas obtienen
diferentes resultados. Podemos seleccionar aleatoriamente unos pocos terapeutas (no necesitaríasmos
seleccionar a todos los terapeutas posibles) y asignar una muestra aleatoria de pacientes a cada uno de
ellos. Los resultados del experimento podrían informarnos, no sobre si tal terapeuta concreto difiere de
tal otro, sino sobre si la variable tipo de terapeuta se relaciona con los resultados de la terapia. Si
eligiéramos otros terapeutas diferentes el resultado al que llegaríamos sería el mismo (cosa que no
podemos afirmar cuando el factor con el que trabajamos es de efectos fijos).
© Ediciones Pirámide
Análisis de varianza de un factor / 235
0.41
o.2 i. .I...===============...._
1
2
1
3 4
1 1
5
e
Media= 3 Varianza = 1
:::11
......_~,~~¡r---r-¡-r¡-T¡~-
B
2 3 4 5
0.2 i r - ¡- - - - - - - - - .
......_~,~~¡r---r¡~T¡~~.~-
2 3 4 5
Media = 3 Varianza = 2
Figura 5.4. La mezcla de dos distribuciones con la misma media y con la misma varianza da como
resultado una nueva distribución con la misma media y la misma varianza.
Consideremos ahora dos poblaciones con distinta media pero con la misma
rarian:a. Al mezclarlas, no sólo cambia la media, sino que también lo hace la va-
rianza. Por ejemplo, si mezclamos la población A = [ 1, 2, 3, 4, 5 }, con media 3 y
varianza 2, con la población B = {6, 7, 8, 9, 10}, con media 8 y varianza 2, la
población resultante C = [ 1, 2, 3, 4, 5, 6, 7, 8, 9, 10] tiene de media 5,5 y de varianza
8,25. La figura 5.5 refleja esta situación. Ahora, es razonable pensar que una
estimación de la varianza poblacional a partir de una muestra extraída de las
poblaciones A o B será sustancialmente diferente de una estimación efectuada a
partir de una muestra extraída de la población C. Con más de dos poblaciones
ocurre exactamente lo mismo.
:1' Ediciones Pirámide
236 / Análisis de datos en psicología 11
º'j
0.2 ,
1
1
2
1
3
1
4 5 e
Media= 3 Varianza= 2 º'0.111
.........,.......,.,~r¡--i¡r--~1~r1--.1~T1~~1.....,,_._
2345678910
B
º'j
0.2 ,
1 1 1 1 1
Media= 5.5 Varianza= 8,25
6 7 8 9 10
Media= 8 Varianza= 2
Figura 5.5.-La mezcla de dos distribuciones con distinta media y con la misma varianza da como
resultado una nueva distribución con media distinta a las dos anteriores y con varianza también distinta.
3 Si los tamaños muestrales ni son distintos podemos promediar los J estimadores SJ ponderando
cada uno con sus grados de libertad:
J
L (ni - l)Sf
... 2 - j= 1
rr, -~J----
L (ni - 1)
i'·=l
© Ediciones Pirámide
Análisis de varianza de un factor / 237
a-2e = nu2-
X (5.3)
• Recuérdese que las medidas obtenidas a partir de muestras aleatorias de tamaño 11 extraídas de una pobla-
ción normal se distribuyen normalmente con mediaµ y varianza cr 2/11 (ver apai1ado 1.3.2).
' Recordemos que la varianza de un conjunto de puntuaciones no se ve alterada si a esas
puntuaciones se le añade una constante. Por tanto, aunque las medias poblacionales difieran entre sí (es
decir, aunque las puntuaciones de las distintas poblaciones difieran en un valor constante), como las
varianzas poblacionales siguen siendo iguales, la estimación (5.2) no se verá afectada por el valor de las
medias.
© Ediciones Pirámide
238 / Análisis de datos en psicología 11
cuándo la diferencia entre MCE y MCI es lo bastante grande como para pensar que
no puede ser atribuida al azar propio del muestreo. Justamente ese método es el que
se describe, para diferentes situaciones concretas, en los apartados que siguen.
TABLA 5.1
Estructura de los datos y notación correspondientes a un
diseño de un factor, de efectos fijos, completamente
aleatorizado
Niveles del
factor
Observaciones T; Yj
© Ediciones Pirámide
Análisis de varianza de un factor / 239
Los niveles del factor están representados por A 1 , A 2 , ••• ,AJ. La notación genéri-
ca de para esos niveles es Ai" Por tanto, j es el subíndice que utilizaremos para
referirnos a uno cualquiera de los distintos niveles de la variable independiente o
factor: j = 1, 2, ... ,J. En el contexto de los diseños experimentales esos diferentes
niveles del factor (los A) suelen recibir el nombre de tratamientos o condiciones
experimentales.
Y;i son las puntuaciones obtenidas en la variable dependiente por los diferentes
sujetos. Y21 , por ejemplo, representa la puntuación obtenida por el sujeto 2 en el
tratamiento, grupo o muestra l. El subíndice i, por tanto, se refiere a uno cualquiera
de los sujetos a los que se les ha aplicado un tratamiento. Cuando j = 1,
i = 1, 2, ... , n 1 ; cuando j = 2, i = 1, 2, ... , n2 ; etc.
Los totales de cada tratamiento o grupo están representados por Ti. Así, si
sumamos las puntuaciones de todos los sujetos del grupo 1 obtenemos T 1 ; si
sumamos las puntuaciones de todos los sujetos del grupo j obtenemos Ti
(5.3)
- Ti
Y.=- (5.4)
1 n·J
- ~Ti T
T = L L yij = L Tj Y=-1-=- (5.5)
i N
j j
¿ni
j
5.3.2. El modelo
Los diferentes aspectos del análisis de varianza se sustentan sobre una serie de
modelos matemáticos acompañados de un conjunto de supuestos referidos a las
distribuciones de las variables aleatorias que forman parte de esos modelos. El
modelo de ANOV A de un factor, de efectos fijos, completamente aleatorizado no es
más que una versión del modelo lineal general ya presentado (ecuación [5.1])
adaptado al caso de una sola variable independiente o factor. Tal modelo intenta
describir la variable dependiente Yii a partir de tres componentes (recuérdense las
ideas expuestas en el apartado 5.1): el efecto debido a factores mantenidos constan-
© Ediciones Pirámide
240 / Análisis de datos en psicología 11
tes, el efecto debido al factor tenido en cuenta y el efecto debido a los factores no
tenidos en cuenta 6 :
(5.6)
" Para profundizar en los diferentes aspectos teóricos relacionados con los modelos de ANOVA
pueden consultarse las excelentes obras de Winer, Brown y Michels (1991) o Kirk (1995), las cuales
cubren estos aspectos de forma razonablemente asequible.
7 Conviene señalar que un modelo matemático de las características del propuesto en (5.6) nunca es
fil/so. Cada puntuación se intenta explicar a partir de algo (µ + :x¡) más /o demás (E,). Un modelo así
formulado puede resultar más o menos útil (dependiendo de la importancia real de la variable
independiente considerada a la hora de explicar el comportamiento de la variable dependiente), pero
nunca falso.
© Ediciones Pirámide
Análisis de varianza de un factor / 241
TABLA 5.2
Niveles
del factor
Observaciones Yj
A1 5 5 5 5 5 5
Ai 5 5 5 5 5 5
AJ 5 5 5 5 5 5
Y= 5
Por tanto, el modelo matemático capaz de describir esta situación será bastante
simple:
TABLA 5.3
Niveles
del factor
Observaciones Yj
A1 2 2 2 2 2 2
Ai 6 6 6 6 6 6
AJ 7 7 7 7 7 7
Y= 5
Ahora las medias de Jos 3 tratamientos son diferentes, pero dentro de cada
tratamiento, todos Jos sujetos tienen Ja misma puntuación. Para describir Ja
puntuación de un sujeto cualquiera en esta nueva situación necesitamos, además de
Ja media total (que todos los sujetos comparten) Jo que cada grupo tiene de
específico. Un modelo matemático recogiendo ambas cosas podría ser:
Y;j = µ + (Xj
Este modelo recoge, por una lado, Ja parte de Y;i que todos Jos sujetos tienen en
común (µ) y, por otro, Ja parte de Y;i específica de cada grupo (rxJ Y puesto que,
según se desprende de Jos datos de Ja tabla 5.3, Jo que cada tratamiento (muestra)
tiene de específico es justamente su desviación del promedio total, podemos resaltar
de nuevo Ja importante idea de que el efecto asociado a cada tratamiento (rxi) es
interpretado como Ja diferencia entre Ja media de ese tratamiento y Ja media total:
(Xj = µj - µ.
© Ediciones Pirámide
242 / Análisis de datos en psicología 11
Así pues, cuando existe variabilidad entre los tratamientos (tabla 5.3) necesita-
mos recurrir aµ y a rxi para poder describir lo que está ocurriendo. Pero ocurre que
las situaciones reales son más complicadas de lo que la tabla 5.3 da a entender:
además de variabilidad entre los tratamientos también suele darse variabilidad
dentro de los tratamientos. Es decir, lo que suele ocurrir en los experimentos reales
es, no sólo que los distintos tratamientos difieren entre sí, sino que también los
sujetos de un mismo tratamiento pueden mostrar diferencias entre ellos. La tabla
5.4 recoge unos datos más parecidos a los que podríamos obtener en un experimen-
to real.
TABLA 5.4
Niveles
del factor
Observaciones Yj
A1 3 o 2 1 4 2
A2 8 5 4 6 7 6
A3 5 6 8 7 9 7
Y= 5
Aquí, no sólo las medias de los tres tratamientos son diferentes sino que, dentro
de cada tratamiento, los sujetos muestran variabilidad respecto a la media de su
propio tratamiento. Para describir ahora la puntuación Y¡i de un sujeto cualquiera
necesitamos, además de los términos µ y rxi ya utilizados, un nuevo término que
recoja la variabilidad existente dentro de cada tratamiento, es decir, la variabilidad
existente entre los sujetos del mismo grupo:
(5.6)
Vemos, por tanto, que para poder describir un conjunto de puntuaciones Y¡i
correspondientes a J grupos aleatoriamente asignados a los J niveles (tratamientos)
de una variable independiente, el modelo propuesto debe incluir tres términos: uno
referido a la parte de Y¡i que es común a todos los sujetos (µ, media total) otro
referido a la parte de Y¡i que es específica de cada grupo (rxi, efecto del tratamiento)
y un último referido a la parte de Y¡i que es específica de cada sujeto (Eii, errores).
El modelo recién propuesto para el ANOVA A-EF-CA nos va a permitir poner
a prueba la hipótesis de que las J medias poblacionales (las J medias correspon-
dientes a los J tratamientos) son iguales: µ 1 = µ 2 = · · · =µJ. Lo cual equivale a
afirmar que los J tratamientos poseen la misma eficacia o que el efecto del factor es
nulo: rxi = O, para todo j. Tenemos, pues, dos formas alternativas de plantear H 0 en
un ANOVA A-EF-CA:
l. Ho:µ1=µ2=···=µJ=µ.
2. H 0 : '1:.rxJ =O.
© Ediciones Pirámide
Análisis de varianza de un factor / 243
En el segundo caso, utilizamos 1XJ porque, por definición, los valores IX.i suman
cero (pues son puntuaciones diferenciales: IXi = µi - µ).Siempre se verifica I:1Xi =O.
Por tanto sólo si I: 1XJ es distinto de cero podemos afirmar que hay algún IX.i distinto
de cero y, en consecuencia, alguna µi distinta de alguna otra.
En la tabla 5.2 podemos comprobar que:
iX 1 = Y1 - Y= 5 - 5 =o
iX 2 = Y2 - Y= 5- 5=o
IÍ3 = y3 - y= 5- 5= o
Estimamos que todos los IXi valen cero y que, por tanto: I: 1XJ =O. O, de for-
ma equivalente, estimamos que las tres medias poblacionales son iguales:
µ¡ = µ2 = µ3 = µ.
La tabla 5.3 refleja una situación muy diferente. Si estimamos el efecto de cada
tratamiento obtenemos:
iX 1 = Y1 Y= 2 - 5 = - 3
-
iX 2 = Y2 - Y= 6 - 5 = 1
IÍ3 = y3 - y= 7 - 5 = 2
Efectivamente, de nuevo I: !Xi= O, pero a diferencia de lo que ocurre en la tabla
5.2, ahora las ~son diferentes unas de otras, por lo que estimamos que no todos los
IXi valen cero y, en consecuencia, que los 1XJ no suman cero: I: 1XJ "#O. Lo mismo
ocurre en la situación descrita en la tabla 5.4.
Resumiendo, la hipótesis nula que el modelo (5.6) nos permite poner a prueba
puede plantearse de dos maneras: afirmando que todas las medias µi son iguales, o
afirmando que todos los IXi valen cero. De cualquiera de las dos formas lo que
estamos afirmando es que el efecto atribuible a la variable independiente (factor)
tenida en cuenta en el modelo es nulo, no existe.
a) Independencia
b) Normalidad
Con este último supuesto se afirma que las J poblaciones de donde son
extraídas las muestras, además de ser normales, tienen todas ellas la misma
varianza.
Puesto que las observaciones han sido aleatoriamente asignadas a cada uno de
los J tratamientos, podemos pensar que la variación observada entre las observa-
ciones de una misma muestra será independiente del tratamiento concreto al que
haya sido asignada esa muestra. Ahora bien, si cada una de las J muestras se
considera aleatoriamente extraída de una población y las J varianzas muestrales
son similares, debemos suponer que esas poblaciones tienen, todas ellas, la misma
varianza:
(5.7)
© Ediciones Pirámide
Análisis de varianza de un factor / 245
Además, puesto que los errores son la única fuente de variación presente .en el
modelo, pues µ y rx.i son constantes para cada tratamiento, la variación mostrada
por las puntuaciones Y¡i en un tratamiento cualquiera no será más que la variación
propia de los errores Eii de ese tratamiento. De modo que la varianza de los errores
será igual a las varianzas poblacionales u~= uf= u~= ··· = uJ = u 2 •
Estos tres supuestos referidos al modelo de ANOVA A-EF-CA podemos
resumirlos de la siguiente manera: vamos a trabajar con J muestras aleatoriamente
extraídas de J poblaciones normales con la misma varianza. Algunas de las conse-
cuencias que se derivan de esta afirmación ya las hemos mencionado; otras irán
apareciendo en los próximos apartados.
a) Fuentes de variación
(5.8)
(5.9)
b) Sumas de cuadrados
Elevando al cuadrado:
¿¿(Y¡j - Yl 2 = I I [(Yj -
i j
n + (Y¡j - YjlJ 2 (5.10)
Y desarrollando:
i ; i j
=¿¿(Y¡-
; j
n2 + ¿¿(Y¡j - i j
Yjl2 + 2¿¿(Yj-
i j
Y)(Y¡j - Yjl
Ti
SCT = L Li y~. -
¡ •1
--
N
T~ T2
SCI =I- 1 -- (5.12)
i ni N
Ti
SCE = LL Yl - L )
¡ i i ni
© Ediciones Pirámide
Análisis de varianza de un factor / 247
e) Grados de libertad
d) Medias cuadráticas
Una media cuadrática (MC) se define como una suma de cuadrados dividida por
sus grados de libertad. En realidad, una media cuadrática es un estimador de la
varianza poblacional u 2 , pues se trata de desviaciones respecto a algún promedio
elevadas al cuadrado, sumadas y divididas por sus grados de libertad.
La media cuadrática intergrupos (MCI) se obtiene dividiendo SCJ por sus grados
de libertad: MC/ = SCI/(J - 1). Esto equivale a obtener un estimador de la
varianza poblacional a partir de la varianza de la distribución muestral de la media
(de la cual tenemos J observaciones, las J medias ~).
La media cuadrática error (MCE) se obtiene dividiendo SCE por sus grados de
libertad: MCE = SCE/(N - J). Se trata de un estimador de la varianza poblacional
© Ediciones Pirámide
248 / Análisis de datos en psicología 11
e) Estadístico de contraste F
Acabamos de ver que, tanto MC/ como MCE son estimadores de la varianza
poblacional a 2 . Pero, obviamente, se trata de estimadores diferentes. Mientras MC/
se obtiene a partir de las medias de cada tratamiento, MCE se obtiene a partir de
las observaciones de cada tratamiento. Veamos qué clase de estimadores son cada
uno de ellos atendiendo a sus valores esperados 9 .
[
LL(Y¡- Y)2] ¿npJ
E(MCI) = E ¡ i = a2 + _i_ _ (5.13)
J-1 J-1
¿¿(Y¡j - f;) 2 ]
E(MCE) = E [ ¡ i = a2 (5.14)
N-J
8 La media cuadrática total (MCT) no será utilizada aquí para nada y, por tanto, nos basta con saber
de ella que se trata de un estimador de la varianza poblacional basado en las N - 1 observaciones como
si todas ellas pertenecieran a la misma población (MCT es. en realidad. la varianza insesgada de todas
las observaciones que forman parte del diseño).
0 No prestaremos atención aquí a los pasos concretos que llevan a la obtención de los valores
esperados de MCI y MCE. El lector interesado puede consultar San Martín y Pardo (1989. págs. 167-
168) o, si está dispuesto a profundizar algo más, la excelente exposición de Kirk (1982, págs. 64-73).
'º Puede consultarse, en el capítulo 1, el apartado 1.3.3 sobre la distribución muestra! de la varianza.
" © Ediciones Pirámide
Análisis de varianza de un factor / 249
(J - l)MCJ
(5.15)
ª2
(N - J)MCE
(5.16)
será, tanto si H 0 es verdadera como si no, una variable aleatoria distribuida según
x2 con N - J grados de libertad (pues tanto si H 0 es verdadera como si no, MCE es
un estimador insesgado de la varianza poblacional).
Ahora bien, el cociente entre dos x2 independientes 12 , cada uno de ellos dividido
por sus grados de libertad, es una variable aleatoria distribuida 13 según el modelo
de probabilidad F con los grados de libertad del numerador y los del denominador.
Es decir:
(5.17)
Por tanto,
(J - l)MCJ
ª2 /(J - 1) MCJ
--------- - -- - F (5.18)
(N - J)MCE - MCE - J-I.N-J
- - - 2--/(N - J)
a
conocemos la distribución muestra! de un estadístico, MCI, que es tanto mayor cuanto mayor es la
diferencia entre esas medias; pero a 2 suele ser un valor desconocido.
12 MCI y MCE son estimadores independientes, pues MCI se basa en las medias muestrales y MCE
se basa en las varianzas muestrales. Y no olvidemos que la media y la varianza de una distribución
normal, caso en el que nos encontramos, son independientes.
13 Ver Análisis de datos en psicología I (Botella, LeSn y San Martín, 1993, apartado 13.3.5; páginas
333 y ss.).
© Ediciones Pirámide
250 / Análisis de datos en psicología 11
En consecuencia, la razón:
MCI
F=-- (5.19)
MCE
TABLA 5.5
Presentación resumida de los resultados de un ANO VA A-EF-C A
Intragrupos o y2 SCE
error (E) IIY0-I~ N-J --
i j i ni N-J
Total (n ¿¿ y2. _ y2
_ N-1
i j IJ N
El cuadro 5.1 recoge el resumen del contraste de hipótesis que plantea el modelo
de ANOVA A-EF-CA siguiendo el esquema propuesto para el resto de los contras-
tes estudiados.
© Ediciones Pirámide
Análisis de varianza de un factor / 251
CUADRO 5.1
ANOVA de un factor de efectos fijos, completamente aleatorizado.
Resumen del procedimiento
l. Hipótesis:
2. Supuestos:
a) Independencia: las J muestras son aleatorias y las N observaciones indepen-
dientes entre sí.
b) Normalidad: las J poblaciones de donde se extraen las J muestras son
normales.
e) Homocedasticidad: esas J poblaciones tienen la misma varianza.
5. Zona crítica: está formada por todos los valores F del estadístico de contraste
iguales o mayores que 1 _ ,Fi- 1..,. -J·
© Ediciones Pirámide
252 / Análisis de datos en psicología 11
TABLA 5.6
5 ce 10 ce 15 ce
9 6 4
8 6 2
7 3 3
8 4 4
7 5 3
9 6 2
48 30 18
LL Y¡j = T = 9 + 8 + 7 + ... + 3 + 2 = 96
i j
T¡: T1 = 48 , T2 = 30 , T3 = 18
y2 962
SCT= L,L,
i
Y 2. - - =
j N
IJ
604-- = 92
18
TABLA 5.7
FV se gl MC F
© Ediciones Pirámide
Análisis de varianza de un factor / 253
Construida la tabla resumen con los cálculos del ANOV A podemos ya plantear las
hipótesis y tomar una decisión sobre ellas:
1. H 0 : µ 1 = µ 2 = µ 3 (la cantidad de recompensa no afecta a la velocidad de
aprendizaje).
H 1 : no todas las µi son iguales (la cantidad de recompensa afecta a la velocidad
de aprendizaje).
2. Supuestos: suponemos que las muestras son aleatorias y que han sido extraídas
independientemente de 3 poblaciones normales con la misma varianza.
3. Estadístico de contraste: F = 35,62.
4. Distribución muestra): F se distribuye según F;-1.N-J> es decir, según F 2 • 15 .
5. Zona crítica: F ;;,, 0 •99 F 2 • 15 = 6,36.
6. Decisión: como el valor del estadístico de contraste F cae dentro de la zona
crítica (pues 35,62 > 6,36), rechazamos H 0 • Por tanto, no todas las medias son
iguales. Podemos afirmar, apoyándonos en estos datos y con un nivel de riesgo
de 0,01, que la cantidad de recompensa afecta a la velocidad de aprendizaje de
las ratas.
Los resultados del análisis pueden comprenderse mejor si se ofrece una representa-
ción gráfica del comportamiento mostrado por cada grupo. Para tal representación
puede utilizarse, indistintamente, un diagrama de rectángulos o barras (figura 5.6A), o
un perfil ortogonal (figura 5.68). La representación gráfica se realiza a partir de las
medias de cada grupo.
Y; Y;
8 8
6 6
4 4
2 2
o o
5 ce 10 ce 15cc 5 ce 10 ce 15cc
A B
Figura 5.6.-Representación gráfica del efecto de la cantidad de refuerzo sobre el número de
ensayos necesarios para aprender el laberinto. Figura A: diagrama de rectángulos o barras.
Figura B: perfil ortogonal.
Otro tipo de representaciones gráficas muy útiles en el contexto del ANOVA son
las que se refieren a la variabilidad mostrada por cada grupo (recordemos que uno de
los supuestos del ANOV A es que las varianzas poblacionales son iguales). Para
representar la variabilidad podemos utilizar un diagrama box and wiskers (cajas y
bigotes) o una representación de las medias con sus desviaciones típicas como bigotes
(ver Botella, León y San Martín, 1993, apartado 5.3). La figura 5.7 muestra este tipo de
representaciones. Con ellas, podemos formarnos rápidamente una primera idea acerca
de la variabilidad presente en cada grupo (en el apéndice 5 veremos cómo contrastar la
hipótesis de que las J varianzas poblacionales son iguales).
© Ediciones Pirámide
254 / Análisis de datos en psicología 11
23456789
1 1 1 1 1 1 1 1
T
DJ
~
5cc 8
6
10 ce r--C=cJ
4
15cc CD 2
o
5 ce 10 ce 15cc
A B
Nos encontramos ahora en una situación en la que los datos se han obtenido
mediante un diseño intrasujetos (medidas repetidas) y utilizando una variable
independiente (un factor) con J niveles establecidos por el investigador (efectos
fijos).
A un grupo de n sujetos 14 se le toman J medidas; es decir, todos y cada uno de
los sujetos que participan en el experimento pasan por todos y cada uno de los
niveles del factor. De otra manera: a todos los sujetos se les aplican los J tratamien-
tos. La tabla 5.8 muestra la disposición de los datos en un diseño intrasujetos (N
puntuaciones: N = nJ) y la notación utilizada para referirnos a ellos.
TABLA 5.8
Estructura de los datos y notación en un diseño de un factor,
de efectos fijos, con medidas repetidas (o aleatorizado
en bloques, con J sujetos por bloque)
Sujetos
Niveles del
B, 82 B, B. T +i Y+i
factor
14 El diseño es similar y el modelo que permite analizar los datos es exactamente el mismo si en
lugar de tomar J medidas a un grupo de n sujetos, ulilizamos n bloques de sujetos, cada bloque formado
por J sujetos igualados de acuerdo con algún criterio, y un sujeto de cada bloque es aleatoriamente
asignado a cada uno de los J niveles del factor. En ambos casos se trata de muestras relacionadas.
© Ediciones Pirámide
256 / Análisis de datos en psicología JI
(5.20)
Las medias de cada tratamiento (Y+i), la media total (Y) y la suma total (n
siguen representando exactamente lo mismo que en el modelo completamente
aleatorizado y, por tanto, se obtienen de idéntica manera.
5.4.2. El modelo
(5.21)
Excepto B¡, que es un término nuevo, todos los componentes del modelo (5.21)
significan exactamente lo mismo que en el modelo completamente aleatorizado: µes
la media poblacional total y recoge aquella parte de Y;i que todos los sujetos tienen
en común; rxi representa el efecto del j-ésimo nivel del factor; B¡ se refiere al efecto
debido a la variación entre los sujetos; y Eii siguen siendo los errores aleatorios.
Al igual que antes,
(5.22)
© Ediciones Pirámide
Análisis de varianza de un factor / 257
B¡ = µ¡+ - µ (5.23)
µ=y (5.24)
ái= Y+i- Y (5.25)
B¡ = Y;+ - y (5.26)
Ahora los errores Eii son desviaciones de las puntuaciones de un sujeto, no sólo
respecto del promedio de su grupo, sino también desviaciones respecto de su
promedio en todos los tratamientos:
(5.27)
Utilizando estimadores:
(5.28)
© Ediciones Pirámide
258 / Análisis de datos en psicología 11
a) Fuentes de variación
b) Sumas de cuadrados
LL(Y;j - Y) 2 = LL[(Y+j - Y)+ (Y;+ - Y)+ (Y;j - Y+j - Y;+ + Y)] 2 (5.31)
i j i j
© Ediciones Pirámide
Análisis de varianza de un factor / 259
T2
SCT= LLY~---
; j IJ N
SCI = L T~ j - T2
i n N (5.33)
scB = I Tr+ - r2
; J N
e) Grados de libertad
d) Medias cuadráticas
MCI = SCI/(J - 1)
(5.34)
MCE = SCE/[(J - l)(n - 1)]
e) Estadistico de contraste F
Conozcamos los valores esperados de MCJ y MCE para saber de qué clase de
estimadores se trata. MCI se ha obtenido en este modelo exactamente de la misma
manera que en el completamente aleatorizado; por tanto, nada ha cambiado:
n¿(Y¡- Y) 2 ] n¿cxj
E(MCI) = E[ i = a2 + _i_ (5.35)
J-1 J-1
(5.36)
•• Ni la media cuadrática total (MCT) ni la media cuadrática intersujetos (MCB) son necesarias para
obtener el estadístico de contraste capaz de ayudarnos a tomar una decisión sobre H 0 . No haremos, por
tanto, referencia a ellas.
© Ediciones Pirámide
Análisis de varianza de un factor / 261
(J - l)MC/
(5.37)
<12
(J - l)(n - l)MCE
(5.38)
<12
será, tanto si H 0 es verdadera como si no, una variable aleatoria distribuida según
x2 con (J - 1)(n - 1) grados de libertad.
Y, puesto que el cociente entre dos x2 independientes 18 , cada uno de ellos
dividido por sus grados de libertad, es una variable aleatoria que sigue el modelo
de distribución de probabilidad F con Jos grados de libertad del numerador y Jos
del denominador, tendremos que:
(J - l)MC/
a2 /(J - l) MC/
(J - l)(n - 1 )MCE = MCE = FJ-1.(J- l)(n- 1 > (5.39)
- - -2- - - / ( J - l)(n - 1)
<1
En consecuencia,
MCI
F=-- (5.40)
MCE
© Ediciones Pirámide
262 / Análisis de datos en psicología 11
nos servirá como estadístico para contrastar la hipótesis de que las J medias
poblacionales son iguales: H 0 : µ + 1 = µ + 2 = · · · = µ + 1·
t) La tabla resumen de A NO VA
TABLA 5.9
Presentación resumida de los resultados de un ANOVA A-EF-MR
FV se y/ MC F
SCI MCI
Intergrupos (/) SCI J-1 -- --
J-1 MCE
CUADRO 5.2
A NOVA de un .factor de efectos _fijos, con medidas repetidas.
Resumen del procedimiento
l. Hipótesis:
Ho: Jl+ 1 = Jl+2 = ... = ll+i·
(Es decir, las J medias poblacionales son iguales.)
H 1 : 11 + i # 11 + r para algún valor de .i o .i' U# j').
(Es decir, no todas las µ+i son iguales; hay al menos una media que difiere de al
menos otra.)
2. Supuestos:
a) Independencia: n observaciones aleatoriamente extraídas e independientes
entre sí.
5. Zona crítica: está formada por todos los valores F del estadístico de contraste
iguales o mayores que 1 - .F; - 1, 1; - 1 ><• - 1 >·
6. Regla de decisión: se rechaza H 0 si el estadístico F cae en la zona crítica; en caso
contrario, se mantiene.
Si rechazamos H 0 debemos concluir que no todas las medias poblacionales son
iguales; no sabemos qué medias en concreto difieren entre sí, pero sabemos que
hay al menos una media que difiere de al menos otra.
¿¿ r¿ = 16 + 12 + 12 + ... + 6 + s = 4.913
2 2 2 2 2
i j
© Ediciones Pirámide
264 / Análisis de datos en psicología 11
TABLA 5.10
1 16 8 8 12 44
2 12 9 9 10 40
3 12 10 10 8 40
4 15 13 7 11 46
5 18 12 12 12 54
6 13 13 8 10 44
7 18 16 10 13 57
8 15 9 6 6 36
9 16 9 11 8 44
Y+; 15 11 9 10
T2 405 2
SCT = °"~7°" Y~- -
IJ
- = 4.913 - -
N 36
= 356 75
'
TABLA 5.11
FV se g/ MC F
Construida la tabla resumen con los cálculos del ANOV A podemos ya plantear las
hipótesis y tomar una decisión sobre ellas:
l. Ho: µ. 1 = µ+2 = µ+3 = µ+4·
H 1 : no todas las µ + ¡ son iguales.
© Ediciones Pirámide
Análisis de varianza de un factor / 265
Y+i
15-
14-
13-
Calidad 12-
del
recuerdo 11-
10-
9-
o f 1 1
Día
1 1
Tiempo
transcurrido
Hora Semana Mes
Figura 5.8.-Efecto del paso del tiempo sobre la calidad del recuerdo.
utiliza una letra griega para representar el efecto del factor, como en (5.6), sino una
letra latina, significando con ello que se trata, no de una constante (como a), sino
de una variable:
(5.41)
H0 : u;= O (5.42)
H 1: u; #-O
siendo u; la varianza de las medias de todos los posibles niveles del factor. Es obvio
que la varianza de esas medias será cero cuando todas ellas sean iguales.
Una tercera diferencia entre los modelos de efectos fijos y aleatorios se refiere al
tipo de inferencias que es posible efectuar con unos y otros. En los modelos de
efectos fijos las inferencias se limitan a los niveles concretos utilizados; los niveles
que interesa estudiar son justamente los que de hecho se están estudiando; ellos
constituyen la población de niveles, de modo que si se replicara el experimento,
aunque los sujetos serían diferentes, los niveles del factor serían los mismos. En el
modelo de efectos aleatorios las inferencias se realizan sobre la población de posibles
niveles del factor; los niveles concretos utilizados son sólo una muestra aleatoria de
la población de niveles sobre los que el investigador tiene interés.
Excepto por lo que se refiere a algunos aspectos relacionados con el tamaño del
efecto (aspectos que trataremos en el siguiente apartado), la distinción entre efectos
fijos y aleatorios no es una cuestión crítica en los modelos de un solo factor; sí lo es,
sin embargo en los modelos de más de un factor, de modo que, en el capítulo 7
volveremos sobre esta distinción.
variable independiente o factor mediante a.i y lo hemos definido, para cada nivel del
factor, como a.i = µi - µ. Sustituyendo µi y µ por 1j y Y, podemos obtener una
estimación del efecto asociado a cada nivel del factor. En las situaciones en las que
se tiene una idea clara acerca de la importancia real que tiene una desviación
concreta deµ (µi - µ), evaluar la magnitud del efecto del factor se limita a obtener
una estimación de los a.i. Pero lo habitual es que esas desviaciones no puedan ser
evaluadas con precisión en términos absolutos (como distancias µi - µ). Suele
resultar de mayor utilidad obtener, de forma similar a como hemos hecho en los
contrastes sobre una y dos medias, una medida del tamaño del efecto en términos
relativos.
Según sabemos, a.i = µi - µ representa el j-ésimo efecto del factor. De acuerdo
con esto, la varianza de las J medias µi
(5.43)
será una manera, de entre otras posibles, de expresar la magnitud del conjunto de
efectos a.i. Así, si u;
vale cero, la variabilidad entre las µi será nula (pues todos los a.i
valdrán cero) y eso nos estará indicando que no existe efecto del factor. Por el
contrario, si u; es mayor que cero habrá variabilidad entre las µi (pues algún a.i será
distinto de cero) y eso nos estará indicando que sí existe algún efecto del factor.
Para determinar cómo de grade es ese efecto podemos, por ejemplo, examinar cómo
de grande es esa variabilidad u; respecto a la variabilidad total (la debida al factor
más la no debida al factor):
2
2 O'«
p = (5.44)
u; + u;
Precisamente esto es lo que intentan hacer las medidas del tamaño del efecto
que vamos a considerar a continuación. Pueden ser interpretadas, por tanto, como
la proporción de varianza de la variable dependiente que es explicada por la
variable independiente; o, de otro modo, como la proporción de reducción en los
errores que se consigue al predecir lo que ocurre en la variable dependiente
utilizando las medias de cada grupo en lugar de la media total. Estas medidas del
tamaño del efecto, también llamadas medidas de asociación o de proporción de
varianza explicada. permiten completar la conclusión alcanzada con la F del
ANOV A añadiendo información sobre el grado de relación existente entre la
variable independiente y la dependiente (todas ellas representan un intento de
estimar la verdadera relación entre ellas: p 2 ).
La primera de estas medidas fue propuesta por Pearson (1905) y es la más
simple de todas:
2 SCI
(5.45)
'1 = SCT
© Ediciones Pirámide
268 / Análisis de datos en psicología 11
2 SCI - (J - l)MCE
¡; =-------- (5.46)
SCT
2 SCI - (J - l)MCE
w =-------- (5.47)
SCT+ MCE
MCl-MCE.
w2 = - - - - - - - - (5.48)
MCI + (n - l)MCE
De las tres medidas del tamaño del efecto propuestas (r¡ 2 , e2 y w 2 ), e2 y w 2 son
preferibles a r¡ 2 porque el sesgo de e2 y w 2 es muy inferior al de r¡ 2 • Y entre e2 y w 2 ,
nuestras preferencias se inclinan por w 2 • Aunque ambos índices arrojan, como
estimadores del parámetro p 2 , resultados casi idénticos, el índice w 2 tiene la ventaja
de haber sido extendido, según veremos en próximos capítulos, a modelos y diseños
más complejos 19 .
Conviene señalar, para terminar, que las medidas del tamaño del efecto no
deben ser consideradas una panacea en el análisis de datos. El error típico de las
distribuciones muestrales de e2 y w 2 es muy grande (ver Carrol y Nordholm, 1975),
especialmente cuando los tamaños muestrales son pequeños, y eso significa que
podemos obtener con cierta facilidad valores grandes para e2 y w 2 cuando de hecho
'" Maxwell, Camp y Arvey (1981) señalan algunas dificultades en la aplicación de r. 2 a diseños
factoriales. No parece claro que la utilización de r. 2 pueda ser extendida a tantos tipos de diseños
experimentales como lo es w 2 •
© Ediciones Pirámide
Análisis de varianza de un factor / 269
se está estudiando un efecto trivial; además, podemos obtener valores muy peque-
ños para e2 y w 2 cuando de hecho se está estudiando un efecto relevante (Rosenthal
y Rubin, 1982). Esta y otras razones que no consideraremos aquí deben hacernos
interpretar estas medidas del tamaño del efecto con cierta cautela. O'Grady (1982)
recoge una interesante discusión sobre las precauciones que hay que tomar a la
hora de interpretar las medidas del tamaño del efecto.
APl:NDICE 5
Importancia de los supuestos del ANOVA. Alternativas
al estadístico F
Según hemos señalado ya, el estadístico F nos permite tomar decisiones sobre la hipótesis
de igualdad entre J medias porque, si se dan determinadas condiciones, es posible conocer su
distribución muestral. La cuestión clave es, justamente, que para conocer la distribución
muestra) del estadístico F es necesario que se den determinadas condiciones. Hemos llamado
supuestos a esas condiciones y, los hemos denominado, de forma abreviada, independencia,
normalidad y homocedasticidad (en el modelo de medidas repetidas o bloques hemos añadido
el supuesto de aditividad).
El incumplimiento de uno o más de estos supuestos puede llevarnos a tomar una decisión
equivocada. Ese incumplimiento puede hacer que la distribución muestra) de F cambie y,
consecuentemente, que el nivel de significación propuesto (generalmente llamado ix nominal)
no coincida con el nivel de significación real, pasando a ser menor (haciendo el contraste más
conservador) o mayor (haciendo el contraste más liberal). Esta consideración es especialmente
importante, pues en los experimentos que suelen llevarse a cabo raramente se cumplen todos
los supuestos de los que depende la distribución muestra! de F.
En general, el estadístico F es bastante robusto frente a desviaciones moderadas en el
cumplimiento de los supuestos que exige (ver Glass, Peckham y Sanders, 1972), pero
desviaciones más acusadas pueden tener graves consecuencias sobre nuestras conclusiones.
Vamos a discutir por separado los aspectos relacionados con el cumplimiento de cada uno de
estos supuestos.
Independencia
El primero de los supuestos se refiere a la independencia entre observaciones: cada
observación debe ser independiente de las restantes de su mismo grupo y de las del resto de
los grupos. En la práctica, esta independencia se consigue con la asignación aleatoria de los
sujetos a los grupos (la independencia entre las observaciones no es sólo un requerimiento
estadístico, sino experimental; si falta aleatoriedad en la asignación de los sujetos a los
grupos, no habrá forma de separar el efecto de la variable independiente estudiada del efecto
de las variables extrañas introducidas con la asignación no aleatoria).
Las consecuencias del incumplimiento del supuesto de independencia pueden ser muy
graves (ver Kenny y Judd, 1986), de modo que conviene cuidar los aspectos relacionados con
la selección y asignación de sujetos. Si dudamos de la independencia de nuestras observacio-
nes, podemos poner a prueba la hipótesis de que las muestras utilizadas son aleatorias
utilizando la prueba de las rachas (ver San Martín y Pardo, 1989, págs. 100-102).
© Ediciones Pirámide
270 / Análisis de datos en psicología 11
Normalidad
El segundo de los supuestos afirma que las observaciones de cada tratamiento o grupo
constituyen una muestra aleatoria extraída de una población normal. En muchos trabajos ha
quedado probado que el estadístico F es muy robusto frente al incumplimiento de este
supuesto (ver, por ejemplo, Box, 1953). En general, si las poblaciones de donde se muestrea,
aun no siendo normales, son simétricas o tienen forma parecida (por ejemplo, todas
positivamente asimétricas y leptocúrticas), el comportamiento del estadístico F es muy
aceptable incluso con tamaños muestrales relativamente pequeños. Con todo, siempre es
recomendable trabajar con tamaños muestrales moderadamente grandes; de esta forma
tendremos garantizado un comportamiento aceptable del estadístico F incluso en aquellas
situaciones en que las poblaciones originales muestren un marcado alejamiento de la
normalidad.
Las desviaciones de la normalidad pueden detectarse, cuando son muy marcadas,
utilizando sencillos métodos gráficos (ver Chambers, Cleveland, Kleiner y Tukey, 1983; o
Iman y Conover, 1983). Pero si estamos interesados en contrastar la hipótesis de que una
muestra procede de una población normalmente distribuida podemos utilizar la prueba de
normalidad de LilliefTors (1967; ver Conover, 1980, págs. 357-361; o San Martín y Pardo,
1989, págs. 89-90).
El último de los supuestos referidos al modelo completamente aleatorizado afirma que las
observaciones han sido extraídas de poblaciones con la misma varianza. Durante muchos
años se ha venido aceptando, a partir de trabajos como el de Horsnell (1953) o Box (1954a),
que el estadístico F es muy robusto frente al incumplimiento de este supuesto si los tamaños
muestrales son iguales y no demasiado pequeños. Estudios más recientes, sin embargo,
parecen confirmar que, cuando las varianzas poblacionales son distintas, el comportamiento
del estadístico F puede resultar insatisfactorio incluso con tamaños muestrales iguales
(Rogan y Keselman, 1977; Tomarken y Serlin, 1986; Wilcox, Charlin y Thompson, 1986;
Harwell y otros, 1992). Y, desde luego, si los tamaños muestrales son diferentes, muchos
trabajos (ver Glass, Peckham y Sanders, 1972, para una revisión) ponen de manifiesto que
el estadístico F pierde su robustez frente a la heterogeneidad de varianzas: se convierte en
muy conservador cuando las varianzas más grandes corresponden a los grupos de mayor
tamaño (perdiendo, además, potencia) y en marcadamente liberal cuando las varianzas más
grandes corresponden a los grupos de menor tamaño.
Estas consideraciones hacen más que recomendable detenerse a contrastar la hipótesis
de igualdad de varianzas cuando se tiene intención de utilizar el estadístico F del ANOV A.
Para ello, disponemos de varias pruebas de significación, pero no todas ellas son igualmente
robustas frente al incumplimiento del supuesto de normalidad (más bien, la mayoría son poco
robustas; ver O'Brien, 1981). Entre las más recomendables se encuentra la prueba de Levene
(1960), que consiste en 1) transformar las puntuaciones originales Y¡i en desviaciones en valor
absoluto respecto a las medias de sus respectivos grupos:
© Ediciones Pirámide
Análisis de varianza de un factor / 271
desviaciones nos servirán como referencia del grado de igualdad entre las varianzas. Una F
significativa nos llevará al rechazo de la hipótesis nula H 0 : u:= u~= ··· = uJ. Brown y
Forsythe (1974a) han propuesto un procedimiento idéntico al de Levene, pero utilizando las
medianas en lugar de las medias.
Posteriormente, O'Brien (1981) ha diseñado un procedimiento también muy aceptable
desde el punto de vista de la robustez. Al igual que el de Levene, consiste en obtener el
estadístico F del ANOV A utilizando, no las puntuaciones originales Yú, sino una transforma-
ción de las mismas:
(ni - 1,5)np;i - f¡) 2 - 0,5SJ (ni - 1)
rii =
(ni - l)(ni - 2)
siendo SJ la varianza insesgada de cada grupo (en cada grupo, la media de las puntuaciones
transformadas debe ser igual a la varianza insesgada).
Si alguno de estos procedimientos nos lleva al rechazo de la hipótesis de igualdad de
varianzas, podemos utilizar, como primera aproximación al problema de la heterogeneidad
de varianzas, la solución propuesta por Box (1954a). Con varianzas distintas, el estadístico F del
ANOVA sigue distribuyéndose según el modelo de probabilidad F. pero con los grados
de libertad alterados. Box ha demostrado que el verdadero punto crítico (pe) se encuentra
entre:
1-.F 1.n-1 ~pe~ 1-.Fi-1.N-J
IwjY;
ni Y* =-i _ _
W·=-
J s¡
Iwj
A= 3:E(l - w/:Ew//(ni - 1)
----J-2,__~1-~-
© Ediciones Pirámide
272 / Análisis de datos en psicología 11
J-1
Vw=-------
2(J - 2)A
1 +----
3
Aditividad
© Ediciones Pirámide
Análisis de varianza de un factor / 273
(cuando las varianzas son iguales y las covarianzas también, e vale l; cuanto más se alejan de
la homogeneidad las covarianzas, más se aproxima e a O). Los nuevos grados de libertad se
obtienen de la siguiente manera:
e(glnumerador) y e(gldenominador)
Una solución alternativa al problema del incumplimiento de los supuestos del ANOVA
consiste en transformar las puntuaciones originales buscando que las distribuciones se
normalicen o que sus varianzas sean más parecidas. Diferentes tipos de transformación
ayudan a conseguir estos objetivos (ver Howell, 1992, págs 309-311, para una justificación de
esta forma de proceder).
Cuando las desviaciones típic;as son proporcionales a las medias, o cuando las distribu-
ciones son positivamente asimétricas, podemos utilizar la transformación logarítmica:
Yii = log(Y¡) (es irrelevante la base utilizada para los logaritmos).
Si las medias son proporcionales a las varianzas en lugar de a las desviaciones típicas, (lo
cual ocurre, por ejemplo, cuando los datos son frecuencias: número de aciertos, etc.), resulta
más apropiada la transformación raíz cuadrada: Y'ii = ~. la cual también permite
homogeneizar ligeramente las varianzas y disminuir la asimetría positiva. Si los valores de Y
son pequeños, entonces resulta más apropiado utilizar la transformación Yii = jY;i + 0,5, o
bien, Yii = ~ + jY;i +l.
21 Geisser y Greenhouse (1958) han demostrado que el valor más pequeño de E es l/(J - 1). Esto
significa que, en caso de extrema heterogeneidad de la matriz de varianzas-covarianzas, la corrección nos
llevaría a 1 gl para el numerador de la F y a n - 1 g/ para el denominador. Geisser y Greenhouse
proponen utilizar estos grados de libertad para tomar una decisión sobre la hipótesis del ANOV A. Si
con esta estrategia conservadora el estadístico F es significativo, podremos prescindir de estimar E y
decidir rechazar la hipótesis. Si con esta estrategia el estadístico F es no significativo, la apropiado será
proceder a estimar 1: según proponen Box (1945b) o Huynh y Feldt (1976).
© Ediciones Pirámide
274 / Análisis de datos en psicologla 11
Si existen valores muy extremos por el lado pos1t1vo (por ejemplo, con tiempos de
reacción, donde los tiempos muy largos indican, probablemente, falta de atención más que
otra cosa), obtener los inversos permite reducir la importancia de esos valores extremos:
yij = l/}·~j·
Con mucha frecuencia las puntuaciones de que se dispone son proporciones, las cuales,
según sabemos, se distribuyen binomialmente. En una distribución binomial, la media y la
varianza están relacionadas. En estos casos resulta apropiado utilizar la transformación
arcoseno: Yii = arcoseno JP. Tanto la transformación raíz cuadrada como la transforma-
ción arcoseno son útiles cuando las medias y las varianzas están relacionadas. Pero existe una
diferencia entre ambas transformaciones: mientras la transformación raíz cuadrada disminu-
ye la asimetría positiva comprimiendo la cola derecha de la distribución, la transformación
arcoseno no afecta a la asimetría, pues comprime por igual ambas colas de la distribución.
Conviene señalar, para terminar, que la transformación de las puntuaciones originales no
es algo que deba hacerse de forma rutinaria. Lo que buscamos con una transformación es
justamente que las distribuciones con las que vamos a trabajar sean razonablemente simétricas,
con pocos o ningún valor extremo y con varianzas razonablemente homogéneas. Si nues-
tros datos ya poseen esas características, no se obtendrá ninguna ganancia aplicando una trans-
formación. Nunca una transformación puede justificarse con el objetivo de obtener un resul-
tado significativo.
nL.cxJ
)--i_ (5.49)
• - (12
Á.
<P=-= (5.50)
fl
22 Un tratamiento más completo de la potencia puede encontrarse en Cohen (1988). Diferentes
manuales de estadística (por ejemplo, Kirk, 1982; Keppel, 1991) presentan el cálculo de la potencia a
partir de tablas gráficas. Hays (1988) ofrece un procedimiento basado en su medida de asociación w 2 •
Estas diferentes aproximaciones, incluida la que nosotros proponemos, conducen a los mismos resul-
tados.
© Ediciones Pirámide
Análisis de varianza de un factor / 275
Para separar n del resto de los elementos de la ecuación y facilitar así los cálculos
relacionados con el tamaño muestra( necesario para alcanzar determinada potencia, podemos
definir </>':
</>' = Jf, 2
(5.51)
y hacer:
Para calcular el valor de la potencia debemos comenzar estimando </>,lo cual equivale a
estimar los diferentes valores µi (o las diferencias a.i = µi - µ) y la varianza de la población
u 2 • Los a.i pueden estimarse a partir de resultados de investigación previos o a partir de la
diferencia µi - µ mínima que consideramos relevante. La varianza poblacional u 2 puede
estimarse también a partir de resultados previos. Si ya disponemos de los datos de nuestro
experimento, podemos estimar a.¡ y u 2 de la siguiente manera:
ffA f9
</>' =~~= '13fil = 0,655
y
</> = </>' Jn = 0,655J6 = 1,60
Sólo nos falta acudir a la tabla M para conocer la potencia. Para ello, necesitamos
</> = 1,60, los grados de libertad del numerador (g/ 1 = J - 1 = 2) y del denominador
(g/ 2 = N - J = 15), y el nivel de significación a. = 0,05. La tabla M nos proporciona, para
</> = 1,6 y g/ 2 = 16 (puesto que la tabla no incluye todos los valores para</> y g/ 2 tendremos,
© Ediciones Pirámide
276 / Análisis de datos en psicología 11
cuando sea necesario, que interpolar o utilizar los más próximos) una probabilidad de 0,39.
Esa probabilidad es fl, la probabilidad de cometer un error de tipo 11. La potencia valdrá, en
consecuencia: 1 - f1 = 1 - 0,39 = 0,61.
Si deseamos incrementar la potencia de nuestro contraste, la solución más sencilla
consiste, según hemos visto ya, en aumentar el tamaño muestral. Con lo que ya sabemos,
obtener el tamaño muestral necesario para alcanzar una determinada potencia es una tarea
bastante simple, pues:
<P2
<P = <P'Jn => n=- (5.54)
</J'2
Si deseamos una potencia de, por ejemplo, 0,80, buscamos en la tabla M el valor de <P que
corresponde a esa potencia. Nos encontramos ahora con el problema de determinar el valor
de g/ 2 , pues no conociendo el tamaño muestral, tampoco podemos conocer el de g/ 2 • Sin
embargo, podemos utilizar g/ 2 = 30 o g/ 2 = oo, pues a partir de g/ 2 = 20 las probabilidades
son muy parecidas. Veamos qué ocurre con g/ 2 = oo. Para alcanzar una potencia de 0,80
(/1 = 0,20), el valor de <P debe ser 1,8. Por tanto:
<P2 1,82
n = - = - - = 755
</J' 2 0,655 2 ,
Necesitamos 8 sujetos (redondeamos al entero mayor) para alcanzar una potencia de 0,80.
EJERCICIOS
5.1. Un investigador desea evaluar la eficacia de tres terapias diferentes para reducir la
ansiedad de los pacientes neuróticos. Pero piensa que el tipo de neurosis (histérica, fóbica,
obsesiva, de angustia y depresiva) puede distorsionar el efecto de la terapia y decide controlar
el efecto del tipo de neurosis. Selecciona al azar 3 pacientes histéricos, 3 fóbicos, 3 obsesivos,
3 con neurosis de angustia y 3 depresivos, y forma 3 grupos cada uno con un paciente de
cada tipo, también seleccionados al azar. Aplica a cada grupo una terapia y, tras ello, toma
una medida del nivel de ansiedad de cada sujeto. Con las puntuaciones obtenidas en
ansiedad, efectúa un ANOV A. Responda a las siguientes cuestiones:
a) ¿Qué modelo de ANOVA debe utilizarse?
b) ¿Cuántos son los grados de libertad de la SCE?
e) Al efectuar el análisis se obtiene F = 4.52. Si P(F:::; 4,46) = 0,95, ¿qué decisión
deberá tomarse y por qué, con a = 0,05?
5.2. Al parecer, los periodos de instrucción continuada con duración superior a dos horas
hacen que el organismo, por fatiga, se sature y deje de prestar atención a la estimulación
relevante. Sin embargo, el fraccionamiento de la instrucción en periodos demasiado cortos
exige más frecuentes periodos de adaptación y produce más numerosas pérdidas de tiempo.
Existen, por tanto, dudas acerca de cuál debe ser la duración idónea de los periodos de
instrucción continuada. Para obtener información sobre esta problemática se diseñó un
© Ediciones Pirámide
Análisis de varianza de un factor / 277
Ti = 27 , Ti = 63 , TJ = 36 , LL Yl = 708
i j
TABLA 5.12
T, T, T, T• T, To T1 To To
A1 6 7 8 5 10 6 8 4 9
Ai 10 8 6 9 10 8 11 4 6
AJ 6 7 8 11 10 11 14 7 7
A• 14 10 10 13 16 11 16 13 14
© Ediciones Pirámide
278 / Análisis de datos en psicología 11
© Ediciones Pirámide
Análisis de varianza de un factor / 279
TABLA 5.14
90 72 45 LLYl = 1.799
i j
5.11. En el ejercicio 5.10, ¿cuál es la proporción de varianza del aprendizaje que es explicada
por la cantidad de entrenamiento?
TABLA 5.15
Métodos Observaciones
1 42 o 63
2 45 64 33 29
3 44 82 64 74
4 109 120 116 97
© Ediciones Pirámide
280 / Análisis de datos en psicología 11
5.14. Un psicólogo escolar está interesado en comprobar si las puntuaciones de una prueba
de razonamiento abstracto se mantienen constantes o se modifican entre los 7, 8 y 9 años de
edad. A tal fin, selecciona una muestra aleatoria de 10 niños de 7 años de edad y les mide su
nivel de razonamiento abstracto. Vuelve a efectuar el mismo registro a los 8 y a los 9 años.
La tabla 5.16 recoge los resultados obtenidos. ¿A qué conclusión llegará nuestro psicólogo
escolar utilizando un nivel de significación oc= 0,01?
TABLA 5.16
Sujetos
Edad 1 2 3 4 5 6 7 8 9 10
7 70 81 74 65 80 90 68 71 62 88
8 78 80 79 71 82 91 69 75 62 95
9 77 83 81 69 84 93 69 79 64 93
5.15. Para estudiar el efecto de la intensidad del ruido ambiental sobre la ejecución de una
tarea visomotora compleja, un psicólogo seleccionó 30 sujetos al azar y los distribuyó
aleatoriamente en tres grupos de 10 sujetos cada uno. Cada grupo fue sometido a una
condición de ruido ambiental de diferente intensidad (baja, media, alta). Las puntuaciones
obtenidas por los sujetos en la tarea visomotora aparecen en la tabla 5.17. Defina las
variables independiente y dependiente y compruebe si la independiente influye sobre la
dependiente (oc= 0,01).
TABLA 5.17
Intensidad Sujetos
Baja 21 18 24 24 13 22 29 23 27 13
Media 14 12 17 16 9 21 15 16 22 11
Alta 10 17 16 13 9 18 15 13 11 12
5.16. Para estudiar el efecto de la desnutrición proteica sobre el aprendizaje de las ratas se
seleccionaron tres tipos de dieta: A, By C (cada una con diferente contenido proteico), y se
aplicaron a 30 ratas (10 por tratamiento). Las medias obtenidas por grupo fueron las
siguientes: A= 3,8; B = 5,2; C = 6,3. Siendo la suma de cuadrados total 88,7 y la suma de
cuadrados error 57,3, averigüe si la cantidad de contenido proteico en la dieta influye sobre el
aprendizaje de las ratas (oc = 0,05).
T1 = 28 ; T2 = 35 ; T3 = 49 ; T4 = 56
Teniendo en cuenta que el diseño es equilibrado y utilizando un nivel de significación de
0,05, complete la tabla 5.18 y tome una decisión sobre H 0 : µ 1 = µ 2 = µ 3 = µ 4 •
© Ediciones Pirámide
Análisis de varianza de un factor / 281
TABLA 5.18
FV se g/ MC F
In ter ( ) ( ) ( ) ( )
Error ( ) ( ) 0,667
Total 86 27
TABLA 5.19
4 11 5
3 7 6
7 9 9
3 8 7
6 10 7
5 9 6
7 10 6
5 8 10
S.20. Para evaluar el efecto de una droga sobre la tasa cardiaca de pacientes diagnosticados
de neurosis, un investigador administró tres cantidades diferentes de droga a un grupo de
sujetos neuróticos. Pensando que el tipo de neurosis podría modular el efecto de la droga,
seleccionó a tres pacientes con neurosis obsesiva, tres con neurosis fóbica, tres con neuro-
sis de angustia y tres con neurosis histérica. Aplicó cada nivel de droga a un paciente de
cada uno de los grupos de neurosis mencionados y obtuvo los resultados que aparecen en la
tabla 5.20.
TABLA 5.20
Cantidad de droga
Obsesiva 92 79 72
Fóbica 80 84 60
De angustia 89 90 67
Histérica 74 86 61
© Ediciones Pirámide
282 / Análisis de datos en psicología 11
¿Qué podemos concluir, con IX = 0,05, acerca del efecto ejercido por la cantidad de droga
sobre la tasa cardiaca de los pacientes neuróticos?
SOLUCIONES
5.4. d.
5.8. d.
5.9. b.
5.12. c.
© Ediciones Pirámide
Análisis de varianza de un factor / 283
5.17.
FV se gl MC F
5.18. w 2 = 0,785.
© Ediciones Pirámide
Comparaciones múltiples
entre medias
6
1 Los procedimientos diseñados para efectuar comparaciones múltiples entre medias son muchos y
muy variados. El lector interesado en ampliar los aquí expuestos o en profundizar en ellos puede
consultar. por ejemplo. Miller (1981), Hochberg y Tamane (1987) y Toothaker (1991).
© Ediciones Pirámide
288 / Análisis de datos en psicología 11
L1 = µ¡ - µ1 L4 = µ1 - µ3
L1 = µ¡ - µ3 Ls = µ1 - µ4
L3 = µ¡ - µ4 L6 = µ3 - µ4
2 Conviene señalar que la teoría básica subyacente a las comparaciones tal como las estamos
definiendo ha sido ya parcialmente tratada en el capítulo 1 (apartado 1.3.2; ver también Botella, León y
San Martín, 1993, cap. 9). Si disponemos de k variables normalmente distribuidas y obtenidas indepen-
dientemente y al azar, cualquier combinación lineal entre esas variables es también una variable
normalmente distribuida.
© Ediciones Pirámide
Comparaciones múltiples entre medias / 289
TABLA 6.1
(6.2)
y varianza:
u2 c~
uL2 = u,2 y = "\"
.t.. c.2 u-2 -_ "\" c2
L. i -
_
- u 2 L.
"\" '
- (6.3)
• L. e; ; i ' Y; i ni i ni
c~
0- 2 = MCE"\" _!_ (6.4)
L, L,.. n.
J J
coeficientes iguales al número de medias que forman parte del otro grupo; y,
arbitrariamente, se hacen negativos los coeficientes de uno de los dos grupos.
Imaginemos, por ejemplo, una situación en la que disponemos de 5 medias y
que deseamos comparar las dos primeras medias tomadas juntas con las otras tres
tomadas juntas. Tenemos dos grupos de medias: el primero está formado por dos
medias; el segundo está formado por tres medias. Por tanto, podemos asignar un 3
a las dos medias del primer grupo y un 2 a las tres medias del segundo grupo.
Después podemos poner signo negativo a los doses o a los treses, indistintamente.
La comparación puede quedarnos de la siguiente manera:
Vemos, pues, que cualquier diferencia entre medias que se nos ocurra plantear
puede ser definida como una combinación lineal de esas medias si utilizamos los
coeficientes apropiados 3 .
3 Cualquiera que sea el tipo de comparación que se nos ocurra plantear, en una comparación
concreta siempre estamos comparando dos medias o grupos de medias. Aunque sean muchas las medias
involucradas, la comparación siempre consiste en comprara una cosa (una media o grupo de medias) con
otra (con una media o grupo de medias).
© Ediciones Pirámide
Comparaciones múltiples entre medias / 291
(6.5)
con tamaños muestrales ni iguales. Si los tamaños muestrales son distintos, decimos
que dos contrastes son ortogonales si se verifica:
(6.6)
L 1 = (1)µ 1 + ( -1)µ 2
L 2 = (1)µ 2 + (-1)µ 3
Aplicando la regla propuesta, podemos comprobar que L 1 y L 2 no son contras-
tes ortogonales, pues el producto de sus coeficientes no suma cero:
L 3 = (1)µ 1 + ( -1)µ 2
L 4 = (1)µ 1 + (1)µ 2 + (-2)µ 3
© Ediciones Pirámide
292 / Análisis de datos en psicología 11
habremos definido dos contrastes ortogonales; la suma del producto de sus coefi-
cientes vale cero:
Coeficientes para L 3 : c 3i = -1 o
Coeficientes para L4 : c 4i = -2
I:c3jC4j = + (-1) + o =0
L5 = (1)µ 1 + (-1)µ 3
L6 = (1)µ 1 + (-2)µ 2 + (1)µ 3
4 Estas probabilidades son válidas si consideramos que las k comparaciones son independientes.
Pero esas k comparaciones no son, de hecho, independientes (esto ya ha sido tratado en el apartado
anterior). Cuando las comparaciones no son independientes, la probabilidad de cometer algún error de
tipo 1 es difícil de calcular, pero puede demostrarse que siempre es mayor que IX y menor o igual que
1 - (1 -1Xt.
© Ediciones Pirámide
294 / Análisis de datos en psicología 11
' Algunos autores (por ejemplo, Kirk, 1982, págs. 101-106; Howell, 1992, pág. 336) hablan de la tasa
de error por experimento tomando como referencia el conjunto de posibles comparaciones asociadas a un
experimento.
© Ediciones Pirámide
Comparaciones múltiples entre medias / 295
H 00 ¡: L 1 = c 11 µ 1 + c 12 µ 2 + ... + c 11 µ 1 =O
H 0 (2): L 1 = c 21 µ 1 + c 22 µ 2 + ... + c 21 µ 1 =O
(6.8)
Estas hipótesis plantean que Lh vale cero, lo cual equivale a afirmar que las dos
medias (o los promedios de los dos grupos de medias) involucradas en la compara-
ción h son iguales. Podemos referirnos a cualquiera de esas hipótesis, de forma
genérica, como:
(6.9)
(6.10)
Una de las ventajas de una comparación lineal del tipo Lh es que puede ser
fácilmente convertida en una suma de cuadrados capaz de expresar las diferencias al
cuadrado entre las medias de los dos grupos de medias que definen la comparación.
Y esa suma de cuadrados de la comparación, a la que podemos llamar SC(Lh), es un
componente de la suma de cuadrados intergrupo (SC/) del ANOV A de un factor, de
efectos fijos, completamente aleatorizado. Recordemos que los grados de libertad de
la SC/ eran J - 1 y que J - 1 son los posibles contrastes ortogonales que podemos
plantear con J medias. Si definimos, con J medias, J - 1 comparaciones ortogona-
les, cada una de esas comparaciones es un componente de la SC/ con un grado de
libertad 6 .
6 Tenemos un grado de libertad porque en una comparación lineal siempre estamos comparando dos
cosas: una media con otra, una media con un grupo de medias, o un grupo de medias con otro grupo de
medias.
© Ediciones Pirámide
296 / Análisis de datos en psicología 11
(6.11)
Por supuesto, esta suma de cuadrados puede ser tratada como cualquier otra
suma de cuadrados, de modo que podremos transformarla en una media cuadrática,
MC(Lh), dividiéndola por sus grados de libertad. Ahora bien, como SC(Lh) lleva
asociado un grado de libertad, se verifica que:
(6.12)
En consecuencia:
(6.13)
CUADRO 6.1
Comparaciones planeadas ortogonales. Resumen del procedimiento
© Ediciones Pirámide
Comparaciones múltiples entre medias / 297
3. Estadísticos de contraste:
Lf 82 _ L~ 22
SC(L ) = - =
1 d. 22 -12 -12
=64; SC(L2) = 4 = 02 12 - 12 = 12
I~ -+-+- I~ -+-+-
"j 6 6 6 j nj 6 6 6
SC(L¡) 64 SC(L 2) 12
F 1 =--=--=59,98 F 2 = - - = - - = 11,25
MCE 1,067 MCE 1,067
7 También pueden plantearse contrastes unilaterales. En ese caso. la zona crítica estará formada por
los valores de la distribución F mayores o iguales que el percentil 100(1 - 2oi). Es decir, hay que doblar el
valor de oi para definir la zona crítica en un contraste unilateral.
© Ediciones Pirámide
298 / Análisis de datos en psicología 11
6. Decisión: tanto F, como F 2 son mayores que el punto crítico 8,68, por lo que
ambos caen dentro de la zona crítica. En consecuencia, rechazamos tanto H 0 (1)
(y concluimos que el primer grupo difiere de los otros dos tomados juntos)
como H 0 !2> (y concluimos que el segundo grupo difiere del tercero).
A B e
/Í\IV
Y= a+ bX Y= a+ bX 2 Y= a+ bX 3
Figura 6.1.-Diferentes tipos de relación entre dos variables. A: lineal; B: cuadrática; C: cúbica.
© Ediciones Pirámide
Comparaciones múltiples entre medias / 299
EJEMPLO 6.2. Recordemos los datos del ejemplo 6.1. que a su vez están tomados
del 5.1. La variable independiente es cantidad de rernmpensa (variable cuantitativa) y
sus niveles están igualmente espaciados (5, 10 y 15 ce). Podemos utilizar las compara-
ciones de tendencia para estudiar la relación entre rnntidad de recompensa y relocidad
de aprendi=t1je del laherinto. Las medias de cada grupo eran 8. 5 y 3. Teníamos 6 ratas
en cada grupo. Y el valor de la MCE era 1,067. Vamos a seguir utilizando :x = 0,01.
" Al final de este apartado presentamos un método de obtención de coeficientes que permite la
utilización de las comparaciones de tendencia cuando los niveles del factor no están igualmente
espaciados.
~) Ediciones Pirámide
300 / Análisis de datos en psicología 11
2. Supuestos: los mismos que para las comparaciones ortogonales del apartado
anterior.
3. Estadísticos de contraste:
~2
_52
SC(L
hneal
) = L lineal -----=75
¿ c 2(lineal)¡ - 12 02 ¡2
--+-+-
ni 6 6 6
S C(L . ) =
L2(cuadral.)
.
cuadra t.
¿ c 2(cuadrat.)i 12
-+--+-
-22 12
ni 6 6 6
SC(Llineall 75
F 1· 1= = - - = 70 29
mea MCE 1,067 '
SC(Lcuadrat.l 1
Fcuadrat. = MCE = 1,067 = 0,94
Y;
8
7
6
Velocidad 5
de 4
aprendizaje 3
2
Cantidad de
o--'-----,.....-------.------.-- recompensa
5 ce 10 ce 15 ce
Figura 6.2.-Relación entre las variables cantidad de recompensa y número de ensayos necesarios
para aprender el laberinto.
Según vimos en el apartado anterior: SC/ = l: SC(Lh). Esta estrategia resulta útil
cuando los grupos son muchos (J es grande) y el número de tendencias que hay que
evaluar es elevado. En estos casos, calculado el componente lineal, podemos evaluar el
resto de los componentes tomados juntos mediante SC/ - SC(Llineat) y comprobar si es
o no necesario proseguir el análisis (ver San Martín y Pardo, 1989, págs. 190-191).
TABLA 6.2
Obtención de coeficientes lineales cuando
los niveles del factor no se encuentran
igualmente espaciados
5 ª1 + 5 -15 + 5 = -10
10 ª1 + 10 -15+ 10= -5
30 a 1 + 30 -15+30= 15
(6.16)
TABLA 6.3
Obtención de. coeficientes cuadráticos cuando los niveles del factor no se
encuentran igualmente espaciados
a) Prueba de Dunn-Bonferroni
(6.18)
9 Este procedimiento puede encontrarse en otros sitios con el nombre de prueba de Dunn; la razón es
que, a pesar de tratarse de un procedimiento conocido desde hace mucho tiempo, fue Dunn (1961) quien
primeramente lo formalizó y quien presentó las tablas necesarias para su utilización. También puede
encontrarse con el nombre de prueba de Bonferroni. por estar basado en la desigualdad de Bonferroni.
Nosotros hemos decidido reconocer el mérito de ambos y por esta razón lo llamamos procedimiento o
prueba de Dunn-Bonferroni.
© Ediciones Pirámide
304 / Análisis de datos en psicología JI
CUADRO 6.2
Comparaciones planeadas no ortogonales: prueba de Dunn-Bonferroni.
Resumen del procedimiento
3. Estadístico de contraste:
(6.20)
5. Zona crítica: t 08 ;;;?: 1 _ 212 tk,gt., ...,. siendo :x la tasa de error por familia de compara-
ciones (:X¡:), k el número total de comparaciones que se ha planeado efectuar y
y/error los grados de libertad asociados a la MCE. La tabla H da directamente los
puntos críticos para un contraste bilateral. Si se desea efectuar un contraste
111 Sidák ( 1967) ha propuesto una desigualdad similar a la de Bonfcrroni que ofrece para :Xc valores
ligeramente mayores que :x,./k manteniendo al mismo tiempo :x,. en el valor inicialmente establecido. La
utilización de la desigualdad de Sidák para obtener "-e hace el contraste algo más potente, pero la
ganancia en potencia es tan pequeña que, en la práctica, la desigualdad de Bonferroni, que es más
sencilla de calcular, ha tenido, hasta el momento, mayor aceptación (para más detalles sobre la
aproximación de Sidák puede consultarse Kirk, 1982, págs. 110-111; Holland y Copenhaver, 1988).
1 1 De hecho, el estadístico de Dunn-Bonferroni que vamos a presentar no es más que la raíz
cuadrada del estadístico F. descrito en el apartado 6.3.1 para las comparaciones planeadas ortogonales
(pruebas F planeadas). La diferencia entre ambos procedimientos radica, únicamente, en el control que se
establece sobre la tasa de error.
© Ediciones Pirámide
Comparaciones múltiples entre medias / 305
(6.21)
(6.22)
(6.231
© Ediciones Pirámide
306 / Análisis de datos en psicología 11
3. Estadísticos de contraste:
6. Decisión: tanto tos, = 5,03 como tos,= 8,38 son mayores que el punto crítico
3,29, por lo que ambos caen dentro de la zona crítica. En consecuencia,
rechazamos tanto H oo> (y concluimos que el primer grupo difiere del segundo)
como Hom (y concluimos que el primer grupo difiere del tercero).
~onlrol
donde t' es un punto de la distribución de Dunnett (tabla 1 del apéndice final) con
probabilidad acumulada p = 1 - ~; y con J (número de medias, incluida la del
grupo control) y glerror (los grados de libertad asociados a la MCE) grados de
libertad.
© Ediciones Pirámide
Comparaciones múltiples entre medias / 307
EJEMPLO 6.4. Consideremos de nuevo los datos del ejemplo 5.1. En ese ejemplo
no existe grupo control, pero podemos suponer, sólo para ejemplificar el procedimien-
to de Dunnett, que el grupo control es el primero. Recordemos que Y1 = 8, Y2 = 5 y
Y3 = 3; n = 6; MCE = 1,067; g/error = 15 y iX = 0,01. Tendremos:
Y1 l1s - 51 = 3 18 - 31 = 5
Tras esto, se considera significativa toda diferencia en valor absoluto 1Yi - Y¡.[
que sea mayor que:
(6.27)
© Ediciones Pirámide
Comparaciones múltiples entre medias / 309
(6.28)
(6.29)
(6.30)
EJEMPLO 6.5. Recordemos una vez más el ejemplo 5.1. Tres grupos de 6 ratas
recibían diferentes cantidades de recompensa (en ce de agua) por recorrer un laberinto.
Las medias obtenidas por cada grupo fueron: Y1 = 8, Y2 = 5 y Y3 = 3; y el valor de la
MCE, 1,067.
La hipótesis general del ANOVA referida a la igualdad de las tres medias
poblacionales fue rechazada. Vamos a curiosear ahora en los datos para averiguar
entre qué medias existen realmente diferencias. Comencemos formando la tabla de
diferencias entre medias (diferencias entre cada par de medias):
Y1 18 - 51 = 3 18 - 31 = 5
Y2 15 - 31=2
Esto significa que, según la prueba de Tukey, sólo son significativas las diferencias
entre medias que superan el valor 2,04. Podemos afirmar, por tanto, que las diferencias
se dan entre el grupo 1 y el 2, y entre el 1 y el 3, pero no entre los grupos 2 y 3.
Recordando el enunciado del problema podemos concluir lo siguiente: las ratas
recompensadas con 5 ce de agua (grupo 1) necesitan, para aprender a recorrer el
laberinto, un promedio de ensayos significativamente más alto que las ratas recompen-
sadas con 10 o 15 ce (grupos 2 y 3). Sin embargo, no se aprecia diferencia significativa
entre recompensar con 10 ce (grupo 2) y hacerlo con 15 ce (grupo 3).
Vamos a utilizar ahora el procedimiento de Scheffé para estudiar esas mismas tres
comparaciones por pares:
DMSscheffé = -J
A. 99 F 2 . 15 1,067 (126 +--12)
6- = j(2)6,36J0,3557 = 2,13
© Ediciones Pirámide
Comparaciones múltiples entre medias / 311
13 Con pocos grupos (J = 3), la prueba de Student-Newman-Keuls para comparaciones por pares
(ver apéndice 6) es más potente que la de Tukey; pero con más grupos (J > 3) su control sobre la
tasa de error por familia de comparaciones (ixy) no es tan preciso como lo es en la prueba de Tukey
(Keselman, Keselman y Games, 1991; Seaman, Levin y Serlin, 1991).
© Ediciones Pirámide
31 2 / Análisis de datos en psicología 11
AP~NDICE 6
(6.32)
y utilizar la corrección de Welch (1947) para ajustar los grados de libertad del error:
c2)2
( ¿sj_!__
. n-
i' - J J (6.33)
g - (c~S2)2
L.2-
j ni(ni -
1
--
1
1)
Esta solución proporciona una buena protección contra los errores de tipo 1 cuando las
varianzas poblacionales son distintas y los tamaños muestrales o el valor absoluto de los
coeficientes son también distintos (Kohr y Games, 1977).
Exactamente el mismo razonamiento sirve para la prueba de Dunn-Boriferroni, pues
ri8 = F. De modo que la raíz cuadrada de la ecuación (6.32) puede sustituir al estadístico de
Dunn-Bonferroni cuando no podemos suponer que las varianzas poblacionales son iguales
(con los grados de libertad corregidos mediante [6.33]) 14 . Y, por supuesto, el mismo
14 Holm (1979), Rosenthal y Rubin (1984), y ShatTer (1986), entre otros, han propuesto algunas
modificaciones al procedimiento de Dunn-Bonferroni que, en general, permiten incrementar en ciena
medida su potencia (ver Holland y Copenhaver, 1988).
© Ediciones Pirámide
Comparaciones múltiples entre medias / 313
razonamiento sirve también para las comparaciones de tendencia, las cuales no son más que
una forma particular de F planeadas.
Algunos investigadores se sienten inclinados a desconfiar de las pruebas F planeadas a la
hora de llevar a cabo comparaciones ortogonales; la razón de esta desconfianza radica en la
falta de control de estas pruebas sobre la tasa de error por familia de comparaciones
(recordemos que las pruebas F planeadas evalúan cada comparación con un nivel de
significación cx, sin tener en cuenta el número de comparaciones que se están llevando a
cabo). Para resolver este problema, Bechhofer y Dunnett (1982) proponen utilizar el
estadístico:
leechholer·Dunnett = -----;====:::::
c2
(6.34)
MCEl,~
j ni
y referirlo a la distribución del módulo máximo studentizado (tabla K del apéndice final), con
k = número de comparaciones ortogonales que se desea efectuar y glerror = grados de libertad
asociados a la MCE. Con tamaños muestrales desiguales este procedimiento es algo
conservador, pero es más potente que las pruebas F planeadas y que el procedimiento de
Dunn-Bonferroni.
donde q' se refiere al cuantil 100(1 - cx) de la distribución del módulo máximo studentizado
(tabla K del apéndice final) con k = J(J - 1)/2 y g/' grados de libertad (g/' = ecuación
[6.33]; esta ecuación referida a sólo dos medias equivale a la ecuación [4.14] del aparta-
do 4.2.2).
© Ediciones Pirámide
314 / Análisis de datos en psicología 11
Sl/n1 + S} /ni"
DM SGames-Howell = 1-.ql,gl' (6.36)
2
siendo q' el cuantil 100(1 - IX) de la distribución del módulo máximo studentizado (tabla K
del apéndice final) con k = J(J - 1)/2 y g/' grados de liberad (gl' =ecuación [6.33]).
Parecida lógica puede seguirse para obtener un procedimiento alternativo al de Scheffé
cuando las varianzas poblacionales son distintas. Brown y Forsythe ( l 974b) sugieren utili-
zar como diferencia mínima significativa:
El valor t se refiere al cuantil 100(1- :x/2) 11' de la distribución t de Student con k = J(J - 1)/2 y g/'
(= ecuación [6.33]) grados de libertad.
© Ediciones Pirámide
Comparaciones múltiples entre medias / 315
En los diseños de medidas repetidas sigue siendo válido todo lo señalado ya sobre la
prueba de Tukey, pero sólo si no se incumple el supuesto de circularidad o esfericidad (ver
apéndice 5). Cuando se incumple ese supuesto, es preferible (Maxwell, 1980; Keselman,
Keselman y Shaffer, 1991) estudiar las comparaciones por pares utilizando el estadístico T
para dos medias relacionadas (ecuación [4.18] del apartado 4.3) ajustando la tasa de error
por comparación mediante el procedimiento de Dunn-Boníerroni (es decir, dividiendo el valor
de ª" -generalmente 0,05- entre el número de comparaciones llevadas a cabo; lo cual
equivale a utilizar la tabla de Dunn-Bonferroni en lugar de la tabla t). Puede obtenerse un
ligero incremento en la potencia (Hochberg y Tamhane, 1987, pág. 215) si el valor del
estadístico T para dos medias relacionadas se compara con el cuantil 100(1 - a) de la dis-
tribución del módulo máximo studentizado (tabla K del apéndice final) con k = J(J - 1)/2 y
n - l grados de libertad.
El procedimiento de Dunn-Bonferroni también puede utilizarse para efectuar contrastes
a priori en los diseños de medidas repetidas (ver Kirk, 1982, págs. 264-265, para una apli-
cación concreta tanto del procedimiento de Tukey como del de Dunn-Bonferroni).
17 Por supuesto, existen otros métodos secuenciales además de los dos incluidos aquí. Duncan (1955),
por ejemplo, ha propuesto un procedimiento secuencial conocido como prueba del rango múltiple. Esta
prueba se basa en la misma lógica que la de Student-Newman-Keu/s, pero utiliza como nivel de sign!-
ficación para cada grupo de medias separadas r pasos el valor :x, = 1 - (1 - :x)'- 1 . A pesar de su ampha
utilización en el pasado, la prueba del rango múltiple parece más bien poco recomendable (ver Seaman,
Levin y Serlin, 1991 ).
© Ediciones Pirámide
316 / Análisis de datos en psicología 11
Con, por ejemplo, cuatro grupos (J = 4), la media más grande y la más pequeña están
separadas 4 pasos; para comparar esas dos medias, el valor de la DMSs-N-K se obtiene
utilizando r = 4 grados de libertad. Las medias 1.ª-3.ª y 2.ª-4.ª, que se encuentran separadas
3 pasos, se comparan utilizando r = 3. Y las medias 1.ª-2.ª, 2.ª-3.ª y 3.ª-4.ª, que están sepa-
radas 2 pasos, se comparan utilizando r = 2.
En todos los casos se contrasta la hipótesis nula de que las dos medias comparadas son
iguales, es decir, H 0 : µj = µr. Estas comparaciones se llevan a cabo de forma secuencial, por
pasos:
l. Se compara la media más grande con la más pequeña, es decir, las dos medias
separadas r = J pasos. Si se mantiene la hipótesis nula referida a esta primera com-
paración, se detiene el proceso y se concluye que entre las J medias consideradas
no existe ninguna diferencia significativa. Si se rechaza la hipótesis nula, se continua
con el paso 2.
2. Se comparan las medias separadas r = J - 1 pasos, pero por orden. Primero se
comparan las dos medias cuya diferencia es mayor; si se mantiene la hipótesis nula
referida a esa comparación, se detiene el proceso y se consideran no significativas el
resto de diferencias; si se rechaza la hipótesis nula, se comparan las dos medias cuya
diferencia es la siguiente más grande. Si se rechazan todas las hipótesis referidas a
las medias separadas r = J - 1 pasos, se continua con el paso 3.
3. Se comparan las medias separadas r = J - 2 pasos, también por orden y siguiendo
la misma lógica del paso 2.
4. Se continua el proceso hasta que se obtiene una diferencia no significativa o hasta
que han sido comparadas todas las medias separadas r = 2 pasos.
La consecuencia de esta forma de proceder es que, para J > 3, la tasa de error por
familia de comparaciones (aF) es siempre mayor que el nivel de significación nominal a (ver,
por ejemplo, Keselman, Keselman y Games, 1991). De hecho, lo que hace el procedimiento
de S-N-K es controlar aF para cada conjunto de medias separadas r pasos.
© Ediciones Pirámide
Comparaciones múltiples entre medias / 317
Cuantos menos pasos existen entre dos medias, menor es la diferencia mínima necesaria
para considerar que esas medias difieren significativamente. Esto convierte al procedimiento
de S-N-K en más potente que el de Tukey, pero a costa de incrementar la tasa de error
por familia de comparaciones (1XF).
Ryan (1960) ha propuesto una modificación del procedimiento de S-N-K para atenuar
la disminución tan rápida que se produce en el valor de la DMSs-N-K como consecuencia
de la disminución de r. De acuerdo con la propuesta de Ryan, es posible controlar IXF si, al
comparar dos medias separadas r pasos, en lugar de utilizar IX (como hace el procedimiento
de S-N-K), se utiliza ix, = 1X/(.T/r). Puesto que la fracción J/r aumenta conforme disminuye
r, el valor de IX, será tanto más pequeño cuanto menor sea r, lo que significa que, aunque
el valor de la diferencia mínima significativa vaya disminuyendo con r, esta disminución será
menos pronunciada que la que se produce con el método de S-N-K. De hecho, la solución
propuesta por Ryan permite ejercer un buen control sobre IXF.
La propuesta inicial de Ryan ha sufrido dos modificaciones en un intento de incrementar
la potencia del procedimiento sin alterar su control sobre IXF. En primer lugar, Einot y
Gabriel (1975) han propuesto utilizar ix, = 1 - (1 - r:x.)'11 ; con esta solución, ix, también dis-
minuye conforme lo hace r, pero más despacio que en la solución propuesta por Ryan. En
segundo lugar, Welsch (1977) ha argumentado que es posible incrementar todavía más la
potencia del procedimiento sin perder control sobre IXF si, permaneciendo todo igual, las
medias separadas r = J - 1 pasos se comparan utilizando IX (en lugar de ix,). Estas dos
modificaciones de la propuesta inicial de Ryan unidas a la lógica del procedimiento de
S-N-K es lo que se conoce como método R-E-G-W Q. La letra Q hace referencia a la
distribución del rango estudentizado.
EJERCICIOS
6.1. Diversas investigaciones han mostrado que el rendimiento está relacionado con la
percepción de la dificultad de una tarea de la siguiente manera: cuando se percibe que la
tarea es fácil, el rendimiento es bajo; cuando se percibe que la tarea es de dificultad media, el
rendimiento es alto; cuando se percibe que la tarea es dificil, el rendimiento es bajo. Para
comprobar este tipo de relación, un investigador seleccionó 1.000 sujetos, los cuales fueron
clasificados en 1res grupos dependiendo de la dificultad con la que percibían una tarea
(medida mediante una escala de 1 al 9: fácil, 1-3; media, 4-6; y dificil, 7-9). Tras esto,
seleccionó de cada uno de los tres grupos establecidos una muestra aleatoria de 9 sujetos.
Pidió a todos los sujetos que resolvieran un mismo problema y, una vez finalizado éste,
evaluó el rendimiento de cada uno según una escala de 1 a 10. Los resultados aparecen en la
tabla 6.4.
TABLA 6.4
Fácil 5 6 5 4 3 6 2 1 4
Media 6 1 1 8 8 9 1 6 5
Dificil 3 2 5 4 3 4 2 1 3
© Ediciones Pirámide
318 / Análisis de datos en psicología 11
a) ¿Qué tipo de análisis podemos llevar a cabo para estudiar, con estos datos, la relación
entre la percepción que se tiene de la dificultad de la tarea y el rendimiento en la
misma?
b) ¿A qué conclusión llegaremos, con oc = 0,05? (Es decir, ¿se da el tipo de relación
encontrado en otras investigaciones?)
6.2. Supongamos que nuestro interés al diseñar el estudio del ejercicio 6.1 estuviera cen-
trado en. averiguar si el grupo 2 (dificultad media) difiere de los otros dos tomados juntos,
por un lado, y si el grupo 1 (fácil) difiere del 2 (dificultad media).
6.3. Al analizar los datos de un diseño con tres grupos se plantean las siguientes hipótesis:
l. Hoo•:L1=µ1+µ2-2µ3=0
2. Ho<úL 2 =µ 1 -µ 3 =0
6.6. Queremos utilizar la prueba de Scheffé para contrastar la hipótesis de que los
promedios de dos tratamientos combinados (A 1 y A2) no difieren del promedio de otros
cuatro combinados (A 3, A4, A 5 y A 6 ). Señale qué coeficientes podrían ser utilizados en esa
comparación lineal:
© Ediciones Pirámide
Comparaciones múltiples entre medias / 319
A1 Ai AJ A4 As A6
a) -1 -1 1 1
b) 1 1 -1 -1 -1 -1
e) 2 2 -2 -2 -2 -2
d) 4 4 -2 -2 -2 -2
e) 2 2 -1 -1 -1 -1
6.8. Sabiendo que en un ANOV A la zona crítica está formada por F > 3,23, complete la
tabla 6.5. y responda a las cuestiones que se plantean:
TABLA 6.5
FV se g/ Me F
In ter 60 2 ( )
Error ( ) 30
Total 360 ( )
TABLA 6.6
FV se y/ Me F p
In ter 60 ( ) ( ) ( ) 0,01
lineal ( ) ( ) ( ) ( ) 0,005
cuadrático 10 ( ) ( ) ( ) 0,10
cúbico ( ) ( ) ( ) ( )
Error ( ) ( ) ( )
Total 110 12
6.10. De acuerdo con los resultados del ejercicio anterior, y utilizando ix = 0,05:
6.11. Recordemos los datos del ejercicio 5.2. ¿Qué podemos decir sobre el tipo de relación
existente entre las variables independiente y dependiente, con un nivel de significación
IX= 0,05?
© Ediciones Pirámide
320 / Análisis de datos en psicología 11
6.12. En un estudio sobre memoria se han obtenido datos utilizando 3 tareas diferentes: 1)
números, 2) palabras sin sentido y 3) palabras con sentido. Los resultados obtenidos en una
muestra de 10 sujetos aparecen en la tabla 6.7. Al poner a prueba, mediante un ANOVA, la
hipótesis de que el rendimiento en las tres tareas es el mismo hemos obtenido un estadístico
de contraste F = 15,86, lo que nos ha llevado a rechazar la hipótesis nula general del
ANOVA. Ahora queremos saber, utilizando el procedimiento de Tukey y un nivel de
significación ex = 0,05, entre qué pares de medias existen diferencias.
TABLA 6.7
Sujetos
1 2 3 4 5 6 7 8 9 to
Tarea 1 4 2 o 6 5 3 2 4 3 1
Tarea 2 6 3 3 7 8 5 3 2 6 2
Tarea 3 5 4 8 9 7 6 7 9 7 8
6.13. A partir de los datos del ejercicio 5.10 y utilizando el mismo nivel de significación
ex = 0,05, responda a las siguientes cuestiones:
a) ¿Qué tipo de relación existe entre la cantidad de entrenamiento y el tiempo invertido
en recordar la lista?
b) ¿Podemos afirmar que el grupo entrenado con 15 listas aprende más rápido que los
grupos entrenados con 5 y 10 listas tomados juntos?
6.14. Utilizando los datos del ejercicio 5.15 y el mismo nivel de significación (ex = 0,01)
efectúe las comparaciones a posteriori pertinentes para determinar entre qué pares de medias
existen realmente diferencias.
6.15. A partir de los datos del ejercicio 5.16 y considerando como grupo control el sometido
a la dieta A, determine si alguno de los grupos experimentales difiere significativamente del
control (ex = 0,05).
SOLUCIONES
6.1. a) Comparaciones de tendencia (interesa estudiar el componente cuadrático).
b) Fcuadrát = 36,75; 0 •95 F 1 , 24 = 4,26; rechazamos HO(cuadrát)·
La relación encontrada se corresponde con la descubierta en investigaciones
previas.
6.3. No. 'f.c 1hi = (1)(1) + (1)(0) + (-2)(-1) = 3 (no suman cero).
© Ediciones Pirámide
Comparaciones múltiples entre medias / 321
6.4. e.
6.5. d.
6.6. d y e.
6.7. a) 2.
b) Cero. Con 3 niveles no existe componente cúbico.
6.8. FV se g/ Me F
a) No. Al mantener la hipótesis general del ANOVA (pues 3 < 3.23) de que las J
medias poblacionales son iguales, lo que podemos decir es que la evidencia empí-
rica disponible no permite afirmar que exista relación lineal (ni de otro tipo).
b) No. Por la misma razón.
6.9. FV se g/ Me F p
© Ediciones Pirámide
Análisis de varianza
de dos factores
7
TABLA 7.1
Estructura básica de los datos en un diseño de dos
factores con clasificación cruzada
Una ventaja de los diseños de dos factores es que, para alcanzar la misma
potencia, se necesitan menos sujetos que en dos diseños de un solo factor. Suponga-
mos que tenemos dos variables independientes o factores (A y B) cada uno de ellos
con tres niveles (tal como se muestra en la tabla 7.1). Para comparar los niveles de
A utilizando un diseño de un factor podemos asignar una muestra aleatoria de 15
sujetos a cada nivel. Necesitaremos 45 sujetos. Para comparar los niveles de B
1 El otro tipo de clasificación útil en la práctica se denomina jerárquica o anidada y no será tratada
aquí (el lector interesado puede consultar San Martín y Pardo, 1989, págs. 287-292).
© Ediciones Pirámide
326 / Análisis de datos en psicología 11
(7.1)
El nuevo término, /3k, se define de forma similar a como se define ai y posee sus
mismas propiedades. Ahora bien, en el modelo [7.1] no estamos considerando el
posible efecto atribuible a la combinación de los diferentes niveles de ambos factores.
Un modelo que sí incluye esa combinación, a la que llamaremos interacción, es:
(7.2)
Más tarde definiremos cada término, pero antes necesitamos aclarar el significa-
do del nuevo término (af3)ik· Consideremos un diseño con dos variables indepen-
dientes, A y 8, la primera con dos niveles (A 1 y A 2 ) y la segunda con tres (8 1 , 8 2 y
8 3 ). La tabla 7.2 ofrece promedios poblacionales correspondientes a una situación
en la que no existe interacción entre A y 8.
Cuando decimos que no existe interacción lo que estamos afirmando es que la
diferencia entre los promedios de dos casillas cualesquiera de la misma fila o de la
misma columna es igual a la diferencia entre los promedios marginales correspon-
dientes a esas casillas. Así, por ejemplo, la diferencia entre las casillas A8 11 y A8 12
es la misma que la diferencia entre sus correspondientes promedios marginales 8 1 y
© Ediciones Pirámide
Análisis de varianza de dos factores / 327
TABLA 7.2
Tabla de promedios poblacionales correspondientes
a un diseño de dos factores sin interacción
4 5 9 6
2 3 7 4
3 4 8 5
9
Y, fj,
~
9
~A,A,
I
8 8 A,
7 7
6 6 O A,
5 5
4 o 4
J
1 +
------º J
1
o B o B
B, B, B_, B, B, B_,
Figura 7.1 a:-- Representación grúfica de una si- Figura 7.1 b.-Rcprcsentación gráfica de una si-
tuación con ausencia de interacción. tuación con presencia de interacción.
TABLA 7.3
Tabla de promedios poblacionales en un diseño
de dos factores con interacción
3 4 8 5
9 6 6 7
6 5 7 6
TABLA 7.4
Tabla de promedios en un diseño de dos factores
5 7 3 5
7 3 5 5
6 5 4 5
© Ediciones Pirámide
Análisis de varianza de dos factores / 329
}\ y,k
9 J 9 J
8 8
7 7
6 6
5 OA 2 5 B3
4 4
3 A, 3 B2
2 2
o B o
B, B2 B3 A, Ai
Figura 7.2a.-Representación gráfica de las me- Figura 7.2b.-Representación gráfica de las me-
dias de la tabla 7.4. Factor Ben el eje de abscisas. dias de la tabla 7.4. Factor A en el eje de abscisas.
Observando los promedios marginales de la tabla 7.4 vemos que los sujetos
orientados hacia el aprendizaje (A 1) rinden exactamente igual que los orientados ha-
cia la ejecución (A 2 ). Pero si nos fijamos en el comportamiento de A bajo los
diferentes niveles de B las cosas cambian. Observando los promedios de las casillas
y su correspondiente representación gráfica (figura 7.2a) vemos que ocurre lo
siguiente: cuando la tarea es fácil (B¡) o dificil (B 3 ), los sujetos orientados hacia el
aprendizaje (A¡) rinden peor que los sujetos orientados hacia la ejecución; pero
cuando la tarea es de dificultad media (B 2 ), los sujetos orientados hacia el aprendi-
zaje rinden mejor que los orientados hacia la ejecución.
La interpretación de la interacción puede hacerse, alternativamente, centrándo-
nos, no en los niveles de A, sino en los de B. Si prescindimos del tipo de orientación
motivacional y nos fijamos en los promedios marginales de B, vemos que el
rendimiento es mejor en las tareas fáciles que en las de dificultad media, y mejor en
éstas que en las dificiles. Sin embargo, observando los promedios de las casillas y la
representación gráfica de los mismos propuesta en la figura 7.2b, vemos que los
sujetos orientados hacia el aprendizaje (A 1 ) rinden mejor en las tareas de dificultad
media que el las fáciles y en las dificiles; mientras que los sujetos orientados hacia la
ejecución (A 2 ) rinden mejor en las tareas fáciles y dificiles que en las de dificultad
media. La presencia de interacción queda reflejada en la siguiente idea: tanto el
rendimiento de los sujetos orientados hacia el aprendizaje como el de los orientados
hacia la ejecución cambia cuando cambia la dificultad de la tarea; pero el cambio que
se produce en el rendimiento de los sujetos orientados hacia el aprendizaje es
distinto del que se produce en los orientados hacia la ejecución.
© Ediciones Pirámide
330 / Análisis de datos en psicología 11
T +k = LL Y¡jk
i j
- - Ti+ . - T+k
Y.+ - - - Y+k = - - (7.5)
) nK ' nJ
Por último, la media total (Y} y la suma total (T) son la media y la suma del
conjunto de las N puntuaciones. Siguen representando exactamente lo mismo que
en el resto de los modelos de ANOVA estudiados y, por tanto, se obtienen de
idéntica manera.
© Ediciones Pirámide
Análisis de varianza de dos factores / 331
TABLA 7.5
Estructura de los datos y notación correspondientes a un diseño de dos factores,
de efectos fijos, completamente aleatorizados (clasificación cruzada j
B, 82 Bk BK Tj+ Y;+
... ...
...
T+k T+1 T +2
... T +k ... T+K T
y+k Y+1 Y+2 Y+k Y+K y
7 .2.2. El modelo
(7.2)
El término µ es la media total y representa aquella parte de Y¡ik que todos los
sujetos comparten (los efectos que hemos conseguido controlar manteniéndolos
constantes). Los términos rx.i y {Jk representan el efecto de los factores A y B.
respectivamente. Se definen como desviaciones del promedio de cada tratamiento
respecto del promedio total:
por lo que L rx.i = L {Jk = O. El término (rx.{J)ik recoge el efecto de la interacción entre
j k
los factores A y B. Se define como desviaciones de los promedios de las casillas
respecto de sus correspondientes promedios marginales:
(7.8)
por lo que ¿(rx.{J)ik = ¿(rx.{J)ik =O. Por último, el término Eiik se refiere, como
j k
siempre, a los errores aleatorios. Recoge el conjunto de factores no controlados y
que pueden estar afectando a Y¡ik· Son interpretados, siguiendo la misma lógica que
en los modelos de un factor, como la cantidad que la puntuación individual de un
sujeto se desvía del promedio de la casilla a la que pertenece. El valor esperado de
cada Y¡ik es justamente el promedio poblacional de su correspondiente casilla (µik).
En consecuencia:
(7.9)
ªj = Y;+ - Y (7.10)
Pk = Y+k - Y (7.11)
A - - - -
(rx.{J)ik = l}k - Yi+ - Y+k +Y (7.12)
Eijk = Y¡jk - Y;k (7.13)
a) Fuentes de variación
Recordemos el modelo (7.2): Y¡ik = µ + rx.i + /3k + (rx./3)ik + Eiik· Utilizando los
estimadores correspondientes obtenemos:
que cada puntuación individual Y¡ik se separa del promedio de la casilla a la que
pertenece ( Y¡ik - ljk: variación dentro de los grupos, o variación debida al error).
Así pues, en este modelo, la variación total (1) se descompone en cuatro tipos de
variación: la debida al factor A (A), la debida al factor B (B), la debida a la
combinación o interacción entre los factores A y B (AB), y la variación intragrupos o
error (E).
b) Sumas de cuadrados
En lugar de referirnos a una puntuación individual cualquiera (como hemos
hecho en [7.15]) podemos hacerlo al conjunto de las N puntuaciones. Sumando y
elevando al cuadrado obtenemos:
¿¿¿(Y¡jk -
i j k
n 2 = LLL[(lj+ -
i j k
n+ (7.16)
- - - - - - -2
+ (Y+k - Y)+ (Y¡k - Y;+ - Y+k + Y)+ (Y¡ik - Y¡k)]
Desarrollando (7.16) de forma similar a como hicimos en el apartado 5.3.4 con el
modelo de un factor, llegamos a:
del error, SCE = LLL(Y¡ik - ljk) 2. Es decir: SCT = SCA + SCB + SCAB + SCE.
i j k
Los cálculos necesarios para obtener estas sumas de cuadrados resultan menos
engorrosos haciendo algunas sencillas transformaciones:
~ Tf+ T2
SCA = - }_ _ _ _
nK N
© Ediciones Pirámide
Análisis de varianza de dos factores / 335
¿
T¡k T2
SCB=-k___ _ (7.18)
nJ N
LLTJk
SCE = LLL Ylk - ~j_k_
; i k n
e) Grados de libertad
© Ediciones Pirámide
336 / Análisis de datos en psicología 11
d) Medias cuadráticas
MCA = SCA/(J - 1)
MCB = SCB/(K - 1)
(7.19)
MCAB = SCAB/[(J - lXK - 1)]
MCE = SCE/(N - JK)
e) Estadístico de contraste F
Los valores esperados de cada una de las medias cuadráticas que acabamos de
definir en el apartado anterior son los siguientes 2 :
E(MCA) = E [
nK~(f;+ - Y) 2 ] nK~11.J
1 = u2 + 1
J-1 J-1
E(MCB) =E [
nJ¿(Y+k - Y) 2
k
J= u2 +
nJ¿pf
k
K-1 K-1 (7.20)
2 El lector interesado en conocer con detalle cómo se obtienen estos valores esperados puede
consultar San Martín y Pardo (1989, págs. 276-277).
© Ediciones Pirámide
Análisis de varianza de dos factores / 337
E(MCAB) =E [
n L L (Yjk - Yj +
i k
- YH + Y) 2 J= n L L (ocp)fk
u2 +--1_·_k_ __
(J - l)(K - 1) (J - l)(K - 1)
MCA
F =-- (7.21)
A MCE
3 Recuérdense los argumentos expuestos en el apartado 5.3.4.e sobre el cociente entre dos medias
cuadráticas y su relación con las distribuciones x. 2 y F.
© Ediciones Pirámide
338 / Análisis de datos en psicología 11
MCAB
F ---- (7.23)
MCE
AB-
TABLA 7.6
Presentación resumida de los resultados de un ANOVA AB-EF-CA
FV se gl MC F
SCA MCA
Factor A SCA J - 1 -- --
J-1 MCE
SCB MCB
Factor B SCB K -1 -- --
K - 1 MCE
SCAB MCAB
Interacción AB SCAB (J - l)(K - 1) ---
(J - l)(K - 1) MCE
SCE
Error E SCE N-JK
N-JK
Total T SCT N-1
CUADRO 7.1
ANOVA de dos factores, de efectos fijos, completamente aleatorizados.
Resumen del procedimiento
l. Hipótesis:
a) Ho1A1: µ• + = µ2+ = ··· = µJ+·
O bien, H 01 A 1: ~i =O, para todo valor de j.
(Es decir, las J medias poblacionales correspondientes a los J niveles del factor
A son iguales.)
H 11 A1: µi+ '# µi'+• para algún valor dejo j' (j '#/).
O bien, H tcAI: ~i '#O, para algún valor de j.
(Es decir, no todas las µi+ son iguales; hay al. menos un nivel del factor A cuyo
promedio difiere del promedio de, al menos, otro nivel.)
e) H 01 A 81: µik - µiºk = µi+ - µ¡·+, para todo valor de j, j' y k U'# j').
(Es decir, la diferencia entre las medias de dos casillas cualesquiera de la
misma fila es igual a la diferencia entre las medias marginales correspondientes
a esas casillas 4 .)
H 11 Aa1: µik - µiºk '# µ¡+ - µr+• para algún j, j' o k U '#j').
(Es decir, la diferencia entre las medias de dos casillas cualesquiera de la
misma fila no es igual a la diferencia entre las medias marginales correspon-
dientes a esas casillas.)
2. Supuestos:
a) Independencia: J K muestras de tamaño n aleatoriamente extraídas e indepen-
dientes entre sí.
© Ediciones Pirámide
340 / Análisis de datos en psicología 11
3. Estadísticos de contraste:
a) Para H 01 .41 : F 4 = MCA MCE.
h) Para H 0181 : F 8 = MC8'MCE.
C') Para H 01 A 81 : F.4 8 = MCA8!MCE.
4. Distribuciones muestrales:
a) F 4 se distribuye según FJ u JK·
h) F8 se distribuye según F" _1..v _JK·
C') F 48 se distribuye según F,J 111 ¡.; 11 •.., JK·
5. Zonas críticas:
a) FA:;;:i= 1 _,FJ I ..\" JI(·
h) F8 :;;:i: 1 ,F¡.; l..'i JI(·
e) F.48 :;;:i: 1 ,F,J 1111' 11 •.\' JI(•
6. Reglas de decisión:
a) Se rechaza H 01 .4 1 si el estadístico FA cae en la zona crítica: en caso contrario. se
mantiene. Si rechazamos H 01 .41 debemos concluir que no todas las medias
poblacionales correspondientes a los niveles del factor A son iguales; es decir.
existe efecto significativo del factor A.
h) Se rechaza H 0181 si el estadístico F 8 cae en la zona crítica; en caso contrario. se
mantiene. Si rechazamos H 0181 debemos concluir que no todas las medias
poblacionales correspondientes a los niveles del factor 8 son iguales: es decir.
existe efecto significativo del factor 8.
e) Se rechaza H 01 .4 81 si el estadístico F,, 8 cae en la zona crítica: en caso contrario.
se mantiene. Si rechazamos H 01 .4 81 debemos concluir que existe efecto significa-
tivo de la interacción (las diferencias entre casillas reflejan algo diferente de lo
que reflejan las diferencias entre sus marginales).
© Ediciones Pirámide
Análisis de varianza de dos factores / 341
del rendimiento mostrado por los sujetos tras el entrenamiento arrojó los resultados
que aparecen en la tabla 7.7. Utilizando oi = 0,05, ¿qué concluiremos sobre el efecto
ejercido por las variables independientes utilizadas y su interacción?
TABLA 7.7
7 6 9
6 4 10
Instrumental 7 5 8
7 4 8
8 6 10
6 3 4
5 3 5
Atribucional 7 5 7
5 3 4
7 6 5
5 2 3
5 3 6
Grupo control 6 5 3
3 3 4
6 2 4
TABLA 7.8
Totales obtenidos a partir de la tabla 7.7
B, B2 B3
A, 35 25 45 105
AJ 25 15 20 60
90 60 90 240
Con los totales de la tabla 7.8 podemos ya calcular fácilmente las sumas de
cuadrados y construir la tabla resumen de ANOVA (tabla 7.9):
© Ediciones Pirámide
342 / Análisis de datos en psicología 11
T2 240 2
SCT= LLL
, i t
Yit - -
N
= 1.456 - -
45
= 1.456 - 1.280 = 176
'\.
"-¡' 1'2+ T2 105 2 + 75 2 + 60 2 240 2
SCA = - -1- - - = - - = 1.350 - 1.280 = 70
nK N 5(3) 45
~~ 7Jr. 35 2 + 25 2 + ... + 20 2
SCE = LLL YGt - _i_n_ = 1.456 - 5 = 1.456 - 1.410 = 46
i j "
TABLA 7.9
Tabla resumen de ANOVA
FV se gl MC F•
A 70 2 35 27,39
B 40 2 20 15,65
AB 20 4 5 3,91
E 46 36 1,278
T 176 44
Obtenidos Jos datos de la tabla 7.9 ya sólo nos queda plantear las hipótesis y
tomar una decisión sobre ellas.
1. Hipótesis:
a) Ho<A>: µ 1 + = µ2+ = µ 3+. Es decir, el tipo de entrenamiento no afecta al
rendimiento en Ja tarea de logro.
H l<A>: No todas las µi+ son iguales. Es decir, el tipo de entrenamiento
afecta al rendimiento en la tarea de logro.
b) H 0 <8 >: µ+ 1 = µ+ 2 = µ+ 3 • Es decir, el clima de clase no afecta al rendimien-
to en la tarea de logro.
H 1<8 >: No todas las µH son iguales. Es decir, el clima de clase afecta al
rendimiento en la tarea de logro.
e) todo valor de j, J y k U#- J). Es decir, Ja
HOl.ABI: µik - µ1 k = µi+ - µ1 +> para
interacción entre el tipo de entrenamiento y el clima de clase no afecta al
rendimiento en la tarea de logro.
© Ediciones Pirámide
Análisis de varianza de dos factores / 343
H t<AB>: µik - µi'k # µi+ - µi' +• para algún j, .i' o k U# j'). Es decir, la interac-
ción entre el tipo de entrenamiento y el clima de clase afecta al rendimiento
en la tarea de logro.
3. Estadísticos de contraste:
a) F 11 = 27,39.
h) FB = 15,65.
e) F AB = 3,91.
4. Distribuciones muestrales:
a) FA sigue la distribución F con J - 1 = 2 y N - J K = 36 grados de
libertad.
h) F 8 sigue la distribución F con K - 1 = 2 y N - J K = 36 grados de
libertad.
e) F AB sigue la distribución F con (J - 1)(K - 1) = 4 y N - J K = 36 grados
de libertad.
5. Zonas críticas:
a) FA ~ o.9sF 2.Jñ ~ 3,27.
h) F B ~ 0.95F 2.Jó ~ 3,27.
e) FAB ~ 0.95F 4.Jó ~ 2,64.
6. Decisiones:
a) Factor A: FA = 27,39 es mayor que el punto crítico 3,27, por tanto,
rechazamos H oiA> y concluimos que el tipo de entrenamiento afecta al
rendimiento en la tarea de logro. Es decir, el nivel de rendimiento alcanza-
do depende del tipo de entrenamiento utilizado.
h) Factor 8: F 8 = 15,65 es mayor que el punto crítico 3,27, por tanto,
rechazamos H 0181 y concluimos que el dima de clase afecta al rendimiento
en la tarea de logro. Es decir, el nivel de rendimiento alcanzado depende
del clima de clase bajo el que se ha realizado la tarea.
e) Interacción AB: F 118 = 3,91 es mayor que el punto crítico 2,64, por tanto,
rechazamos H 011181 y concluimos que la interacción entre el tipo de entrena-
miento y el clima de clase afecta al rendimiento en la tarea de logro. Es
decir, el nivel de rendimiento alcanzado con los diferentes tipos de entrena-
miento cambia cuando cambia el clima de clase bajo el que se aplica el
entrenamiento. El efecto de una de las variables está mediatizado por el
efecto de la otra.
© Ediciones Pirámide
344 / Análisis de datos en psicología 11
Sobre los J niveles del factor A pueden aplicarse las pruebas F planeadas, las
comparaciones de tendencia y las pruebas de Dunn-Bonferroni y Dunnett estudia-
das en el capítulo anterior. Sólo hay que tener cuenta, como única diferencia, que
los grados de libertad asociados ahora al término error son N - J K. Exactamente
lo mismo podemos decir respecto a los niveles del factor B.
Pero con la interacción AB ocurre algo diferente. Las comparaciones planeadas
referidas a la interacción entrañan una complejidad de interpretación (particular-
mente las comparaciones de tendencia) que las hacen exceder, no ya sólo el alcance
de nuestra exposición, sino, casi siempre, los propios intereses del investigador 5 .
La forma más accesible (y práctica, en nuestra opinión) de escudriñar en el
significado del efecto de la interacción, cuando existe, consiste en recurrir a los
procedimientos de comparaciones múltiples a posteriori que exponemos a continua-
ción.
a) Prueba de Tukey
Ya sabemos que este procedimiento es apropiado para efectuar todas las
posibles comparaciones dos a dos (por pares) entre medias. Recordemos que la
estrategia consiste en obtener un valor, al que llamamos diferencia mínima significa-
~ El lector interesado en conocer este tipo de comparaciones puede encontrar una excelente
exposición de las mismas en Kirk (1982, apartados 8.6 y 8.7).
© Ediciones Pirámide
Análisis de varianza de dos factores / 345
tiva (DMS), que consideramos que es la diferencia mínima que debe existir entre dos
medias muestrales para decidir que las correspondientes medias poblacionales son
distintas.
Se comienza obteniendo las diferencias en valor absoluto entre cada par de
medias (lo cual puede hacerse construyendo una tabla de diferencia entre medias, tal
como vimos en el apartado 6.4.l) del factor A, por un lado, y entre cada par de
medias del factor B. por otro. Las medias de las casillas (que recogen el efecto de la
interacción) no interesa, generalmente, compararlas todas con todas. Resulta más
útil elaborar una representación gráfica con esas medias (ver apartado 7.1) y dirigir
la interpretación desde el gráfico.
Tras esto, se considera significativa toda diferencia l lj+ - lj. +1 mayor que:
(7.24)
b) Prueba de Schef/é
Con esta prueba podemos efectuar, no ya sólo comparaciones por pares, como
con el procedimiento de Tukey, sino cualquier tipo de comparación que se nos
ocurra plantear.
Para comparaciones referidas a los niveles del factor A:
l. Se formulan las hipótesis: H 0 : L = r.ciµi+ =O, H 1 : L = r.ciµi+ #-O.
2. Se estima L: L = r. ci Yj+.
3. Se calcula la diferencia mínima significativa:
(7.28)
TABLA 7.10
Promedios obtenidos a partir de los totales de la tabla 7.8
B, B2 B3
A, 7 5 9 7
A2 6 4 5 5
A3 5 3 4 4
6 4 6
Para averiguar qué niveles de A difieren debemos comparar sus medias correspon-
dientes: Y1 + = 7, Y2 + = 5 y Y3 + = 4. Las diferencias en valor absoluto entre esas
medias son:
1Y1 + - Y2+1 = 17 - 51 = 2
IY1 + - Y3+1 = 17 - 41 = 3
lfi+ - Y3+I = 15 - 41=1
1,278
- - ~ 3,46(0,292) ~ 1,01
45/3
© Ediciones Pirámide
348 / Análisis de datos en psico/ogfa 11
Podemos observar que el grupo 1 difiere de los grupos 2 y 3, y que estos dos
últimos no difieren entre sí. Recordando lo que significa cada uno de los niveles del
factor A, podemos concluir que el grupo sometido a entrenamiento instrumental
(grupo 1) alcanza un nivel de rendimiento significativamente más alto que el grupo
sometido a entrenamiento atribucional y que el grupo control, no existiendo diferen-
cias entre estos dos últimos.
Por lo que se refiere al factor B, sus medias son: Y+ 1 = 6, Y+ 2 = 4 y Y+ 3 = 6. Y las
diferencias en valor absoluto entre esas medias son:
1Y+ 1 - Y+il = 16 - 41 = 2
IY+1 - Y+31=16 - 61 =o
IY+2 - Y+31=14 - 61 = 2
Podríamos utilizar nuevamente la ecuación (7.24) para determinar cuáles de esas
diferencias son significativas. Pero no es necesario. Dado que una de las diferencias
es cero y que las otras dos son iguales, las diferencias significativas se dan entre
los grupos 1 y 2, y entre los grupos 2 y 3. Teniendo en cuenta el significado de los
niveles del factor B, podemos concluir que el rendimiento es más alto en los climas
cooperativo e individual que en el clima competitivo.
Para estudiar el efecto de la interacción, las medias de referencia son las que
aparecen en las casillas de la tabla 7.10. La interpretación apropiada de este efecto
exige, además del cálculo de la DMS, la representación gráfica de las medias corres-
pondientes a cada combinación entre los niveles del factor A y del factor B. La figura
7.3 muestra la representación gráfica de las medias de las casillas de la tabla 7.10.
Vamos a resolver la ecuación (7.24) para la interacción manteniendo rx.F en 0,05 para el
conjunto de las KJ(J - 1)/2 = 9(3 - 1)/2 = 9 comparaciones dos a dos entre los
niveles de A en cada nivel de B (utilizamos la distribución multivariada del rango
studentizado):
1,278
DMSTukey = 0.95qv, = 3. v 2 = 3.gl. = 36 - - ~ 4,10(0,5056) ~ 2,07
45/9
9
Y-.J
A,
8
~::
7
6
5
4
3
2
© Ediciones Pirámide
Análisis de varianza de dos factores / 349
1,278
-- ~ 4,67(0,5056) ~ 2,36
45/9
Evaluando las diferencias entre cada par de casillas llegamos a la misma conclu-
sión que antes. Aunque ahora el valor de la DMSTukey es algo mayor que antes, no es
lo bastante grande como para llevarnos a una conclusión distinta (con esta última
DMS podríamos comparar casillas que se encontraran en distinta fila o distinta
columna, si es que eso tuviera algún interés).
Ya hemos hecho algunas distinciones entre los factores de efectos fijos y los de
efectos aleatorios. Lo dicho en el apartado 5.5 en relación con el modelo de un
factor es trasladable al modelo de dos factores: la notación utilizada en la formula-
ción del modelo, el tipo de hipótesis que se plantean, las inferencias que es posible
efectuar, etc.
Dos aspectos, sin embargo, conviene destacar aquí. El primero de ellos es de
tipo conceptual: al haber dos factores, los dos pueden ser de efectos fijos (en cuyo
caso hablamos de modelo de efectos fijos o modelo /), los dos pueden ser de efectos
aleatorios (modelo de efectos aleatorios o modelo I 1), o un factor puede ser de
efectos fijos y el otro de efectos aleatorios (modelo de efectos mixtos o modelo I I /).
El segundo aspecto tiene que ver con los valores esperados de las medias
cuadráticas correspondientes a cada fuente de variación. Esos valores esperados
determinan que los estadísticos F se obtengan de forma diferente dependiendo del
modelo de que se trate. La tabla 7.11 recoge esos valores esperados para los tres
efectos del modelo y para el término error.
Llamemos AP y BP a la población de niveles de los factores A y B. respectiva-
mente. Si un factor es de efectos fijos, los niveles concretos utilizados en un
experimento agotan toda la población de niveles del factor; esos niveles utilizados
constituyen justamente la población de niveles que se desea estudiar, de modo que:
A - J = B p - K =Ü
_P _ _ (7.29)
AP BP
© Ediciones Pirámide
350 / Análisis de datos en psicología 11
(7.30)
TABLA 7.11
Valores esperados de las medias cuadráticas del modelo
de ANO VA de dos factores
B -K
E(MCA) = u 2 + _PB_ _ nu•fl2 + nKu•2
p
A -J
E(MCB) = u 2 + _P_ _ nu;11 + nJu;
AP
E(MCAB) = u 2 nu;/I
E(MCE) = u 2
TABLA 7.12
Valores esperados de las medias cuadráticas en los diferentes modelos de ANOVA
de dos factores
de esta forma conseguimos aislar el efecto que deseamos estudiar. Así, por ejemplo,
para estudiar el efecto del factor A, puesto que
E(MCA) = u 2 + nKu;
E(MCE) = u2
el cociente entre MCA y MCE valdrá 1 cuando el efecto del factor sea nulo (u;= O),
y será mayor que 1 cuando exista efecto del factor (u; >O). Dividiendo MCA entre
MCE conseguimos aislar el efecto del factor A.
Para conseguir esto mismo en el resto de los modelos tenemos que guiarnos por
los valores esperados correspondientes a cada efecto (tabla 7.12). Así, por ejemplo,
para aislar el efecto del factor A en el modelo 11 (efectos aleatorios en los dos
factores) necesitamos dividir MCA entre MCAB, pues sólo de esa forma podemos
aislar el término u;
y saber si es igual o mayor que cero. La tabla 7.13 resume la
forma de obtener el estadístico de contraste correspondiente a cada efecto en cada
uno de los modelos de ANOV A de dos factores.
TABLA 7.13
Estadísticos de contraste para los diferentes modelos de ANO VA de dos factores
© Ediciones Pirámide
352 / Análisis de datos en psicología 11
r¡fA> = SCA/SCT
r¡f8 >= SCB/SCT (7.31)
r¡fABJ = SCAB/SCT
2 SCA - (J - l)MCE
(JJ(A) = SCT+ MCE
2 SCB - (K - l)MCE
(JJ(B) = SCT+ MCE
(7.32)
lugar de los mismos sujetos se utilizan bloques (cada bloque con J K sujetos
igualados en alguna variable), se asigna de forma aleatoria un sujeto de cada bloque
a cada una de las combinaciones entre tratamientos. El diseño es el mismo en
ambos casos. Sin embargo, hablamos de diseño de medidas repetidas cuando cada
bloque está constituido por un sólo sujeto y de diseño aleatorizado en bloques
cuando cada bloque está formado por J K sujetos igualados.
En este apartado vamos a estudiar dos de los diseños de medidas repetidas: 1) el
de dos factores con medidas repetidas en ambos (también llamado diseño factorial
aleatorizado en bloques), y 2) el de dos factores con medidas repetidas en uno de
ellos (también llamado split-plot).
La tabla 7.14 ofrece una forma útil de organizar los datos. Y¡ik representa la
puntuación obtenida en la variable dependiente Y por el sujeto i bajo el nivel j del
factor A y el nivel k del factor B (es decir, la puntuación obtenida por el sujeto i
bajo la combinación de tratamientos jk). Estamos ante un diseño en el que los n
sujetos que intervienen en él pasan por todas y cada una de las J K combinaciones
entre tratamientos.
TABLA 7.14
Estructura de los datos y notación correspondientes a un diseño de dos factores
con medidas repetidas en los dos factores
A, A; A1
Sujetos B, B1 ... B11. B, ... B1 B" B, B1 B"
s, Y111 ... Y,lk ... Y1111. Y1;1 yljk ... Y1;K YIJI . .. YIJk ... YIJK
82 Y211 Y21k... Y21K Y2;1 y2jk . .. Y2;11. Y211 y2Jk ... Y2JK
... ... ... ... ... ... ... . .. . .. ... ...
S¡ Yi11 Yilk Y¡IK Yi;1 Yi;k fi;K Yi11 Yi1k Yi111.
... ... ... ... ... . .. ... ... ... ...
s. Y.11 Y,,lk ... Y.111. Y.;1 Y,,;k ... Y.;11. Y.11 ... Y.ik
... Y.111.
T = LLL
ij k
Y¡jk Y= T/(nJK) i = 1,2, ... ,n
(7.35)
Ti Ti
SCI = LL + jk - -
i k n N
© Ediciones Pirámide
Análisis de varianza de dos factores / 355
T2 T2
ses=¿~--
¡ JK N
seE = ser - Sel - ses
TABLA 7.15
Medias cuadráticas y valores esperados en el modelo de dos factores con medidas
repetidas en ambos factores (modelo aditivo)
© Ediciones Pirámide
356 / Análisis de datos en psicologfa 11
De los valores esperados de cada una de las medias cuadráticas del modelo se
deduce que el efecto de cualquiera de las fuentes de variación puede ser aislado y,
por tanto, puesto a prueba, a través del cociente entre su media cuadrática y la
media cuadrática error. Obtenemos así los siguientes estadísticos de contraste:
FA= MCA/MCE
FB = MCB/MCE (7.38)
FAB = MCAB/MCE
donde:
¿¿ T;J+ Ir;~+ r2
SC(A X S) =-i~j_ _ _i_ _ +_
K nK JK N
¿¿ T;J+
SC(AB X S) = LLL r;¡k - _i~j_ _
; i k K J
I I r; ji I r;~ + I r; + I r; +k
j y2
jk +i +i +-k_ _
n JK nK nJ N
Por supuesto:
TABLA 7.16
Valores esperados de las medias cuadráticas del modelo
de dos factores con medidas repetidas en ambos
factores (modelo no-aditivo)
Estos valores esperados nos indican que las razones F apropiadas para poner a
prueba los efectos de A, B y AB son, respectivamente:
F~ = MCA/MC(A x S)
F~ = MCB/MC(B x S) (7.41)
F~B = MCAB/MC(AB x S)
El cuadro 7.2 recoge el resumen del ANOVA AB-EF-MR, con medidas repeti-
das en los dos factores, siguiendo el esquema habitual.
© Ediciones Pirámide
358 / Análisis de datos en psicología 11
TABLA 7.17
ANO VA de dos factores, de efectos fijos, con medidas repetidas en amhos
factores: tahla resumen
F F'
FV se 111 Me
mod. aditivo mod. no-aditivo
Se A Me A MCA
Factor A Se A J - 1
J-1 MeE MC(A X S)
Se E
Error Se E (JK - l)(n - 1)
(JK - l)(n - 1)
SC(A X S)
A x Sujetos SC(A X S) (J - l)(n- 1)
(J - l)(n - 1)
SC(B X S)
B x Sujetos SC(B X S) (K - l)(n - 1)
(K- l)(n-1)
SC(AB X S)
AB x Sujetos SC(AB X S) (J - l)(K - l)(n - 1) (J - l)(K - l)(n - 1)
Total SeT N- l
CUADRO 7.2
A NOVA de dos factores, de efectos fijos, con medidas repetidas en los dos
(actores. Resl/men del procedimiento
1. Hipótesis: las mismas que para el modelo de dos factores completamente aleatori-
zado: H 01 Ai• H 0181 y H 01 ,i 81 (ver, en este mismo capítulo, el apartado 7.2.5).
2. Supuestos:
a) Todos los del diseño completamente aleatorizado de dos factores: independen-
cia entre los 11 sujetos y normalidad y homocedasticidad en las J K poblaciones
de origen.
h) Las interacciones entre los sujetos o bloques -S¡-- y el resto de efectos del
modelo --'J.j, {Jk y ('J./l)jc · son nulas: (S'J.)ij = (S/J)¡k = ( S'J.{J)ijk = O.
3. Estadísticos de contraste:
al F 4 = MC A-'MCE
h) FB = 1'vfCB;MCE
e) F" 8 = .\IC AB MCE
© Ediciones Pirámide
Análisis de varianza de dos factores / 359
4. Distribuciones muestrales:
5. Regiones criticas: para cada estadístico. la región crítica está formada por todos
los valores mayores o iguales que el cuantil 1 - '.X. de su correspondiente distribu-
ción muestra!.
Si rechazamos 11 01 .41 • concluiremos que no todas las Jli+ son iguales y que, por
tanto. existen diferencias entre los niveles del factor A. Si rechazamos H 0181 , concluire-
mos que no todas las ¡1 + k son iguales y que. por tanto. existen diferencias entre los
niveles del factor 8. Si rechazamos H 1A 81 , concluiremos que el efecto de la interacción
entre los factores A y B es significativo.
TABLA 7.18
.4, A,
s, 4 5 7 1 4 2
s, 6 8 10 3 6 6
S3 1 6 5 3 5 4
S4 2 10 12 1 4 7
s, 5 10 10 5 6 5
So 1 7 8 2 8 7
Para facilitar los cálculos elaboramos las siguientes tablas de datos con los totales
y subtotales necesarios para el cálculo de las sumas de cuadrados:
Tii+:
i= 1 i = 2 i = 3 i =4 i = 5 i= 6 T +j+
j=I 16 24 12 24 25 16 117
j=2 7 15 12 12 16 17 79
T¡+ + 23 39 24 36 41 33 196 = T
T;H:
i= 1 i = 2 i = 3 i=4 i = 5 i = 6 T + +k
k=1 5 9 4 3 10 3 34
k=2 9 14 11 14 16 15 79
k=3 9 16 9 19 15 15 83
T¡+ + 23 39 24 36 41 33 196 = T
T +jk:
T + +k 34 79 83 196 = T
TABLA 7.19
FV se g/ MC F F"
In ter 175,56 5
A 40,11 1 40,11 14,53 8,17
B 123,39 2 61,70 22,36 18,53
AB 12,06 2 6,03 2,18 5,34
Sujetos 48,22 5
Error 69,11 25 2,76
A x Sujetos 24,56 5 4,91
B x Sujetos 33,28 10 3,33
AB x Sujetos 11,27 10 1,13
Total 292,89 35
1. Hipótesis:
a) HocA 1: todas las µi+ son iguales (:xi= O para todo j).
Es decir, el número de aciertos es el mismo en condiciones de reconocimiento
y de recuerdo.
h) H oc 81 : todas las µ + i son iguales ({Jk =O para todo k).
Es decir, el número de aciertos es el mismo después de una hora, después de
un día y después de una semana.
e) H ocABI: µik - µi"k = µi+ - µr+ para todo j.j' y k (o bien, (:xp)ik = O para todo j
y k).
2. Estadísticos de contraste:
a) FA = 14,53; a') F'A = 8,17
h) F B = 22,36; h') F'B = 18,53
e) FA 8 =2,18; e') F' AB = 5,34
© Ediciones Pirámide
362 / Análisis de datos en psicología 11
3. Distribuciones muestrales:
a) FA""' FJ-1.(JK-l)(n-1) = F1.25; a') F'A ""'FJ-1.1J-111n-11 = F1.5
b) FB""FK-1.(JK-l)(n-l)=F2.25; b') F' B ""' F K - 1.(K ·· 1 )In - 1) = F 2.1 O
e) FAB""' F(J- l)(K-1).(JK- l)(n-1) = F2.25; e') F'AB""' F(J- l)(K-1).(J- l)(K- l)(n-1) =
= F2.10;
4. Regiones críticas:
a) FA ~ o.95F i.2s = 4,24; a') F' A ~0 . 95 F 1. 5 = 6,61
5. Decisiones:
a) La hipótesis relativa al efecto del factor A la rechazamos tanto con FA
(14,53 > 4,24) como con F'A (8,17 > 6,61). Concluimos que el efecto del factor
A es significativo: el número de errores es mayor bajo condiciones de recuer-
do que bajo condiciones de reconocimiento.
b) La hipótesis relativa al efecto del factor B también la rechazamos tanto con F 8
(22,36 > 3,39) como con F' 8 (18,53 > 4,10). Concluimos que el efecto del factor
B es significativo: el número de errores depende del intervalo temporal en el
que se efectúa la tarea de memorización.
e) Por último, la hipótesis relativa a la interacción AB no la rechazamos con el
estadístico FA 8 (2,18 < 3,39), pero sí con el estadístico F'A 8 (5,34 > 4,10). Un
estudio de la significación de las interacciones tratamientos-bloques mediante
la prueba de no-aditividad de Tukey (ver San Martín y Pardo, 1989, págs. 214-
217) podría ayudarnos decidir cuál es el estadístico que aquí conviene utilizar.
En el diseño que ahora nos ocupa, a todos los sujetos se les aplican todos los
niveles de uno de los factores, pero un solo nivel del otro factor. Por tanto, uno de
los dos factores es intrasujetos y el otro intersujetos. A este tipo de diseños suele
llamárseles mixtos y, también, split-plot.
TABLA 7.20
Estructura de los datos y notación correspondientes a un diseño de dos factores
mixto o sp/it-p/ot (factor A intersujetos y factor B intrasujetos)
A, A; A¡
T +j + = LL yijk
i k
Y+i+ = T+i+/(nK) j = 1,2, ... ,J
T + +k = Li L yijk
j
y+ + k = T + + k/( N J) k = 1,2, .. .,K
Tij+ L yijk
=
k
J = número de niveles del factor A
Todos los términos del modelo (7.42) y los supuestos relacionados con ellos han
sido ya definidos al estudiar otros modelos de ANOVA. A los supuestos habituales
(independencia entre las observaciones del mismo grupo, y normalidad y homoce-
dasticidad en las poblaciones de origen) hay que añadir que las covarianzas
poblacionales entre los pares de niveles del factor intrasujetos B (ukk') se suponen
iguales dentro de cada una de las J poblaciones definidas por los niveles del factor
intersujetos A.
SCinter = LL Tl+/K - T 2 /N
i j
SCB = L T¡ +k/(nJ) - T 2 /N
k
© Ediciones Pirámide
Análisis de varianza de dos factores / 365
Cada una de las fuentes de variación descritas lleva asociados los siguientes
grados de libertad:
SCT: N-1
SC/nter: nJ - 1
SCA: J-1
ses: J(n - 1) (7.44)
SC/ntra: nJ(K - 1)
SCB: K-1
SCAB: (J - l)(K - 1)
SC(B X S): J(K - l)(n - 1)
Las medias cuadráticas que se obtienen con estos grados de libertad y sus
correspondientes valores esperados se muestran en la tabla 7.21.
TABLA 7.21
Medias cuadráticas y valores esperados en el modelo de dos factores con medidas
repetidas en un solo factor
FA= MCA/MCS
FB = MCB/MC(B X S) (7.45)
FAB = MCAB/MC(B X S)
todos los cuales se distribuyen según el modelo de probabilidad F con los grados de
libertad correspondientes al numerador y al denominador de cada cociente F. En la
tabla 7.22 se presenta la tabla resumen de ANOV A con los cálculos relacionados
con este modelo.
(f') Ediciones Pirámide
366 / Análisis de datos en psicología 11
TABLA 7.22
ANOVA de dos factores, de efectos fijos, con medidas repetidas en un solo factor:
tabla resumen
FV se g/ Me F
Intersujetos Se/nter nJ - 1
SCA MeA
Factor A Se A J-1
J - 1 Mes
ses
Sujetos ses J(n - 1)
J(n - 1)
SeB MeB
Factor B SeB K-1
K-1 MC(B X S)
SeAB MeAB
Interacción AB SeAB (J - l)(K - 1)
(J - l)(K - 1) MC(B x S)
SC(B X S)
B x Sujetos SC(B X S) J(K - 1)(n - 1)
J(K - l)(n - 1)
Total SeT N-1
El cuadro 7.3 recoge el resumen del ANOVA AB-EF-MR, con medidas repeti-
das en un solo factor, siguiendo el esquema habitual.
CUADRO 7.3
ANO VA de dos factores, de efectos fijos, con medidas repetidas en un solo factor.
Resumen del procedimiento
1. Hipótesis: las mismas que para el modelo de dos factores completamente aleatori-
zado: How• H 0181 y H 01 A 81 (ver, en este mismo capítulo, el apartado 7.2.5).
© Ediciones Pirámide
Análisis de varianza de dos factores / 367
2. Supuestos:
a) Todos los del diseño completamente aleatorizado de dos factores: independen-
cia entre las n observaciones de cada grupo, y normalidad y homocedasticidad
en las poblaciones de origen.
b) Las covarianzas poblacionales entre niveles del factor intrasujetos (factor 8)
son iguales dentro de cada nivel del factor intersujetos (factor A).
3. Estadísticos de contraste:
a) FA= MCA/MCS
b) FAB = MC8/MC(8 X S)
e) F AB = MCA8/MC(8 x S)
4. Distribuciones muestrales:
a) FA :::>: F J- l.JI• - 1 1
5. Regiones críticas: para cada estadístico, la región crítica está formada por todos
los valores mayores o iguales que el cuantil 1 - oc de su correspondiente distribu-
ción muestral.
Si rechazamos H 01 A 1, concluiremos que no todas las µi+ son iguales y que, por
tanto, existen diferencias entre los niveles del factor A. Si rechazamos H 018¡, concluire-
mos que no todas las µ+k son iguales y que, por tanto, existen diferencias entre los
niveles del factor 8. Si rechazamos H 1ABJ• concluiremos que el efecto de la interacción
entre los factores A y 8 es significativo, es decir, el efecto de A sobre Y no es el mismo
en todos los niveles de 8.
TABLA 7.23
A, A,
B, B, B, s. B, B, B_, s.
s, 3 4 7 7 Ss 1 2 5 10
S2 6 5 8 8 So 2 3 6 10
s, 3 4 7 9 s, 2 4 5 9
S4 3 3 6 8 Ss 2 3 6 11
Tii+:
i= 1 i = 2 i = 3 i =4 T +i+
j = 1 21 27 23 20 91
j=2 18 21 20 22 81
T;+ + 39 48 43 42 172 = T
T +ik:
j = 1 15 16 28 32 91
j=2 7 12 22 40 81
T+ +k 22 28 50 72 172 = T
TABLA 7.24
FV se g/ MC F
In ter 12,500 7
A 3,125 1 3,125 2,00
Sujetos 9,375 6 1,563
lntra 223,000 24
B 194,500 3 64,833 127,88
AB 19,375 3 6,458 12,74
B x Sujetos 9,125 18 0,507
Total 235,500 31
l. Hipótesis:
a) H ocA>: todas las µi+ son iguales (0i:i = O para todo j).
Es decir, el número de errores es el mismo en condiciones de reconocimiento
y de recuerdo.
h) H 018¡: todas las 11 + i son iguales ({Jk =O para todo k).
Es decir. el número de errores es el mismo después de una hora, después de
un día, después de una semana y depués de un mes.
e) H ocAB>: 11ik - l'rk = Jli+ - l'r + para todo j.j' y k (o bien, (Ol'.fl)ik =O para todo j
y k).
2. Estadísticos de contraste:
a) FA= 2,00
h) FB = 127,88
e) FAB= 12,74
3. Distribuciones muestrales:
a) FA ~ FJ _ 1.J(n _ 1 l = F 1.ó
h) FB ~ FK-l.JIK-l)(n-1) = FJ.18
e) FAB ~ F¡J-l)(K-1).J(K-l)(n-I) = F3.IB
4. Regiones críticas:
a) FA~ 0 . 95 F 1 . 6 = 5,99
b) FB ~ 0.95F3.!8 = 3,16
e) FAB ~ o,9sFJ.1s = 3,16
5. Decisiones:
a) Como FA = 2,00 < 5,99, mantenemos la hipótesis relativa al efecto del fac-
tor A. Concluimos que el número de errores es el mismo en condiciones de
reconocimiento y recuerdo.
© Ediciones Pirámide
370 / Análisis de datos en psicología 11
h) Como F 8 = 127,88 > 3,16 rechazamos la hipótesis relativa al efecto del factor B.
Concluimos que el efecto del factor B es significativo: el número de errores
depende del intervalo temporal en el que se efectúa la tarea de memorización.
e) Por último, como F AB = 12,74 > 3,16 rechazamos la hipótesis relativa al efecto
de la interacción AB.
(7.46)
EJEMPLO 7.5. En el ejemplo 7.3 (un diseño de dos factores con medidas repeti·
das en ambos) hemos rechazado la hipótesis nula referida al efecto del factor B. Re-
cordemos que ese factor tenía tres niveles: 1 = «una hora», 2 = «un día», y 3 = «una
semana». Vamos a averiguar entre qué niveles existen diferencias. Para resolver la
ecuación [7.46], comenzamos obteniendo, para cada sujeto, una única puntuación en
cada nivel del factor B (promediando sus puntuaciones en A 1 y A 2 : tabla 7.25.b). A
continuación-, obtenemos las diferencias entre cada: dos niveles (tres grupos de dife-
rencias: 1-2, 1-3 y 2-3) y las medias y desviaciones típicas insesgadas de cada grupo
de diferencias (tabla 7.25.c):
TABLA 7.25.a
Puntuaciones originales
A, A,
8, 8, 83 8, 8, 83
s, 4 5 7 1 4 2
S2 6 8 10 3 6 6
S3 1 6 5 3 5 4
S4 2 10 12 1 4 7
Ss 5 10 10 5 6 5
s6 1 7 8 2 8 7
© Ediciones Pirámide
372 / Análisis de datos en psicología 11
En los diseños mixtos o split-plot (un factor intrasujetos y otro intersujetos), los
niveles del factor intrasujetos pueden compararse utilizando el procedimiento des-
crito en el apartado anterior. Únicamente hay que tener en cuenta que, en la ecua-
ción [7.46], n se refiere al número de sujetos que intervienen en el diseño: puesto
que en un diseño split-plot tenemos J grupos de tamaño n, el valor de n en la
ecuación [7.46] debe sustituirse por nJ (pues nJ son las puntuaciones utilizadas
para obtener las medias de cada nivel del factor intrasujetos) 6 .
Los niveles del factor intersujetos no están afectados por el supuesto de circu-
laridad, de modo que pueden compararse mediante cualquiera de los procedimien-
tos estudiados para efectuar comparaciones múltiples en un diseño de un factor
completamente aleatorizado (ver apartados 6.3, 6.4 y apéndice 6). Únicamente hay
que tener en cuenta si se cumple o no el supuesto de homocedasticidad y tomar
la precaución de utilizar la media cuadrática error apropiada (MCS) y los grados
de libertad asociados a ella (J[n - 1]).
Para comparar las medias de las casillas podemos centrarnos en los contrastes
que suelen resultar de mayor utilidad e interés en este tipo de diseños: los referidos
a los efectos simples. Es decir, los contrastes que permiten comparar las medias de
los niveles del factor A en cada nivel del factor B, o las medias de los niveles de B
en cada nivel del factor A.
Al comparar por pares los niveles de A (factor intersujetos) en cada nivel de
B (factdt intrasujetos) estamos contrastando hipótesis del tipo:
Cada una de estas hipótesis incluye h = J(J - 1)/2 sub-hipótesis: una por cada
comparación entre las J medias del factor A. Para contrastar estas hipótesis puede
seguirse la estrategia recomendada por Kirk (1982, págs. 508-509) y Toothaker
© Ediciones Pirámide
Análisis de varianza de dos factores / 373
(1991, págs. 134-136), que consiste en utilizar una estimación conjunta de la va-
rianza poblacional a partir de una combinación ponderada de las dos medias cua-
dráticas error disponibles. Utilizando el procedimiento de Tukey, por ejemplo,
decidiremos que dos medias Yik e Yi'k difieren significativamente (y, en consecuencia,
rechazaremos la correspondiente hipótesis nula) si el valor absoluto de la diferencia
es mayor que:
-
DMSTukcy(A\B.J - qcrílico Jn
ft AIB. (7.48)
donde:
ses + SC(B x S)
ft A\B, =
J(n - 1) + J(K - l)(n - 1)
Al comparar por pares los niveles de B (factor intra) en cada nivel de A (factor
inter) estamos contrastando hipótesis del tipo:
TABLA 7.26.a
Puntuaciones oriyinales
81 B, B, B.
S1 3 4 7 7
A1
s, 6 5 8 8
S3 3 4 7 9
S4 3 3 6 8
Ss 1 2 5 10
A, s. 2 3 6 10
S7 2 4 5 9
s 2 3 6 11
"
TABLA 7.26.b
Diferencias entre los niveles de B ( D; = Bk - Bk.)
© Ediciones Pirámide
Análisis de varianza de dos factores / 375
3,46(1,563) + 2,97(0,507)(4 - 1)
= = 322
1,563 + 0,507(4 - 1) '
8, 82 8, 84 8, 82 8, 8,
10
8
"'
..~
-a 6
.
.5!
-a
E
4
~
.§
z 2 Factor A:
..... Reconocimiento
- • · Recuerdo
o
Una hora Un día Una semana Un mes
Factor B: tiempo transcurrido
EJERCICIOS
7.1. En la tabla 7.28 aparecen los promedios poblacionales correspondientes a un diseño
equilibrado de dos factores (A y B), de efectos fijos, completamente aleatorizados:
TABLA 7.28
B,
JO 12 14 12
16 10 10 12
13 11 12
7.3. El director de un colegio desea saber si la experiencia educatir'a del profesor (factor A) y
tres métodos 1/if"ere11tes de e11seiia11:::a (factor 8) afectan al rendimiento en una determinada
asignatura. Los niveles de experiencia educativa estudiados fueron: A 1 = dos años o menos y
A 2 =más de dos años. Y los métodos de enseñanza: 8 1 =tradicional, 8 2 =tutoría) y
B.1 = programado. Tras el periodo de aprendizaje se tomaron al azar dos sujetos de cada
combinación experiencia-método y se obtuvieron los resultados que aparecen en la tabla 7.29.
;.Qué concluirá el director del colegio, con un nivel de confianza de 0,95?
TABLA 7.29
81 82 83
1 4 8
A1 10
3 3
2 5 9
A1
1 6 8
7.4. ¿Cuál es la magnitud del efecto del factor 8 en el diseño experimental del ejercicio 7.3?
Es decir, ¿qué proporción de la varianza del re11dimie1110 está explicada por el tipo de método
utilizado?
7.5. Para estudiar el efecto de cierta proteína sobre la actividad motora de las ratas, un
investigador seleccionó un grupo de 45 ratas y las distribuyó aleatoriamente en tres grupos
de igual tamaño. A cada grupo le aplicó durante una semana una de tres dietas distintas
(factor A), cada una de ellas con diferente contenido de la proteína en cuestión. Por
sospechar que el sueño también podría influir en la actividad motora de las ratas, el
investigador manipuló el número de horas dormidas diariamente por cada rata (factor 8),
dejando dormir 2 horas o menos a unas, entre 2 y 4 horas a otras, y más de 4 horas al resto.
Al final de la semana de tratamiento contabilizó el número de respuestas emitidas por cada
rata en una caja de ensayo durante 3 minutos y obtuvo los resultados que aparecen en la
tabla 7.30. ¿Podemos concluir que el tipo de dieta y el número de horas dormidas afectan a la
actividad motora de las ratas? (!X = 0,05).
© Ediciones Pirámide
378 / Análisis de datos en psicología 11
TABLA 7.30
8 10 5
12 8 2
Dieta 1 6 12 10
IO 4 2
9 6 6
13 5 4
9 12 8
Tipo de
dieta
Dieta 2 8 8 o
14 16 1
6 14 7
12 16 11
23 8 9
Dieta 3 17 10 7
9 6 6
14 20 12
7.6. Utilizando los datos del ejercicio 7.5, lleve a cabo los contrastes a posteriori pertinentes
para determinar entre qué niveles de los tratamientos existen diferencias significativas.
TABLA 7.31
28 30 29
24 26 21
Alta
27 28 28
Intensidad 19 22 30
del
estímulo 32 37 52
40 48 49
Baja
38 39 56
36 42 47
© Ediciones Pirámide
Análisis de varianza de dos factores / 379
7.9. ¿Cuál es la magnitud de cada uno de los efectos presentes en el diseño experimental del
ejercicio 7.7? Es decir, ¿qué proporción de la varianza de los tiempos de reacción está
explicada por la intensidad del estímulo, por el color del estímulo y por la interacción
intensidad-color?
TABLA 7.32
Cantidad de droga
O mg 100 mg 250 mg
7.11. Con los datos del ejercicio 7.10, lleve a cabo los contrastes a posteriori pertinentes a
fin de determinar dónde en concreto se encuentran las diferencias.
7.12. En un estudio sobre memoria se han obtenido datos utilizando tres tareas diferentes:
1 = números; 2 = palabras sin sentido; 3 = palabras con sentido. El número de aciertos
obtenidos bajo una condición con una muestra de 12 sujetos aparecen en la tabla 7.33.
También recoge la tabla la variable sexo (V= varones; M =mujeres). Tomando como
variables independientes el sexo (factor A) y el tipo de tarea (factor B), utilice el modelo de
ANOVA apropiado para contrastar las hipótesis relativas al efecto del factor A, del factor B
y de la interacción AB (ex = 0,05).
© Ediciones Pirámide
380 / Análisis de datos en psicología 11
TABLA 7.33
Sujetos 1 2 3 4 5 6 7 8 9 10 11 12
Sexo V V V V V V M M M M M M
Tarea 1 4 2 o 6 6 3 5 9 7 8 9 4
Tarea 2 6 3 1 7 8 5 3 7 6 2 7 2
Tarea 3 5 4 8 9 7 6 2 4 3 1 3 2
7.14. Se desea estudiar si un nuevo tipo de régimen carcelario afecta a la adaptación social
de mujeres en prisión; éste nuevo régimen (al que llamaremos régimen 2), favorece las visitas
de familiares en mayor grado que el sistema actual (régimen 1 ). Por otra parte, se piensa que
la variable procedencia (española, extranjera hispana y extranjera no hispana) también puede
tener relación con la adaptación de las mujeres en prisión. De una cárcel de Madrid se
extrajo una muestra aleatoria de 5 mujeres españolas, otra de 5 extranjeras hispanas y otra
de 5 extranjeras no hispanas. A las 15 mujeres se les pasó una escala de adaptación social
para obtener una medida del grado de adaptación alcanzado con el régimen 1. Tras esto, las
15 mujeres fueron sometidas al nuevo régimen carcelario (régimen 2 ). y transcurridos 3
meses se volvió a pasar a las 15 mujeres la misma escala de adaptación social. La tabla 7.34
recoge los resultados obtenidos. ¿Cuál es el modelo de ANOVA que debe utilizarse, qué
hipótesis deben plantearse y qué decisión debe tomarse respecto a ellas? (:x = 0,05).
TABLA 7.34
Extranjeras Extranjeras
Españolas
hispanas no hispanas
1 9 3 5 5 5
o 8 o 4 2 2
2 10 4 6 3 6
1 6 2 1 1 4
1 12 1 4 4 8
5 45 10 20 15 25
TABLA 7.35
B, B, 8-'
..t, 2 ( ) 4
A, o 4 ( )
( J ( )
TABLA 7.36
Dificultad de la tarea
P, 7 4 6
Alta P2 6 5 8
P3 7 3 6
P4 5 3 5
Ansiedad
p~ 6 9 6
Baja P. 6 8 7
P1 5 7 7
p" 6 8 8
~J Ediciones Pirámide
382 / Análisis de datos en psicología 11
7.19. Diversos estudios ponen de manifiesto que las enfermedades de tipo alérgico se ven
agravadas por la presencia de fuerte estrés. Además, la época del año parece afectar de forma
decisiva a la gravedad de los trastornos alérgicos. En un estudio concreto se ha utilizado una
muestra aleatoria de 10 pacientes alérgicos (todos con el mismo tipo de alergia), la mitad de
ellos con condiciones de vida calificables de bajo estrés y la otra mitad con condiciones de
vida calificables de alto estrés. Un grupo de especialistas ha evaluado la gravedad de la
alergia de cada paciente (en una escala de O a 10) en los cuatro periodos estacionales:
primarera. rerano. otmio e inl'ierno. Los resultados de esta evaluación aparecen en la tabla
7.37. Seleccione el modelo de ANOVA apropiado para analizar estos datos y tome una
decisión respecto a cada hipótesis (:x = 0,05).
TABLA 7.37
5 5 5 6
5 2 3 3
Bajo
6 3 4 4
estrés
8 4 7 5
6 1 6 2
7 2 8 5
9 5 5 7
Alto
10 4 9 5
estrés
10 6 6 7
9 3 7 6
7.20. ¡,Qué valor tomarán DMSTukey y DMSScherre si las utilizamos para efectuar comparacio-
nes por pares entre los cuatro periodos estacionales del ejercicio 7.19? ¿A qué conclusiones se
llegará'!
SOLUCIONES
7.2. (',
© Ediciones Pirámide
Análi~is de varianza de dos factores / 383
7.4. wj = 0,88.
7.6. 3,51. La actividad motora es mayor con la dieta 3 que con las dietas 1 y 2.
DMSTu1r.ey1A> =
DMSTukeylBl =3,51. La actividad motora es mayor con menos de 4 horas de sueño que
con 4 horas o más.
7.8. a) El factor A sólo tiene dos niveles. No es necesario hacer comparaciones múltiples:
los tiempos de reacción son más cortos cuando la intensidad luminosa es alta.
DMSTukey(Bl = 5,07. Los tiempos de reacción son significativamente más cortos con
el estímulo blanco que con el estímulo azul.
DMST"~"''"'' = 4.07( 15,778/4) 112 = 8.08 (utilizando la distribución multivariada del
rango studenti::.ado ). Interpretamos este efecto en la respuesta b.
b) Para representar gráficamente la interacción comencemos calculando las medias de
cada combinación entre tratamientos. La tabla 7.38 recoge estas medias. A partir
de ellas se ha construido la figura 7.5:
TABLA 7.38
Promedios obtenidos a partir de la tabla 7.31
Cuando la intensidad del estímulo es alta (A.), los tiempos de reacción son iguales
ante los estímulos blanco (8 1), rojo (8 2 ) y azul (8 3 ). Pero cuando la intensidad del
estímulo es baja (A 2 ), los tiempos de reacción ante el estímulo azul (8 3 ) son
significativamente más altos que ante los estímulos blanco (8.) y rojo (8 2 ).
© Ediciones Pirámide
384 / Análisis de datos en psicología 11
>j,
p·,
83
50
40
081
Tiempo 30
de
reacción 20
10
o A
A,
Figura 7.5. Tiempos de reacción medios observados bajo cada combinación de los niveles del factor A
con los niveles del factor 8.
7.11. 1,40. Las ratas a las que no se les ha administrado droga (8 1) necesitan
DMSM .... rBI =
más ensayos que las que han recibido 100 mg (82) y éstas más ensayos que las que han
recibido 250 mg (8 3 ).
© Ediciones Pirámide
Análisis d~ varianza de dos factores / 385
TABLA 7.39
Promedios obtenidos a partir de la tabla 7.33
Tipo de tarea
f;i
7
Varones
6
5
Número 4
medio de
aciertos 3
Mujeres
2
o
Tarea 1
Figura 7.6.-Número medio de aciertos obtenidos por los varones y las mujeres en las tres tareas de
memorización (interacción sexo - tipo de tarea).
© Ediciones Pirámide
386 / Análisis de datos en psicología 11
B, B, B.,
A, 2 (6) 4 (4)
A, o 4 (2) (2)
7.20. DMSTuke• = 1,56; DMSschdTe = 1.70. Con ambas DMS se llega a la misma conclusión:
la gravedad de la alergia es mayor en primavera que en verano e invierno y mayor en
otoño que en verano.
© Ediciones Pirámide
Introducción al análisis
de regresión y correlación
8
8.1. Introducción.
8.2. Regresión lineal simple.
8.2.1. El modelo de regresión lineal simple.
8.2.2. La ecuación de regresión.
8.2.3. Contraste de hipótesis sobre el parámetro {3.
8.2.4. Regresión lineal en formato ANOVA.
8.3. Correlación lineal simple.
8.3.1. Cuantificación de la relación entre dos variables: el
coeficiente de correlación de Pearson.
8.3.2. Contraste de hipótesis sobre el parámetro pxv.
Apéndice 8.
Contraste de hipótesis sobre /3, - /32 •
Contraste de hipótesis sobre p, - p2 •
Ejercicios.
8.1. Introducción
Los modelos lineales de regresión y correlación son, al igual que los modelos de
ANOVA, versiones concretas del modelo lineal general. Las diferencias entre ellos
son más bien sutiles. En las diferentes versiones del modelo lineal general descritas
en los distintos modelos de ANOVA estudiados, aunque la variable dependiente es,
siempre, una variable cuantitativa (obtenida con una escala de intervalo o razón), la
variable independiente suele considerarse una variable categórica, en el sentido de
que, bien se trata de una variable cualitativa (grupos de sujetos, distintos tratamien-
tos. etc.). bien se trata de una variable cuantitativa de la que únicamente se
consideran unos pocos niveles (unas pocas cantidades de fármaco, unas pocas
intensidades luminosas, unas pocas cantidades de recompensa, etc.). En regresión y
correlación tanto la variable dependiente como la independiente sqn cuantitativas
en sentido estricto: ambas pueden tomar, como valor, cualquier número real. Por
otro lado, mientras en los modelos de ANOV A el énfasis se pone sobre la compara-
ción entre medias, en regresión y correlación el énfasis recae sobre la relación entre
variables (si bien ambas cosas son la misma: si los tratamientos tienen medias
diferentes, las medias están relacionadas con los tratamientos).
En los capítulos 8 y 10 de Análisis de datos en psicología I (Botella, León y San
Martín, 1993) hemos estudiado ya los conceptos de correlación y regresión. No
vamos a repetir aquí, por tanto, lo ya estudiado, excepto en lo fundamental. Ahora
bien, todo lo dicho allí se limita al nivel descriptivo. Ahora vamos a dar un paso
más deteniéndonos en algunos procedimientos para realizar inferencias sobre los
parámetros de los modelos de regresión y correlación.
El análisis de regresión lineal simple es un procedimiento estadístico mediante el
cual podemos predecir el comportamiento de una variable (Y¡), denominada depen-
diente o criterio, basándonos en su relación con una segunda variable (X¡), denomi-
nada independiente o predictora. Si sabemos, por ejemplo, que las variables inteli-
gencia y rendimiento se encuentran relacionadas, podemos utilizar la puntuación de
un sujeto en inteligencia para predecir su rendimiento. El análisis de correlación
lineal simple es un procedimiento estadístico mediante el cual podemos cuantificar
la intensidad y sentido de la relación entre dos variables (X¡ e Y¡). Esa cuantificación
la efectuamos mediante el coeficiente de correlación de Pearson. El análisis de
regresión y el de correlación son complementarios: las predicciones que podemos
~~ Ediciones Pirámide
390 / Análisis de datos en psicología 11
efectuar mediante el análisis de regresión son tanto mejores cuanto más intensa es
la correlación entre las dos variables; y viceversa, cuanto mejores son las prediccio-
nes que efectuamos, más alta es la correlación entre las variables.
Desde el punto de vista estadístico, el análisis de regresión se diferencia del de
correlación en que en el primero la variable independiente es de efectos fijos y en el
segundo es de e.fectos aleatorios. En la práctica, sin embargo, la distinción habitual
se centra en determinar si el análisis se orienta hacia la predicción (regresión) o
hacia la cuantificación de la relación (correlación).
Al igual que ocurría en los modelos de ANOVA, en los modelos de regresión y
correlación existen parámetros poblacionales desconocidos sobre los que podemos
realizar inferencias. Después de lo estudiado en Análisis de datos en psicología J
sabemos que la ecuación de regresión obtenida mediante el método de mínimos
cuadrados nos ofrece la recta que mejor expresa la relación lineal entre dos
variables (es decir, la recta que mejor se ajusta a la nube de puntos que representa la
relación entre dos variables). En este capítulo estudiaremos si esa recta es lo
hastante huena como para permitirnos efectuar predicciones aceptables en una
variable a partir de la otra (es decir, estudiaremos si las predicciones efectuadas
sobre Y; a partir de X; son mejores que las que podríamos efectuar sin conside-
rar X;).
Además, estudiaremos si la relación entre dos variables (relación que sabemos
que podemos cuantificar mediante el coeficiente de correlación de Pearson) puede
ser considerada significativamente distinta de cero. Es decir, estudiaremos la forma
de contrastar si dos variables, de las que únicamente poseemos información
muestra), se encuentran de hecho relacionadas en la población.
El modelo de regresión lineal simple no es otra cosa que el modelo lineal general
estudiado en el capítulo 5 (apartado 5.1) adaptado al caso concreto de una variable
independiente y una dependiente, ambas cuantitativas. Llamando X; a la variable
independiente, e Y; a la dependiente, y siendo 11 el número de sujetos en el que se
miden ambas variables, el modelo de regresión lineal simple puede quedar expresa-
do como:
Los términos '.X y p son los parámetros de la recta de regresión: '.X es el origen de
la recta (el punto en el que la recta corta el eje de ordenadas) y p es la pendiente de
la recta (la inclinación de la recta respecto al eje de abcisas). El término p es
justamente el que nos informa sobre si las variables X; e Y; se encuentran o no
relacionadas. E; se refiere a los errores aleatorios, es decir, a las distancias entre
cada valor Y; y la recta.
© Ediciones Pirámide
Introducción al análisis de regresión y correlación / 391
Los supuestos del modelo son parecidos a los ya estudiados a propos1to del
modelo de ANOVA A-EF-CA (de hecho, ambos modelos son el mismo). En primer
lugar, los E; son errores aleatorios y, por tanto, independientes entre sí y con valor
esperado E(E;) =O.
En segundo lugar, a cada uno de los n valores de X¡ corresponde una subpobla-
ción de valores Y¡ (es decir, le corresponde un conjunto de posibles valores Y¡), con
valor esperado µ.rJ<; =oc+ /JX;; esas n subpoblaciones son todas norm?~es y con la
misma varianza: la varianza de los errores (a;). Además, las medias µ.rJ<; de esas n
subpoblaciones se encuentran en una misma línea recta: la verdadera recta de
regresión; de modo que:
(8.2)
© Ediciones Pirámide
392 / Análisis de datos en psicología 11
A= Y- BX (8.4)
(8.5)
. ·...
. .··
fJ o
= fJ = o
...
.... ..
.. · .. . .. . ...
. ..
. ...
© Ediciones Pirámide
Introducción al análisis de regresión y correlación / 393
CUADRO 8.1
Contraste de hipótesis sohre el parámetro //. Resumen del procedimiento
l. Hipótesis:
a) Contraste bilateral: H 0 : /J = O; H 1: {J #- O.
h) Contraste unilateral derecho: H0 : /1 ~ O; H 1: // > O.
e) Contraste unilateral izquierdo: H 0 : //~O; H 1: //<O.
3. Estadístico de contraste:
Bj"f.(X; - X) 2
T = -;::.====.;:== (8.6)
Jr. (Y; - Y¡') 2 /(n - 2)
5. Zona crítica:
a) Contraste bilateral: T ~ ,12 t. _ 2 y T ~ 1 - • 12 t. - 2 •
h) Contraste unilateral derecho: T ~ 1 -.t.- 2 .
e) Contraste unilateral izquierdo: T ~ •'• . 2 .
7. Intervalo de confianza:
IC = B +1
- 2!2
[ Jr. (Y¡¡;¡¡::-¡----=-l
t n - 2 1 ··
- Y¡') /(n -
2 2) J (8.7)
v "f.(X; - X)
© Ediciones Pirámide
394 / Análisis de datos en psicología /1
TABLA 8.1
x, 5 5 6 6 6 7 7 11 11 16
Y; 25 30 30 35 45 40 45 55 60 65
TABLA 8.2
10(3.835) - 80(430)
B= = 3 464912
10(754) - 80 2 ,
A= 43 - (3,464912)8 = 15,280704
T=
3,464912 fi14 =6,13
J291,37/8
© Ediciones Pirámide
Introducción al análisis de regresión y correlación / 395
siendo 1 :
( ¿ r;)2
SCT(Y) =¿(Y;- Y) 2 = L Y; 2 - ~¡~
i ; n
SCR = I<Y;' - Y} 2 = B 2 SCT(X) (8.10)
1 Por supuesto, la suma de cuadrados total de X,. SCT(X), se obtiene de la misma forma que
(¿xJ
SCT(X) = ¿x¡ - - '-
n
© Ediciones Pirámide
396 / Análisis de datos en psicología 11
¿xi¿ Y¡
SPT=LX¡Y¡- ¡ ¡ (8.11)
¡ n
podemos llegar a:
SPT
B=--- (8.12)
SCT(X)
y, de esta forma, obtener una formulación alternativa del estadístico F que,
dependiendo de los datos de que dispongamos, puede resultamos de más utilidad:
B 2 SCT(X')(,n - 2)
F=------- (8.13)
SCT( Y) - B(SPn
TABLA 8.3
Tabla resumen de ANO VA para el modelo de regresión lineal simple
FV se g/ MC F
© Ediciones Pirámide
Introducción al análisis de regresión y correlación / 397
FV se y/ MC F
(8.15)
2 En sentido estricto, tenemos una muestra aleatoria de tamaño n extraida de una población normal
bivariada.
© Ediciones Pirámide
398 / Análisis de datos en psicología 11
(8.16)
1- r;, (8.17)
n-2
CUADRO 8.2
Contraste de hipótesis sohre el parámetro Pxr Resumen del procedimiento
l. Hipótesis:
a) Contraste bilateral: H 0 : Px,. =O; H 1: p_,,. =1- O.
b) Contraste unilateral derecho: H 0 : 11.'>. ~O: H 1 : p_, ... >O.
e) Contraste unilateral izquierdo: H 0 : p_,_,. ;;:;: O: H 1: /l.q· < O.
·' La relación entre 'x•· y B señalada en (8.16) es trasladable a los parámetros p_,,. y /J:
<f x a,.
Px.1· = fJ- => {1 = p_,,. __:__
a,. ª-'
© Ediciones Pirámide
Introducción al análisis de regresión y correlación / 399
rxy~
T=---- (8.18)
v1~
1 -r.•r
4. Distribución muestra!: T se distribuye según el modelo de probabilidad t de
Student con n - 2 grados de libertad.
5. Zona crítica:
a) Contraste bilateral: T ~ 212 t.- 2 y T ~ 1 -,,2t.- 2.
b) Contraste unilateral derecho: T ~ 1 _.t.- 2 •
e) Contraste unilateral izquierdo: T ~ .r. _
2.
(8.19)
EJEMPLO 8.3. Utilicemos Jos datos del ejemplo 8.1 para estudiar la relación entre
las variables rendimiento y horas de estudio mediante el coeficiente de correlación de
Pearson. Para ello, nos siguen sirviendo los cálculos de Ja tabla 8.2.
t. Hipótesis: H 0 : Pxy ~O; H 1 : P:c, >O.
2. Estadístico de contraste:
10(3.835) - 80(430)
rxy = = 0,908
jt0(754) - 80 2 jt0(20.150)- 430 2
r:c,~ 0,908}8
T= = =613
J 1 - r;, jl=0,908 2 '
© Ediciones Pirámide
400 / Análisis de datos en psicología 11
y varianza:
(12 = --
z. n- 3
(8.21)
4 Este tipo de transformación recibe el nombre de zeta de Fisher y puede obtenerse directamente de
© Ediciones Pirámide
Introducción al análisis de regresión y correlación / 401
Así, por ejemplo, si con los datos de ejemplo 8.1 queremos poner a prueba la
hipótesis H 0 : Px>· = 0,80 (contraste bilateral), tendremos:
Puesto que P(Z ;3: 1,135) > 0,05, mantenemos H 0 y concluimos que no dispone-
mos de evidencia empírica para rechazar la hipótesis de que el verdadero coeficiente
de correlación vale 0,80: los datos se muestran compatibles con esa hipótesis.
APl:NDICE 8
(8.22)
s; (8.23)
s;(n - 1)
© Ediciones Pirámide
402 / Análisis de datos en psicología 11
(8.24)
Ahora bien, si suponemos, al igual que cuando comparábamos dos medias, que las
varianzas de los errores de ambas poblaciones son homogéneas (igualdad de varianzas),
podemos utilizar la combinación ponderada de los dos estimadores disponibles (S; y
1 '
s; )
para obtener una única estimación de la verdadera varianza error poblacional:
ui = (n 1 - 2¡s; + (n 2 - 2¡s;
1 2 (8.25)
• n1 + n2 - 4
(8.26)
a = J 1
~~-+~~-
z,, - z , ' n 1 - 3
1
n2 - 3
Z, -Z,,
1
z = ---;:::===== (8.27)
J-n1-~-3 + -n2-~-3
© Ediciones Pirámide
Introducción al análisis de regresión y correlación / 403
(n - 1)(1 + r,,)
(8.28)
EJERCICIOS
TABLA 8.5
x, 3 2 6 5 8 6 4 7 3 5
Y, 5 3 5 6 6 7 3 6 4 4
© Ediciones Pirámide
404 / Análisis de datos en psicología 11
8.2. (Señale la/s alternativa/s que considere correcta/s.) Al contrastar la hipótesis nula H 0 :
P = O frente a la alternativa H 1 : p "#- O hemos obtenido T = 3,54. Sabiendo que
P(T > 3,54) = 0,10, concluiremos que el modelo lineal...
8.3. (Señale la/s alternativa/s correcta/s.) Podemos llegar a la conclusión de que entre dos
variables existe relación lineal significativa mediante:
a) Un ANOVA, con F = 5,6 (p < 0,05).
b) Un análisis de regresión, al mantener H 0 : P =O.
e) Un análisis de regresión, con T = 4,2 tal que P(T ~ 4,2) > 0,99.
d) Unas comparaciones de tendencia, con Fiineal = 2,1 (p > 0,05).
e) Ninguna de las alternativas anteriores es correcta.
TABLA 8.6
X; 4 7 4 3 9 2 6 5 4 6
Y, 7 5 6 10 2 12 1 4 8 5
8.6. Tras evaluar a 10 sujetos en dos variables hemos obtenido los resultados que aparecen
en la tabla 8. 7. Contraste la hipótesis nula H 0 : Pxy ~ O frente a la alternativa H 1 : Pxy > O y
concluya si existe o no relación lineal positiva entre ambas variables (oc= 0,01).
© Ediciones Pirámide
Introducción al análisis de regresión y correlación / 405
TABLA 8.7
x, 10 8 7 4 9 6 2 9 7 5
Y, 5 3 3 2 4 4 o 3 2 2
8.7. ¿Cuál debe ser el tamaño mínimo de una muestra para que siendo r"' = 0,30 rechace-
mos H 0 : Px, = O frente a H 1: Px, # O con un nivel de significación de 0,05?
8.8. Al utilizar el análisis de varianza para estudiar la relación lineal entre dos variables
hemos obtenido los resultados que aparecen en la tabla 8.8.
TABLA 8.8
FV se gl Me F
Debida a la regresión 90 ( ) ( ) ( )
No debida a la regresión ( ) ( ) ( )
Total 330 9
TABLA 8.9
FV se gl Me F
Debida a la regresión ( ) ( ) ( ) ( )
No debida a la regresión ( ) ( ) 4
Total 100 ( )
8.10. Utilizando los datos del ejercicio 8.9 y un nivel de significación de 0,01:
a) ¿Podemos afirmar que las variables X¡ e Y¡ están linealmente relacionadas? ¿Por qué?
b) ¿Podemos negar que las variables X¡ e Y¡ están cuadráticamente relacionadas? ¿Por
qué?
e) ¿Cuál es el valor de la varianza de los errores en los pronósticos?
8.11. (Elige la alternativa correcta). En un análisis de regresión lineal simple hemos obtenido
F = 5,6. Sabiendo que P(F > 5,6) = 0,02 y utilizando oc = 0,05:
a) Mantendremos H 0 •
b) Concluiremos que X no influye significativamente en Y.
© Ediciones Pirámide
406 / Análisis de datos en psicología 11
8.12. Hemos medido dos variables (X; e Y¡) en una muestra aleatoria de 30 sujetos. La
tabla 8.10 muestra un resumen del análisis de regresión simple en formato ANOVA:
T,ABLA 8.10
FV se gl Me F
Debida a la regresión ( ) ( ) ( ) 10
No debida a la regresión ( ) ( ) 10
Total 380 ( )
Sabiendo que P(F < 10) > 0,99 y utilizando IX= 0,01:
a) Completa la tabla.
b) ¿Podemos rechazar H 0 : P= O? ¿Por qué?
e) ¿Podemos concluir que hay relación lineal?
8.13. Al estudiar la relación entre las variables rigidez y creatividad, un investigador plantea
las siguientes hipótesis estadísticas: H 0 : P~ O; H 1 : p < O. En una muestra aleatoria obtiene
un estadístico T = - 2. Sabiendo que P(T ~ - 2) = 0,975 y utilizando IX= 0,05:
a) ¿Podemos rechazar H 0 ? ¿Por qué?
b) ¿Podemos concluir que hay relación lineal? ¿Por qué?
e) ¿Podemos concluir que la correlación de Pearson es negativa? ¿Por qué?
TABLA 8.11.a
Sujetos 1 2 3 4 5
X¡ 2 -2 o 1 ( )
y, 2 -1 o 1 ( )
Yi ( ) ( ) ( ) ( ) ( )
TABLA 8.11.b
FV se gl Me F
Regresión ( ) ( ) ( ) ( )
No regresión ( ) ( ) ( )
Total ( ) ( )
© Ediciones Pirámide
Introducción al análisis de regresión y correlación / 407
8.15. Al utilizar un ANOVA para estudiar la relación lineal entre dos variables, hemos
obtenido los resultados que muestra la tabla 8.12.
TABLA 8.12
FV se 111 Me F
Debida a la regresión 90 ( ) ( ) ( )
No debida a la regresión ( ) ( ) ( )
Total 330 9
a) Completa la tabla.
b) ¿Qué decidiremos respecto a H 0 : fl = O? ¿Por qué?
e) ¿A qué conclusión 11egaremos?
SOLUCIONES
8.2. d.
8.3. c.
8.4. d.
8.7. n ~ 43.
8.8. a) Para completar la tabla 8.8 basta con saber que la suma de cuadrados debida a la
regresión tiene un solo grado de libertad.
TABLA 8.8
FV se 111 Me F
Debida a la regresión 90 (!) (90) (3)
No debida a la regresión (240) (8) (30)
Total 330 9
© Ediciones Pirámide
408 / Análisis de datos en psicología //
TABLA 8.9
FV se gl Me F
8.11. c.
8.12. a) Para completar la tabla 8.10 basta con saber que los grados de libertad de la
suma de cuadrados total son n - 1 y que la suma de cuadrados debida a la
regresión tiene un solo grado de libertad:
TABLA 8.10
FV se gl Me F
8.14. Para completar la tabla 8.11.a hay que tener en cuenta que las puntuaciones diferen-
ciales suman cero. Para completar la tabla 8.11.b debemos recordar, en primer lugar,
que la suma de cuadrados total es justamente las suma de las diferenciales de Y¡ al cua-
drado: 22 + (-1) 2 + 0 2 + 12 + (- 2) 2 = 10; y, en segundo lugar, que la suma de
cuadrados debida a la regresión es la suma de las diferenciales de los pronósticos al cua-
drado: 1,8 2 + (- 1,8) 2 + 0 2 + 0,9 2 + (-0,9) 2 = 8,1 (la suma de cuadrados debida a la
regresión también puede obtenerse si se tiene en cuenta que el cociente entre esa
suma y la suma de cuadrados total es igual al cuadrado del coeficiente de correlación
de Pearson: r2 = SCR/SCT => SCR = r2 (SCT) = 0,9 2 (10) = 8,1).
TABLA 8.11.a
Sujetos 1 2 3 4 5
X¡ 2 -2 o 1 (-1)
y, 2 -1 o 1 (-2)
Yi (1,8) (-1,8) (O) (0,9) (-0,9)
TABLA 8.11.b
FV se 111 Me F
8.15. a) Completar la tabla 8.12 únicamente requiere saber que la suma de cuadrados
debida a la regresión tiene un solo grado de libertad.
TABLA 8.12
FV se 111 Me F
© Ediciones Pirámide
PARTE TERCERA
Análisis de datos semicuantitativos
Contrastes no paramétricos
9
las tres características de los contrastes paramétricos y, por tanto, 2) englobar en ese
término genérico a los contrastes de distribución libre.
No es nuestra intención avivar la polémica sobre la forma de llamar a las cosas.
Creemos que, en este contexto, la forma de llamar a las cosas es más bien
irrelevante. Y creemos, además, que poner todo el énfasis en el nivel de medida
de los datos contribuye a simplificar esta problemática. Podemos, por tanto,
1) clasificar los contrastes de acuerdo con el tipo de datos que permiten analizar
(independientemente del tipo de hipótesis que permiten contrastar e independiente-
mente de los supuestos que sea necesario establecer) y 2) llamarlos, a todos ellos, no
paramétricos siempre que no se ajusten a una cualquiera de las tres características
de los contrastes paramétricos.
Esta tercera parte va a estar centrada en las técnicas de análisis para datos
semicuantitativos; es decir, en las técnicas de análisis que permiten estudiar las
propiedades ordinales de los datos. Todas ellas pueden ser consideradas no paramé-
tricas utilizando el criterio de que no plantean hipótesis sobre ningún parámetro o
el de que analizan datos obtenidos con una escala de medida débil, y pueden ser
consideradas de distribución libre utilizando el criterio de que no establecen
supuestos demasiado exigentes sobre las poblaciones originales de donde se extraen
los datos. El término de contrastes no paramétricos nos parece apropiado pues
permite resaltar la distinción entre este tipo de contrastes y los paramétricos.
En el capítulo 9 estudiaremos algunos contrastes no paramétricos diseñados
para comparar promedios: la prueba de los signos, la de Wilcoxon, la de Mann-
Whitney, la de Kruskal-Wallis y la de Friedman. En el capítulo 10 presentaremos
algunos contrastes no paramétricos orientados al estudio de la relación entre va-
riables.
La prueba de los signos, también llamada prueba binomial, no sólo es una de las
más antiguas, sino que ha servido de base para el desarrollo de otras muchas. Su
lógica es más bien elemental y los cálculos necesarios para su obtención son
triviales.
Consideremos una variable aleatoria que sólo puede tomar dos valores: éxito y
fracaso (1 y O; + y - ; etc.). Si efectuamos n medidas independientes de esa variable
tendremos n 1 éxitos y ni fracasos (n 1 +ni = n). Y según sabemos (capítulo 1,
apartado 1.3.4), tanto n 1 como ni son variables aleatorias distribuidas según el
modelo de probabilidad binomial (n 1 con parámetros n y néxito• y ni con parámetros
n y 1tfracaso); de modo que podemos utilizar la distribución binomial para conocer las
probabilidades exactas asociadas a n 1 y ni.
En el capítulo 12 veremos este procedimiento aplicado al estudio de variables
cualitativas, que es justamente donde más sentido tiene su utilización. Pero la
© Ediciones Pirámide
Contrastes no paramétricos / 417
CUADRO 9.1
Prueba de los signos. Resumen del procedimiento
l. Hipótesis:
a) Contraste bilateral: H 0 : Mdn = Mdn 0 ; H 1: Mdn :F Mdn 0 .
b) Contraste unilateral derecho: H 0 : Mdn ,¡;; Mdn 0 ; H 1: Mdn > Mdn 0 •
e) Contraste unilateral izquierdo: H 0 : Mdn ~ Mdn 0 ; H 1: Mdn < Mdn 0 .
Estas hipótesis sobre Mdn pueden formularse también en términos de la propor-
ción de signos positivos y negativos (siendo n + = n +In la proporción de sujetos
que se encuentran por en encima de la mediana y n _ = n _/n la proporción de
sujetos que se encuentran por debajo de la mediana):
1 Esto supone restringir su utilización al caso único en el que se verifica: n,,,.., = 0,50. En San Martín
y Pardo ( 1989, págs. 95-98) puede encontrarse una descripción de la prueba binomial para el caso general
n = n 0 (con la denominación de «prueba de los cuantiles»).
© Ediciones Pirámide
418 / Análisis de datos en psicología 11
3. Estadísticos de contraste:
3.1. n + = número de signos positivos.
n+ - nn: + n+ - n/2
3.2. z= -~--- = --- (9.1)
Jnn+(I - n+) J";;j4
4. Distribuciones muestrales:
4.1. n+ se distribuye según el modelo de probabilidad binomial con parámetros
n = n + + n _ y 11: + = 0,50.
4.2. Z se aproxima al modelo de distribución de probabilidad normal N(O, 1) a
medida que el tamaño muestra! n va aumentando 3 •
5. Decisiones:
a) Contraste bilateral:
u. I. Se rechaza H 0 si n + toma un valor tan extremo (tan alejado de su valor
esperado bajo H 0 ) que la probabilidad de obtener valores tan extremos
como ése o más es menor que ~/2.
u.2. Se rechaza H 0 si Z:,.; z,12 o Z ~ z1 -.12·
b) Contraste unilateral derecho:
h. l. Se rechaza H 0 si n + toma un valor tan grande que la probabilidad de
obtener un valor como ése o mayor es menor que ~.
b.2. Se rechaza H 0 si Z ~ z 1 -··
2 Conviene que la variable estudiada sea continua para evitar que aparezcan valores iguales a la
mediana (empates). Aun así, la variable puede no ser continua. Y tanto si lo es como si no, los empates
deben desecharse, pues no proporcionan información sobre la hipótesis nula.
3 Si n no es muy grande, la aproximación es algo más exacta utilizando la corrección por continuidad,
que consiste en sumar (si n + es menor que n/2) o restar (si n + es mayor que n/2) 0,5 puntos a n + para
hacer el contraste algo más conservador (algunos autores desaconsejan la utilización de esta corrección;
ver, por ejemplo, Richardson, 1990):
n+ ± 0,5 - n/2
Z=------
© Ediciones Pirámide
Contrastes no paramétricos / 419
TABLA 9.1
Sujetos 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Puntuación 4.1 5,5 6.1 2.2 7,2 4,8 5.4 8.2 6,6 9,1 4,3 5,3 4,6 7,6 2,1
Si la mitad de los sujetos no supera la puntuación 6,2, eso significa que 6,2 es la
mediana que se viene obteniendo en estudios previos. La pregunta que se nos hace es
si la mediana sigue siendo 6,2 o ha cambiado. Para ello, podemos utilizar la prueba de
los signos:
l. Hipótesis: H 0 : Md11 = 6,2; H 1 : Md11 =F 6,2 (contraste bilateral).
2. Supuestos: muestra aleatoria de 15 observaciones resultando de medir una
variable ordinal (no existen empates y, por tanto, /1 = 15).
3. Estadístico de contraste: 11 + = 5.
4. Distribución muestra(: 11 + se distribuye según el modelo binomial con paráme-
tros /1 = 15 y rr. = 0,50.
5. Decisión: En la tabla de la distribución binomial encontramos
P(11 + ~ 5) = O, 151. Por tanto, como 0, 151 > ':1./2 = 0,025, mantenemos H 0 y
concluimos que no hay evidencia suficiente para pensar que la mediana ha
cambiado.
(9.4)
© Ediciones Pirámide
Contrastes no paramétricos / 421
TABLA 9.2
Distribución muestra/ del estadístico S + en
una muestra de 4 observaciones
Muestras Rangos (i) S+ f(s+)
TABLA 9.3
Distribución muestra/ de S + obtenida a partir de la tabla 9.2
S+ o 1 2 3 4 5 6 7 8 9 10
f(s+) 1/16 1/16 1/16 2/16 2/16 2/16 2/16 2/16 1/16 1/16 1/16
<1~ = <1fR· = 'f.ak· = !'f.i 2 = !(n(n + 1)(2n + 1)) = n(n + 1)(2n + 1) (9 _8)
. ' ' 4 4 6 24
CUADRO 9.2
Prueba de 111/coxon para una muestra. Resumen del procedimiento
l. Hipótesis:
a) Contraste bilateral: H 0 : Mdn = Mdn 0 ; H 1: Mdn '/:- Mdn 0 •
b) Contraste unilateral derecho: H 0 : Mdn ~ Mdn 0 ; H 1 : Mdn > Mdn 0 .
e) Contraste unilateral izquierdo: H 0 : Mdn;;,, Mdn 0 ; H 1 : Mdn < Mdn 0 .
© Ediciones Pirámide
Contrastes no paramétricos / 423
2. Supuestos:
a) Muestra aleatoria de m observaciones de las que se desechan las D¡ nulas (es
decir, los valores Y¡= Mdn 0 ).
b) La distribución de cada diferencia D; es simétrica (este supuesto implica que
las inferencias efectuadas sobre la mediana son trasladables al parámetro
media. pues en una distribución simétrica la mediana y la media toman
exactamente el mismo valor).
e) El nivel de medida de la variable Y¡ es de, al menos, intervalo.
3. Estadísticos de contraste:
3.1. S + = 'I:. Rt.
S+ - n(n+ 1)/4
3.2. z = -:::=====
jn(n + 1)(2n + 1)/24
4. Distribuciones muestrales:
4.1. Los puntos críticos de la distribución exacta de S + se encuentran en la tabla
O del apéndice final.
4.2. Z se aproxima al modelo de distribución de probabilidad normal N(O, 1) a
medida que el tamaño muestra! n va aumentando.
5. Zonas críticas:
a) Contraste bilateral:
a.1. S+ < s 2 12 y S+ >s1-212·
a.2. Z ~ :2 2 y Z ~ =• -• 2 .
b) Contraste unilateral derecho:
b.I. S+ > S1-2·
b.2. z ~ =· -··
e) Contraste unilateral izquierdo:
c.I. S + < s,.
c.2. Z ~ : 2•
EJEMPLO 9.2. Recordemos el estudio del ejemplo 9.1 sobre memoria reconstructi-
va. Allí hemos utilizado la prueba de los signos para averiguar si la mediana
poblacional de las puntuaciones en una escala de evaluación del porcentaje de
reconstrucción bien lograda era 6,2. Vamos a contrastar ahora la misma hipótesis
utilizando la prueba de Wilcoxon (ot = 0,05).
© Ediciones Pirámide
424 / Análisis de datos en psicología 11
La tabla 9.4 recoge los datos originales (Y¡), las diferencias Y¡ - M dn 0 con signo
positivo si (Y¡ > Mdn 0 ) y signo negativo si (Y¡ < Mdn 0 ) y los rangos R; que correspon-
den a esas D; tomadas en valor absoluto.
TABLA 9.4
Sujetos 1 2 3 4 5 6 7 8 9 IO 11 12 13 14 15
Y, 4.1 5,5 6,1 2,2 7,2 4,8 5,4 8,2 6,6 9,1 4,3 5,3 4,6 7,6 2,1
D; -2,1 -0,7 -0,I -4 1 -1,4 -0,8 2 0,4 2,9 -1,9 -0,9 -1,6 1,4 -4,1
R; 12 3 1 14 6 7,5 4 11 2 13 10 5 9 7,5 15
2. Supuestos:
a) Muestra aleatoria de 15 observaciones.
h) La distribución de cada diferencia D; es simétrica.
d El nivel de medida de la variable Y; es de, al menos, intervalo.
3. Estadístico de contraste: S + = ~ R,+ = 39,5.
4. Distribución muestra): los puntos críticos de la distribución muestra) de S +
están tabulados en la tabla O del apéndice final).
5. Zona crítica. Con n = 15 y ex= 0,05: S+ < s0 . 025 = 26 y S+ > s0 . 975 = 94.
6. Decisión: 26 > 39,5 > 94. Por tanto, mantenemos H 0 y concluimos que no hay
evidencia suficiente para pensar que la mediana haya cambiado.
mente propuesto por Wilcoxon (1945) para el caso de tamaños muestrales iguales (11 1 = 11 2 ). Festinger
(1946) desarrolló independientemente un procedimiento equivalente al de Wilcoxon. Pero fueron Mann y
Whitney ( 1947) los primeros en extender el procedimiento al caso de tamaños muestrales desiguales y los
primeros también en proporcionar tablas para poder utilizar el procedimiento con muestras pequeñas.
Fueron precisamente las aportaciones de Mann y Whitney las que más contribuyeron a la divulgación
del procedimiento, de ahi que, generalmente, sea conocido como prueba de Mann-Whitney. Sin
embargo, en algunos sitios este procedimiento puede encontrarse con la denominación de prueba de
Wilcoxon para muestras independientes.
© Ediciones Pirámide
Contrastes no paramétricos / 425
Nos encontramos, por tanto, en el caso en el que dos muestras son aleatoria-
mente extraídas de dos poblaciones y deseamos averiguar si podemos rechazar la
hipótesis de que esas dos poblaciones tienen promedios iguales. Una aproximación
intuitiva al contraste de esa hipótesis consiste en combinar ambas muestras de
observaciones en una sola y asignar rangos a las puntuaciones ordenadas de esa
única muestra, con independencia de la muestra a la que pertenece cada puntua-
ción. El estadístico de contraste podría ser la suma de los rangos asignados a una
cualquiera de las dos muestras. Si esa suma es demasiado grande (o demasiado
pequeña) existirá cierta evidencia de que los valores de esa población son más
grandes (o más pequeños) que los valores de la otra población. Por tanto, la
hipótesis de que ambos promedios poblacionales son iguales podría ser rechazada si
la suma de los rangos asignados a una de las muestras es muy diferente de la suma
de los rangos asignados a la otra muestra.
Consideremos dos muestras independientes: Y1 , de tamaño n 1 , e Yi, de tamaño
ni, extraídas de la misma población o de dos poblaciones idénticas. Si mezclamos
las n 1 + ni = N observaciones y, como si se tratara de una sola muestra, asignamos
rangos R¡ a las N puntuaciones (un 1 a la más pequeña, un 2 a la más pequeña de
las restantes, ... , un N a la más grande), tendremos n 1 rangos Ril (los n 1 rangos
correspondientes a las observaciones de la muestra Y¡) y ni rangos R¡i (los ni
rangos correspondientes a las observaciones de la muestra Yi). Puesto que
suponemos que las dos poblaciones son idénticas, los rangos asignados a las n 1
observaciones de la muestra Y1 podrán ser cualquiera de los N posibles. Por tanto,
la combinación concreta de los n 1 rangos asignados a los valores de Y1 tendrá
exactamente la misma probabilidad de ocurrencia que cualquier otra posible
combinación.
Ahora bien, con los N primeros enteros consecutivos (los N rangos que hemos
asignado) podemos formar:
N!
e ------
N.n, -n1!(N - n1)!
(9.10)
TABLA 9.5
Distribución muestra[ del estadístico U paru n 1 = 3 y ni = 2
por tanto:
N
~R; N+ 1
E(R;) = T = -2-
(9.13)
N 2 -1
---
12
Según esto 5 :
ni ) n; N +)
E(U)=E ( ~R¡¡ =~E(R; 1 )=n 1 - 2-
(9.14)
por lo que:
z = _ur=-=n=(N=+=l=)/=2 1
(9.15)
Jn n(N + 1)/12
1 2
N + 1
U-n--
1 2
Z=--;::=================
J- - - L
n n 1 2
N(N - 1)
n ni(N + 1) N
i=I
1
Rf - - - - -
it{N - 1)
2
7 Existen diferentes versiones de los estadísticos U y Z que acabamos de describir (ver, por ejemplo,
San Martín y Pardo, 1989, pág. 126; o Marascuilo y McSweeney, 1977, págs. 267-278), pero todas ellas
conducen al mismo resultado.
© Ediciones Pirámide
428 / Análisis de datos en psicología 11
CUADRO 9.3
Prueba de M ann- Whitne y. Resumen del procedimiento
l. Hipótesis:
a) Contraste bilateral: H 0 : E(Y¡) = E(Y2 ): H 1: E(Y¡) # E(Y2 ).
h) Contraste unilateral derecho: H 0 : E(Y.J ~ E(Y2 ): H 1 : E(Y1 ) > E(Y2 ).
e) Contraste unilateral izquierdo: H 0 : E(Y.J ~ E(Y2 ): H 1: E(Y¡) < E(Y2 ).
2. Supuestos:
a) Dos muestras aleatorias de tamaños n 1 y n2 extraídas independientemente de
dos poblaciones.
h) El nivel de medida de los datos es, al menos, ordinal.
e) Las funciones de probabilidad de las dos poblaciones son idénticas; si difieren
en algo es únicamente en sus promedios.
3. Estadísticos de contraste:
3.1. U= I: R; 1•
U - n 1(N + 1)/2
3.2. Z=-_------
' n 1n2(N + 1)/12
4. Distribuciones muestrales:
4.1. Los puntos críticos de la distribución exacta de U se encuentra en la tabla P
del apéndice final; se verifica: u 1 , = n 1(N + 1) - u,.
4.2. Z se aproxima al modelo de distribución de probabilidad normal N(O. 1) a
medida que los tamaños muestrales van aumentando.
5. Zonas criticas:
a) Contraste bilateral:
a.I. U<u, 2 yV>u 1 _, 2.
a.2. Z:::; :, 2 y Z ~ : 1 - , 2•
h.2. z ~ =1 _,.
e) Contraste unilateral izquierdo:
c.I. V<u,.
c.2. z:::; :,.
6. Decisión: se rechaza f/ 0 si U o Z caen en la zona critica: en caso contrario, se
mantiene.
TABLA 9.6
Grupo E 10 8 12 16 5 9 7 11 6
Grupo C 12 15 20 18 13 14 16 9
l. Hipótesis:
H 0 : E(E) ~ E(C) (el medicamento no reduce la agresividad)
H 1 : E(E) < E(C) (el medicamento reduce la agresividad)
2. Supuestos:
a) Dos muestras aleatorias de tamaños n 1 = 9 y n 2 = 8 extraídas indepen-
dientemente de dos poblaciones.
b) El nivel de medida de los datos es, al menos, ordinal.
e) Las funciones de probabilidad de las dos poblaciones son idénticas; si
difieren en algo es únicamente en sus promedios.
3. Estadísticos de contraste:
Comenzamos asignando rangos a las 17 observaciones como si se tratara de
una sola muestra. La tabla 9.7 recoge los rangos que resultan, teniendo en
cuenta que cuando se producen empates se asigna a cada una de las puntuacio-
nes empatadas el promedio de los rangos que les hubieran correspondido de
no estar empatadas.
TABLA 9.7
6. Decisión: tanto U como Z toman valores más pequeños que sus respectivos
puntos críticos. Por tanto, rechazamos H 0 • Podemos concluir que el medica-
mento ha conseguido reducir significativamente la agresividad de los pacientes
con psicosis paranoica.
© Ediciones Pirámide
Contrastes no paramétricos / 431
(9.17)
(9.18)
CUADRO 9.4
Prueba de Hilcoxon para dos muestras relacionadas. Resumen del procedimiento
l. Hipótesis:
a) Contraste bilateral: H 0 : Mdn 1 = Mdn 2 (o bien, Mdn 0 ; =O)
H 1: Mdn 1 "# Mdn 2 (o bien, Mdn 0 , "#O)
b) Contraste unilateral derecho: H 0 : Mdn 1 :::;;; Mdn 2 (o bien, Mdn,,,:::;;; O)
H 1 : Mdn 1 > Mdn 2 (o bien, Mdn,,, >O)
e) Contraste unilateral izquierdo: H 0 : Mdn 1 ~ Mdn 2 (o bien, Mdn 0 , ~O)
H 1: Mdn 1 < Mdn 2 (o bien, Mdn 0 , <O)
2. Supuestos:
a) Muestra aleatoria de m pares de los que sólo se consideran las n diferencias D;
no nulas.
b) La distribución de cada diferencia D; es simétrica (este supuesto implica que
las inferencias efectuadas sobre la mediana son trasladables al parámetro
© fdiciones Pirámide
432 / Análisis de datos en psicología 11
3. Estadísticos de contraste:
3.1. S, = ~R/
S,-11(11+1)/4
3.2. z= ··----------
j11(-;; + 1K211 + 1)/24
4. Distribuciones muestrales:
4.1. Los puntos críticos de la distribución exacta de S + se encuentra en la tabla
O del apéndice final.
4.2. Z se aproxima al modelo de distribución de probabilidad normal N(O, 1) a
medida que el tamaño muestra( 11 va aumentando.
5. Zonas críticas:
a) Contraste bilateral:
h.2. z ~ :¡ 2·
© Ediciones Pirámide
Contrastes no paramétricos / 433
TABLA 9.8
Pareja 1 2 3 4 5 6 7 8 9 10
Varones 26 28 35 34 29 31 35 41 25 37
Mujeres 28 27 39 44 36 41 40 36 25 42
o, -2 1 -4 -10 -7 -10 -5 5 o -5
R, 2 1 3 8,5 7 8,5 5 5 - 5
l. Hipótesis:
H o: M dnvarones ~ M dnmujereS"
H 1 : Mdnvarones < Mdnmujeres (contraste unilateral izquierdo).
2. Supuestos:
a) Muestra aleatoria de m = 10 pares de los que sólo se consideran las n = 9
diferencias no nulas.
b) La distribución de cada diferencia D¡ es simétrica.
e) El nivel de medida de los datos es de, al menos, intervalo.
3. Estadísticos de contraste:
3.1. S+ =r.Rt =6
S+ - n(n + 1)/4 6 - 9(10)/4
3.2. z= = = - 1 95
jn(n + 1)(2n + 1)/24 )9(10)(19)/24 '
4. Distribuciones muestrales:
4.1. La distribución exacta de S + se encuentra en la tabla O del apéndice
final.
4.2. Z se aproxima al modelo de distribución de probabilidad normal N(O, 1).
5. Zona crítica:
5.1.S + < s0 , 01 = 4.
5.2. Z ~ Zo,OI = - 2,33.
Ri = LRii (9.19)
i
Por tanto:
(9.20)
© Ediciones Pirámide
Contrastes no paramétricos / 435
TABLA 9.9
Estructura de los datos y notación correspondientes
a un diseño con J muestras independientes tras
asignar rangos a las N observaciones
Muestras
Observaciones 1 2 j J
R1 R1 Ri ... R1
CUADRO 9.5
Prueba de K ruskal-Wallis. Resumen del procedimiento
2. Supuestos:
a) Las J muestras de tamaños n 1, n2 , ... , n1 han sido aleatoria e independiente-
mente extraídas de sus respectivas poblaciones.
b) El nivel de medida de los datos es, al menos, ordinal.
e) Las funciones de probabilidad de las J poblaciones son idénticas; si difieren en
algo es únicamente en sus promedios.
3. Estadístico de contraste 10:
12 1 R2
H = L _.!_ - 3(N + 1) (9.21)
N(N + l)j~t ni
'º Si existen muchos empates, el estadístico H propuesto en (9.21) se hace conservador. En estos
casos conviene utilizar una modificación de H que tiene en consideración la existencia de empates:
H =2
, 1( I Rf- -N(N
1
-- + 1)2)
-
s ;= n; 4
1
donde:
52 = _1-(IIRt- N(N + 1¡2)
N - 1 , ; 4
Puesto que H' sirve para corregir el sesgo conservador de H en el caso de que existan empates, si con
H ya se rechaza H 0 no será necesario calcular H'.
© Ediciones Pirámide
436 / Análisis de datos en psicología 11
5. Zona crítica: viene definida por todos los valores mayores o iguales que el punto
h1 - · de la tabla Q, o mayores o iguales que el punto 1 -,XJ- 1 •
TABLA 9.10
Grupo A 30 28 32 27 21 36 19 28 33
Grupo B 45 41 38 53 34 46 59 29 38 51 42
Grupo C 22 16 15 30 9 11 18 12 6 14
TABLA 9.11
R;
© E.!iciones Pirámide
Contrastes no paramétricos / 437
2. Supuestos:
a) Las 3 muestras han sido aleatoria e independientemente extraictas de sus
respectivas poblaciones.
b) El nivel de medida de los datos es, al menos, ordinal.
e) Las funciones de probabilidad de las 3 poblaciones son idénticas; si difieren
en algo es únicamente en sus promedios.
3. Estadístico de contraste 11 :
6. Decisión: puesto que 22,25 > 9,21 rechazamos H 0 • Concluimos que los prome-
dios de las tres poblaciones consideradas no son iguales.
Lh = "[.chiMdni (9.22)
j
(9.23)
11 Puesto que existen varios empates, podemos utilizar el estadístico H', sí bien no es necesario pues
sin corrección por empates ya rechazamos H 0 :
1 ( N(N+l)i) 1 ( 30(30+1)i)
si=-- ¿¿Rf;- = - - (16,5i+l3.52+1si+ .. ·+1i+5i¡_ =77.45
N-1 '. }. 4 30- 1 4
±.
H' = }__( RJ _ N(N + 1¡i) = _l _(I 32,52 + 269i + 63,52 _ 30(30 + 1¡i) = 22,27
si i=l nj 4 77,45 9 11 10 4
© Ediciones Pirámide
438 / Análisis de datos en psicología 11
H = Zf + Z~ + ·· · + ZJ- 1 (9.25)
¿ (1;- 1,>
C= 1 --•=_•___
N 3 -N
© Ediciones Pirámide
Contrastes no paramétricos / 439
3. DMS
Tukey
= i
J2
-:rqJ."" jJ(N + 1)/6
H 11h 1: Lh = "[,chiMdni #O
j
EJEMPLO 9.6. Consideremos los datos del ejemplo 9.5. Tenemos tres grupos (A, B
y C) sobre los que ya hemos concluido que difieren en sus promedios. Vamos a
realizar ahora algunas comparaciones múltiples para ejemplificar la utilización de los
diferentes procedimientos presentados.
Comencemos con las comparaciones a priori o planeadas. Supongamos que
deseamos comparar, por un lado, los dos primeros grupos (el A y el B) entre sí, y por
otro, esos dos primeros grupos tomados juntos con el tercero (el C). Tendremos:
13 Si en lugar de estar interesados en todas las posibles comparaciones por pares nuestro interés se
centra en las J - 1 comparaciones con un grupo control, podemos recurrir al procedimiento de Dunnett.
que es idéntico al de Tukey excepto en el valor de la diferencia mínima significativa:
© Ediciones Pirámide
440 / Análisis de datos en psicología 11
+ 1)
:L -cL 30(31 ¡ (1
N(N 2 12 02)
ª f.,2 =
12 n
= -- -
12 9
+-
-
11
+-
10
= 15 66
'
1 1
ª~
L,
=
N(N
12
+ 1)
¿J -cL
nj
30(31)(1 2 12
= -- - + -
12 9 11
-2 2)
+ - - = 46 66
10 ,
l. H oo 1: L 1 = O; H 1 0 1: L1 # O
Ho121: L2 =O; HltÚ L2 #O.
3. Se rechaza H 01 h 1 si ¡Lhl > DMS 081 ¡, 1. Por tanto, mantenemos Ho(IJ (pues
9,73 < 11,12) y rechazamos H 0121 (pues 26,47 > 19,19).
© Ediciones Pirámide
Contrastes no paramétricos / 441
A partir de aquí:
Podemos concluir, por tanto, que los grupos A y B no difieren, pues 9,73 < 12,01, y
que tampoco difieren los grupos A y C, pues 8,37 < 12,27. Los únicos grupos que
difieren son el B y el C: 18,10 > 11,68.
Las ventajas de esta prueba frente al estadístico F del ANOVA son las mismas
que hemos comentado a propósito del estadístico H de Kruskal-Wallis: no es
necesario establecer supuestos sobre las poblaciones originales tan exigentes como
los del ANOVA y permite trabajar con datos ordinales. La prueba de Friedman,
por tanto, debe preferirse al estadístico F cuando no se cumplen los supuestos
paramétricos del ANOV A o el nivel de medida de los datos es ordinal.
El diseño está formado por J muestras o tratamientos relacionados y por una
muestra aleatoria den sujetos o bloques independientes entre sí e independientes de
los tratamientos. Las puntuaciones originales deben ser transformadas en rangos
Rij. Esos rangos se asignan independientemente para cada sujeto o bloque; es decir,
se asignan rangos de 1 a J a las observaciones del sujeto o bloque 1; lo mismo con
el bloque 2; y lo mismo con el resto de los bloques por separado. La tabla 9.12
muestra la disposición de los datos y la notación utilizada.
TABLA 9.12
Estructura de los datos y notación correspondientes
a un diseño de medidas repetidas tras
asignar rangos a las nJ observaciones
R1 Ri Ri RJ
Los rangos asignados a cada sujeto o bloque suman, en todos los casos,
J(J + 1)/2 (pues en cada sujeto o bloque estamos asignando rangos desde 1 a J). Rij
representa el rango asignado al sujeto o bloque i en el tratamiento o muestraj. Y Ri
se refiere a la suma de los rangos asignados a las n observaciones de la muestra j:
(9.26)
Por tanto:
- Ri
R.=- (9.27)
J n
© Ediciones Pirámide
Contrastes no paramétricos / 443
Si los J promedios poblacionales son iguales (es decir, si los J tratamientos son
igualmente eficaces), entonces:
Un estadístico, entre otros, que nos podría informar sobre si los promedios
poblacionales son iguales es:
S = L lR. -
j ./
11 (1 + 1)/2]'
pues si los promedios poblacionales son iguales, los Ri serán parecidos y S tomará
un valor próximo a cero. Pero el problema de Ses que su valor esperado depende
del número de sujetos o bloques utilizados en el diseño:
E(S) = LE[Ri -
•
n(J + 1)/2] 2 =¿u¡ = J[n(J 2 • J
- 1)/12]
J J
pues su valor esperado no depende del número de sujetos o bloques sino sólo del
número de tratamientos o muestras:
12 nJ(J 2 - 1) 12
E(X;) = E(S)--- ----=J-1
nJ(J + 1) 12 nJ(J + 1)
12
X2
'
=
nJ(J + 1) i
L R~ -1
3n(J + 1) (9.31)
3. Estadístico de contraste 1 5:
12
X2 = í:R~-3n(J+I) (9.31)
' nJ(J + 1) i 1
14 Ver. por ejemplo, San Martín y Pardo, 1989, págs. 248-249, para una justificación de la
e= 1-
•=1
I ( i; - i,
nJ(J 2 -I)
)
siendo 1. el número de puntuaciones empatadas en un rango dado (1 1,1,. ... ,1., ... ,1 6 ) y Gel número de
grupos o conjuntos de empates. Por supuesto, los empates que importan son los que se dan dentro del
mismo sujeto o bloque pues, recordemos, los rangos se asignan independientemente para cada sujeto o
bloque. La corrección por empates se realiza para corregir el sesgo conservador que afecta a X; cuando
existen empates, de modo que no tiene sentido utilizarla cuando sin ella ya se rechaza H 0 .
© Ediciones Pir~midc
Contrastes no paramétricos / 445
5. Zona crítica: viene definida por todos los valores mayores o iguales que el punto
1 _.x; de la tabla R, o mayores o iguales que el punto 1 _.xJ- 1 •
TABLA 9.13
1 16 8 8 12
2 12 9 9 10
3 12 10 10 8
4 15 13 7 11
5 18 12 12 12
6 13 13 8 10
7 18 16 10 13
8 15 9 6 6
9 16 9 11 8
© Ediciones Pirámide
446 / Análisis de datos en psicología 11
TABLA 9.14
1 4 1,5 1,5 3
2 4 1,5 1.5 3
3 4 2,5 2,5 1
4 4 3 1 2
5 4 2 2 2
6 3.5 3,5 1 2
7 4 3 1 2
8 4 3 1,5 1,5
9 4 2 3 1
35.S 22 15 17,5
2. Supuestos:
a) Los sujetos constituyen una muestra aleatoria.
h) Los sujetos son independientes de los tratamientos.
e) El nivel de medida de los datos es, al menos, ordinal dentro de cada
bloque.
3. Estadístico de contraste 17 :
12
x; = ----(35,5
9(4)(5)
2 + 22 2 + 15 2 + 17,52)- 3(9)(5) = 16,70
LRJ
( _,_ 11J(J + 1) 2 ) 2275,5 9(4)(5) 2 )
(ll - 1) - ---- (9-1) ( - - - - -
11 4 9 4
F,=---------- ------ ---- = 12.97
11J(J + 1)(2J + I) LRJ 9(4)(5)(9) 2275.5
__ ;_
6 9
6 ll
© Ediciones Pirámide
Contrastes no paramétricos / 447
6. Decisión: puesto que 16,70 > 11,34, rechazamos H 0 y concluimos que el paso
del tiempo afecta a la calidad de la memoria.
a) Comparaciones múltiples
EJERCICIOS
9.1. En años previos, la mediana del número de horas de estudio que los alumnos dedican
al examen de Análisis de datos en psicología JI viene siendo de 12,8. En el presente curso,
hemos seleccionado al azar a 10 alumnos de la mencionada asignatura y hemos computado
el número de horas de estudio de cada sujeto (tabla 9.15). ¿Permiten estos datos concluir que
el promedio de horas de estudio es este año igual al de años anteriores? (oc = 0,05).
TABLA 9.15
Sujetos 1 2 3 4 5 6 7 8 9 10
9.2. Algunos estudios sobre gemelos señalan que el miembro del par nacido en primer lugar
muestra un comportamiento más agresivo que el nacido en segundo lugar. Para obtener
alguna evidencia más sobre esta idea, se ha pasado un cuestionario de agresividad a una
muestra aleatoria de 15 parejas de gemelos. Los resultados obtenidos aparecen en la tabla
9.16. ¿Permiten estos datos concluir que, entre los gemelos, los nacidos en primer lugar son
más agresivos? (oc = 0,05).
TABLA 9.16
«~ Ediciones Pirámide
448 / Análisis de datos en psicología 11
9.3. En un experimento sobre memoria hemos hecho aprender a una muestra aleatoria de 5
sujetos tres listas con las siguientes características: lista A: 12 sílabas sin sentido de tres letras
cada una (consonante-vocal-consonante); lista B: 12 números de tres cifras; lista C: 12
palabras con sentido de 8 letras cada una. Tras contabilizar el número de ensayos que cada
sujeto necesitó para aprender correctamente cada lista hemos obtenido los resultados de la
tabla 9.17. ¿Podemos concluir, con O!= 0,01, que las listas difieren en el número medio de
ensayos requeridos para aprenderlas?
TABLA 9.17
1 2 3 4 5
Lista A 15 12 16 19 16
Lista B 11 9 8 IO 7
Lista C 6 5 8 7 4
TABLA 9.18
Sujetos 1 2 3 4 5 6 7 8 9 IO
Tiempo de reconocimiento 30 40 90 30 40 60 30 70 70 40
9.5. Una muestra aleatoria de 7 universitarios fue encuestada sobre su actitud hacia la
nueva ley de reforma universitaria utilizando un cuestionario diseñado para tal finalidad.
Tras esta primera aplicación del cuestionario, se invitó a los sujetos a participar en una mesa
redonda en la que se debatió e informó sobre diferentes aspectos de la mencionada ley.
A continuación, los sujetos volvieron a rellenar el mismo cuestionario. La tabla 9.19 recoge los
resultados obtenidos por cada sujeto en las dos aplicaciones. ¿Podemos afirmar que la mesa
redonda consigue incrementar las puntuaciones en el cuestionario? (oi = 0,01).
TABLA 9.19
Sujetos
2 3 4 6 7
, I .ª aplicación 14 16 18 20 18 22 18
2.ª aplicación 22 18 22 19 22 28 IO
© Ediciones Pirámide
Contrastes no paramétricos / 449
9.6. Se ha llevado a cabo un estudio ara averiguar si el optalidón provoca ansiedad en los
pacientes que lo toman habitualmente. El experimento se ha realizado con 20 sujetos, los
cuales han sido asignados al azar a dos grupos de igual tamaño. Al primer grupo se le ha
administrado el fármaco durante un mes. Al segundo grupo se le ha administrado un placebo
durante el mismo espacio de tiempo. Al finalizar el periodo de tratamiento todos los sujetos
fueron evaluados en su nivel de ansiedad. La tabla 9.20 recoge los resultados obtenidos.
¿Podemos concluir que el optalidón hace aumentar el nivel de ansiedad de los sujetos?
(ex= 0,01).
TABLA 9.20
Grupo experimental 13 20 30 28 33 42 37 10 25 12
Grupo control 10 12 22 17 40 21 14 23 18 30
9.7. Hemos presentado a 6 sujetos elegidos al azar 4 discos de colores (R: rojo; A: azul; V:
verde; N: negro). La tarea encomendada a cada sujeto ha consistido en situar los 4 estímulos
en un continuo subjetivo con los polos alegre y triste. A partir de los resultados de la tabla
9.21, ¿podemos afirmar que hay colores con tendencia a ser percibidos más alegres o tristes
que otros? (ex= 0,01).
TABLA 9.21
Sujetos
1 R V A N
2 R A V N
3 V R A N
4 R V A N
5 V A R N
6 V R A N
9.8. Con el fin de estudiar el efecto que produce una determinada droga en pacientes
aquejados de insomnio, un investigador seleccionó 4 niveles de droga ( 10, 50, 100 y 250 mg) y
los aplicó a 4 grupos aleatorios de pacientes. Las dosis fueron administradas una vez al día
durante una semana. La tabla 9.22 recoge el número medio de minutos/día dormidos por
cada paciente durante la semana de tratamiento. También recoge la tabla el número medio
de minutos/día dormidos por un grupo de pacientes que no recibió dosis de droga, sino un
placebo. A partir de estos resultados, ¿podemos decir que las diferentes cantidades de
fármaco reducen diferencialmente el insomnio? (ix = 0,01).
TABLA 9.22
© Ediciones Pirámide
450 / Análisis de datos en psicologfa 11
9.9. Utilizando los datos del ejemplo 9.8, ¿qué cantidad de fármaco diremos que se muestra
significativamente eficaz para reducir el insomnio?
9.IO. Un psicólogo escolar cree que el orden en el que se presentan las preguntas de un test
influye sobre la aptitud de los sujetos para responder correctamente a las mismas. Para
estudiar esta cuestión divide aleatoriamente una clase de 20 sujetos en dos grupos de 10
sujetos cada uno. Selecciona un conjunto de preguntas y las ordena de acuerdo con el nivel
de dificultad estimado de cada una. Basándose en esa ordenación, prepara dos tests: el
primero (A) con las preguntas ordenadas en dificultad creciente y el segundo (B) con las
preguntas ordenadas en dificultad decreciente. Un grupo de sujetos responde al test A y el
otro al test B. Los resultados obtenidos con cada grupo aparecen en la tabla 9.23. ¿Podemos
concluir que el orden de las preguntas afecta al rendimiento en los tests? (ot = 0,05).
TABLA 9.23
Test A 82 82 83 95 91 65 90 75 71 70
Test B 78 68 78 66 75 50 60 42 80 78
9.11. Imaginemos una situación en la que 6 sujetos son evaluados de O a 10 por 3 jueces
independientes (por ejemplo, 6 alumnos son calificados por 3 profesores, 6 candidatos a un
puesto de trabajo son clasificados por 3 entrevistadores, 6 pacientes son diagnosticados por
tres terapeutas, etc.). La tabla 9.24 muestra una situación de este tipo, con unos datos
ficticios. Queremos averiguar si existen algunos sujetos con puntuaciones significativamente
mejores (más altas) que otros (ot = 0,05).
TABLA 9.24
Sujetos
1 2 3 4 5 6
Juez 1 8 7 2 1 6 3
Juez 2 4 9 3 1 6 2
Juez 3 6 9 4 2 5 3
9.12. Seis pacientes con diferente sintomatología depresiva mantienen sesiones de terapia
grupal con tres terapeutas diferentes. Cierto día, los tres terapeutas deciden obtener algún
tipo de medida sobre el grado de intolerancia hacia las opiniones distintas de las propias. pues
consideran que esa actitud está entorpeciendo sensiblemente la marcha del proceso terapéuti-
co. Para medir esa actitud se les ocurre ordenar a los seis pacientes, de forma independiente y
cada terapeuta según su propio criterio, desde el que consideran que es más intolerante (1) al
que consideran que lo es menos (7). Los resultados de la ordenación están recogidos en la
tabla 9.25. Considerando la ordenación establecida por los terapeutas, ¿podemos afirmar, con
°' = 0,01, que los pacientes difieren significativamente en su grado de intolerancia?
© Ediciones Pirámide
Contrastes no paramétricos / 451
TABLA 9.25
Pacientes
1 2 3 4 5 6
1 6 3 4 1 2 5
Terapeutas 2 6 4 5 1 3 2
3 5 4 6 2 3 1
TABLA 9.26
Extrema derecha 10 12 10 8 11 15 9 12 8 14
Derecha 9 11 10 6 9 5 14 6 10 8
Centro 4 10 8 6 5 8 11 2 4 9
Izquierda 10 2 4 7 2 8 9 11 5 3
Extrema izquierda 11 14 7 9 10 12 9 13 15 10
9.14. Se ha realizado un estudio para comprobar si una sustancia utilizada por la medicina
hindú para desintoxicar opiómanos podría ser empleada también para deshabituar a los
fumadores. La experiencia se ha realizado con 26 fumadores distribuidos al azar en dos
grupos. A un grupo (A) se le ha administrado la mencionada sustancia y el otro (B) ha
recibido un placebo (simulando que tomaban la sustancia en cuestión). Tras el tratamiento se
registró el número medio de cigarrillos/día fumados por cada sujeto durante un mes. La
tabla 9.27 recoge los resultados obtenidos. ¿Qué podemos concluir sobre la eficacia de la
sustancia hidú para reducir el hábito de fumar? (oc =0,01).
TABLA 9.27
Grupo A 20 10 o o o o 3 7 o 8 7 10 11
Grupo B 19 28 18 14 17 16 13 12 14 11 10 20 8
9.15. Antes de ser sometidos a una terapia correctora de 20 sesiones, 7 niños disléxicos han
pasado por una prueba de dictado en la que se han contabilizado los errores que ha
cometido cada uno. Tras las 20 sesiones de entrenamiento, los 7 niños han vuelto a repetir la
prueba de dictado y se han vuelto a contabilizar sus errores. La tabla 9.28 recoge los
resultados obtenidos. ¿Qué podemos concluir sobre la eficacia del entrenamiento utilizado?
(ex= 0,05).
© Ediciones Pirámide
452 / Análisis de datos en psicología 11
TABLA 9.28
Sujetos
2 3 4 5 6 7
TABLA 9.29
Sujetos
1 2 3 4 5 6 7 8 9 10
Cuestionario A 4 5 4 8 3 6 6 5 2 4
Cuestionario B 2 4 5 3 5 7 6 4 8 7
Cuestionario C 8 7 9 2 7 5 8 6 4 8
'
TABLA 9.30
Sujetos
1 2 3 4 5 6 7 8
1 e e B e D D e c.
Orden de 2 D B e B B e D A
clasificación 3 B D E D e E B D
de los estímulos 4 A E D E E A A B
5 E A A A A B E E
grupo 3 no recibieron estimulación aversiva. Tras esta primera fase todas las ratas fueron
introducidas en una nueva situación en la que tenían que apretar una palanca para conseguir
una bola de alimento. La tabla 9.31 recoge el número de respuestas (apretar la palanca)
dadas por cada animal en un intervalo de tiempo idéntico para todos. ¿Podemos concluir
que el grupo sometido a descarga inescapable (grupo 2) rinde peor que los otros dos?
(a.= 0,05).
TABLA 9.31
Grupo 1 3 7 6 1 5 4 6
Grupo 2 O 2 1 o o 1 o
Grupo 3 2 6 4 o 3 9 3
9.19. (Señale la/s alternativa/s correcta/s.) Para estudiar el efecto de tres métodos de
enseñanza sobre el rendimiento, utilizamos el estadístico H de Kruskal-Wallis. Si obtenemos
H = 2 y sabemos que P(H < 2) = 0,007:
a) Concluiremos que no hay diferencias entre los métodos.
b) Las dos combinaciones lineales posibles serían significativas.
e) La relación entre VI y VD podría ser cúbica.
d) La relación entre VI y VD podría ser cuadrática.
e) La probabilidad de rechazar la hipótesis nula siendo verdadera vale 0,007.
9.20. (Señale la/s alternativa/s correcta/s.) Con una prueba no paramétrica obtenemos un
estadístico de contraste T= 7,3 tal que P(T< 7,3) = 0,025. Esto significa que si el contraste es
unilateral derecho:
a) Hay que rechazar H 0 •
b) La probabilidad de rechazar H 0 , siendo verdadera, es 0,025.
e) Lo más sensato es mantener H 0 •
d) Podemos rechazar H 0 con una probabilidad de equivocarnos de 0,025.
e) Al mantener H 0 , siendo verdadera, la probabilidad de equivocarnos es al menos
0,025.
SOLUCIONES
9.20. c.
© Ediciones Pirámide
Relación entre variables
ordinales
10
'\'R. = n(n + 1)
f 1
2
'\' Rf- = n(n + 1)(2n + 1)
f 1
6 ( 10. l)
'\'R.
- f ' n+l
R=-=--
n 2
2 1 '\' 2 -2 n2 - 1
SR=-¿R· -R = - -
n ¡ ' 12
n¿X¡Y¡ - ¿xi¿ Y;
i i i
(10.2)
6IDf
r = l - - i__ (10.3)
• n3 - 1
San Martín y Pardo, págs. 401-402), pero probablemente resulta menos engorroso
aplicar directamente la ecuación ( 10.2) a las puntuaciones transformadas en rangos.
Puesto que el coeficiente de correlación de Spearman y el de Pearson son, en
realidad, la misma cosa, r, debe ser interpretado exactamente igual que '"r Los
valores que puede tomar r, oscilan t:ntre - 1 y + 1; el valor cero indica ausencia de
relación; los valores mayores que cero indican relación positiva; y los valores
menores que cero indican relación negativa.
CUADRO 10.1
Coeficiente de correlación r., de Spearman. Prueba de significación
l. Hipótesis:
a) Contraste bilateral: H 0 : Pxy = O; H 1 : Pxy # O.
b) Contraste unilateral derecho: H 0 : Pxy ~ O; H 1 : Pxy > O.
e) Contraste unilateral izquierdo: H 0 : Pxy ~ O; H 1 : Pxy < O.
3. Estadísticos de contraste:
3.1. r,
3.2. T=----
r,Jn=2 (10.4)
~
4. Distribuciones muestrales:
4.1. Los puntos críticos (r p) de la distribución exacta de r, vienen en la tabla S del
apéndice final para n ~ 16 y para :x = 0,01 y :x = 0,05. ·
4.2. El estadístico T se distribuye según el modelo de probabilidad t de Student
con n - 2 grados de libertad. La aproximación sólo empieza a ser razonable-
mente buena con tamaños muestrales grandes (n > 30).
5. Zonas críticas:
a) Contraste bilateral:
a.I. r, ~ r, 12 Y r_, ~ '1 -212·
a.2. T~ .,2tn-2 Y T~ 1-212tn-2·
b.2. T~ 1 _ 2 t._ 2 •
EJEMPLO 10.1. Un psicólogo desea averiguar si existe relación entre las variables
expediente académico y nivel de ingresos anuales. Para ello, selecciona una muestra
aleatoria de 6 titulados universitarios y mide en ellos ambas variables. Los resultados
obtenidos aparecen en la tabla 10.1. Utilizando el coeficiente de correlación de
Spearman, ¿podemos decir, con oc = 0,05, que existe verdadera relación entre esas
variables?
TABLA 10.1
1 7,4 1.000
2 8,0 900
3 6,5 800
4 8,2 1.500
5 6,9 850
6 8,1 1.350
© Ediciones Pirámide
Relación entre variables ordinales / 463
variables {R;<:ci y R;<y1), hemos obtenido la diferencia (D;) entre cada para de rangos y
hemos elevado al cuadrado esas diferencias.
TABLA 10.2
6~D 2
1 7 6(2)
r = 1 - - - = 1 - - - =O 943
' n3 - 1 63 - 1 '
TABLA 10.3
1 4 2
2 2 1
3 2 3,5
4 5 3,5
5 2 5
6 6 7
7 7 6
© Ediciones Pirámide
464 / Análisis de datos en psicología 11
Los rangos ya vienen dados, de modo que no es necesario asignarlos. Pero, puesto
que existen empates, lo apropiado es utilizar, no el coeficiente de Spearman, sino el de
Pearson. En la tabla 10.4 hemos organizado los cálculos necesarios para obtener rxy·
TABLA 10.4
1 4 2 16 4 8
2 2 1 4 1 2
3 2 3,5 4 12,25 7
4 5 3,5 25 12,25 17,5
5 2 5 4 25 10
6 6 7 36 49 42
7 7 6 49 36 42
n¿X;Y;- ¿x;¿ Y;
i i i
7( 128,5) - (28)(28)
----:====::::::;:-----;::====::;- = 0,617
J7(138) - (28) 2 )7(139,5) - (28) 2
l. Hipótesis: H 0 : Px, :s:; O; H 1 : Pxr >O (contraste unilateral derecho: los especialis-
tas coincidirán en sus valoraciones cuando exista relación positiva entre los
rangos que han asignado).
2. Supuestos: muestra aleatoria de 7 pares de observaciones obtenidas con una
escala al menos ordinal.
3. Estadístico de contraste: r, = 0,617.
4. Distribución muestral: tabla S del apéndice final, con n = 7.
5. Zona crítica: r, ~ r 1 - · = r0 . 95 = 0,714.
6. Decisión: puesto que 0,617 > 0,714, mantenemos H 0 • No podemos afirmar que
exista relación significativa entre los rangos asignados por los dos especialistas;
por tanto, no podemos afirmar que el acuerdo alcanzado sea significativo.
TABLA 10.5
X¡ 1 2 3 4 5 6 7 8
Y¡ 3 1 4 2 6 5 7 8
TABLA 10.6
X, Y; Comparaciones s d
24 4
relación perfecta pos1t1va entre las dos variables, todas las comparaciones serán
semejanzas: n, = n(n + 1)/2 y nd =O; de modo que n, - nd = n, + nd y f = l. Si la
relación entre las variables es perfecta, pero negativa, todas las comparaciones serán
desemejanzas: n, =O y nd = n(n + 1)/2; de modo que n, - nd = -(n, + nd) y f = - l.
Si, por último, no existe relación ninguna entre las variables, nos encontraremos
con tantas semejanzas como desemejanzas: n, = nd; de modo que n, - nd = O y
f = O. Por tanto, f oscila entre - 1 y 1 y su interpretación descriptiva es exacta-
mente la misma que la de r,.
Por supuesto, lo habitual es que entre un grupo de rangos la relación no sea ni
perfecta (positiva o negativa) ni nula. Más bien, el coeficiente f tomará valores
comprendidos entre - 1 y l. Por ejemplo, aplicando la ecuación ( 10.5) a las
variables de la tabla 10.5 obtenemos:
n, - nd 24 - 4
f = - - = - - = 0,71
n, + nd 14 + 4
Para saber si ese valor está indicando verdadera relación entre las variables X¡ e
Y¡ podemos utilizar la prueba de significación que se describe en el siguiente
apartado.
Si existen muchos empates, el valor de f necesita ser corregido 1• El número de
semejanzas (n,) y desemejanzas (nd) debe obtenerse teniendo en cuenta la existencia
de empates: 1) se ordenan los pares (X¡, Y¡) según el orden natural de los rangos de
la variable X¡; 2) se compara cada valor de Y¡ con cada otro valor de Y¡ posterior a
él, excepto con aquellos valores con los que se encuentra empatado en X¡. Las
1 En el SPSS, el coeficiente de correlación tau de Kendall (ecuación [10.5]) no aparece como tal,
© Ediciones Pirámide
Relación entre variables ordinales / 467
n, - nd
f =-----;=============---;::============ (10.6)
Jn(n - 1)/2 - Tx Jn(n - 1)/2 - TY
siendo:
¡j
~)x,(tx, - 1)
Tx = _1_ _2___ y
Para tamaños muestrales de hasta 40, disponemos de tablas que nos proporcio-
nan los puntos críticos de la distribución muestral exacta de f. Para tamaños
muestrales más grandes podemos utilizar la aproximación normal, pues bajo la hipó-
tesis nula de independencia, conforme el tamaño muestra! va aumentando, la distri-
bución muestra) de i tiende a la normalidad con valor esperado cero y varianza:
2 2(2n + 5)
(J.=---- (10.7)
r 9n(n - 1)
El cuadro 10.2 recoge un resumen del procedimiento que permite hacer inferen-
cias sobre el parámetro r (es decir, sobre la verdadera correlación poblacional)
utilizando el valor muestral f.
CUADRO 10.2
Co~ficiente de correlación r de Kendall. Prueba de significación
1. Hipótesis:
a) Contraste bilateral: H 0 : t = O; H 1: t :¡. O.
b) Contraste unilateral derecho: H 0 : t ~ O; H 1: t > O.
e) Contraste unilateral izquierdo: H 0 : t ;;:i: O; H 1 : t < O.
2 Además del coeficiente de correlación tau-b de Kendall (ecuación [10.6]), el SPSS incluye el coefi-
ciente de correlación tau-e, también de Kendall, que es similar al tau-b, pero que utiliza una corrección
por empates ligeramente diferente: r, = 2k(n, - n4)/[n 2 (k - !)] donde k se refiere al valor menor del nú-
mero de filas y del número de columnas.
© Ediciones Pirámide
468 / Análisis de datos en psicología 11
3. Estadísticos de contraste:
3.1. i.
iJ9n(n - 1)
3.2. Z=----
J2{2ñ + 5)
4. Distribuciones muestrales:
4.1. Los puntos críticos (Tp) de la distribución exacta de i vienen en la tabla T del
apéndice final para n :,.;; 40 y para iX = 0,01 y iX = 0,05.
4.2. El estadístico Z se distribuye según el modelo de probabilidad normal
N(O, 1). La aproximación es muy buena con tamaños muestrales relativa-
mente pequeños (a partir de n = 20).
5. Zonas críticas:
a) Contraste bilateral:
a.I. i:,.;; t:,12 Y i ;;¡, t:1-212·
a.2. Z:,.;; z,12 y Z ;;¡, z 1 -.12 •
b) Contraste unilateral derecho:
b.I. i ;;¡, T:1-··
b.2. Z;;i:z 1 _ 2 •
e) Contraste unilateral izquierdo:
c. l. i :,.;; t:,.
c.2. Z:,.;; z,.
TABLA 10.7
Problema 1 2 3 4 5 6
Profesor A (X¡) 8 9 4 5 6 3
Profesor B (Y,) 7 6 4 3 5 1
TABLA 10.8
Problema 1 2 3 4 5 6
Profesor A (X,) 5 6 2 3 4 1
Profesor B (Y,) 6 5 3 2 4 1
TABLA 10.9
X; Y; Comparaciones s d
13 2
n, - n, 13 - 2
i=--=--=073
n, + n, 13 + 2 '
obtenerse igualmente utilizando las puntuaciones originales. No obstante, trabajar con rangos puede
resultar más sencillo al principio.
© Ediciones Pirámide
470 / Análisis de datos en psicologfa 11
TABLA 10.10
Sujetos 1 2 3 4 5 6 7 8 9 10 11 12
Concesiones (X¡) o o 1 1 3 4 5 6 7 8 8 11
Búsqueda (Y,) 42 46 39 37 65 88 86 56 62 92 54 81
TABLA 10.11
X; Y, Comparaciones s d
44 19
Y aplicando (10.6):
n, - nd
i = -----;:======---:=======
Jn(n - 1)/2 - Txj$-=t)/2 - T>.
44- 19
----;:=====---;::::::==== = 0,388
J12(12 - 1)/2 - 3 J12(12 - 1)/2 - o
l. Hipótesis: H 0 : r = O; H 1 : r # O (contraste bilateral).
2. Supuestos: muestra aleatoria de 12 pares de observaciones obtenidas con una
escala al menos ordinal.
3. Estadístico de contraste: i = 0,388.
4. Distribución muestra!: tabla T del apéndice final, con n = 12.
5. Zona crítica: i ~ t 1 - .12 = r 0 •975 = 0,455.
6. Decisión: puesto que 0,388 < 0,455, mantenemos H 0 • No podemos afirmar que
exista relación significativa entre las variables estudiadas.
como muestra la tabla 10.12. Se trata de un caso concreto en el que ambas variables
únicamente toman tres valores (bajo, medio, alto; 1, 2 3; etc.).
TABLA 10.12
Y¡
(1) (2) (3)
Bajos Medios Altos
Dentro de cada casilla hay una frecuencia: a, por ejemplo, representa el número
de observaciones a las que corresponde un 1 en X; y un 1 en Y¡; h. por ejemplo,
representa el número de observaciones a las que corresponde un 3 en X; y un 2 en
Y¡. Todas las casillas, por tanto, recogen el numero de observaciones (n;) que están
empatadas tanto en X; como en Y¡. Las frecuencias marginales de las filas (n;+)
representan empates en X; y las frecuencias marginales de las columnas (n + i)
representan empates en lj.
Llamemos:
n, = número
de pares semejantes o no inversiones.
nd = número de pares desemejantes o inversiones.
ne = número de pares empatados.
Teniendo en cuenta el orden en el que están dispuestos los valores de las
variables (ver tabla 10.12), serán pares semejantes todos aquellos que resulten de
comparar cada una de las observaciones de una casilla dada con cada una de las
observaciones que se encuentren en casillas situadas por debajo y a la derecha de esa
casilla de referencia:
n, = a(e + f + h + i) + bif + i) + d(h + i) + e(i)
Y serán pares desemejantes todos aquellos que resulten de comparar cada una
de las observaciones de una casilla dada con cada una de las observaciones que se
encuentren en casillas situadas por debajo y a la izquierda de esa casilla de
referencia:
nd = c(d + e + g + h) + b(d + g) + ft.g + h) + e(g)
© Ediciones Pirámide
Relación entre variables ordinales / 473
(10.8)
Si los datos están adecuadamente ordenados (es decir, si están ordenados tal
como muestra la tabla 10.12), la interpretación de y es idéntica a la de i. Pero, al
igual que ocurre con el resto de los coeficientes de correlación estudiados, para
saber si un valor concreto de y está indicando relación significativa es necesario
contrastar la hipótesis H 0 : y = O. El cuadro 10.3 ofrece un resumen de los pasos de
ese contraste.
CUADRO 10.3
Coeficiente de correlación /' de Goodman y Kruskal. Prueba de significación
1. Hipótesis:
a) Contraste bilateral: H 0 : }'=O; H 1: }'#-O.
b) Contraste un~lateral derecho: H0 : ¡• :::;; O; H 1 : }' > O.
e) Contraste unilateral izquierdo: H 0 : /' ;;.: O; H 1 : /' < O.
3. Estadístico de contraste:
(10.9)
4 Somers ha propuesto una modificación de los coeficientes r y ( (ecuaciones [10.5] y [10.8]) para
el caso en que una de las variables se considere independiente y la otra dependiente. Esta modificación
consiste en añadir en el denominador de la ecuación el número de pares empatados en la variable de-
pendiente. Esta modificación se conoce como d de Somers y posee tres versiones: dos asimétricas (para
cuando una de las variables se considera dependiente) y una simétrica (para cuando no se hace distinción
entre variable independiente y dependiente). La versión simétrica se obtiene utilizando en el denominador
de la d el promedio de los denominadores correspondientes a las dos versiones asimétricas.
© Ediciones Pirámide
474 / Análisis de datos en psicología 11
donde:
5. Zonas críticas:
a) Contraste bilateral: Z ~ z, 12 y Z ~ z 1 _ , 12 •
h) Contraste unilateral derecho: Z ~ z 1 _ ••
e) Contraste unilateral izquierdo: Z ~ z,.
TABLA 10.13
Baja 12 8 4
Clase social (X¡) Media 4 10 6
Alta 2 8 16
Tenemos dos variables ordinales, con muy pocos niveles por variable (3 niveles en
ambas) y con numerosos empates: lo apropiado es estudiar la relación entre ellas
© Ediciones Pirámide
Relación entre variables ordinales / 475
En consecuencia:
912 - 224
.r,= =0606
r 912 + 224 '
0,606)70 2 - 2.628
z= = 3,07
j2(70)(1 - 0,606 2 )
4. Distribución muestra!: el estadístico Z se distribuye según el modelo de
probabilidad normal N(O, 1).
5. Zona crítica: Z ~ z 1 - · = z 0 . 99 = 2,33.
6. Decisión: puesto que 3,07 > 2,33, rechazamos H 0 .
7. Conclusión: podemos afirmar que existe relación significativa entre las varia-
bles. Dada la disposición de los datos y teniendo en cuenta que el coeficiente ,~
es positivo, podemos concluir que los sujetos de clase social alta prefieren
películas de contenido más agresivo que los de clase social baja.
TABLA 10.14
Estructura de los datos y notación al clas!ficar una muestra de n objetos
o sujetos según J características o según la opinión de J jueces
Características o jueces
Sujetos u objetos 1 2 j J
J(n + 1)
R1 = R 2 = ··· = R; = ··· = Rn = 2 (10.11)
_ ~ (
S- J(n +
L.- R . - - - -
1)) 2
(10.12)
i=1
1
2
el cual representa la variabilidad observada entre cada total R; y el total que cabría
esperar si la concordancia fuera nula. S valdrá cero cuando la concordancia
existente sea nula (pues, en ese caso, todos los totales R; serán iguales entre sí e
iguales a J(n + 1)/2) y alcanzará su valor máximo en el caso de concordancia
perfecta, es decir, cuando entre los totales R; exista la máxima variabilidad:
(10.13)
5 Con J conjuntos de rangos no tiene sentido un coeficiente con valores negativos, pues no es posible
la existencia de un desacuerdo total. Si entre dos conjuntos de rangos existe relación perfecta negativa, el
tercer conjunto de rangos necesariamente estará relacionado con uno de los dos anteriores o con
ninguno de ellos; y lo mismo vale decir del cuarto, y del quinto, etc.; y eso es algo de lo que no tiene
sentido hablar en términos negativos.
© Ediciones Pirámide
478 / Análisis de datos en psicología 11
12¿Rf
W= 3(n + 1)
i (10.15)
J 2 n(n 2 - 1) n-1
" La presencia de empates dentro de un mismo conjunto de rangos hace que W tome un valor más
pequeño del que le corresponde. Si los empates son pocos, la disminución de W es insignificante, pero
si el número de empates es elevado conviene utilizar la siguiente fórmula correctora:
12¿Rf - 3J 2 n(n + 1) 2
w= - - - - - - - - - G
(10.15.b)
J 2 n(n 2 - 1) - J ¿(ti - r.)
donde '• se refiere al número de puntuaciones empatadas en un rango dado y G al número de grupos o
conjuntos de empates.
© Ediciones Pirámide
Relación entre variables ordinales / 479
CUADRO 10.4
Coeficiente de concordancia W de Kendal/. Prueha de siynificacián
Sin tomas 1 2 3 4 5
A 1 1 2 1 2 7
B 3 3 1 2 1 10
e 2 4 3 4 4 17
D 4 2 4 3 3 16
121:Rf
3(n + 1) 12(7 2 + 10 2 + 17! + 16 2 ) 3(4 + 1)
W= ---- - - - - - - - - - - - - - = 0,552
J2n(n2 - 1) n- 1 52(4)(4 2 - 1) 4- 1
© Ediciones Pirámide
480 / Análisis de datos en psicología 11
JW-1
f =--- (10.17)
s J - 1
8 Esto, en realidad, no es una ventaja real. Existen tablas más completas para r, (ver, por ejemplo,
Zar, 1972, 1984), que las que nosotros presentamos en el apéndice final.
© Ediciones Pirámide
Relación entre variables ordinales / 481
EJERCICIOS
10.1. Un psicólogo social está interesado en estudiar la relación ent•.c las variables
autoritarismo y esfuerzo por mejorar de estatus. Para medir la primera variable ha utilizado la
escala F de Adorno; y para medir el esfuerzo por mejorar de estatus ha utilizado m1a escala
construida por él mismo. Los resultados obtenidos con una muestra de 12 Lniversitarios
aparecen en la tabla 10.16. ¿Podemos concluir, utilizando el coeficiente de correlación r, de
Spearman, que las mencionadas variables se encuentran relacionadas? (oc= 0,01).
TABLA 10.16
Sujetos 1 2 3 4 5 6 7 8 9 10 11 12
TABLA 10.17
Directivos Trabajadores
© Ediciones Pirámide
482 / Análisis de datos en psicología 11
TABLA 10.18
Hermano menor 4 6 14
Hermano intermedio 10 18 12
Hermano mayor 16 8 2
10.6. Los cuatro especialistas del departamento psiquiátrico de un centro asistencial han
clasificado a 8 pacientes según su disposición para la convivencia fuera del centro. Los
resultados individuales de esa clasificación están recogidos en la tabla 10.19. Teniendo en
cuenta que cada especialista ha realizado la clasificación basándose exclusivamente en
informes propios, ¿podemos decir que los criterios utilizados por los diferentes especialistas
coinciden? (a = 0,05).
TABLA 10.19
Especialistas
Pacientes 1 2 3 4
1 1 1 1 1
2 4 2 3 2
3 3 3 2 4
4 2 4 4 3
5 6 5 5 5
6 5 6 6 7
7 7 7 8 6
8 8 8 7 8
10.7. En una escuela infantil se quieren seleccionar un par de juegos concretos dentro de
una serie de juegos con las mismas características. Para ello, se pide a 7 niños que ordenen,
según sus preferencias, 4 de esos juegos. Los resultados de esa ordenación aparecen en la
tabla 10.20. ¿Podemos decir que existe acuerdo significativo entre las preferencias mostradas
por los niños? (a= 0,01).
TABLA 10.20
1 4 1 2 3
2 3 1 2 4
3 3 1 2 4
4 4 2 1 3
5 4 1 3 2
6 4 1 3 2
7 4 1 2 3
© Ediciones Pirámide
Relación entre variables ordinales / 483
TABLA 10.21
Sujetos 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
IO.IO. Uno de los métodos habitualmente utilizados para la construcción de escalas (el
método de Thurstone) consiste en definir un continuo en el que situar los distintos aspectos o
categorías de una variable, sea o no continua. Nos hemos servido de este método para
obtener la opinión de 4 expertos sobre el grado de deterioro emocional de 6 pacientes. Cada
experto ha valorado en una serie de aspectos el grado de deterioro de cada paciente y,
promediando para cada sujeto los resultados del informe proporcionado por cada experto,
hemos obtenido los resultados que recoge la tabla 10.22. A partir de estos resultados,
¿podemos afirmar que existe relación significativa entre las valoraciones efectuadas por los
diferentes expertos? (ex = 0,05).
TABLA 10.22
Expertos
Pacientes 1 2 3 4
1 1 2 2 1
2 2 1 1 3
3 3 4 4 2
4 4 3 3 4
5 5 6 5 5
6 6 5 6 6
10.11. Algunos psicólogos mantienen que las madres muy ansiosas trasmiten su ansiedad al
niño recién nacido generando en él ciertos trastornos de tipo emocional. Al mismo tiempo,
parece que la ansiedad materna está directamente relacionada con el nivel de estudios:
cuanto mayor es el nivel de estudios, más intensa es la conducta ansiosa de la madre. Según
esto, los trastornos emocionales en recién nacidos serán más frecuentes en madres con un
nivel de estudios alto que en madres con un nivel de estudios bajo.
Para obtener alguna evidencia empírica sobre esta hipótesis, se seleccionaron aleatoria-
mente SO madres con distinto nivel de estudios (17 con nivel de estudios bajo, 19 con nivel de
© Ediciones Pirámide
484 / Análisis de datos en psicología 11
estudios medio y 14 con nivel de estudios alto) y se hizo una exploración psicológica a sus
hijos contabilizando, para cada niño, el número de síntomas detectados en relación con algún
trastorno de tipo emocional. Los resultados encontrados aparecen en la tabla 10.23.
¿Podemos concluir que estos resultados aportan evidencia empírica relevante sobre nuestra
hipótesis? (ai = 0,01).
TABLA 10.23
Número de síntomas
Menos de 5 De 5 a 10 Más de 10
Bajo 10 4 3
Nivel de
estudios Medio 4 6 9
Alto 1 1 12
10.12. Una muestra aleatoria de ocho niños deficientes participó en una experiencia
consistente en vivir juntos en un piso con un educador, un psicólogo y un trabajador social.
Uno de los objetivos de esta experiencia era el de mejorar la autonomía referida a los hábitos
básicos. Después de un año de convivencia, los tres encargados del piso valoraron individual-
mente la autonomía que ellos percibían que cada niño había alcanzado. Utilizaron para ello
una escala de 10 puntos (el 10 indicando máxima autonomía). Los resultados obtenidos están
recogidos en la tabla 10.24. ¿Podemos decir que los tres responsables coinciden en sus
valoraciones? (ai = 0,05).
TABLA 10.24
Valoraciones
1 1 3 3
2 5 5 7
3 8 7 8
4 6 4 5
5 7 8 4
6 3 1 2
7 2 2 1
8 4 6 6
10.13. En la tabla 10.25 aparecen los resultados obtenidos por una muestra de 10 sujetos en
una prueba fisica y en una escala de autoconcepto. ¿Existe relación significativa entre ambas
variables? (ai = 0,05).
TABLA 10.25
Sujetos 1 2 3 4 5 6 7 8 9 10
Prueba fisica 60 70 65 72 75 77 82 84 90 95
Autoconcepto 55 73 62 80 81 70 83 91 87 93
© Ediciones Pirámide
Relación entre variables ordinales / 485
TABLA 10.26
Aspirantes
Especialistas 1 2 3 4 5 6
1 6 4 1 2 3 5
2 5 3 1 2 4 6
3 6 4 2 1 3 5
4 3 1 4 5 2 6
TABLA 10.27
Pacientes A 8 e D E F G
1 1 2 3 4 5 6 7
2 2 3 4 5 1 7 6
3 5 4 1 2 3 6 7
SOLUCIONES
Concluimos que las variables autoritarismo y esfuerzo por mejorar de estatus están
significativamente relacionadas.
© Ediciones Pirámide
486 / Análisis de datos en psicología JI
10.6. W= 0,92; x:
= 25,76; 0 , 95 X~ = 14,07. Rechazamos H 0 •
Podemos afirmar que los especialistas coinciden en los criterios que utilizan.
10.10. W= 0,87; x:
= 17,40; 0 , 95 x; = 11,07. Rechazamos H 0 •
Podemos afirmar que los expertos coinciden en sus valoraciones.
10.12. W= 0,83; x:
= 17,43; 0 , 95 x~ = 14,07. Rechazamos H 0 •
Los responsables coinciden en sus valoraciones.
© Ediciones Pirámide
PARTE CUARTA
Análisis de datos cualitativos
Cuando hablamos de datos cualitativos nos estamos refiriendo a datos obtenidos
al medir variables utilizando una escala de medida nominal. Las variables nominales
(también llamadas cualitativas, categóricas, etc.) son variables cuyos niveles (cate-
gorías, modalidades, etc.) permiten clasificar los elementos de una población esta-
bleciendo, únicamente, relaciones de igualdad y desigualdad en una característica
de interés.
Las variables cualitativas o nominales son muy abundantes en la investigación
psicológica: en una investigación clínica podemos encontrar variables como el tipo
de trastorno psicológico (neurosis, esquizofrenia, depresión, etc.), o el tipo de terapia
utilizada (psicoanalítica, conductual, cognitivo-conductual, etc.), o podemos clasificar
a los pacientes como tratados y no tratados, o como recuperados y no recuperados;
en una investigación psicosocial podemos clasificar a los sujetos de acuerdo con las
actitudes que manifiestan hacia un objeto particular (favorables, desfavorables o
indiferentes), o de acuerdo con el tipo de atribuciones que utilizan ante el fracaso
(internas o externas, controlables o incontrolables, etc.); en una investigación sobre
desarrollo psicológico podemos estar interesados en evaluar diferentes métodos de
lectura o el tipo de estrategias cognitivas con que los sujetos afrontan la resolución
de problemas. El sexo, la raza, las preferencias políticas, el tipo de ideología, el
estado civil, la ocupación laboral, la lateralidad manual, el resultado de una tarea
(éxito-fracaso), las diferentes estrategias utilizadas en un programa de entrenamiento,
etcétera, son otros ejemplos de variables cualitativas frecuentemente utilizadas en
la investigación psicológica y social.
Las técnicas de análisis diseñadas para el estudio de datos cualitativos pueden
agruparse siguiendo criterios muy diversos, pero con sólo utilizar tres muy sencillos
podemos decidir con precisión qué técnica es la apropiada para cada situación.
Estos tres criterios son: el número de variables, el tipo de variables y el tipo de
diseño.
En lo referente al número de variables, esta cuarta parte (capítulos 11 y 12)
recoge técnicas de análisis para el tratamiento de una y dos variables. El análisis
de más de dos variables requiere de la utilización de técnicas de análisis cuya
complejidad excede el alcance de un curso básico de análisis de datos (en Pardo
y San Martín, 1994, capítulo 13, por ejemplo, se exponen los modelos log-lineales
y logit para el estudio de tablas de contingencia multidimensionales).
De acuerdo con el segundo criterio, el tipo de variables, las variables cualitativas
© Ediciones Pirámide
490 / Análisis de datos en psicologla 11
pueden ser clasificadas como dicotómicas (variables que sólo tienen dos niveles:
«acierto-error», «varones-mujeres», etc.) o politómicas (variables que tienen más de
dos niveles: el estado civil, las preferencias políticas, etc.). El capítulo 11 recoge
un conjunto de técnicas de análisis diseñadas para estudiar únicamente variables
dícotómicas; el capítulo 12 incluye técnicas de análisis que permiten estudiar tanto
variables dicotómicas como politómicas.
El último criterio mencionado, el tipo de diseño, se refiere a la estrategia de
recogida de datos. Existen dos estrategias básicas. En la estrategia habitual, los
datos representan un corte temporal transversal: se recogen en el mismo o aproxi-
madamente el mismo punto temporal. Si, en lugar de esto, medimos una o más
variables en una muestra de sujetos y hacemos seguimiento a esos sujetos para
volver a tomar una medida de esas mismas variables o de otras diferentes, nos
encontramos en una situación longitudinal: las medidas se toman en diferentes pun-
tos temporales. En general, la prueba X 2 de Pearson y la mayor parte de las me-
didas de asociación que estudiaremos permiten analizar datos provenientes de di-
seños transversales; mientras que los contrastes sobre dos o más proporciones
relacionadas y los índices de riesgo suelen utilizarse para analizar datos provenientes
de diseños longitudinales.
© Ediciones Pirámide
Contrastes de hipótesis
sobre proporciones
11
En consecuencia, la variable:
X - nn p -1t
z =--;:::=== (11.3)
Jnn(l -n) Jn(l -n)/n
se distribuirá N(O, 1). Podemos, también, por tanto, utilizar la distribución normal
para diseñar contrastes de hipótesis sobre proporciones. El cuadro 11.1 ofrece,
siguiendo la lógica ya conocida, los pasos resumidos del contraste de hipótesis
sobre una proporción.
© Ediciones Pirámide
494 / Análisis de datos en psicología 11
CUADRO 11.1
Contraste de hipótesis sobre una proporción. Resumen del procedimiento
1. Hipótesis:
a) Contraste bilateral: H 0 : 7t = n0 ; H 1 : 7t # n0 •
b) Contraste unilateral derecho: H 0 : 7t :::; n 0 ; H 1 : n > n 0 .
e) Contraste unilateral izquierdo: H 0 : 7t ~ n 0 ; H 1 : n < n0 .
3. Estadísticos de contraste 1:
3.1. X = número de éxitos en los n ensayos.
P = X /n = proporción de éxitos en los n ensayos.
X - nn 0 p - 7to
3.2. Z=-;:::===
J nno(I - 7t 0 )
4. Distribuciones muestrales:
4.1. X y P se distribuyen según el modelo binomial con parámetros n y n0 .
4.2. Z se aproxima a la distribución N(O, 1) a medida que 11 va aumentando 2 •
5. Reglas de decisión:
a) Contraste bilateral:
a. I. Se rechaza H 0 si X o P toman un valor tan alejado de su valor esperado
bajo H 0 que la probabilidad de obtener un valor tan alejado o más que
ése es menor que -x./2.
a.2. Se rechaza H 0 si Z:;;;z, 12 o Z~z 1 -, 12 •
1 Tenemos tres estadístícos. Dos de ellos (X y P) son en realidad el mismo y poseen una distribu-
ción muestra! exacta (la distribución binomial con parámetros n y rr). El otro (Z) posee una distri-
bución muestra! aproximada (la distribución normal estandarizada). Los dos primeros son preferibles
con muestras pequeñas (por ejemplo, con 11 ,,¡;; 25, que es el tope de la tabla binomial del apéndice final).
L será preferiblemente utilizado con muestras grandes (por ejemplo. con 11 > 25, que es justo hasta donde
llega la tabulación de la distribución binomial en el apéndice final).
1 Si 11 no es muy grande. la aproximación es un poco más exacta utilizando la corrección por
cominuidad, que consiste en sumar (si X es menor que nrr) o restar (si X es mayor que nrr) 0,5 puntos a X,
o, de forma equivalente, 0,5/11 puntos a P para hacer el contraste algo más conservador (no faltan
autores que desaconsejen esta corrección por continuídad; por ejemplo, Richardson, 1990):
0.5
P ±- - rro
X± 0,5 -11rr 0 11
Z=----
© Ediciones Pirámide
Contrastes de hipótesis sobre proporciones / 495
6. Nivel critico:
a) Contraste bilateral:
a. I. Si utilizamos X o P. el nivel crítico p es el doble de la probabilidad de
obtener un valor X o P tan alejado de su valor esperado bajo H 0 como
el obtenido.
a.2. Si utilizamos Z. p = 2[P(Z ;:;, l=kl)J, siendo zk el valor concreto tomado
por el estadístico Z.
h) Contraste unilateral derecho:
h. I. Si utilizamos X o P. el nivel crítico p es la probabilidad de obtener un
valor X o P tan grande como el obtenido o más grande.
h.2. Si utilizamos Z. p = P(Z ~ =d·
e) Contraste unilateral izquierdo:
c. I. Si utilizamos X o P. el nivel critico p es la probabilidad de obtener un
valor X o P tan pequeño como el obtenido o más pequeño.
c.2. Si utilizamos Z. p = P(Z ~ =d·
7. Intervalo de confianza:
11 (
p + ;: 2
+= JP(-- 1 - Pl
+ :2 )
~-- ( 11.4)
11 +: 2 211 - 11 411 2
«) Ediciones Pirámide
496 / Análisis de datos en psicología 11
3 En un contraste concreto sólo es necesario utilizar uno de los varios estadísticos de contraste
propuestos. Nosotros aquí, en el ejemplo, utilizamos los tres estadísticos con el único objetivo de
ejemplificar su uso.
© Ediciones Pirámide
Contrastes de hipótesis sobre proporciones / 497
Teniendo en cuenta que una proporción no es más que una media, podemos
seguir la lógica expuesta en el capítulo 4 acerca de los contrastes de hipótesis sobre
dos medias independientes para diseñar contrastes de hipótesis referidos a dos
proporciones independientes. En el cuadro 11.2 están resumimos los pasos del
contraste.
4 La probabilidad asociada al estadístico Z (el nivel crítico p) es más parecida a la probabilidad
en cuyo caso el nivel crítico con el estadístico Z vale p = P(Z ~ 1,31) = 0,0951, valor muy parecido al
nivel crítico proporcionado por la distribución exacta (0,098).
© Ediciones Pirámide
498 / Análisis de datos en psicología 11
CUADRO 11.2
Contraste de hipótesis sobre dos proporciones independientes.
Resumen del procedimiento
l. Hipótesis
a) Contraste bilateral: H 0 : rr 1 - rr 2 = k; H 1: rr 1 - rr 2 # k.
h) Contraste unilateral derecho: H 0 : rr 1 - rr 2 :::;; k: H 1: rr 1 - rr 2 > k.
e) Contraste unilateral izquierdo: H 0 : rr 1 - rr 2 ;>, k; H 1: rr 1 - rr 2 < k.
3. Estadísticos de contraste:
3.1. Si, en H 0 , k =O,
P1 - P2
Z=----;::======= (11.7)
jP(I - P)(l/11 1 + l/11 2)
donde:
11 1P 1 +11 2 P 2
P=----- (11.8)
111+112
(11.9)
5. Zona critica:
a) Contraste bilateral: Z :::;; z, 12 y Z ;>, z 1 _, 12 .
h) Contraste unilateral derecho: Z ;>, z 1-··
e) Contraste unilateral izquierdo: Z :::;; z,.
7. Nivel crítico:
a) Contraste bilateral: p = 2[P(Z ;;:,: lzkJ)], siendo zk el valor concreto tomado por
el estadístico Z.
b) Contraste unilateral derecho: p = P(Z ;;:,: zk).
e) Contraste unilateral izquierdo: p = P(Z ~ zk).
8. Intervalo de confianza:
(11.10)
70 60
P 1 =-=0,70 P 2 = -=0,60
100 100
100(0,70) + 100(0,60)
p = = 065
100 + 100 '
0,70 - 0,60
z= = 1,48
J0,65(1 - 0,65)(1/100 + 1/100)
4. Distribución muestra(: Z se distribuye N(O, 1).
5. Zona crítica: Z ~ z0 •025 = -1,96 y Z;;:,: z0 . 975 = 1,96.
6. Decisión: puesto que 1,48 está comprendido entre -1,96 y 1,96, mantenemos
H 0 • No podemos afirmar que las proporciones de acierto n 1 y n 2 difieran y,
por tanto, no podemos afirmar que las preguntas 1 y 2 difieran en dificultad.
© Ediciones Pirámide
500 / Análisis de datos en psicología 11
7. Nivel crítico: p = 2[P(Z ~ 11,481)] = 2(0,0694) = 0,1388. Este valor nos indica
que la hipótesis nula podría ser rechazada con un nivel de riesgo de 0,1388. Es
decir, podríamos rechazar H 0 , pero con una probabilidad de equivocarnos de
0,1388.
8. Intervalo de confianza:
O, 70(0,30) 0,60(0,40)
(0, 70 - 0,60) ± 1,96 ---+ = (-0,03;0,23)
100 100
n+1 n+2
2(n 12 + n2¡)
nf 2 + ni 1 - 2n 12 n 21 + ni 1 + nf 2 - 2n 12 n 21 2nf 2 + 2ni 1 - 4n 12 n 21
2(n 12 + n21 ) 2(n12 + n21)
(n12 - n1¡)2
(11.11)
n12 + n21
que se distribuye según x2 con 1 grado de libertad.
Así pues, el contraste sobre dos proporciones relacionadas nos permite evaluar,
a partir de los cambios que se producen en una y otra dirección, si la proporción de
éxitos en la medida antes (nA) difiere o no de la proporción de éxitos en la medida
después (n 0 ). En el cuadro 11.3 aparece resumido el contraste sobre dos proporcio-
nes relacionadas. Recordemos una vez más que llamamos éxito a uno cualquiera de
los dos niveles de la variable dicotómica estudiada.
© Ediciones Pirámide
502 / Análisis de datos en psicología 11
CUADRO 11.3
Contraste de hipótesis sobre dos proporciones relacionadas.
Resumen del procedimiento
l. Hipótesis:
a) Contraste bilateral: H 0 : n:A = n:D; H 1 : n:A # n:D.
b) Contraste unilateral derecho: H 0 : n:A ~ n:D; H 1 : n:A > n:D.
e) Contraste unilateral izquierdo: H 0 : n:A ~ n:D; H 1 : n:A < n:D.
3. Estadísticos de contraste:
3.1. T = 1112·
(111 i - 1121 l 2
'
3.2. 5 X-=·-----
1112 + 1121
4. Distribuciones muestrales:
4.1. T se distribuye según el modelo de probabilidad binomial con parámetros
11= 1112 + 1121 y 71: = 0,5.
4.2. xi se aproxima a la distribución ;.i:i con 1 grado de libertad a medida que 11
va aumentando 6 •
5. Reglas de decisión:
a) Contraste bilateral:
td < :xi2
a.I. Se rechaza Ho SI T toma un valor tk tal que { P(T
P(T
~
' Este estadístíco fue ídeado por McNemar en 1947. de ahí que. en muchos contextos, el contraste
sobre dos proporciones relacionadas sea denominado prueha de McNemar.
6 Si n no es muy grande. la aproximación es un poco más exacta utilizando la corrección por
continuidad. que consiste en restar 1 punto al valor absoluto de la diferencia n 12 - n 21 para hacer el
contraste algo más conservador:
(11112 - 11211 - !)'
xi=------
1112 + n11
~) Ediciones Pirámide
Contrastes de hipótesis sobre proporciones / 503
6. Nivel crítico:
a) Contraste bilateral:
a.I. p = 2[P(r ~ tt)J, siendo r el menor de n 12 y n21·
a.2. p = P(X 2 ;;;?: xf), siendo xf el valor concreto tomado por X 2•
7. Intervalo de confianza:
Siendo PA = n 12 /m la proporción de éxitos en la medida antes, y P0 = n 21 /m la
proporción de éxitos en la medida después, el intervalo de confianza para nA - n"
viene dado por:
(11.12)
TABLA 11.2
Nivel de cobre
después del tratamiento
© Ediciones Pirámide
504 / Análisis de datos en psicología 11
Tenemos una muestra aleatoria de m = 50 sujetos a los cuales se les toman dos
medidas en una variable dicotomizada: nivel de cobre en sangre (1 =alto, 2 =bajo).
Para saber si la proporción de sujetos con nivel de cobre alto ha disminuido tras la
aplicación del tratamiento debemos averiguar si n,.. > n 0 (siendo n,.. y n 0 la proporción
de sujetos con nivel de cobre alto antes y después del tratamiento, respectivamente).
TABLA 11.3
Grado de compenetración
en el segundo control
© Ediciones Pirámide
506 / Análisis de datos en psicología 11
TABLA 11.4
Estructura de los datos y notación en un diseño con J
tratamientos o muestras y n sujetos o bloques
Sujetos o bloques
Tratamientos
1 2 i n T+; p +j
o muestras
hecho, si J = 2, el estadístico de McNemar y el de Cochran son exactamente el mismo (ver, por ejemplo,
Conover, 1980, pág. 204).
© Ediciones Pirámide
Contrastes de hipótesis sobre proporciones / 507
CUADRO 11.4
Contraste de hipótesis sobre más de dos proporciones relacionadas.
Resumen del procedimiento
1. Hipótesis:
Ho: 1C + 1 = 1C + = ··· = 1C + 1·
2
r. T2
Q =J(J- 1) .- (J - l)T2
+1
(11.13)
JT-'I.TT,
l. Hipótesis:
H o: rr + t = rr
+ 2 = rr + 3 = rr + 4
© Ediciones Pirámide
508 / Análisis de datos en psicología 11
TABLA 11.5
Sujetos
1 1 1 1 1 o o 1 o 1 o 6 36
~ 1 o o 1 o 1 o o 1 1 5 25
3 1 o 1 1 1 1 1 1 1 1 9 81
4 1 o o o o o 1 o o o 2 4
T¡ + 4 1 2 3 1 2 3 1 3 2 22 146
T!+ 16 1 4 9 1 4 9 1 9 4 58
a) Comparaciones múltiples
Si rechazamos la hipótesis general referida a la igualdad entre las J proporcio-
nes, podemos estar interesados en concretar qué poblaciones (tratamientos) difieren
de qué otras. Para ello, podemos utilizar cualquiera de los procedimientos de
comparaciones múltiples ya conocidos, con la única salvedad de que ahora estamos
trabajando con proporciones.
Llamemos Lh a una comparación cualquiera y chi a los coeficientes asignados a
cada proporción poblacional para definir esa comparación Lh:
© Ediciones Pirámide
Contrastes de hipótesis sobre proporciones / 509
y obtener:
atL, =nJ(J
-----
- ])
(11.16)
n
(11.17)
DMSTukey = 1 -aqJ,oo •
~ <f[ (11.20)
© Ediciones Pirámide
51 O / Análisis de datos en psicología 11
•2
(J- =
4(22) - 58 (1 2 + ( -1)2) =o 05
L 10(4)(3) 10 '
q 3 63
DMS = • = -'- foOs =O 57
Tukey j24,oo <1[
0.95
j2 V V,VJ •
© Ediciones Pirámide
Contrastes de hipótesis sobre proporciones / 511
APÉNDICE 11
Índices de riesgo
TABLA 11.6
Forma yenérica de representar las frecuencias obtenidas mediante
un diseño de cohortes o un diseño de caso-control
Desenlace ( lj)
Sí U= 1) No U= 2) Total
Sí (i = 1) nu n12 n1+
Desencadenante (X¡) No (i= 2) ni1 ni1 ni+
1 1
Total n+I n+2 n
© Ediciones Pirámide
512 / Análisis de datos en psicologla 11
adelante para determinar qué proporción de sujetos de cada grupo alcanza un determinado
desenlace. La medida de interés en este tipo de diseños suele ser el riesgo relativo (R,), el
cual expresa el grado en que la proporción de desenlaces es más alta en un grupo que en
el otro:
R = n11fn1 + (l l.22)
r nz1fn2+
TABLA 11.7
Tabla de contingencia de tabaquismo por problemas vasculares
Problemas vasculares
Sí No Total
Fumadores 23 81 104
Tabaquismo 136
No fumadores 9 127
1 1
Total 32 208 240
Este valor indica que el riesgo de encontrar problemas de tipo vascular entre los fuma-
dores es 3,34 veces más alto que entre los no fumadores. O, de otra manera: por cada no
fumador con problemas vasculares, cabe esperar que encontremos 3,34 fumadores.
© Ediciones Pirámide
Contrastes de hipótesis sobre proporciones / 513
(11.23)
Puesto que el intervalo de confianza no incluye el valor 1, podemos estimar, con una con-
fianza del 95 por 100, que el riesgo de padecer problemas vasculares es significativamente
más alto en el grupo de fumadores que en el de no fumadores.
En los diseños de caso-control, tras formar dos grupos de sujetos a partir de alguna
condición de interés, se va hacia atrás buscando la presencia de algún factor desencadenante.
El mismo estudio sobre tabaquismo y problemas vasculares podría diseñarse seleccionando
dos grupos de sujetos diferenciados por la presencia de problemas vasculares y buscando
en la historia clínica la presencia o no del hábito de fumar. Puesto que el tamaño de los
grupos se fija a partir de la presencia o ausencia de un determinado desenlace, no tiene
sentido calcular un índice de riesgo basado en las proporciones de desenlaces observados
(incidencias) en los fumadores y en los no fumadores (pues el número de fumadores y no
fumadores no ha sido previamente establecido sino que es producto del muestreo). Pero
podemos calcular la proporción o ventaja (odds) de tener problemas vasculares respecto de
no tenerlos tanto en el grupo de fumadores como en el de no fumadores, y utilizar el
cociente entre esas ventajas (odds) como una estimación del riesgo relativo:
(11.24)
Este cociente se conoce como odds ratio y suele utilizarse como una estimación del ries-
go relativo en los diseños de caso-control (justamente por la imposibilidad de estimar las
incidencias). La calidad de O, como estimador del riesgo relativo es tanto mayor cuanto más
pequeñas son las proporciones de desencadenantes en cada grupo, pues cuanto más pequeñas
son esas proporciones, más pequeña es también la diferencia entre R, y O,.
© Ediciones Pirámide
514 / Análisis de datos en psicología 11
Basándonos en Jos datos de la tabla 11.7, Ja odds «tener problemas/no tener problemas»
en el grupo de fumadores vale: 23/81 = 0,284; y en el grupo de no fumadores: 9/127 = 0,071.
El índice de riesgo en un diseño de caso-control se obtiene dividiendo ambas odds:
Este valor se interpreta del mismo modo que el índice de riesgo relativo R, (pues no es
más que una estimación del mismo): el riesgo de encontrar sujetos con problemas vasculares
entre los fumadores es 4 veces más alto que entre los no fumadores.
Para determinar si este índice de riesgo es significativamente distinto de 1, podemos
obtener un intervalo de confianza mediante:
L; = O,exp(z., 2 J- 1- + - 1- + - 1- + - 1-)
n 11 n 12 n 21 n 22
(11.25)
1 1 1 1 ) =908
-+-+-+-
L, = 4,00exp( + 1,96
23 81 9 127 '
EJERCICIOS
11.1. Queremos evaluar si 4 tipos de alucinaciones diferentes (A, B, C, y D) se dan o no con
la misma frecuencia entre pacientes con psicosis paranoica. La tabla 11.8 presenta los datos
obtenidos con 10 pacientes (1 =se da la alucinación; O= no se da). ¿A qué conclusión
llegaremos, con (X = 0,05?
TABLA 11.8
Pacientes
1 2 3 4 5 6 7 8 9 10
A 1 1 1 1 o 1 1 1 o 1
Síntomas
B 1 o 1 o o 1 1 o 1 1
e 1 1 o o o 1 1 1 1 1
D o o o 1 1 1 o o o o
© Ediciones Pirámide
Contrastes de hipótesis sobre proporciones / 515
TABLA 11.9
Sujetos 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Antes - - + + - - - + + - + + + - +
Después - + + + - - + + + + + + + + -
11.3. El equipo de psicólogos del ejercicio 11.2. considera conveniente averiguar si combi-
nando las imágenes con lemas informativos se obtiene un nivel de eficacia mayor que el
alcanzado utilizando sólo las imágenes. Para ello, seleccionan una muestra de 2.000 personas
con actitudes negativas hacia los enfermos de sida y, de estas 2.000 personas, seleccionan
aleatoriamente a 30. A 15 de ellas les aplican la técnica persuasiva consistente en sólo
imágenes; a las otras 15 les aplican la técnica que combina las imágenes con los lemas
informativos. Tras esto, registran la actitud de las 30 personas ( 11.10: el signo « - »
indica actitud negativa y el « + » actitud positiva). ¿A qué conclusión llegará el equipo de
psicólogos? (r.< = 0,05).
TABLA 11.10
Sólo imágenes + + + +
Imág. y lemas + + + + + + + + + +
11.4. Un psicólogo está intentando decidir cuál de dos preguntas introducir en una prueba
de orientación espacial que él mismo está construyendo. La pregunta 2 posee ciertas
propiedades psicométricas que la hacen más aceptable, pero sería preferible la pregunta 1 si
ésta resultara ser más dificil que la 2. Para decidir con cuál de las dos quedarse, plantea
ambas preguntas a una muestra de 12 sujetos y registra cada respuesta como acierto (A) o
error (E). Los resultados obtenidos aparecen en la tabla 11.11. Sin olvidar qué es lo que
nuestro psicólogo desea conocer y considerando que la pregunta más fácil será aquella en la
que más aciertos se produzcan, ¿a qué conclusión llegaremos utilizando r.< = 0,05?
TABLA 11.11
Sujetos 1 2 3 4 5 6 7 8 9 10 11 12
Pregunta 1 A E E E E E A A E E E A
Pregunta 2 A E E A A A A A E A A A
© Ediciones Pirámide
516 / Análisis de datos en psicología 11
11.5. Antes de dar comienzo los Juegos Olímpicos de Barcelona-92, se preguntó a 300
personas si pensaban que la calidad de la ceremonia inaugural sería alta o baja. 200 de ellas
opinaron que la calidad de la ceremonia inaugural sería alta. El día siguiente a la inaugura-
ción se volvió a hacer a esas 300 personas la misma pregunta. Se encontró que 280 personas
pensaban que la calidad de la ceremonia había sido alta y que 10 de las que al principio
pensaban que sería alta, ahora pensaban que había sido baja. Con los datos de que
disponemos, ¿podemos afirmar que la ceremonia inaugural de los juegos olímpicos de
Barcelona-92 ha hecho mejorar la expectativa de calidad que se tenía sobre ella? (oi = 0,01).
11.6. Un psicólogo ha diseñado una prueba de aptitud con 17 ítems dicotómicos. ¿Cuántos
aciertos, como mínimo, debe obtener un sujeto para poder afirmar, con ai = 0,05, que no ha
respondido al azar?
TABLA 11.12
Autoritarios No autoritarios
Varones 35 15
1 Mujeres 18 22
11.8. En un estudio sobre la relación entre diferencias sexuales y memoria a corto plazo. un
psicólogo elaboró una lista de 10 palabras sin sentido, cada una de ellas formada por tres
letras (consonante-vocal-consonante). Seleccionó al azar una muestra de 50 varones y otra de
50 mujeres y presentó a cada sujeto la lista durante un periodo de 45 segundos. Tras este
periodo de tiempo los sujetos tenían que reproducir la lista completa por escrito. El
psicólogo contabilizó el número de sujetos que efectuaron una reproducción correcta y
obtuvo los siguientes resultados: varones = 30; mujeres = 25. ¿Puede el psicólogo, a partir de
estos datos, concluir que los varones y las mujeres difieren en su capacidad de retención a
corto plazo? (oi = 0,05).
11.9. Para estudiar la actitud de los terapeutas hacia la evaluación de la eficacia de sus
tratamientos, un investigador seleccionó una muestra aleatoria de 100 terapeutas y les
preguntó si estaban o no de acuerdo con tal evaluación. Encontró que 30 sí lo estaban y 70
no. Tras explicarles los motivos y propósitos de tal evaluación volvió a hacerles la misma
pregunta, resultando que ahora eran 60 los que sí estaban de acuerdo y que 10 de los que
estaban de acuerdo al principio pasaron a estar en desacuerdo tras la explicación. ¿Se puede
concluir de estos datos que la explicación utilizada por el investigador ha hecho mejorar
significativamente la opinión que los terapeutas tienen de la evaluación de la eficacia de sus
tratamientos? (oi = 0,01).
11.11. Dos psiquiatras han evaluado a 10 enfermos hospitalizados para determinar cuáles
de ellos tienen pseudoalucinaciones y cuáles no. El informe de los psiquiatras incluye un sí
cuando consideran que el enfermo tiene pseudoalucinaciones y un no cuando consideran que
no las tiene. Los datos de los informes de ambos psiquiatras están recogidos en la tabla 11.13.
¿Podemos afirmar que entre los dos psiquiatras existe un acuerdo significativamente mayor
que el que cabría esperar que se produjera por azar? (tx = 0,05).
TABLA 11.13
Sujetos 1 2 3 4 5 6 7 8 9 10
Psiquiatra 1 sí sí no sí no no sí sí no sí
Psiquiatra 2 sí no sí sí no no sí sí no no
TABLA 11.14
1986
Opinión Opinión
blanda dura
11.13. Un psicólogo sospecha que las preguntas de los cuestionarios de personalidad poseen
un significado especial en función del contexto general del cuestionario del que forman parte.
Esto haría que preguntas similares fueran respondidas de forma distinta por los mismos
sujetos cuando esas preguntas forman parte de cuestionarios diferentes. Para confirmar su
sospecha, el psicólogo pasó a 12 sujetos 3 cuestionarios de personalidad que poseían una
pregunta idéntica (tanto en la forma como en el contenido). La predicción del psicólogo era
que los sujetos responderían de forma distinta a esa pregunta dependiendo del cuestionario
en el que se encontrara. La tabla 11.15 recoge las respuestas dadas por cada sujeto en cada
uno de los 3 cuestionarios a la pregunta repetida (A significa que el sujeto está de acuerdo
con el contenido de la pregunta; D significa que el sujeto está en desacuerdo). ¿A qué
conclusión llegará el psicólogo utilizando tx = 0,05?
© Ediciones Pirámide
518 / Análisis de datos en psicología 11
TABLA 11.15
Sujetos 1 2 3 4 5 6 7 8 9 10 11 12
Cuestionario 1 A A D D A D A D A A A D
Cuestionario 2 A A D A A D A D A A A A
Cuestionario 3 D A A A A D D A A A D D
TABLA 11.16
Sujetos 1 2 3 4 5 6 7 8 9 ID 11 12
Estímulo 1 1 1 o o 1 1 o o 1 o 1 1
Estímulo 2 o 1 o o o 1 1 1 o 1 o o
Estímulo 3 1 1 o 1 1 o 1 1 1 1 o 1
SOLUCIONES
© Ediciones Pirámide
Contrastes de hipótesis sobre proporciones / 519
11.6. 12 aciertos.
© Ediciones Pirámide
La prueba X2 de Pearson
12
12.1. Introducción.
12.1.1. Tablas de contingencia.
12.1.2. Notación en tablas de contingencia.
12.2. Bondad de ajuste.
12.2.1. Estructura de los datos y notación.
12.2.2. Estimación de las frecuencias esperadas.
12.3. Independencia.
12.3.1. Estructura de los datos y notación.
12.3.2. Estimación de las frecuencias esperadas.
12.4. Igualdad de proporciones.
12.4.1. Estructura de los datos y notación.
12.4.2. Estimación de las frecuencias esperadas.
12.4.3. Comparaciones múltiples.
12.5. Errores tipificados.
12.6. Medidas de asociación basadas en X 2 •
Apéndice 12.
Obtención de tablas de contingencia.
Medidas de asociación basadas en la reducción proporcio-
nal del error.
Índices de acuerdo.
Ejercicios.
12.1. Introducción
Cuando se trabaja con variables de índole cualitativa, Jos datos suelen presen-
tarse en tablas de contingencia: conjunto organizado de frecuencias clasificadas según
uno o más criterios. Un ejemplo de este tipo de tablas lo tenemos en Ja tabla 12.1.
En ella aparecen unos datos analizados por Cohen ( 1976) referidos a Jos pacientes
de un hospital. Este tipo de tabla de contingencia es la más elemental; se conoce
como tabla 2 x 2 debido a que está formada por dos variables (criterios de
clasificación) con dos categorías cada una de ellas (el producto 2 x 2 = 4 representa
el número de casillas de la tabla). Cuando, como en este caso, una tabla de
contingencia sólo incluye dos variables la llamamos bidimensional; si incluye tres
variables, hablamos de tabla tridimensional; <:;te.
Por supuesto, las tablas de contingencia pueden (y suelen) ser más complejas de
Jo que Ja tabla 12.1 puede dar a entender. Podríamos construir tablas con dos
variables, al igual que Ja tabla 12.1, pero con más de dos niveles por variable; ello
incrementaría el número de casillas. También podríamos seguir aumentando
© Ediciones Pirámide
524 / Análisis de datos en psicología 11
TABLA 12.1
Ejemplo de tabla bidimensional (dos variables). Clasificación de los pacientes
de un hospital de acuerdo con las variables «sexo» y «diagnóstico»
Diagnóstico
Esquizofr. No esquizofr.
Varón 43 IS
Sexo
Mujer 32 52
TABLA 12.2
Ejemplo de tabla de contingencia tridimensional (tres variables). Clasificación
de una muestra de 100 sujetos de acuerdo con las variables,
«concepción de la inteligencia», «sexo» y «tipo de autoinstrucciones»
Autoinstrucciones
Varones 21 7 4
Destreza
Mujeres 3 4 2
Varones s 10 3
Rasgo
Mujeres 6 28 7
© Ediciones Pirámide
La prueba X2 de Pearson / 525
La tabla 12.3 recoge una forma general de presentar los datos en una tabla de
contingencia bidimensional y la notación que utilizaremos para referirnos a cada
uno de los elementos de la tabla.
TABLA 12.3
Tabla de contingencia resultante de clasificar una muestra de n observaciones
en las categorías combinadas de las variables X¡ e Y¡
Y¡
(Segundo criterio de clasificación)
2 j J
1 J 1 J
L n¡ + = L n + i = L L nii = n
i=I j=I i=!j=I
TABLA 12.4
Disposición de los datos al extraer una muestra aleatoria de n observaciones
y clasificarlas en las I categorías de una variable X¡
Categorías de la variable X¡
xi = ±
i=1
(n¡ - m¡)i
m¡
(12.1)
(12.2)
CUADRO 12.l
Contraste de hipótesis sobre bondad de ajuste. Resumen del procedimiento
l. Hipótesis:
2. Supuestos:
a) Una muestra aleatoria de n observaciones (n extracciones) es clasificada en las
I categorías exclusivas y exhaustivas de una variable X¡.
© Ediciones Pirámide
528 / Análisis de datos en psicología 11
3. Estadístico de contraste:
X =
l
L (11¡
I
------ m¡)l
.
;= 1 111¡
7. Nivel crítico: p = P(X 2 :;;i: xf). siendo xf el valor concreto tomado por xi.
8. Intervalo de confianza:
Siendo P; = 11;:11.
(12.3)
3 En las distribuciones de probabilidad que estamos tratando los parámetros son las probabilidades
teóricas rr¡ asociadas a cada categoría de la variable. Tanto en la distribución binomial como en la
muiltinomial el número de parámetros rr; es I (número de categorías de la variable). Pero no todos ellos
son independientes. Puesto que L rr; = 1. el número de parámetros independientes será / - l.
~~ Ediciones Pirámide
la prueba X2 de Pearson / 529
2. Supuestos:
a) Una muestra aleatoria de 100 sujetos es clasificada en I = 2 categorías
exclusivas y exhaustivas (éxito y fracaso) de una variable.
b) La probabilidad de éxito se mantiene constante en las 100 extracciones.
e) Todas las frecuencias observadas n¡ son mayores que cero y ninguna
frecuencia esperada m¡ es menor que 5 (ver tabla 12.5).
3. Estadístico de contraste: la tabla 12.5 recoge las frecuencias (las observadas y
las esperadas) necesarias para obtener el estadístico de contraste. Las frecuen-
cias esperadas se han obtenido teniendo en cuenta que néxito = 0,80 y, por
tanto, 7trracaso = 0,20. Así, méxito = nnéxito = 100(0,80) = 80, y mrracaso =
= nnrracaso = 100(0,20) = 20.
TABLA 12.5
Resultado del tratamiento
Éxito Fracaso n
73 27 100
80 20 100
© Ediciones Pirámide
530 / Análisis de datos en psicología 11
TABLA 12.6
2 3 4
Si todos los vendedores rinden por igual, la probabilidad de realizar una venta será
la misma para los 4 vendedores y el resultado muestra! de la tabla 12.3 seguirá el
modelo de distribución uniforme. En consecuencia:
1. Hipótesis:
H0 : ff.,x) = uniforme ( 'l'r; = 1/4 = 0,25).
H 1: .f(x¡) i= uniforme ( 'l'r; = 1/4 = 0,25).
2. Supuestos:
a) Las 400 ventas de un mes aleatoriamente seleccionado son clasificadas en
las l = 4 categorías exclusivas y exhaustivas de una variable (los 4 vende-
dores).
b) La probabilidad asociada a cada categoría (0,25) se mantiene constante en
las 400 extracciones.
e) Todas las n; son mayores que cero y ninguna m, es menor que 5.
8. Intervalo de confianza: la tabla 12.7 recoge los límites inferior y superior del
intervalo correspondiente a cada vendedor. Esos límites se han obtenido a
partir de la ecuación (12.3):
P¡ ± J7,St5JP,{l - P;)/400
TABLA 12.7
12.3. Independencia
Ahora, las n observaciones de una muestra aleatoria pueden ser clasificadas con
arreglo a dos criterios: las I categorías de la variable X; y las J categorías de la
variable lj. Llamaremos 7t¡+ a la probabilidad de que una observación cualquiera
pertenezca a la categoría i de la variable X¡. Llamaremos 1t+i a la probabilidad de
que una observación cualquiera pertenezca a la categoría j de la variable lj.
Y llamaremos, por último, 7t¡i a la probabilidad de que una observación cualquiera
pertenezca a una de las JJ casillas o combinaciones X¡ lj. Los datos pueden
disponerse según muestra la tabla 12.8. En ella aparece también la notación que
utilizaremos para identificar cada elemento.
© Ediciones Pirámide
532 / Análisis de datos en psicología 11
TABLA 12.8
Disposición de los datos al clasificar una muestra de n observaciones en las
categorías combinadas de las variables X¡ e Y¡
y¡
(Segundo criterio de clasificación)
2 j J
1 n, • n, 2 n,j nu n,+
X¡ 2 "21 "22 ll2j "2i ni+
(Primer
criterio de n¡1 n¡2 niJ nu n;+
clasificación)
I n11 "12 n,j n,i "1+
n+ • n+ i n+j n+i n
L n¡ + = L n + i = L L nii = n
i=l j=l i=lj=l
es decir, si:
(12.6)
n;+ n+i
P;+ = - y P+·=- (12.8)
n J n
En consecuencia:
(12.10)
4 Por ejemplo, si lanzamos al aire dos monedas independientemente, la probabilidad conjunta del
suceso cara en las dos monedas es igual al producto de las probabilidades individuales de los sucesos cara
en la primera moneda y cara en la segunda moneda (0,5 x 0,5 = 0,25). Ver Análisis de datos en psicología l
(Botella, León y San Martín, 1989, págs. 282-283).
© Ediciones Pirámide
534 / Análisis de datos en psicología 11
CUADRO 12.2
Contraste de hipótesis sobre independencia. Resumen del procedimiento
l. Hipótesis:
H 0 : X; e Y¡ son variables independientes.
H 1: X; e Y¡ no son variables independientes.
2. Supuestos:
a) Una muestra aleatoria de n observaciones (n extracciones) es clasificada en las
IJ combinaciones (casillas) de las categorías de dos variables.
b) La probabilidad de que una observación pertenezca a cada una de las casillas
se mantiene constante en las n extracciones.
e) Todas las frecuencias observadas n;i son mayores que cero y no más del 20 por
100 de las m;i son menores que 5.
3. Estadístico de contraste:
1 J ( - • )2
Xi = LL nii • mii
i=ti=• mii
7. Nivel crítico: p = P(Xi ~ xD, siendo x¡ el valor concreto tomado por xi.
© Ediciones Pirámide
la prueba X2 de Pearson / 535
TABLA 12.9
Frecuencias observadas (nii)
Lateralidad visual ( lj)
Izquierda 16 30 14 60
Lateralidad 40
Ambidextra 12 13 15
manual (X,) 21 100
Derecha 32 47
60 90 50
~
Para obtener el estadístico de contraste necesitamos estimar el valor de las
frecuencias esperadas de cada casilla bajo el supuesto de independencia entre ambos ti-
pos de lateralidad. Utilizando la ecuación (12.9) obtenemos las frecuencias esperadas
de la tabla 12.10. Así, por ejemplo, m11 = 60(60)/200 = 18; m12 = 60(90)/200 = 27; etc.
TABLA 12.10
Frecuencias esperadas estimadas ( mii)
Lateralidad visual ( lj)
Izquierda 18 27 15 60
Lateralidad
manual (X¡)
Ambidextra 12 18 10 40
Derecha 30 45 25 100
60 90 50
~
l. Hipótesis
H 0 : la lateralidad manual y la visual son variables independientes.
H 1 : la lateralidad manual y la visual están relacionadas.
2. Supuestos:
a) Una muestra aleatoria de 200 sujetos es clasificada según el tipo de
lateralidad manual y visual que manifiestan.
b) La probabilidad de que una observación pertenezca a cada una de las
casillas se mantiene constante.
c) Todas las nii son mayores que cero y ninguna mii es menor que 5.
© Ediciones Pirámide
536 / Análisis de datos en psicología 11
3. Estadístico de contraste:
pueden ser consideradas exactamente la misma cosa. Cambia el proceso de muestreo (pues ahora no se
fija n, el tamaño total de la muestra, sino el tamaño de cada grupo), pero eso no tiene consecuencias
sobre el análisis (las estimaciones de las frecuencias esperadas son las mismas). La diferencia más bien
hay que buscarla en el tipo de hipótesis que se plantean (que difieren en la forma pero no en el fondo) y,
consecuentemente, en la interpretación que se hace de los resultados.
© Ediciones Pirámide
La prueba X2 de Pearson / 537
TABLA 12.11
Disposición de los datos al clasificar J muestras de tamaño n + i
en las l categorías de una variable cualitativa X;
y¡
Grupos o muestras
2 j J
(12.11)
dada pueden sustituirse por el promedio de las n¡li de esa categoría, que no es otra
cosa que la proporción marginal 7t¡+· En consecuencia:
(12.12)
• n¡+ n¡+n+j
m .. = n+ .·--- = -~-- (12.13)
11 J n n
CUADRO 12.3
Contraste de hipótesis sobre igualdad de proporciones. Resumen del procedimiento
l. Hipótesis:
H 0 : Las J poblaciones tienen la misma distribución.
Es decir, la probabilidad de que una observación sea clasificada en la categoría i
de la variable X¡ es la misma en las J poblaciones (ir; 1 = ir,,~ = · · · = ir,,1 ).
H 1 : Las J poblaciones no tienen la misma distribución.
Es decir, la probabilidad de que una observación sea clasificada en la categoría i
de la variable X; no es la misma en las J poblaciones (ir,,;"# ir;d·· para algún valor
de j).
2. Supuestos:
a) J muestras aleatorias de tamaños 11 + i son clasificadas en las I categorías
exlusivas y exhaustivas de una variable cualitativa.
b) La probabilidad de que una observación pertenezca a cada una de las
categorías de la variable se mantiene constante.
e) Todas las frecuencias observadas nii son mayores que cero y no más del 20 por
100 de las m;i son menores que 5.
3. Estadístico de contraste:
1 J ( )2
xi = ¿ ¿
A
nii ~ mii
i=I j=I mij
~) Ediciones Pirámide
la prueba X2 de Pearson / 539
Nada 5 4 6 15
Respuestas Poco 31 10 19 60
(X,) Bastante 2 21 10 33
Mucho 2 5 5 12
40 40 40
~
Para obtener el estadístico de contraste necesitamos estimar el valor de las
frecuencias esperadas de cada casilla bajo el supuesto de igualdad de proporciones en
cada nivel de edad. Utilizando la ecuación (12.13) obtenemos las frecuencias esperadas
de la tabla 12.13. Por ejemplo, m11 = 15(40)/120 = 5; m21 = 60(40)/120 = 20; etc.
TABLA 12.13
Frecuencias esperadas estimadas (mii)
Grupos de edad (}j)
Nada 5 5 5 15
Respuestas Poco 20 20 20 60
(X,) Bastante 11 11 11 33
Mucho 4 4 4 12
40 40 40
~
© Ediciones Pirámide
540 / Análisis de datos en psicología 11
l. Hipótesis
H 0 : Las 3 poblaciones de edad se distribuyen igual en la variable actitud ante
la muerte.
H 1: Las 3 poblaciones de edad no se distribuyen igual en la variable actitud
ante la muerte.
2. Supuestos:
a) Una muestra aleatoria de 120 sujetos es clasificada según sus respuestas.
b) La probabilidad de que una observación pertenezca a cada una de las
categorías de respuesta se mantiene constante.
e) Todas las nii son mayores que cero y ninguna mii es menor que 5.
3. Estadístico de contraste:
(5 - 5)2 (4 - 5)2 (6 - 5)2 (5 - 4¡i
xi = --- + - - - + - - - + ... + - - - = 29,55
5 5 5 4
4. Distribución muestra(: xi se aproxima a xi con (4 - 1)(3 - 1) = 6 grados de
libertad.
5. Zona crítica: xi?: o. 95 xi = 12,59.
6. Decisión: como el valor del estadístico de contraste (29,55) es mayor que el
punto crítico (12,59), rechazamos H 0 y concluimos que los grupos de edad
considerados difieren significativamente en el grado de preocupación que
manifiestan ante la muerte.
7. Nivel crítico: p = P(Xi ?: 29,55) < 0,001.
© Ediciones Pirámide
la prueba X2 de Pearson / 541
y utilicemos:
(12.17)
donde:
(12.18)
EJEMPLO 12.S. Consideremos los datos de la tabla 12.12 (ejemplo 12.4). Hemos
rechazado la hipótesis de igualdad de proporciones y hemos concluido que los grupos
de edad considerados difieren en el grado de preocupación que manifiestan ante la
muerte. Para profundizar en esta conclusión general podemos obtener intervalos
de confianza para la diferencia entre cada dos proporciones poblacionales dentro de
cada categoría de la variable X¡.
Comencemos con la categoría nada (i = 1):
5 4 6
P 11 = - = 0,125 ; P 12 = - = 0,10 P 13 = - = 0,15
40 40 40
Puesto que tenemos 3 poblaciones de edad, las (3)(3 - 1)/2 = 3 comparaciones dos
a dos entre ellas pueden quedar definidas como se muestra en las siguientes hipótesis
nulas:
En consecuencia:
Los tres intervalos construidos contienen el valor cero, de modo que debemos
tomar la decisión de mantener las tres hipótesis plateadas y concluir que las poblacio-
nes de edad consideradas no difieren entre sí en la categoría nada.
El lector interesado puede repetir el proceso para el resto de las categorías de la
variable X¡ y averiguar dónde de hecho se encuentran las diferencias.
Estos errores pueden delatar diferencias mayores en unas celdas que en otras y
la constatación de este hecho puede arrojar luz sobre las pautas de interacción
© Ediciones Pirámide
La prueba X2 de Pearson / 543
presentes en la tabla. Una forma sencilla de evaluar estos errores consiste en tipi-
ficarlos:
(12.20)
(12.21)
Pero, bajo la hipótesis nula de independencia, los errores tipificados Ze11 se dis-
tribuyen normalmente con media =O y varianza= (1 - l)(J - 1)/(IJ), lo cual repre-
senta un pequeño inconveniente pues, dado que (1 - l)(J - 1) es siempre menor
que IJ, la varianza de los errores tipificados siempre es menor que 1 y, en conse-
cuencia, su variabilidad no se corresponde con la de las variables distribuidas
N(O, 1).
No obstante, Haberman (1973) ha definido otro tipo de errores tipificados, lla-
mados ajustados o corregidos, que, a diferencia de los errores tipificados, sí se
distribuyen N(O, 1). Los errores tipificados corregidos toman la forma:
(12.22)
(12.23)
© Ediciones Pirámide
544 / Análisis de datos en psicologfa 11
e-- (12.24)
(12.25)
(12.26)
(12.27)
donde k se refiere al menor del número de filas (/) y de columnas (J). Vcram~r nun-
ca excede de l. En tablas de contingencia 2 x 2, los coeficientes Vcramu y </> son
idénticos.
Las tres medidas de asociación propuestas permiten completar la información
proporcionada por el estadístico X 2 de Pearson en el que se basan. El estadístico
X 2 nos dice si la relación entre dos variables es estadísticamente significativa. Las
medidas de asociación nos permiten precisar el grado o magnitud de esa relación.
APl:N DICE 12
n!
---ílílrr'l? (12.28)
; j
(12.29)
© Ediciones Pirámide
546 / Análisis de datos en psicología 11
n. !
_•_+_ílrr.'!!J
I} (12.30)
nj
'j
n¡i·
El producto de las l funciones (12.30) (una para cada fila) proporciona la función de
probabilidad para la tabla entera. Las frecuencias esperadas vienen dadas, ahora, por:
(12.31)
Por supuesto, en lugar de fijar Jos totales de cada fila (el número de varones y el número
de mujeres), podría comenzarse fijando los totales de cada columna (número de esquizofréni-
cos y número de no esquizofrénicos). En este caso el esquema de muestreo seguiría siendo el
producto-multinomial, pero con n+¡ fijo en Jugar den;+·
El modelo de Poisson proporciona un tercer método o esquema de muestreo. De acuerdo
con este esquema procederíamos sin establecer de antemano ni el n total ni los totales
marginales. Nos limitaríamos a: 1) observar a los sujetos de una población determinada
durante un periodo de tiempo establecido y a 2) clasificarlos según las variables de interés.
Bajo estas circustancias es razonable suponer que las frecuencias obtenidas seguirán el
modelo de Poisson, por lo que Ja función de probabilidad para cada casilla vendrá dada por:
m'!!J
e-m,j_•J_ (12.32)
n;¡!
de donde se desprende que el valor esperado (frecuencia esperada) de cada casilla es, al igual
que en el modelo multinomial: m;¡ = nn;¡·
Con lo dicho hasta aquí es ya posible hacerse una idea de los tres esquemas de muestreo
más comúnmente utilizados para generar tablas de contingencia y de las distribuciones de
probabilidad que siguen las variables aleatorias (frecuencias observadas) que se obtienen
con cada uno de ellos. Un estudio más detallado de estas y otras distribuciones discretas de
probabilidad puede encontrarse en Johnson y Kotz (1969), o Bishop, Fienberg y Holland
(1975, capítulo 13).
Existen otros esquemas de muestreo (hipergeométrico, multinomial negativo, etc.) que
también pueden servir para generar tablas de contingencia. No obstante, Jos tres esquemas
descritos, no sólo son Jos más frecuentemente utilizados, sino que poseen Ja peculiaridad de
permitir usar Jos mismos métodos inferenciales y conducir a las mismas estimaciones para las
frecuencias esperadas de una tabla de contingencia dada.
6 7t¡¡, se refiere a la probabilidad condicional de la columna j dada la fila i. Así, por ejemplo,
n,,, = n 11 /n 1 +• n213 = n23/n 2 +, etc.
© Ediciones Pirámide
La prueba X2 de Pearson / 547
TABLA 12.14
Tabla de contingencia de sexo por grupos de salario
Grupos de salario (en millones de pesetas)
<2,5 2,5-5,0 5,0-7,5 >7,5
© Ediciones Pirámide
548 / Análisis de datos en psicología 11
Si ahora tenemos en cuenta la variable sexo para efectuar esa estimación y clasificamos
a los varones en el grupo de «entre 2,5 y 5,0 millones» porque ése es el grupo de salario
más probable entre los varones (con un error de (19 + 48 + 17)/474 = 0,1772), y a las mu-
jeres en el grupo de «menos de 2,5» porque ése es el grupo de salario más probable entre
las mujeres (con un error de (86 + 6 + 0)/474 = 0,1941), estaremos cometiendo un error de
clasificación de 0,1772 + 0,1941 = 0,3713. Actuando de esta segunda manera hemos conse-
guido reducir el error de clasificación en 0,0802 (de 0,4515 a 0,3713), lo cual representa una
proporción de reducción de 0,0802/0,4515 = O, 1776, que es justamente el valor de lambda
cuando consideramos la variable grupos de salario como variable dependiente. Podemos
obtener el valor de lambda mediante:
L máx;(n;}- máx(n+i)
• i
)•ylx = --------- (12.33)
n - máx(n+i)
donde:
máx; (n;} = la mayor de las frecuencias de la fila i.
máx (n +} = la mayor de las frecuencias marginales de las columnas.
Aplicando la ecuación [12.33] a los datos de la tabla 12.13 obtenemos el siguiente re-
sultado:
L máxi(n;) - máx(n;+)
• - j
)•xi}' - -'--------- (12.34)
n - máx(n;+)
donde:
máxi(n;) =la mayor de las frecuencias de la columna j.
máx(n;+) = la mayor de las frecuencias marginales de las filas.
La versión simétrica de lambda se obtiene promediando el valor de las dos versiones
asimétricas.
Se trata de una medida de asociación que toma valores entre O y l. Un valor de O in-
dica que la variable independiente (la variable utilizada para efectuar pronósticos) no con-
tribuye en absoluto a reducir el error de predicción. Un valor de 1 indica que el error de
predicción se ha conseguido reducir por completo, es decir, que la variable independiente
permite predecir con toda precisión a qué categoría de la variable dependiente pertenecen
los casos clasificados.
Cuando dos variables son estadísticamente independientes, lambda vale O. Pero un valor
© Ediciones Pirámide
la prueba X2 de Pearson / 549
Tau ('r)
La medida de asociación tau se parece a lambda, pero se basa en una lógica algo dife-
rente. Al pronosticar a qué categoría de la variable grupos de salario pertenece un grupo
de sujetos, podemos asignar aleatoriamente el 100(143/474) = 30,17 por 100 a la categoría
«menos de 2,5 millones», el 100(260/474) = 54,85 por 100 a la categoría «entre 2,5 y 5,0
millones», etc., basándonos en la probabilidad de pertenecer a cada categoría, en lugar de
considerar sólo la categoría más probable, como hemos hecho con lambda. Procediendo de
esta manera estaremos clasificando correctamente al 30, 17 por 100 de los 143 sujetos del
grupo «menos de 2,5 millones», al 54,85 por 100 de los 260 sujetos con salarios «entre 2,5
y 5,0 millones», etc. Lo cual representa una proporción de clasificación correcta global de
0,4061 y, por tanto, una proporción de clasificación errónea de 1 - 0,4061 = 0,5939.
En lugar de esto, podemos tener en cuenta la variable sexo y, entre los varones, asignar
aleatoriamente el (100)19/258 = 7,36 por 100 a la categoría «menos de 2,5 millones», el
(100)174/258 = 67,44 por 100 a la categoría «entre 2,5 y 5,0 millones», etc.; y entre las
mujeres, asignar aleatoriamente el (100)124/216 = 57,41 por 100 a la categoría «menos de
2,5 millones», el (100)86/216 = 39,81 por 100 a la categoría «entre 2,5 y 5,0 millones»; etc.
Al final, estaremos clasificando de forma correcta al 49,45 por 100 de los sujetos y, por
tanto, estaremos efectuando pronósticos erróneos con el 100 - 49,45 = 50,55 por 100 de los
sujetos.
Procediendo de esta segunda manera reducimos la probabilidad de efectuar pronósticos
erróneos en 0,0884 (la diferencia entre 0,5939 y 0,5055). Por lo que habremos conseguido
reducir la probabilidad de error en una proporción de 0,0884/0,5939 = 0,149, que es justa-
mente el valor de la tau de Goodman y Kruskal cuando consideramos la variable grupos
de salario como dependiente. Podemos obtener el valor de tau utilizando la siguiente ecua-
ción:
n¿¿(nl/n;+)- ¿n~¡
i j j
(12.35)
n2 - ¿n~¡
j
Al igual que lambda, tau también toma valores entre O y 1, significando el O ausencia de
reducción del error de clasificación y el 1 reducción completa. Tau posee dos versiones asi-
métricas, dependiendo de cuál de las dos variables consideremos dependiente; el valor de
ty¡x puede obtenerse intercambiando los roles de X¡ e lj.
Coeficiente de incertidumbre
© Ediciones Pirámide
550 / Análisis de datos en psicología 11
grado de incertidumbre que conseguimos reducir cuando utilizamos una variable para efec-
tuar pronósticos sobre otra. Posee dos versiones asimétricas (dependiendo de cuál de las dos
variables consideremos dependiente) y una simétrica (para cuando no hacemos distinción
entre variable independiente y dependiente). Se obtiene de la siguiente manera (sólo para
n;i >O):
I = _J(_X_)+_I(_Y)_-_I_(X_Y)
* /(Y)
(12.36)
donde:
Para obtener I xil" basta con intercambiar los papeles de /(X) e /(Y). Y la versión simé-
trica se obtiene multiplicando I¡·lx por 2 después de añadirle /(X) al denominador.
Índices de acuerdo
TABLA 12.15
Resultado obtenido por dos jueces al clasificar una muestra de 200 pacientes histéricos
seyún el tipo de neurosis
Y¡: Juez 2
(i= 1) (i = 2) (i = 3) (i = 4)
Fóbica Histérica Obsesiva Depresiva n¡+
(i = 1) Fóbica 20 8 6 1 35
X;: Juez 1
(i = 2) Histérica 7 36 14 4 61
(i = 3) Obsesiva 1 8 43 7 59
(i = 4) Depresiva 2 6 4 33 45
"+i 30 58 67 45 200
© Ediciones Pirámide
La prueba X' de Pearson / 551
Una forma intuitiva de medir el grado de acuerdo entre los dos jueces consiste en hacer
un recuento del número de coincidencias existentes (es decir, del número de casos que ambos
jueces han clasificado de la misma manera). Sumando las frecuencias que indican acuerdo
(las que se encuentran en la diagonal que va desde la parte superior izquierda de la tabla a
la parte inferior derecha: n;;) obtenemos 132 coincidencias, lo que representa un porcentaje
de acuerdo de (100)132/200 = 66 por 100.
Este porcentaje constituye la base de muchos de los índices diseñados para evaluar el
acuerdo entre dos jueces. Pero tiene un serio inconveniente para ser utilizado como índice
de acuerdo: no tiene en cuenta la probabilidad de obtener acuerdos por azar. Entre los
índices que sí tienen en cuenta esa probabilidad, el coeficiente kappa (K) de Cohen (1960)
es, sin duda, el más conocido y utilizado. Si suponemos que ambos jueces son independien-
tes, los casos que cabría esperar por azar en las casillas de la diagonal pueden obtenerse
multiplicando las correspondientes frecuencias marginales y dividiendo ese producto entre el
total de casos (ver apartado 12.3.2, ecuación [12.9]). Así, en la primera casilla de la diagonal
cabría esperar, por azar, 35(30)/200 = 5,25 casos; en la segunda casilla, 61(58)/200 = 17,69
casos; etc. Repitiendo la operación para todas las casillas de la diagonal, obtenemos un total
de 52,83 casos, lo que representa un 26,42 por 100 de acuerdo esperado por azar.
La diferencia entre la proporción de acuerdo observado (0,66) y la proporción de acuerdo
esperado por azar (0,2642) es 0,3958. El coeficiente kappa de Cohen se obtiene dividiendo
esa diferencia entre la proporción de acuerdo máximo que los dos jueces podrían alcanzar.
Esta proporción máxima se obtiene restando a 1 la proporción de acuerdo esperado por
azar: 1 - 0,2642 = 0,7358. Dividiendo el acuerdo observado (0,3958) entre el acuerdo máximo
posible (0,7358), obtenemos una proporción de acuerdo de 0,538, que es justamente el valor
de kappa si aplicamos la ecuación:
(12.37)
(n;; se refiere a las frecuencias de la diagonal principal: i = j). El valor de kappa debe inter-
pretarse teniendo en cuenta que toma valores entre O (acuerdo nulo) y 1 (acuerdo máximo).
Cuando el acuerdo alcanzado es menor que el esperado por azar, kappa toma un valor
negativo.
Fleiss, Cohen y Everitt ( 1969) han demostrado que el error típico del coeficiente kappa
puede estimarse mediante:
f¡ K =
Podemos contrastar la hipótesis· de que los dos jueces son independientes (o, lo que es
lo mismo, que el coeficiente kappa vale cero) tipificando el valor de kappa. Dividiendo kappa
por su error típico obtenemos un valor tipificado que se ajusta al modelo de probabilidad
normal:
K
z. = - --+ N(O, 1) (12.39)
rr.
© Ediciones Pirámide
552 / Análisis de datos en psicología 11
Al margen de la significación estadística del coeficiente kappa, Landis y Koch (1977) han
argumentado que, en la mayor parte de los contextos, valores por encima de 0,75 suelen
reflejar un acuerdo excelente; valores entre 0,40 y 0,75, un buen acuerdo; y valores por
debajo de 0,40, un acuerdo más bien pobre.
Aplicando la ecuación [12.37] a los datos de la tabla 12.15 obtenemos:
In¡¡= 20 + 36 + 43 + 33 = 132
i
200(132) - 10.566
K = 200 2 - 10.566 = 0•538
1 2 2
(¡
•= 200(2002 - 10.566)2 [200 (10.566) + (10.566) - 200(1.169.600)] = 0,041635
K 0,538
z. = ª· = 0,041635 = 12' 92
Puesto que P(Z ;:i: 12,92)::::: O, podemos rechazar H 0 y afirmar que el acuerdo alcanzado
es significativamente más alto que el esperado por azar. Siguiendo las recomendaciones de
Landis y Koch, podemos decir que el acuerdo observado es bueno.
Además del coeficiente kappa, existen otros muchos índices de acuerdo que, aunque son
muy parecidos a kappa, se diferencian entre sí por la forma concreta que tienen de cuanti-
ficar la probabilidad de acuerdo debido al azar (ver, por ejemplo, Fleiss, 1981, capítulo 13;
o Zwick, 1988) .. Por otra parte, el lector interesado en algún índice que permita evaluar el
acuerdo entre más de dos jueces, puede consultar, por ejemplo, Posner, Sampson, Caplan,
Ward y Chendly (1990).
Especial mención merece un índice de acuerdo asimétrico diseñado por Kvalseth (1991):
(12.40)
Mientras kappa permite evaluar el grado de acuerdo mutuo entre dos jueces (trata a los
dos jueces de forma equivalente), el índice K 2 ¡1 permite valorar el acuerdo entre dos jueces
cuando el primero de ellos es considerado como un estándar.
© Ediciones Pirámide
La prueba X 2 de Pearson / 553
EJERCICIOS
12.1. De un estudio sobre tabaquismo se han extraído los siguientes datos correspondientes
a una muestra de 30 sujetos seleccionados de diferente hábitat ( 15 sujetos de medio rural y 15
de medio urbano). A cada sujeto le corresponde, en la tabla 12.16, un registro que indica si
fuma más de 10 cigarrillos/día (!), o menos (O). Apoyándonos en los datos de esta pequeña
muestra, ¿podemos afirmar que la proporción de fumadores no es la misma en los hábitat
rural y urbano? (ex = 0,05).
TABLA 12.16
Medio rural o 1 o o 1 o o o 1 o 1 1 o o o
Medio urbano 1 1 o 1 o 1 1 1 o 1 o o 1 o 1
12.2. Se sospecha que en la población de psicólogos, 1/4 tienen actitudes de derechas, 1/4
actitudes de centro y 2/4 actitudes de izquierdas. Tomada una muestra aleatoria de 24
psicólogos hemos encontrado la distribución de frecuencias que aparece en la tabla 12.17.
¿Son compatibles estos datos con la hipótesis de partida? (ex = 0,05).
TABLA 12.17
5 8 11
12.3. Al aplicar una prueba de lenguaje a una muestra aleatoria de 100 sujetos hemos
definido la variable X = número de aciertos y hemos construido su distribución de frecuencias
(tabla 12.18). Queremos contrastar la hipótesis de que, en la población, la variable X se
distribuye binomialmente con n = 0,5. ¿A qué conclusión llegaremos con ex = 0,05?
TABLA 12.18
X o 1 2 3
n; 10 30 50 10
12.4. Un psicólogo industrial recibe el encargo de averiguar si el volumen que se utiliza con
la música que escuchan los trabajadores de una determinada empresa tiene repercusión sobre
el número de unidades producidas. Para cumplir tal encargo, el psicólogo selecciona cinco
niveles de volumen y registra el número de unidades producidas por el conjunto de los
trabajadores de la empresa durante el tiempo de exposición a cada uno de ellos. La tabla
12.19 recoge los resultados obtenidos. ¿Podrá concluir nuestro psicólogo que el volumen de
la música afecta al número de unidades producidas? (ex = 0,05).
© Ediciones Pirámide
554 / Análisis de datos en psicología 11
TABLA 12.19
Volumen en decibelios 10 20 30 40 50
12.5. ¿Podemos decir que una moneda está bien construida si en 3.000 lanzamientos se
obtienen 1420 caras? (iX = 0,01).
12.6. Queremos realizar un estudio que permita poner a prueba la hipótesis de que los
trastornos de personalidad de los niños están en relación con el número de hermanos que
tales niños tienen. Para ello, hemos seleccionado una muestra aleatoria de 134 niños y, tras
pasarles un test capaz de detectar la presencia de diferentes tipos de trastornos de personali-
dad, los hemos clasificado con arreglo a estos dos criterios: número de hermanos y presencia o
ausencia de trastorno. La tabla 12.20 recoge los resultados de la clasificación. ¿Qué podemos
concluir, con iX = 0,01, sobre la relación entre número de hermanos y tener o no trastornos de
personalidad?
TABLA 12.20
Número de hermanos
o 1 2 J 4 5 o más
TABLA 12.21
Varones A A E A E A A A E A
Mujeres E E A E A E A E E E
12.8. Para un experimento sobre memoria a largo plazo un psicólogo necesita utilizar como
estímulos cinco palabras cuyo componente emocional sea similar. Para ello, selecciona 5
palabras que él considera apropiadas y decide evaluar el componente emocional de las
mismas con una muestra aleatoria de 500 sujetos. Presenta, independientemente, cada
palabra a 100 sujetos y registra si la palabra es percibida como emocionalmente positiva
(agradable, placentera, etc.), negativa (desagradable, displacentera, etc.) o neutra. A la vista de
los resultados obtenidos (tabla 12.22), ¿podrá el psicólogo utilizar esas 5 palabras en su
experimento sobre memoria? (iX = 0,05).
('¡,' Ediciones Pirámide
La prueba X 2 de Pearson / 555
TABLA 12.22
Palabras
1 2 3 4 5
-
Positivo 26 45 32 29 39
Componente
Negativo 32 27 38 37 26
emocional
Neutro 42 28 30 34 35
12.9. Con intención de estudiar la relación entre el nivel socioecon6mico y el tipo de estu-
dios superiores cursados, un psicólogo social seleccionó una muestra de 500 sujetos (100 por
nivel socioeconómico) y obtuvo los resultados recogidos en la tabla 12.23. ¿Podemos decir
que las diferentes poblaciones estudiadas se distribuyen de la misma manera en la variable
tipo de estudios? (IX= 0,05).
TABLA 12.23
Nivel socioeconómico
Medio Medio
Bajo Medio Alto
bajo alto
Estudios de ciencias 6 16 22 17 19
Estudios de letras 8 12 21 30 21
Estudios mixtos 4 10 36 41 45
Sin estudios 82 62 21 12 15
TABLA 12.24
Menos de 25 años 8 12 24 37 19
Entre 25 y 55 años 3 29 32 26 10
Más de 55 años 28 31 26 11 4
12.11. En numerosos estudios se ha venido insistiendo en que el estado civil no era una
variable relevante a la hora de explicar las actitudes abortistas. Insistiendo en el tema, se ha
encuestado a 500 sujetos sobre su actitud hacia el aborto y, tras clasificarlos según su estado
© Ediciones Pirámide
556 / Análisis de datos en psico/ogia 11
civil y su actitud hacia el aborto, se han obtenido los resultados que aparecen en la tabla
12.25. ¿A qué conclusión llegaremos utilizando un nivel de confianza de 0,95?
TABLA 12.25
Actitud Actitud
abortista antiabortista
Solteros 120 30
Casados 50 200
Divorciados 30 70
12.12. Algunos trabajos señalan que en la comunidad de Madrid los trastornos de tipo
depresivo afectan al 32 por 100 de las personas en paro. Un psicólogo social sospecha que
esta cifra está desfasada y decide obtener alguna evidencia sobre ello. Selecciona una
muestra aleatoria de 300 sujetos en paro y encuentra que 63 de ellos muestran trastornos de
tipo depresivo. Utilizando :x = 0,01, ¿qué podemos concluir en relación con la sospecha del
psicólogo?
12.13. Alentado por los resultados obtenidos, el psicólogo social del ejercicio 12.12 decide
ampliar su estudio utilizando sujetos pertenecientes a medios rurales, semiurbanos y urbanos.
De cada medio, selecciona una muestra aleatoria de 100 sujetos en paro, obteniendo en cada
grupo el número de depresivos que aparece en la tabla 12.26. ¿Podemos afirmar, con
:x = 0,01, que en la población de desempleados existe relación entre el tipo de medio al que se
pertenece y tener o no trastornos depresirns'!
TABLA 12.26
Semi-
Rural Urbano
urbano
9 13 28
Análisis de datos, prefieren examen sólo teórico, sólo práctico o ambos. Los datos se
analizan con la prueba xi de Pearson, obteniéndose un valor xi = 3,27 tal que
P(Xi > 3,27) = 0,001. Lo razonable será concluir que (selecciona la alternativa correcta):
a) Las preferencias de las muestras dependen de los cursos.
b) Las preferencias de las muestras no son homogéneas.
e) La proporción de estudiantes que prefiere cada tipo de examen no difiere de los
primeros a los últimos cursos.
d) La proporción de estudiantes que prefiere cada tipo de examen varía de los primeros
a los últimos cursos.
e) Todas las anteriores alternativas son incorrectas.
12.16. Tratando de contrastar con la prueba xi de Pearson la hipótesis de que una varia-
ble se distribuye según el modelo multinomial, hemos obtenido en una muestra aleatoria un
valor xi= 1,02. Sabiendo que P(Xi ~ 1,02) = 0,975 y utilizando un nivel de conjianza de
0,95:
a) ¿Qué decidiremos sobre H 0 ?
b) ¿Podemos concluir que la variable sigue el modelo multinomial?
e) ¿Cuánto vale el nivel crítico?
SOLUCIONES
ID Ediciones Pirámide
558 / Análisis de datos en psicología 11
12.6. Independencia.
X 2 = 21,43; 0 . 99 X~ = 15,09; rechazamos H 0 .
Concluimos que entre las variables estudiadas existe relación significativa.
12.11. 1ndependencia.
X 2 = 145,83; 0 . 95 X~ = 5,99; rechazamos H 0 .
Podemos concluir que existe relación entre el estado civil y la actitud hacia el aborto.
12.14. a.
12.15. d.
© Ediciones Pirámide
APÉNDICE FINAL
Tablas estadísticas
TABLA A
Tabla de números aleatorios
12345 12 34 5 12 34 5 12 34 5 12345
© Ediciones Pirámide
562 / Análisis de datos en psicología 11
TABLA B
Distribución binomial. Probabilidades acumuladas: P( X :( x)
¡¡
0,05 0,10 0,20 0,30 0,40 0,50 0.60 0,70 0,80 0,90 0,95
X
n= 1 O 0,950 0,900 0,800 0,700 0,600 0,500 0,400 0,300 0,200 0,100 0,050
1 l~l~l~l~l~l~l~l~l~l~l~
n=2 O 0,902 0,810 0,640 0,490 0,360 0,250 0,160 0,090 0,040 0,010 0,002
1 0,997 0,990 0,960 0,910 0,840 0,750 0,640 0,510 0,360 0,190 0,097
2 l~l~l~l~l~l~l~l~l~l~l~
n=3 O 0,857 O, 729 0,512 0,343 0,216 O, 125 0,064 0,027 0,008 0,001 0,000
1 0,993 0,972 0,896 0,784 0,648 0,500 0,352 0,216 0,104 0,028 0,007
2 1,000 0,999 0,992 0,973 0,936 0,875 0,784 0,657 0,488 0,271 0,143
3 l~l~l~l~l~l~l~l~l~l~l~
n=4 O 0,815 0,656 0,410 0,240 0,130 0,063 0,026 0,008 0,002 0,000 0,000
1 0,986 0,948 0,819 0,652 0,475 0,313 O, 179 0,084 0,027 0,004 0,000
2 1,000 0,996 0,973 0,916 0,821 0,688 0,525 0,348 0,181 0,052 0,014
3 1,000 1,000 0,998 0,992 0,974 0,938 0,870 0,760 0,590 0,344 O, 185
4 l~l~l~l~l~l~l~l~l~l~l~
n=5 O 0,774 0,590 0,328 0,168 0,078 0,031 0,010 0,002 0,000 0,000 0,000
1 0,977 0,919 0,737 0,528 0,337 0,188 0,087 0,031 0,007 0,000 0,000
2 0,999 0,991 0,942 0,83 7 0,683 0,500 0,31 7 O, 163 0,058 0,009 0,001
3 1,000 1,000 0,993 0,969 0,913 0,813 0,663 0,472 0,263 0,081 0,023
4 1,000 1,000 1,000 0,998 0,990 0,969 0,922 0,832 0,672 0,410 0,226
5 l~l~l~l~l~l~l~l~l~l~l~
n=6 O 0,735 0,531 0,262 0,118 0,047 0,016 0,004 0,001 0,000 0,000 0,000
1 0,967 0,886 0,655 0,420 0,233 0,109 0,041 0,011 0,002 0,000 0,000
2 0,998 0,984 0,901 0,744 0,544 0,344 0,179 0,070 0,017 0,001 0,000
3 1,000 0,999 0,983 0,930 0,821 0,656 0,456 0,256 0,099 0,016 0,002
4 1,000 1,000 0,998 0,989 0,959 0,891 0,767 0,580 0,345 0,114 0,033
5 1,000 1,000 1,000 0,999 0,996 0,984 0,953 0,882 0,738 0,469 0,265
6 l~l~l~l~l~l~l~l~l~l~l~
n= 7 O 0,698 0,478 0,210 0,082 0,028 0,008 0,002 0,000 0,000 0,000 0,000
1 0,956 0,850 0,577 0,329 0,159 0,063 0,019 0,004 0,000 0,000 0,000
2 0,996 0,974 0,852 0,647 0,420 0,227 0,096 0,029 0,005 O,OOQ 0,000
3 1,000 0,997 0,967 0,874 0,710 0,500 0,290 0,126 0,033 0,003 0,000
4 1,000 1,000 0,995 0,971 0,904 0,773 0,580 0,353 0,148 0,026 0,004
© Ediciones Pirámide
Tablas estadísticas / 563
TABLA B (continuación)
rr
0,05 0.10 0,20 0.30 0.40 0,50 0,60 0,70 0,80 0,90 0,95
X
5 1,000 1,000 1,000 0,996 0,981 0,938 0,841 0,671 0,423 0,150 0,044
6 1,000 1,000 1,000 1,000 0,998 0,992 0,972 0,918 O, 790 0,522 0,302
7 1,000 1,000 1,000 1,000 1,000 1,000 1,000 1,000 1,000 1,000 1,000
n= 8 O 0,663 0,430 O, 168 0,058 0,017 0,004 0,001 0,000 0,000 0,000 0,000
1 0,943 0,813 0,503 0,255 0,106 0,035 0,009 0,001 0,000 0,000 0,000
2 0,994 0,962 0,797 0,552 0,315 0,145 0,050 0,011 0,001 0,000 0,000
3 1,000 0,995 0,944 0,806 0,594 0,363 0,174 0,058 0,010 0,000 0,000
4 1,000 1,000 0,990 0,942 0,826 0,637 0,406 0,194 0,056 0,005 0,000
5 1,000 1,000 0,999 0,989 0,950 0,855 0,685 0,448 0,203 0,038 0,006
6 1,000 1,000 1,000 0,999 0,991 0,965 0,894 0,745 0,497 0,187 0,057
7 1,000 1,000 1,000 1,000 0,999 0,996 0,983 0,942 0,832 0,570 0,337
8 l~l~l~l~l~l~l~l~l~l~l~
n= 9 O 0,630 0,387 0,134 0,040 0,010 0,002 0,000 0,000 0,000 0,000 0,000
1 0,929 0,775 0,436 0,196 0,071 0,020 0,004 0,000 0,000 0,000 0,000
2 0,992 0,947 0,738 0,463 0,232 0,090 0,025 0,004 0,000 0,000 0,000
3 0,999 0,992 0,914 0,730 0,483 0,254 0,099 0,025 0,003 0,000 0,000
4 1,000 0,999 0,980 0,901 0,733 0,500 0,267 0,099 O,Q20 0,001 0,000
5 1,000 1,000 0,997 0,975 0,901 0,746 0,517 0,270 0,086 0,008 0,001
6 1,000 1,000 1,000 0,996 0,975 0,910 0,768 0,537 0,262 0,053 0,008
7 1,000 1,000 1,000 1,000 0,996 0,980 0,929 0,804 0,564 0,225 0,071
8 1,000 1,000 1,000 1,000 1,000 0,998 0,990 0,960 0,866 0,613 0,370
9 l~l~l~l~l~l~l~l~l~l~l~
n = 10 o 0,599 0,349 0,107 0,028 0,006 0,001 0,000 0,000 0,000 0,000 0,000
1 0,914 0,736 0,376 0,149 0,046 0,011 0,002 0,000 0,000 0,000 0,000
2 0,988 0,930 0,678 0,383 0,167 0,055 0,012 0,002 0,000 0,000 0,000
3 0,999 0,987 0,879 0,650 0,382 0,172 0,055 0,011 0,001 0,000 0,000
4 1,000 0,998 0,967 0,850 0,633 0,377 0,166 0,047 0,006 0,000 0,000
5 1,000 1,000 0,994 0,953 0,834 0,623 0,367 0,150 0,033 0,002 0,000
6 1,000 1,000 0,999 0,989 0,945 0,828 0,618 0,350 0,121 0,013 0,001
7 1,000 1,000 1,000 0,998 0,988 0,945 0,833 0,617 0,322 0,070 0,012
8 1,000 1,000 1,000 1,000 0,998 0,989 0,954 0,851 0,624 0,264 0,086
9 1,000 1,000 1,000 1,000 1,000 0,999 0,994 0,972 0,893 0,651 0,401
10 1,000 1,000 1,000 1,000 1,000 1,000 1,000 1,000 1,000 1,000 1,000
n = 11 o 0,569 0,314 0,086 0,020 0,004 0,000 0,000 0,000 0,000 0,000 0,000
1 0,898 0,697 0,322 O, 113 0,030 0,006 0,001 0,000 0,000 0,000 0,000
2 0,985 0,910 0,617 0,313 0,119 0,033 0,006 0,001 0,000 0,000 0,000
3 0,998 0,981 0,839 0,570 0,296 O, 113 0,029 0,004 0,000 0,000 0,000
© Ediciones Pirámide
564 / Análisis de datos en psicología 11
TABLA B (continuación)
rr
0,05 0,10 0,20 0,30 0,40 0,50 0,60 0,70 0,80 0,90 0,95
X
4 1,000 0,997 0,950 0,790 0,533 0,274 0,099 0,022 0,002 0,000 0,000
5 1,000 1,000 0,988 0,922 0,753 0,500 0,247 0,078 0,012 0,000 0,000
6 1,000 1,000 0,998 0,978 0,901 0,726 0,467 0,210 0,050 0,003 0,000
7 1,000 1,000 1,000 0,996 0,971 0,887 0,704 0,430 0,161 0,019 0,002
8 1,000 1,000 1,000 0,999 0,994 0,967 0,881 0,687 0,383 0,090 0,015
9 1,000 1,000 1,000 1,000 0,999 0,994 0,970 0,887 0,678 0,303 0,102
10 1,000 1,000 1,000 1,000 1,000 1,000 0,996 0,980 0,914 0,686 0,431
11 1~1~1~1~1~1~1~1~1~1~1~
n = 12 o 0,540 0,282 0,069 0,014 0,002 0,000 0,000 0,000 0,000 0,000 0,000
1 0,882 0,659 0,275 0,085 O,Q20 0,003 0,000 0,000 0,000 0,000 0,000
2 0,980 0,889 0,558 0,253 0,083 0,019 0,003 0,000 0,000 0,000 0,000
3 0,998 0,974 0,795 0,493 0,225 0,073 0,015 0,002 0,000 0,000 0,000
4 1,000 0,996 0,927 0,724 0,438 0,194 0,057 0,009 0,001 0,000 0,000
5 1,000 0,999 0,981 0,882 0,665 0,387 O, 158 0,039 0,004 0,000 0,000
6 1,000 1,000 0,996 0,961 0,842 0,613 0,335 0,118 0,019 0,001 0,000
7 1,000 1,000 0,999 0,991 0,943 0,806 0,562 0,276 0,073 0,004 0,000
8 1,000 1,000 1,000 0,998 0,985 0,927 0,775 0,507 0,205 0,026 0,002
9 1,000 1,000 1,000 1,000 0,997 0,981 0,917 0,747 0,442 0,111 O,Q20
10 1,000 1,000 1,000 1,000 1,000 0,997 0,980 0,915 0,725 0,341 0,118
11 1,000 1,000 1,000 1,000 1,000 1,000 0,998 0,986 0,931 0,718 0,460
12 l~l~l~l~l~l~l~l~l~l~I~
n = 13 o 0,513 0,254 0,055 0,010 0,001 0,000 0,000 0,000 0,000 0,000 0,000
1 0,865 0,621 0,234 0,064 0,013 0,002 0,000 0,000 0,000 0,000 0,000
2 0,975 0,866 0,502 0,202 0,058 0,011 0,001 0,000 0,000 0,000 0,000
3 0,997 0,966 0,747 0,421 0,169 0,046 0,008 0,001 0,000 0,000 0,000
4 1,000 0,994 0,901 0,654 0,353 O, 133 0,032 0,004 0,000 0,000 0,000
5 1,000 0,999 0,970 0,835 0,574 0,291 0,098 0,018 0,001 0,000 0,000
6 1,000 1,000 0,993 0,938 0,771 0,500 0,229 0,062 0,007 0,000 0,000
7 1,000 1,000 0,999 0,982 0,902 0,709 0,426 0,165 0,030 0,001 0,000
8 1,000 1,000 1,000 0,996 0,968 0,867 0,647 0,346 0,099 0,006 0,000
9 1,000 1,000 1,000 0,999 0,992 0,954 0,831 0,579 0,253 0,034 0,003
10 1,000 1,000 1,000 1,000 0,999 0,989 0,942 0,798 0,498 O, 134 0,025
11 1,000 1,000 1,000 1,000 1,000 0,998 0,987 0,936 0,766 0,379 0,135
12 1,000 1,000 1,000 1,000 1,000 1,000 0,999 0,990 0,945 0,746 0,487
13 l~l~l~l~l~l~l~l~l~l~I~
n = 14 O 0,488 0,229 0,044 0,007 0,001 0,000 0,000 0,000 0,000 0,000 0,000
1 0,847 0,585 0,198 0,047 0,008 0,001 0,000 0,000 0,000 0,000 0,000
2 0,970 0,842 0,448 0,161 0,040 0,006 0,001 0,000 0,000 0,000 0,000
© Ediciones Pirámide
Tablas estadísticas / 565
TABLA B (continuación)
TC
0.05 0,10 0,20 0,30 0,40 0,50 0,60 0,70 0,80 0,90 0,95
X
3 0,996 0,956 0,698 0,355 0,124 0,029 0,004 0,000 0,000 0,000 0,000
4 1,000 0,991 0,870 0,584 0,279 0,090 0,018 0,002 0,000 0,000 0,000
5 1,000 0,999 0,956 O, 781 0,486 0,212 0,058 0,008 0,000 0,000 0,000
6 1,000 1,000 0,988 0,907 0,692 0,395 0,150 0,031 0,002 0,000 0,000
7 1,000 1,000 0,998 0,969 0,850 0,605 0,308 0,093 0,012 0,000 0,000
8 1,000 1,000 1,000 0,992 0,942 0,788 0,514 0,219 0,044 0,001 0,000
9 1,000 1,000 1,000 0,998 0,982 0,910 0,721 0,416 0,130 0,009 0,000
10 1,000 1,000 1,000 1,000 0,996 0,971 0,876 0,645 0,302 0,044 0,004
11 1,000 1,000 1,000 1,000 0,999 0,994 0,960 0,839 0,552 0,158 O,Q30
12 1,000 1,000 1,000 1,000 1,000 0,999 0,992 0,953 0,802 0,415 0,153
13 1,000 1,000 1,000 1,000 1,000 1,000 0,999 0,993 0,956 0,771 0,512
14 1~1~1~1~1~1~1~1~1~1~1~
n = 15 o 0,463 0,206 0,035 0,005 0,000 0,000 0,000 0,000 0,000 0,000 0,000
1 0,829 0,549 0,167 0,035 0,005 0,000 0,000 0,000 0,000 0,000 0,000
2 0,964 0,816 0,398 O, 127 0,027 0,004 0,000 0,000 0,000 0,000 0,000
3 0,995 0,944 0,648 0,297 0,091 0,018 0,002 0,000 0,000 0,000 0,000
4 0,999 0,987 0,836 0,515 0,217 0,059 0,009 0,001 0,000 0,000 0,000
5 1,000 0,998 0,939 0,722 0,403 0,151 0,034 0,004 0,000 0,000 0,000
6 1,000 1,000 0,982 0,869 0,610 0,304 0,095 0,015 0,001 0,000 0,000
7 1,000 1,000 0,996 0,950 0,787 0,500 0,213 0,050 0,004 0,000 0,000
8 1,000 1,000 0,999 0,985 0,905 0,696 0,390 O, 131 0,018 0,000 0,000
9 1,000 1,000 1,000 0,996 0,966 0,849 0,597 0,278 0,061 0,002 0,000
10 1,000 1,000 1,000 0,999 0,991 0,941 0,783 0,485 0,164 0,013 0,001
11 1,000 1,000 1,000 1,000 0,998 0,982 0,909 0,703 0,352 0,056 0,005
12 1,000 1,000 1,000 1,000 1,000 0,996 0,973 0,873 0,602 0,184 0,036
13 1,000 1,000 1,000 1,000 1,000 1,000 0,995 0,965 0,833 0,451 0,171
14 1,000 1,000 1,000 1,000 1,000 1,000 1,000 0,995 0,965 0,794 0,537
15 l~l~l~l~l~l~l~l~l~l~l~
n = 16 o 0,440 O, 185 0,028 0,003 0,000 0,000 0,000 0,000 0,000 0,000 0,000
1 0,811 0,515 O, 141 0,026 0,003 0,000 0,000 0,000 0,000 0,000 0,000
2 0,957 0,789 0,352 0,099 0,018 0,002 0,000 0,000 0,000 0,000 0,000
3 0,993 0,932 0,598 0,246 0,065 0,011 0,001 0,000 0,000 0,000 0,000
4 0,999 0,983 0,798 0,450 0,167 0,038 0,005 0,000 0,000 0,000 0,000
5 1,000 0,997 0,918 0,660 0,329 0,105 0,019 0,002 0,000 0,000 0,000
6 1,000 0,999 0,973 0,825 0,527 0,227 0,058 0,007 0,000 0,000 0,000
7 1,000 1,000 0,993 0,926 0,716 0,402 0,142 0,026 0,001 0,000 0,000
8 1,000 1,000 0,999 0,974 0,858 0,598 0,284 0,074 0,007 0,000 0,000
9 1,000 1,000 1,000 0,993 0,942 0,773 0,473 0,175 0,027 0,001 0,000
10 1,000 1,000 1,000 0,998 0,981 0,895 0,671 0,340 0,082 0,003 0,000
~) Ediciones Pirámide
566 / Análisis de datos en psicología 11
TABLA B (continuación)
¡¡
0,05 0,10 0,20 OJO 0,40 0,50 0,60 0,70 0,80 0,90 0,95
X
11 1,000 1,000 1,000 1,000 0,995 0,962 0,833 0,550 0,202 0,017 0,001
12 1,000 1,000 1,000 1,000 0,999 0,989 0,935 0,754 0,402 0,068 0,007
13 1,000 1,000 1,000 1,000 1,000 0,998 0,982 0,901 0,648 0,211 0,043
14 1,000 1,000 1,000 1,000 1,000 1,000 0,997 0,974 0,859 0,485 0,189
15 1.000 1,000 1,000 1,000 1,000 1,000 1,000 0,997 0,972 0,815 0,560
16 l~l~l~l~l~l~l~l~l~l~l~
11 = 17 O 0,418 O, 16 7 0,023 0,002 0,000 0,000 0,000 0,000 0,000 0,000 0,000
1 0,792 0,482 0,118 0,019 0,002 0,000 0,000 0,000 0,000 0,000 0,000
2 0,950 0,762 0,310 0,077 0,012 0,001 0,000 0,000 0,000 0,000 0,000
3 0,991 0,917 0,549 0,202 0,046 0,006 0,000 0,000 0,000 0,000 0,000
4 0,999 0,978 0,758 0,389 0,126 0,025 0,003 0,000 0,000 0,000 0,000
5 1,000 0,995 0,894 0,597 0,264 0,072 0,011 0,001 0,000 0,000 0,000
6 1,000 0,999 0,962 0,775 0,448 0,166 0,035 0,003 0,000 0,000 0,000
7 1,000 1,000 0,989 0,895 0,641 0,315 0,092 0,013 0,000 0,000 0,000
8 1,000 1,000 0,997 0,960 0,801 0,500 0,199 0,040 0,003 0,000 0,000
9 1,000 1,000 1,000 0,987 0,908 0,685 0,359 0,105 0,011 0,000 0,000
10 1,000 1,000 1,000 0,997 0,965 0,834 0,552 0,225 0,038 0,001 0,000
11 1,000 1,000 1,000 0,999 0,989 0,928 0,736 0,403 0,106 0,005 0,000
12 1,000 1,000 1,000 1,000 0,997 0,975 0,874 0,611 0,242 0,022 0,001
13 1,000 1,000 1,000 1,000 1,000 0,994 0,954 0,798 0,451 0,083 0,009
14 1,000 1,000 1,000 1,000 1,000 0,999 0,988 0,923 0,690 0,238 0,050
15 1,000 1,000 1,000 1,000 1,000 1,000 0,998 0,981 0,882 0,518 0,208
16 1,000 1,000 1,000 1,000 1,000 1,000 1,000 0,998 0,977 0,833 0,582
17 l~l~l~l~l~l~l~l~l~l~l~
11 = 18 O 0,397 O, 150 0,018 0,002 0,000 0,000 0,000 0,000 0,000 0,000 0,000
1 0,774 0,450 0,099 0,014 0,001 0,000 0,000 0,000 0,000 0,000 0,000
2 0,942 0,734 0,271 0,060 0,008 0,001 0,000 0,000 0,000 0,000 0,000
3 0,989 0,902 0,501 0,165 0,033 0,004 0,000 0,000 0,000 0,000 0,000
4 0,998 0,972 0,716 0,333 0,094 0,015 0,001 0,000 0,000 0,000 0,000
5 1,000 0,994 0,86 '! 0,534 0,209 0,048 0,006 0,000 0,000 0,000 0,000
6 1,000 0,999 0,949 0,722 0,374 0,119 O,Q20 0,001 0,000 0,000 0,000
7 1,000 1,000 0,984 0,859 0,563 0,240 0,058 0,006 0,000 0,000 0,000
8 1,000 1,000 0,996 0,940 0,737 0,407 0,135 0,021 0,001 0,000 0,000
9 1,000 1,000 0,999 0,979 0,865 0,593 0,263 0,060 0,004 0,000 0,000
10 1,000 1,000 1,000 0,994 0,942 0,760 0,437 0,141 0,016 0,000 0,000
11 1,000 1,000 1,000 0,999 0,980 0,881 0,626 0,278 0,051 0,001 0,000
12 1,000 1,000 1,000 1,000 0,994 0,952 0,791 0,466 0,133 0,006 0,000
13 1,000 1,000 1,000 1,000 0,999 0,985 0,906 0,66 7 0,284 0,028 0,002
14 1,000 1,000 1,000 1,000 1,000 0,996 0,967 0,835 0,499 0,098 0,011
© Ediciones Pirámide
Tablas estadísticas / 567
TABLA B (continuación)
rr
0,05 0,10 0,20 0,30 0,40 0,50 0,60 0,70 0,80 0,90 0,95
X
15 1,000 1,000 1,000 1,000 1,000 0,999 0,992 0,940 0,729 0,266 0,058
16 1,000 1,000 1,000 1,000 1,000 1,000 0,999 0,986 0,901 0,550 0,226
17 1,000 1,000 1,000 1,000 1,000 1,000 1,000 0,998 0,982 0,850 0,603
18 l~l~l~l~l~l~l~l~l~l~I~
n = 19 O 0,377 0,135 0,014 0,001 0,000 0,000 0,000 0,000 0,000 0,000 0,000
1
2
0,755
0,933
0,420
0,705
0,083
0,237
0,010
0,046
0,001
0,005
0,000
0,000
0,000
0,000
0,000
0,000
º·ººº 0,000
0,000 0,000
0,000
0,000
3 0,987 0,885 0,455 0,133 0,023 0,002 0,000 0,000 0,000 0,000 0,000
4 0,998 0,965 0,673 0,282 0,070 0,010 0,001 0,000 0,000 0,000 0,000
5
6
1,000
1,000
0,991
0,998
0,837
0,932
0,474
0,666
0,163
0,308
0,032
0,084
0,003
0,012
º·ººº
0,001
0,000 0,000
0,000 0,000
0,000
0,000
7
8
1,000
1,000
1,000
1,000
0,977
0,993
0,818
0,916
0,488
0,667
0,180
0,324
0,035
0,088
0,003
0,011
0,000 0,000
0,000 0,000
º·ººº
0,000
9 1,000 1,000 0,998 0,967 0,814 0,500 0,186 0,033 0,002 0,000 0,000
10 1,000 1,000 1,000 0,989 0,912 0,676 0,333 0,084 0,007 0,000 0,000
11
12
1,000
1,000
1,000
1,000
1,000
1,000
0,997
0,999
0,965
0,988
0,820
0,916
0,512
0,692
0,182
0,334
0,023 0,000
0,068 0,002
º·ººº
0,000
13 1,000 1,000 1,000 1,000 0,997 0,968 0,837 0,526 0,163 0,009 0,000
14 1,000 1,000 1,000 1,000 0,999 0,990 0,930 0,718 0,327 0,035 0,002
15 1,000 1,000 1,000 1,000 1,000 0,998 0,977 0,867 0,545 0,115 0,013
16 1,000 1,000 1,000 1,000 1,000 1,000 0,995 0,954 0,763 0,295 0,067
17 1,000 1,000 1,000 1,000 1,000 1,000 0,999 0,990 0,917 0,580 0,245
18 1,000 1,000 1,000 1,000 1,000 1,000 1,000 0,999 0,986 0,865 0,623
19 1~1~1~1~1~1~1~1~1~1~1~
n = 20 O
1
0,358
0,736
0,122
0,392
0,012
0,069
0,001
0,008
0,000
0,001
0,000
0,000
0,000 0,000 0,000
0,000 0,000 0,000
0,000
0,000
º·ººº
º·ººº
2
3
0,925
0,984
0,677
0,867
0,206
0,411
0,035
0,107
0,004
0,016
0,000
0,001
º·ººº 0,000 0,000
0,000 0,000 0,000
0,000 0,000
0,000 0,000
4
5
0,997
1,000
0,957
0,989
0,630
0,804
0,238
0,416
0,051
O, 126
0,006
0,021
0,000 0,000 0,000
0,002 0,000 0,000
º·ººº 0,000
0,000 0,000
6 1,000 0,998 0,913 0,608 0,250 0,058 0,006 0,000 0,000 0,000 0,000
7
8
1,000
1,000
1,000
1,000
0,968
0,990
0,772
0,887
0,416
0,596
0,132
0,252
0,021 0,001
0,057 0,005
º·ººº
º·ººº 0,000 0,000
0,000 0,000
9 1,000 1,000 0,997 0,952 0,755 0,412 0,128 0,017 0,001 0,000 0,000
10 1,000 1,000 0,999 0,983 0,872 0,588 0,245 0,048 0,003 0,000 0,000
11
12
1,000
1,000
1,000
1,000
1,000
1,000
0,995
0,999
0,943
0,979
0,748
0,868
0,404 0,113 0,010
0,584 0,228 0,032
º·ººº 0,000
0,000 0,000
13 1,000 1,000 1,000 1,000 0,994 0,942 0,750 0,392 0,087 0,002 0,000
14 1,000 1,000 1,000 1,000 0,998 0,979 0,874 0,584 0,196 0,011 0,000
© Ediciones Pirámide
568 / Análisis de datos en psicología 11
TABLA B (continuación)
rr
0,05 0,10 0,20 0,30 0,40 0,50 0,60 0,70 0,80 0,90 0,95
X
15 1,000 1,000 1,000 1,000 1,000 0,994 0,949 0,762 0,370 0,043 0,003
16 1,000 1,000 1,000 1,000 1,000 0,999 0,984 0,893 0,589 0,133 0,016
17 1,000 1,000 1,000 1,000 1,000 1,000 0,996 0,965 0,794 0,323 0,075
18 1,000 1,000 1,000 1,000 1,000 1,000 0,999 0,992 0,931 0,608 0,264
19 1,000 1,000 1,000 1,000 1,000 1,000 1,000 0,999 0,988 0,878 0,642
20 1,000 1,000 1,000 1,000 1,000 1,000 1,000 1,000 1,000 1,000 1,000
n = 25 O 0,277 0,072 0,004 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000
1 0,642 0,271 0,027 0,002 0,000 0,000 0,000 0,000 0,000 0,000 0,000
2 0,873 0,537 0,098 0,009 0,000 0,000 0,000 0,000 0,000 0,000 0,000
3 0,966 0,764 0,234 0,033 0,002 0,000 0,000 0,000 0,000 0,000 0,000
4 0,993 0,902 0,421 0,090 0,009 0,000 0,000 0,000 0,000 0,000 0,000
5 0,999 0,967 0,617 0,193 0,029 0,002 0,000 0,000 0,000 0,000 0,000
6 1,000 0,991 0,780 0,341 0,074 0,007 0,000 0,000 0,000 0,000 0,000
7 1,000 0,998 0,891 0,512 O, 154 0,022 0,001 0,000 0,000 0,000 0,000
8 1,000 1,000 0,953 0,677 0,274 0,054 0,004 0,000 0,000 0,000 0,000
9 1,000 1,000 0,983 0,81 1 0,425 O, 115 0,013 0,000 0,000 0,000 0,000
1o 1,000 1,000 0,994 0,902 0,586 0,212 0,034 0,002 0,000 0,000 0,000
11 1,000 1,000 0,998 0,956 0,732 0,345 0,078 0,006 0,000 0,000 0,000
12 1,000 1,000 1,000 0,983 0,846 0,500 O, 154 0,01 7 0,000 0,000 0,000
13 1,000 1,000 1,000 0,994 0,922 0,655 0,268 0,044 0,002 0,000 0,000
14 1,000 1,000 1,000 0,998 0,966 0,788 0,414 0,098 0,006 0,000 0,000
15 1,000 1,000 1,000 1,000 0,987 0,885 0,575 0,189 0,017 0,000 0,000
16 1,000 1,000 1,000 1,000 0,996 0,946 0,726 0,323 0,047 0,000 0,000
17 1,000 1,000 1,000 1,000 0,999 0,978 0,846 0,488 O, 109 0,002 0,000
18 1,000 1,000 1,000 1,000 1,000 0,993 0,926 0,659 0,220 0,009 0,000
19 1,000 1,000 1,000 1,000 1,000 0,998 0,971 0,807 0,383 0,033 0,001
20 1,000 1,000 1,000 1,000 1,000 1,000 0,991 0,910 0,579 0,098 0,007
21 1,000 1,000 1,000 1,000 1,000 1,000 0,998 0,967 0,766 0,236 0,034
22 1,000 1,000 1,000 1,000 1,000 1,000 1,000 0,991 0,902 0,463 0,127
23 1,000 1,000 1,000 1,000 1,000 1,000 1,000 0,998 0,973 0,729 0,358
24 1,000 1,000 1,000 1,000 1,000 1,000 1,000 1,000 0,996 0,928 0,723
25 l~l~l~l~l~l~l~l~l~l~I~
© Ediciones Pirámide
Tablas estadísticas / 569
TABLA C
Distribución normal estandarizada. Probabilidades acumuladas: P(Z ~ zp)
z o 1 2 3 4 5 6 7 8 9
-3,0 0,0013 0,0013 0,0013 0,0012 0,0012 0,0012 0,0011 0,0011 0,0010 0,0010
-2,9 0,0019 0,0018 0,0017 0,0017 0,0016 0,0016 0,0015 0,0015 0,0014 0,0014
-2,8 0,0026 0,0025 0,0024 0,0023 0,0023 0,0022 0,0021 0,0020 0,0020 0,0019
-2,7 0,0035 0,0034 0,0033 0,0032 0,0031 0,0030 0,0029 0,0028 0,0027 0,0026
-2,6 0,0047 0,0045 0,0044 0,0043 0,0041 0,-0040 0,0039 0,0038 0,0037 0,0036
-2,5 0,0062 0,0060 0,0059 0,0057 0,0055 0,0054 0,0052 0,0051 0,0049 0,0048
-2,4 0,0082 0,0080 0,0078 0,0075 0,0073 0,0071 0,0069 0,0068 0,0066 0,0064
-2,3 0,0107 0,0104 0,0102 0,0099 0,0096 0,0094 0,0091 0,0089 0,0087 0,0084
-2,2 0,0139 0,0136 0,0132 0,0129 0,0125 0,0122 0,0119 0,0116 0,0113 0,0110
-2,1 0,0179 0,0174 0,0170 0,0166 0,0162 0,0158 0,0154 0,0150 0,0146 0,0143
-2,0 0,0228 0,0222 0,0217 0,0212 0,0207 0,0202 0,0197 0,0192 0,0188 0,0183
-1,9 0,0287 0,0281 0,0274 0,0268 0,0262 0,0256 0,0250 0,0244 0,0239 0,0233
-1,8 0,0359 0,0351 0,0344 0,0336 0,0329 0,0322 0,0314 0,0307 0,0301 0,0294
-1,7 0,0446 0,0436 0,0427 0,0418 0,0409 0,0401 0,0392 0,0384 0,0375 0,0367
-1,6 0,0548 0,0537 0,0526 0,0516 0,0505 0,0495 0,0485 0,0475 0,0465 0,0455
-1,5 0,0668 0,0655 0,0643 0,0630 0,0618 0,0606 0,0594 0,0582 0,0571 0,0559
-1,4 0,0808 0,0793 0,0778 0,0764 0,0749 0,0735 0,0721 0,0708 0,0694 0,0681
-1,3 0,0968 0,0951 0,0934 0,0918 0,0901 0,0885 0,0869 0,0853 0,0838 0,0823
-1,2 0, 1151 0,1131 0,1112 0,1093 0,1075 0,1056 0,1038 0,1020 0,1003 0,0985
-1,1 0,1357 0,1335 0,1314 0,1292 0,1271 0,1251 0,1230 0,1210 0,1190 0,1170
-1,0 0,1587 0,1562 0,1539 0,1515 0,1492 0,1469 0,1446 0,1423 0,1401 0,1379
-0,9 0,1841 0,1814 0,1788 0,1762 0,1736 0,1711 0,1685 0,1660 0,1635 0,1611
-0,8 0,2119 0,2090 0,2061 0,2033 0,2005 0,1977 0,1949 0,1922 0,1894 0,1867
-0,7 0,2420 0,2389 0,2358 0,2327 0,2296 0,2266 0,2236 0,2206 0,2177 0,2148
-0,6 0,2743 0,2709 0,2676 0,2643 0,2611 0,2578 0,2546 0,2514 0,2483 0,2451
-0,5 0,3085 0,3050 0,3015 0,2981 0,2946 0,2912 0,2877 0,2843 0,2810 0,2776
-0,4 0,3446 0,3409 0,3372 0,3336 0,3300 0,3264 0,3228 0,3192 0,3156 0,3121
-0,3 0,3821 0,3783 0,3745 0,3707 0,3669 0,3632 0,3594 0,3557 0,3520 0,3483
-0,2 0,4207 0,4168 0,4129 0,4090 0,4052 0,4013 0,3974 0,3936 0,3897 0,3859
-0,1 0,4602 0,4562 0,4522 0,4483 0,4443 0,4404 0,4364 0,4325 0,4286 0,4247
º·º 0,5000 0,4960 0,4920 0,4880 0,4840 0,4801 0,4761 0,4721 0,4681 0,4641
© Ediciones Pirámide
570 / Análisis de datos en psicología 11
TABLA C (continuación)
z o 1 2 3 4 5 6 7 8 9
º·º
0,1
0,5000
0,5398
0,5040
0,5438
0,5080
0,5478
0,5120
0,5517
0,5160
0,5551
0,5199
0,5596
0,5239
0,5636
0,5279
0,5675
0,5319
0,5714
0,5359
0,5753
0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141
0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517
0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879
0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224
0,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549
0,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852
0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,8133
0,9 0,8159 0,8186 0,8212 0,8238 0,8264 o,_8289 0,8315 0,8340 0,8365 0,8389
1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621
1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830
1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015
1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177
1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319
1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441
1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545
1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633
1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706
1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767
2,0 0,9772 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817
2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857
2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890
2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916
2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,9936
2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952
2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964
2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974
2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981
2,9 0,9981 0,9982 0,9982 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986
3,0 0,9987 0,9987 0,9987 0,9988 0,9988 0,9989 0,9989 0,9989 0,9990 0,9990
TABLAD
Distribución x2 • Probabilidades acumuladas: P(X 2 ~ Px;,)
gl 0,005 0,01 0,025 0,05 0,10 0,90 0,95 0,975 0,98 0,99 0,995 0,999
1 0,00 0,00 0,00 0,00 0,02 2,71 3,84 5,02 5,41 6,63 7,88 10,83
2 0,01 0,02 0,05 0,10 0,21 4,61 5,99 7,38 7,82 9,21 10,60 13,82
3 0,07 0,12 0,22 0,35 0,58 6,25 7,81 9,35 9,84 11,34 12,84 16,27
4 0,21 0,28 0,48 0,71 1,06 7,78 9,49 11,14 11,67 13,28 14,86 18,47
5 0,41 0,55 0,83 1,14 1,61 9,24 11,07 12,83 13,39 15,09 16,75 20,52
6 0,68 0,87 1,24 1,64 2,20 10,64 12,59 14,45 15,03 16,81 18,55 22,46
7 0,99 1,24 1,69 2,27 2,83 12,02 14,07 16,01 16,62 18,48 20,28 24,32
8 1,34 1,65 2,18 2,73 3,49 13,36 15,51 17,53 18,17 20,09 21,96 26,13
9 1,73 2,09 2,70 3,33 4,17 14,68 16,92 19,02 19,68 21,67 23,59 27,88
10 2,16 2,56 3,25 3,94 4,87 15,99 18,31 20,48 21,16 23,21 25,19 29,59
11 2,60 3,05 3,82 4,57 5,58 17,28 19,68 21,92 22,62 24,72 26,76 31,26
12 3,07 3,57 4,40 5,23 6,30 18,55 21,03 23,34 24,05 26,22 28,30 32,91
13 3,57 4,11 5,01 5,89 7,04 19,81 22,36 24,74 25,47 27,69 29,82 34,53
14 4,07 4,66 5,63 6,57 7,79 21,06 23,68 26,12 26,87 29,14 31,32 36,12
15 4,60 5,23 6,26 7,26 8,55 22,31 25,00 27,49 28,26 30,58 32,80 37,70
16 5,14 5,81 6,91 7,96 9,31 23,54 26,30 28,85 29,63 32,00 34,27 39,25
17 5,70 6,41 7,56 8,67 10,09 24,77 27,59 30,19 30,99 33,41 35,72 40,79
18 6,26 7,01 8,23 9,39 10,86 25,99 28,87 31,53 32,35 34,81 37,16 42,31
19 6,84 7,63 8,91 10,12 11,65 27,20 30,14 32,85 33,69 36,19 38,58 43,82
20 7,43 8,26 8,59 10,85 12,44 28,41 31,41 34,17 35,02 37,57 40,00 45,31
21 8,03 8,90 10,28 11,59 13,24 29,62 32,67 35,48 36,34 38,93 41,40 46,80
22 8,64 9,54 10,98 12,34 14,04 30,81 33,92 36,78 37,66 40,29 42,80 48,27
23 9,26 10,20 11,69 13,09 14,85 32,01 35,17 38,08 38,97 41,64 44,18 49,73
24 9,89 10,86 12,40 13,85 15,66 33,20 36,42 39,36 40,27 42,98 45,56 51,18
25 10,52 11,52 13,12 14,61 16,47 34,38 37,65 40,65 41,57 44,31 46,93 52,62
26 11,16 12,20 13,84 15,38 17,29 35,56 38,89 41,92 42,86 45,64 48,29 54,05
27 11,81 12,88 14,57 16,15 18,11 36,74 40,11 43,19 44,14 46,96 49,64 55,48
28 12,46 13,56 15,31 16,39 18,94 37,92 41,34 44,46 45,42 48,28 50,99 56,89
29 13,21 14,26 16,05 17,71 19,77 39,09 42,56 45,72 46,69 49,59 52,34 58,30
30 13,79 14,95 16,79 18,49 20,60 40,26 43,77 46,98 47,96 50,89 53,67 59,70
Para gl > 30, los puntos de la distribución x2 pueden obtenerse utilizando la aproximación:
© Ediciones Pirámide
572 / Análisis de datos en psicología 11
TABLA E
Distribución t de Student. Probabilidades acumuladas: P(T~ Pt91 )
p = probabilidad acumulada
© Ediciones Pirámide
TABLA F
Puntos críticos de la distribución F
CG
~ n 1 grados de libertad del numerador. n 2 grados de libertad del denominador Probabilidad acumulada = 1 - a. = 0,95
¡;·
~
...3~
~
I~ 1
1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120 X
2 18,51 19,16 19,25 19,30 19,33 19,35 19,37 19,38 19,40 19,41 19,43 19,45 19,45 19,46 19,47 19,48 19,48 19,49 19,50
3 10,13 9,55 9,28 9,12 9,01 8,94 8,89 8,85 8,81 8,79 8,74 8,70 8,66 8,64 8,62 8,59 8,57 8,55 8,53
4 7.71 6,94 6,59 6,39 6,26 6,16 6,09 6,04 6,00 5,96 5,91 5,86 5,80 5,77 5,75 5,72 5,69 5,66 5,63
5 6,61 5,79 5,41 5,19 5,05 4,95 4,88 4,82 4,77 4,74 4,68 4,62 4,56 4,53 4,50 4,46 4,43 4,40 4,36
6 5,99 5,14 4,76 4,53 4,39 4,28 4,21 4,15 4,10 4,06 4,00 3,94 3,87 3,84 3,81 3,77 3,74 3,70 3,67
7 5,59 4,74 4,35 4,12 3,97 3,87 3,79 3,73 3,68 3,64 3,57 3,51 3,44 3,41 3,38 3,34 3,30 3,27 3,23
8 5,32 4,46 4,07 3,84 3,69 3,58 3,50 3,44 3,39 3,35 3,28 3,22 3,15 3,12 3,08 3,04 3,01 2,97 2,93
9 5,12 4.26 3,86 3,63 3,48 3,37 3,29 3,23 3,18 3,14 3,07 3,01 2,94 2,90 2,86 2,83 2,79 2,75 2,71
10 4,96 4,10 3,71 3,48 3,33 3,22 3,14 3,07 3,02 2,98 2,91 2,85 2,77 2,74 2,70 2,66 2,62 2,58 2,54
11 4,84 3,98 3,59 3,36 3,20 3,09 3,01 2,95 2,90 2,85 2,79 2,72 2,65 2,61 2,57 2,53 2,49 2,45 2,40
12 4,75 3,89 3,49 3,26 3,11 3,00 2,91 2,85 2,80 2,75 2,69 2,62 2,54 2,51 2,47 2,43 2,38 2,34 2,30
13 4,67 3,81 3,41 3,18 3,03 2,92 2,83 2,77 2,71 2,67 2,60 2,53 2,46 2,42 2~38 2,34 2,30 2,25 2,21
14 4,60 3,74 3,34 3,11 2,96 2,85 2,76 2,70 2,65 2,60 2,53 2,46 2,39 2,35 2,31 2,27 2,22 2,18 2,13
15 4,54 3,68 3,29 3,06 2,W 2,79 2,71 2,64 2,59 2,54 2,48 2,40 2,33 2,29 2,25 2,20 2,16 2,11 2,07
16 4,49 3,63 3,24 3,01 2,85 2,74 2,66 2,59 2,54 2,49 2,42 2,35 2,.28 2,24 2,19 2,15 2,11 2,06 2,01
17 4,45 3,59 3,20 2,96 2,81 2,70 2,61 2,55 2,49 2,45 2,38 2,31 2,23 2,19 2,15 2,10 2,06 2,01 1,96
18 4,41 3,55 3,16 2,93 2,77 2,66 2,58 2,51 2,46 2,41 2,34 2,27 2,19 2,15 2,11 2,06 2,02 1,97 1,92
19 4,38 3,52 3,13 2,90 2,74 2,63 2,54 2,48 2,42 2,38 2,31 2,23 2,16 2,11 2,07 2,03 1,98 1,93 1,88
20 4,35 3,49 3,10 2,87 2,71 2,60 2,51 2,45 2,39 2,35 2,28 2,20 2,12 2,08 2,04 1,99 1,95 1,90 1,84
21 4,32 3,47 3,07 2,84 2,68 2,57 2,49 2,42 2,37 2,32 2,25 2,18 2,10 2,05 2,01 1,96 1,92 1,87 1,81
22 4,30 3,44 3,05 2,82 2,66 2,55 2,46 2,40 2,34 2,30 2,23 2,15 2,07 2,03 1,98 1,94 1,89 1,84 1,78
23 4,28 3,42 3,03 2,80 2,64 2,53 2,44 2,37 2,32 2,27 2,20 2,13 2,05 2,01 1,96 1,91 1,86 1,81 1,76
24 4,26 3,40 3,01 2,78 2,62 2,51 2,42 2,36 2,30 2,25 2,18 2,11 2,03 1,98 1,94 1,89 1,84 1,79 1,73
25 4,24 3,39 2,99 2,76 2,60 2,49 2,40 2,34 2,28 2,24 2,16 2,09 2,01 1,96 1,92 1,87 1,82 1,77 1,71
26 4,23 3,37 2,98 2,74 2,59 2,47 2,39 2,32 2,27 2,22 2,15 2,07 1,99 1,95 1,90 1,85 1,80 1,75 1,69
27 4,21 3,35 2,96 2,73 2,57 2,46 2,37 2,31 2,25 2,20 2,13 2,06 1,97 1,95 1,88 1,84 1,79 1,73 1,67
28 4,20 3,34 2,95 2,71 2,56 2,45 2,36 2,29 2,24 2,19 2,12 2,04 1,96 1,91 l,il7 1,82 1,77 1,71 1,65
29 4,18 3,33 2,93 2,70 2,55 2,43 2,35 2,28 2,22 2,18 2,10 2,03 1,94 1,90 1,85 1,81 1,75 1,70 1,64
30 4,17 3,32 2,92 2,69 2,53 2,42 2,33 2,27 2,21 2,16 2,09 2,01 1,93 1,89 1,84 1,79 1,74 1,68 1,62
40 4,08 3,23 2,84 2,61 2,45 2,34 2,25 2,18 2,12 2,08 2,00 1,92 1,84 1,79 1,74 1,69 1,64 1,58 1.51
60 4,00 3,15 2,76 2,53 2,37 2,25 2,17 2,10 2,04 1,99 1,92 1,84 1,75 1,70 1,65 1,59 1,53 1,47 1,39
120 3,92 3,07 2,68 2,45 2,29 2,17 2,09 2,02 1,96 1,91 1,83 1,75 1,66 1,61 1,55 1,50 1,43 1,35 1,25
X 3,84 3,00 2,60 2,37 2,21 2,10 2,01 1,94 1,88 1,83 1,75 1,67 1,57 1,52 1,46 1,39 • 1,00
1,32 1,22
TABLA F (continuación)
n 1 grados de libertad del numerador. n 2 grados de libertad del denominador Probabilidad acumulada = 1 - ix = 0.99
¡~2
1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120 00
98,50 99,00 99,17 99,25 9'J,30 99,33 99,36 99,37 99,39 99,40 99,42 99,43 99,45 99.46 99,47 99,47 99,48 99,49 99,50
2
34,12 30,82 29,46 28,71 28,24 27,91 27,67 27,49 27,35 27,23 27,0S 26,~ 26,69 26,60 26,SO 26,41 26,32 26,22 26,13
3
4 21,20 18,00 16,69 15,98 15,52 15,21 14,98 14,80 14,66 14,55 14,37 14,20 14,02 13,93 13,84 13,75 13,65 13,56 13,46
5 16,26 13,27 12,06 11,39 10,97 10,67 10,46 10,29 10,16 10,05 9,89 9,72 9,55 9,47 9,38 9,29 9,20 9,11 9,02
6 13,75 10,92 9,78 9,15 8,75 8,47 8,26 8,10 7,98 7,87 7,72 7,56 7,40 7,31 7,23 7,14 7,06 6,97 6,88
7 12,25 9,55 8,45 7,85 7,46 7,19 6,99 6,84 6,72 6,62 6,47 6,31 6,16 6,07 5,99 5,91 5,82 5,74 5,65
8 11,26 8,65 7,59 7,01 6,63 6,37 6,18 6,03 5,91 5,81 5,67 5,52 5,36 5,28 5,20 5,12 5,03 4,95 4,86
9 10,56 8,02 6,99 6,42 6,06 5,80 5,61 5,47 5,35 5,26 5,11 4,96 4,81 4,73 4,65 4,57 4,48 4,40 4,31
10 10,04 7,56 6,55 5,99 5,64 5,39 5,20 5,06 4,94 4,85 4,71 4,56 4,41 4,33 4,25 4,17 4,08 4,00 3,91
11 9,65 7,21 6,22 5,67 5,32 5,o7 4,89 4,74 4,63 4,54 4,40 4,25 4,10 4,02 3,94 3,86 3,78 3,69 3,60
12 9,33 6,93 5,95 5,41 5,06 4,82 4,64 4,50 4,39 4,30 4,16 4,01 3,86 3,78 3,70 3,62 3,54 3,45 3,36
13 9,07 6,70 5,74 5,21 4,86 4,62 4,44 4,30 4,19 4,10 3,96 3,82 3,66 3,59 3,51 3,43 3,34 3,25 3,17
14 9,86 6,51 5,56 5,04 4,69 4,46 4,28 4,14 4,03 3,94 3,80 3,66 3,51 3,43 3,35 3,27 3,18 3,09 3,00
15 8,68 6,36 5,42 4,89 4,56 4,32 4,14 4,00 3,89 3,80 3,67 3,52 3,37 3,29 3,21 3,13 3,05 2,96 2,87
16 8,53 6,23 5,29 4,77 4,44 4,20 4,03 3,89 3,78 3,69 3,55 3,41 3,26 3,18 3,10 3,02 2,93 2,84 2,75
17 8,40 6,11 5,18 4,67 4,34 4,10 3,93 3,79 3,68 3,59 3,46 3,31 3,16 3,08 3,00 2,92 2,83 2,75 2,65
18 8,29 6,01 5,09 4,58 4,25 4,01 3,84 3,71 3,60 3,51 3,37 3,23 3,08 3,00 2,92 2,84 2,75 2,66 2,57
19 8,18 5,93 5,01 4,50 4,17 3,94 3,77 3,63 3,52 3,43 3,30 3,15 3,00 2,92 2,84 2,76 2,67 2,58 2,49
20 8,10 5,85 4,94 4,43 4,10 3,87 3,70 3,56 3,46 3,37 3,23 3,09 2,94 2,86 2,78 2,69 2,61 2,52 2,42
21 8,02 5,78 4,87 4,37 4,04 3,81 3,64 3,51 3,40 3,31 3,17 3,03 2,88 2,80 2,72 2,64 2,55 2,46 2,36
22 7,95 5,72 4,82 4,31 3,99 3,76 3,59 3,45 3,35 3,26 3,12 2,98 2,83 2,75 2,67 2,58 2,50 2,40 2,31
23 7,88 5,66 4,76 4,26 3,94 3,71 3,54 3,41 3,30 3,21 3,07 2,93 2,78 2,70 2,62 2,54 2,45 2,35 2,26
24 7,82 5,61 4,72 4,22 3,90 3,67 3,50 3,36 3,26 3,17 3,03 2,89 2,74 2,66 2,58 2,49 2,40 2,31 2,21
25 1,n 5,57 4,68 4,18 3,85 3,63 3,46 3,32 3,22 3,13 2,99 2,85 2,70 2,62 2,54 2,45 2,36 2,27 2,17
© 26 7,72 5,53 4,64 4,14 3,82 3,59 3,42 3,29 3,18 3,09 2,96 2,81 2,66 2,58 2,SO 2,42 2,33 2,23 2,13
27 7,68 5,49 4,60 4,11 3,78 3,56 3,39 3,26 3,15 3,06 2,93 2,78 2,63 2,55 2,47 2,38 2,29 2,20 2,10
g:~ 28
29
7,64
7,60
5,45
5,42
4,57
4,54
4,07
4,04
3,75
3,73
3,53
3,50
3,36
3,33
3,23
3,20
3,12
3,09
3,03
3,00
2,90
2.~
2,75
2,73
2,60
2,57
2,52
2,49
2,44
2,41
2,35
2,33
2,26
2,23
2,17
2,14
2,06
2,03
~ 30 7,56 5,39 4,51 4,02 3,70 3,47 3,30 3,17 3,07 2,98 2,84 2,80 2,55 2,47 2,39 2,30 2,21 2,11 2,01
...~ 40 7,31 5,18 4,31 3,83 3,51 3,29 3,12 2,99 2,89 2,80 2,66 2,52 2,37 2,29 2,20 2,11 2,02 1,92 1,80
~
60 7,08 4,98 4,13 3,65 3,34 3,12 2,95 2,82 2,72 2,63 2,.SO 2,35 2,20 2,12 2,03 1,94 1,84 1,73 1,60
120 6,85 4,79 3,95 3,48 3,17 2,96 2,79 2,66 2,56 2,47 2,34 2,19 2,03 1,95 1,86 1,76 1,66 1,53 1,38
00 6,63 4,61 3,78 3,32 3,02 2,80 2,64 2,51 2,41 2,32 2,18 2,04 1,88 1,79 1,70 1,59 1,47 1,32 1,00
Tablas estadísticas / 575
TABLA G
Tabla de coeficientes de polinomios ortogonales
J Polinomio 1 2 3 4 5 6 7 8 9 10 r.cJ
3 Lineal -1 o 1 2
Cuadrático 1 -2 1 6
Lineal -3 -1 1 3 20
4 Cuadrático 1 -1 -1 1 4
Cúbico -1 3 -3 1 20
Lineal -2 -1 o 1 2 10
5 Cuadrático 2 -1 -2 -1 2 14
Cúbico -1 2 o -2 1 10
De 4.º grado 1 -4 6 -4 1 70
Lineal -5 -3 -1 1 3 5 70
6 Cuadrático 5 -1 -4 -4 1 5 84
Cúbico -5 7 4 -4 -7 5 180
De 4• grado 1 -3 2 2 -3 1 28
Lineal -3 -2 -1 o 1 2 3 28
7 Cuadrático 5 o -3 -4 -3 o 5 84
Cúbico -1 1 1 o -1 -1 1 6
De 4° grado 3 -7 1 6 1 -7 3 154
Lineal -7 -5 -3 -1 1 3 5 7 168
Cuadrático 7 1 -3 -5 -5 -3 1 7 168
8 Cúbico -7 5 7 3 -3 -7 -5 7 264
De 4° grado 7 -13 -3 9 9 -3 -13 7 616
De 5° grado -7 23 -17 -15 15 17 -23 7 2184
Lineal -4 -3 -2 -1 o 1 2 3 4 60
Cuadrático 28 7 -8 -17 -20 -17 -8 7 28 2772
9 Cúbico -14 7 13 9 o -9 -13 -7 14 990
De 4° grado 14 -21 -11 9 18 9 -11 -21 14 2002
De S• grado -4 11 -4 -9 o 9 4 -11 4 468
Lineal -9 -7 -5 -3 -1 1 3 5 7 9 330
Cuadrático 6 2 -1 -3 -4 -4 -3 -1 2 6 132
10 Cúbico -42 14 35 31 12 -12 -31 -35 -14 42 8580
De 4' grado 18 -22 -17 3 18 18 3 -17 -22 18 2860
De 5° grado -6 14 -1 -11 -6 6 11 1 -14 6 780
© Ediciones Pirámide
576 / Análisis de datos en psicología ti
TABLA H
Puntos críticos para el estadístico de Dunn-Bonferroni (contrastes bilaterales)
k = número de comparaciones
g/crror 2 3 4 5 6 7 8 9 10
© Ediciones Pirámide
Tablas estadísticas / 577
TABLA H (continuación)
k = número de comparaciones
g/mor 2 3 4 5 6 7 8 9 10
© Ediciones Pirámide
578 / Análisis de datos en psicología //
TABLA 1
Puntos críticos para el estadístico de Dunnett ( p = probabilidad acumulada)
Contrastes unilaterales
g/error p 2 3 4 5 6 7 8 9 10
0,95 2,02 2,44 2,68 2,85 2,98 3,08 3,16 3,24 3,30
5 0,99 3,37 3,90 4,21 4,43 4,60 4,73 4,85 4,94 5,03
0,95 1,94 2,34 2,56 2,71 2,83 2,92 3,00 3,07 3,12
6 0,99 3,14 3,61 3,88 4,07 4,21 4,33 4,43 4,51 4,59
0,95 1,89 2,27 2,48 2,62 2,73 2,82 2,89 2,95 3,01
7 0,99 3,00 3,42 3,66 3,83 3,96 4,07 4,15 4,23 4,30
0,95 1,86 2,22 2,42 2,55 2,66 2,74 2,81 2,87 2,92
8 0,99 2,90 3,29 3,51 3,67 3,79 3,88 3,96 4,03 4,09
0,95 1,83 2,18 2,37 2,50 2,60 2,68 2,75 2,81 2,86
9 0,99 2,82 3,19 3,40 3,55 3,66 3,75 3,82 3,89 3,94
10 0,95 1,81 2,15 2,34 2,47 2,56 2,64 2,70 2,76 2,81
0,99 2,76 3, 11 3,31 3,45 3,56 3,64 3,71 3,78 3,83
11 0,95 1,80 2,13 2,31 2,44 2,53 2,60 2,67 2,72 2,77
0,99 2,72 3,06 3,25 3,38 3,48 3,56 3,63 3,69 3,74
12 0,95 1,78 2,11 2,29 2,41 2,50 2,58 2,64 2,69 2,74
0,99 2,68 3,01 3,19 3,32 3,42 3,50 3,56 3,62 3,67
13 0,95 1,77 2,09 2,27 2,39 2,48 2,55 2,61 2,66 2,71
0,99 2,65 2,97 3,15 3,27 3,37 3,44 3,51 3,56 3,61
14 0,95 1,76 2,08 2,25 2,37 2,46 2,53 2,59 2,64 2,69
0,99 2,62 2,94 3, 11 3,23 3,32 3,40 3,46 3,51 3,56
15 0,95 1,75 2,07 2,24 2,36 2,44 2,51 2,57 2,62 2,67
0,99 2,60 2,91 3,08 3,20 3,29 3,36 3,42 3,47 3,52
16 0,95 1,75 2,06 2,23 2,34 2,43 2,50 2,56 2,61 2,65
0,99 2,58 2,88 3,05 3,17 3,26 3,33 3,39 3,44 3,48
18 0,95 1,73 2,05 2,21 2,32 2,41 2,48 2,53 2,58 2,62
0,99 2,55 2,84 3,01 3,12 3,21 3,27 3,33 3,38 3,42
20 0,95 1,72 2,03 2,19 2,30 2,39 2,46 2,51 2,56 2,60
0,99 2,53 2,81 2,97 3,08 3,17 3,23 3,29 3,34 3,38
24 0,95 1,71 2,01 2,17 2,28 2,36 2,43 2,48 2,53 2,57
0,99 2,49 2,77 2,92 3,03 3, 11 3,17 3,22 3,27 3,31
30 0,95 1,70 1,99 2,15 2,25 2,33 2,40 2,45 2,50 2,54
0,99 2,46 2,72 2,87 2,97 3,05 3, 11 3,16 3,21 3,24
0,95 1,68 1,97 2,13 2,23 2,31 2,37 2,42 2,47 2,51
40
0,99 2,42 2,68 2,82 2,92 2,99 3,05 3,10 3,14 3,18
0,95 1,67 1,95 2,10 2,21 2,28 2,35 2,39 2,44 2,48
60
0,99 2,39 2,64 2,78 2,87 2,94 3,00 3,04 3,08 3,12
0,95 1,66 1,93 2,08 2,18 2,26 2,32 2,37 2,41 2,45
120
0,99 2,36 2,60 2,73 2,82 2,89 2,94 2,99 3,03 3,06
00 0,95 1,64 1,92 2,06 2,16 2,23 2,29 2,34 2,38 2,42
0,99 2,33 2,56 2,68 2,77 2,84 2,89 2,93 2,97 3,00
© Ediciones Pirámide
Tablas estadísticas / 579
TABLA 1 (continuación)
Contrastes bilaterales
g/error p 2 3 4 5 6 7 8 9 10
5 0,95 2,57 3,03 3,29 3,43 3,62 3,73 3,82 3,90 3,97
0,99 4,03 4,63 4,98 5,22 5,41 5,56 5,69 5,80 5,89
6 0,95 2,45 2,86 3,10 3,26 3,39 3,49 3,57 3,64 3,71
0,99 3,71 4,21 4,51 4,71 4,87 5,00 5,10 5,20 5,28
7 0,95 2,36 2,75 2,97 3,12 3,24 3,33 3,41 3,47 3,53
0,99 3,50 3,95 4,21 4,39 4,53 4,64 4,74 4,82 4,89
8 0,95 2,31 2,67 2,88 3,02 3,13 3,22 3,29 3,35 3,41
0,99 3,36 3,77 4,00 4,17 4,29 4,40 4,48 4,56 4,62
9 0,95 2,26 2,61 2,81 2,95 3,05 3,14 3,20 3,26 3,32
0,99 3,25 3,63 3,85 4,01 4,12 4,22 4,30 4,37 4,43
10 0,95 2,23 2,57 2,76 2,89 2,99 3,07 3,14 3,19 3,24
0,99 3,17 3,53 3,74 3,88 3,99 4,08 4,16 4,22 4,28
11 0,95 2,20 2,53 2,72 2,84 2,94 3,02 3,08 3,14 3,19
0,99 3,11 3,45 3,65 3,79 3,89 3,98 4,05 4,11 4,16
12 0,95 2,18 2,50 2,68 2,81 2,90 2,98 3,04 3,09 3,14
0,99 3,05 3,39 3,58 3,71 3,81 3,89 3,96 4,02 4,07
13 0,95 2,16 2,48 2,65 2,78 2,87 2,94 3,00 3,06 3,10
0,99 3,01 3,33 3,52 3,65 3,74 3,82 3,89 3,94 3,99
14 0,95 2,14 2,46 2,63 2,75 2,84 2,91 2,97 3,02 3,07
0,99 2,98 3,29 3,47 3,59 3,69 3,76 3,83 3,88 3,93
15 0,95 2,13 2,44 2,61 2,73 2,82 2,89 2,95 3,00 3,04
0,99 2,95 3,25 3,43 3,55 3,64 3,71 3,78 3,83 3,88
16 0,95 2,12 2,42 2,59 2,71 2,80 2,87 2,92 2,97 3,02
0,99 2,92 3,22 3,39 3,51 3,60 3,67 3,73 3,78 3,83
18 0,95 2,10 2,40 2,56 2,68 2,76 2,83 2,89 2,94 2,98
0,99 2,88 3,17 3,33 3,44 3,53 3,60 3,66 3,71 3,75
20 0,95 2,09 2,38 2,54 2,65 2,73 2,80 2,86 2,90 2,95
0,99 2,85 3,13 3,29 3,40 3,48 3,55 3,60 3,65 3,69
24 0,95 2,06 2,35 2,51 2,61 2,70 2,76 2,81 2,86 2,90
0,99 2,80 3,07 3,22 3,32 3,40 3,47 3,52 3,57 3,61
30 0,95 2,04 2,32 2,47 2,58 2,66 2,72 2,77 2,82 2,86
0,99 2,75 3,01 3,15 3,25 3,33 3,39 3,44 3,49 3,52
40 0,95 2,02 2,29 2,44 2,54 2,62 2,68 2,73 2,77 2,81
0,99 2,70 2,95 3,09 3,19 3,26 3,32 3,37 3,41 3,44
60 0,95 2,00 2,27 2,41 2,51 2,58 2,64 2,69 2,73 2,77
0,99 2,66 2,90 3,03 3,12 3,19 3,25 3,29 3,33 3,37
120 0,95 1,98 2,24 2,38 2,47 2,55 2,60 2,65 2,69 2,73
0,99 2,62 2,85 2,97 3,06 3,12 3,18 3,22 3,26 3,29
00
0,95 1,96 2,21 2,35 2,44 2,51 2,57 2,61 2,65 2,69
0,99 2,58 2,79 2,92 3,00 3,06 3,11 3,15 3,19 3,22
580 / Análisis de datos en psicología //
TABLA J
Puntos críticos ( q) de la distribución del rango studentizado
5 5,70 6,98 7,80 8,42 8,91 9,32 9,67 9,97 10,24 10,48 10,70 11,24 11,93
6 5,24 6,33 7,03 7,56 7,97 8,32 8,62 8,87 9,10 9,30 9,48 9,95 10,54
7 4,95 5,92 6,54 7,00 7,37 7,68 7,94 8,17 8,37 8,55 8,71 9,12 9,65
8 4,75 5,64 6,20 6,62 6,96 7,24 7,47 7,68 7,86 8,03 8,18 8,55 9,03
9 4,60 5,43 5,96 6,35 6,66 6,92 7,13 7,32 7,50 7,65 7,78 8,13 8,57
10 4,48 5,27 5,11 6,14 6,43 6,67 6,88 7,06 7,21 7,36 7,48 7,81 8,23
11 4,39 5,15 5,62 5,91 6,25 6,48 6,67 6,84 6,99 7,13 7,25 7,56 7,95
12 4,32 5,05 5,50 5,84 6,10 6,32 6,51 6,67 6,81 6,94 7,06 7,36 7,73
13 4,26 4,96 5,40 5,73 5,98 6,19 6,37 6,53 6,67 6,79 6,90 7,19 7,55
14 4,21 4,90 5,32 5,63 5,88 6,08 6,26 6,41 6,54 6,66 6,77 7,05 7,39
15 4,17 4,84 5,25 5,56 5,80 5,99 6,16 6,31 6,44 6,56 6,66 6,93 7,26
16 4,13 4,79 5,19 5,49 5,72 5,92 6,08 6,22 6,35 6,46 6,56 6,82 7,15
18 4,07 4,70 5,09 5,38 5,60 5,79 5,94 6,08 6,20 6,31 6,41 6,66 6,97
20 4,02 4,64 5,02 5,29 5,51 5,69 5,84 5,91 6,09 6,19 6,28 6,52 6,82
24 3,96 4,55 4,91 5,17 5,37 5,54 5,69 5,81 5,92 6,02 6,11 6,33 6,61
30 3,89 4,46 4,80 5,05 5,24 5,40 5,54 5,65 5, 76 5,85 5,93 6,14 6,41
40 3,82 4,37 4,70 4,93 5,11 5,26 5,39 5,50 5,60 5,69 5,76 5,96 6,21
60 3,76 4,28 4,60 4,82 4,99 5,13 5,25 5,36 5,45 5,53 5,60 5,78 6,02
00 3,64 4,12 4,40 4,60 4,76 4,88 4,99 5,08 5,16 5,23 5,29 5,45 5,65
© Ediciones Pirámide
Tablas estadísticas / 581
TABLA K
Puntos críticos de la distribución del módulo máximo studentizado
g/cnor 3 4 5 6 7 8 9 10 15
© Ediciones Pirámide
582 / Análisis de datos en psicología 11
TABLA L
Tabla de potencias para diferentes valores de A y a
© Ediciones Pirámide
Tablas estadísticas / 583
TABLA M
Puntos críticos (valores de p) de la distribución F no centrada
oc= 0,05
2 0,93 0,86 0,83 0,78 0,74 0,69 0,64 0,59 0,49 0,40
4 0,91 0,80 0,74 0,67 0,59 0,51 0,43 0,35 0,22 0,12
6 0,91 0,78 0,70 0,62 0,52 0,43 0,34 0,26 0,14 0,06
8 0,90 0,76 0,68 0,59 0,49 0,39 0,30 0,22 0,11 0,04
1 10 0,90 0,75 0,66 0,57 0,47 0,37 0,28 0,20 0,09 0,03
12 0,90 0,74 0,65 0,56 0,45 0,35 0,26 0,19 0,08 0,03
16 0,90 0,74 0,64 0,54 0,43 0,33 0,24 0,17 0,07 0,02
20 0,90 0,73 0,63 0,53 0,42 0,32 0,23 0,16 0,06 0,02
30 0,89 0,72 0,62 0,52 0,40 0,31 0,22 0,15 0,06 0,02
00 0,89 0,71 0,60 0,49 0,38 0,28 0,19 0,12 0,04 0,01
2 0,93 0,88 0,85 0,82 0,78 0,75 0,70 0,66 0,56 0,48
4 0,92 0,82 0,77 0,70 0,62 0,54 0,46 0,38 0,24 0,14
6 0,91 0,79 0,71 0,63 0,53 0,43 0,34 0,26 0,13 0,05
8 0,91 0,77 0,68 0,58 0,48 0,37 0,28 0,20 0,08 0,03
2 10 0,91 0,75 0,66 0,55 0,44 0,34 0,24 0,16 0,06 0,02
12 0,90 0,74 0,64 0,53 0,42 0,31 0,22 0,14 0,05 0,01
16 0,90 0,73 0,62 0,51 0,39 0,28 0,19 0,12 0,04 0,01
20 0,90 0,72 0,61 0,49 0,36 0,26 0,17 0,11 0,03 0,01
30 0,90 0,71 0,59 0,47 0,35 0,24 0,15 0,09 0,02 0,00
00 0,89 0,68 0,56 0,43 0,30 0,20 0,12 0,06 0,01 0,00
2 0,93 0,89 0,86 0,83 0,80 0,76 0,73 0,69 0,60 0,52
4 0,92 0,83 0,77 0,71 0,63 0,55 0,47 0,39 0,25 0,14
6 0,91 0,79 0,71 0,62 0,52 0,42 0,33 0,24 0,11 0,04
8 0,91 0,76 0,67 0,57 0,46 0,35 0,25 0,18 0,06 0,02
3 10 0,91 0,75 0,65 0,53 0,41 0,30 0,21 0,13 0,04 0,01
12 0,90 0,73 0,62 0,50 0,38 0,27 0,18 0,11 0,03 0,01
16 0,90 0,71 0,60 0,47 0,34 0,23 0,14 0,08 0,02 0,00
20 0,90 0,70 0,58 0,45 0,32 0,21 0,13 0,07 0,01 0,00
30
00
0,89
0,88
0,68
0,64
0,55
0,50
0,42
0,36
0,29
0,23
0,18
0,13
0,10
0,07
0,05
0,03
0,01
º·ºº
º·ºº º·ºº
2 0,94 0,89 0,87 0,84 0,81 0,77 0,74 0,70 0,62 0,54
4 0,92 0,83 0,78 0,71 0,64 0,55 0,47 0,39 0,25 0,14
6 0,92 0,79 0,71 0,62 0,52 0,41 0,31 0,23 0,10 0,04
8 0,91 0,76 0,66 0,55 0,44 0,33 0,23 0,15 0,05 0,01
4 10 0,91 0,74 0,63 0,51 0,39 0,27 0,18 0,11 0,03 0,01
12 0,90 0,72 0,61 0,48 0,35 0,24 0,15 0,08 0,02 0,00
16 0,90 0,70 0,57 0,44 0,31 0,19 0,11 0,06 0,01 0,00
20 0,89 0,68 0,55 0,41 0,28 0,17 0,09 0,04 0,01 0,00
30 0,89 0,66 0,52 0,37 0,24 0,14 0,07 0,03 0,00 0,00
00 0,88 0,60 0,45 0,29 0,17 0,08 0,04 0,01 0,00 0,00
© Ediciones Pirámide
584 / Análisis de datos en psicología 11
TABLA M (continuación)
a= 0,01
clJ
gl. g/2 0,5 1,0 1,2 1,4 1,6 1,8 2,0 2,2 2,6 3,0
2 0,99 0,97 0,96 0,95 0,94 0,93 0,91 0,90 0,87 0,83
4 0,98 0,95 0,93 0,90 0,87 0,83 0,78 0,73 0,62 0,50
6 0,98 0,93 0,90 0,86 0,81 0,75 0,69 0,61 0,46 0,31
8 0,98 0,92 0,89 0,84 0,78 0,70 0,62 0,54 0,37 0,22
1 10 0,98 0,92 0,87 0,82 0,75 0,67 0,58 0,49 0,31 0,17
12 0,97 0,91 0,87 0,81 0,73 0,65 0,55 0,46 0,28 0,14
16 0,97 0,90 0,85 0,79 0,71 0,61 0,52 0,42 0,24 0,11
20 0,97 0,90 0,85 0,78 0,69 0,59 0,49 0,39 0,21 0,10
30 0,97 0,89 0,83 0,76 0,67 0,57 0,46 0,36 0,19 0,08
00 0,97 0,88 0,81 0,72 0,62 0,51 0,40 0,30 0,14 0,05
2 0,99 0,98 0,97 0,96 0,95 0,94 0,93 0,92 0,89 0,86
4 0,98 0,96 0,94 0,92 0,89 0,85 0,81 0,76 0,66 0,54
6 0,98 0,94 0,91 0,87 0,82 0,76 0,70 0,62 0,46 0,31
8 0,98 0,93 0,89 0,84 0,78 0,70 0,61 0,52 0,34 0,19
2 10 0,98 0,92 0,88 0,82 0,74 0,65 0,55 0,45 0,26 0,13
12 0,98 0,91 0,86 0,80 0,71 0,61 0,51 0,40 0,22 0,09
16 0,97 0,90 0,84 0,77 0,67 0,57 0,45 0,34 0,16 0,06
20 0,97 0,90 0,83 0,75 0,65 0,53 0,42 0,31 0,14 0,04
30 0,97 0,88 0,82 0,72 0,61 0,49 0,37 0,26 0,10 0,03
00 0,97 0,86 0,77 0,66 0,53 0,40 0,28 0,18 0,05 0,01
2 0,99 0,98 0,97 0,96 0,96 0,95 0,94 0,93 0,90 0,88
4 0,98 0,96 0,94 0,92 0,89 0,86 0,82 0,77 0,67 0,55
6 0,98 0,94 0,91 0,87 0,82 0,76 0,69 0,61 0,44 0,29
8 0,98 0,93 0,89 0,84 0,77 0,68 0,59 0,49 0,30 0,16
3 10 0,98 0,92 0,87 0,80 0,72 0,62 0,52 0,41 0,22 0,09
12 0,98 0,91 0,85 0,78 0,69 0,58 0,46 0,35 0,17 0,06
16 0,97 0,90 0,83 0,74 0,64 0,51 0,39 0,28 0,11 0,03
20 0,97 0,89 0,82 0,72 0,60 0,47 0,35 0,24 0,08 0,02
30 0,97 0,87 0,79 0,68 0,55 0,42 0,29 0,18 0,05 0,01
00 0,97 0,84 0,73 0,59 0,44 0,30 0,18 0,10 0,02 0,00
2 0,99 0,98 0,97 0,97 0,96 0,95 0,94 0,93 0,91 0,88
4 0,98 0,96 0,94 0,92 0,89 0,86 0,82 0,78 0,67 0,56
6 0,98 0,94 0,91 0,87 0,82 0,76 0,68 0,60 0,43 0,28
8 0,98 0,93 0,89 0,83 0,76 0,67 0,57 0,47 0,28 0,14
4 10 0,98 0,92 0,86 0,79 0,70 0,60 0,49 0,37 0,19 0,07
12 0,98 0,91 0,85 0,76 0,66 0,55 0,42 0,31 0,13 0,04
16 0,97 0,89 0,82 0,72 0,60 0,47 0,34 0,23 0,08 0,02
20 0,97 0,88 0,80 0,69 0,56 0,42 0,29 0,18 0,05 0,01
30 0,97 0,86 0,77 0,64 0,50 0,35 0,22 0,13 0,03 0,00
00 0,96 0,81 0,68 0,53 0,36 0,22 0,11 0,05 0,01 0,00
© Ediciones Pirámide
TABLA N
Puntos críticos de la distribución multivariada del rango studentizado
2 3 4 5 6 7 8 2 3 4 5 6 7 8
"' =
gl...., Probabilidad acumulada =1- ce = 0,95 Probabilidad acumulada = 1 - ce = 0,99
5 4,38 5,38 6,01 6,47 6,83 7,12 7,37 6,65 7,99 8,86 9,49 9,99 10,39 10,75
6 4,13 5,03 5,59 6,01 6,34 6,59 6,83 6,05 7,19 7,91 8,45 8,87 9,22 9,52
7 3,97 4,79 5,33 5,71 6,01 6,25 6,46 5,66 6,67 7,31 7,79 8,16 8,47 8,73
8 3,85 4,64 5,13 5,49 5,77 5,99 6,19 5,39 6,31 6,89 7,33 7,67 7,95 8,19
9 3,76 4,52 4,99 5,33 5,59 5,82 5,99 5,19 6,05 6,59 6,99 7,31 7,57 7,79
10 3,69 4,42 4,88 5,19 5,46 5,67 5,85 5,05 5,86 6,37 6,74 7,03 7,28 7,49
11 3,64 4,35 4,79 5,09 5,35 5,55 5,73 4,93 5,69 6,18 6,54 6,82 7,05 7,25
12 3,59 4,29 4,71 5,02 5,26 5,46 5,63 4,84 5,58 6,04 6,38 6,64 6,87 7,05
13 3,56 4,24 4,65 4,95 5,19 5,38 5,54 4,76 5,47 5,92 6,24 6,49 6,71 6,89
14 3,53 4,19 4,59 4,89 5,12 5,31 5,47 4,69 5,39 5,82 6,13 6,38 6,59 6,76
15 3,49 4,16 4,55 4,84 5,07 5,25 5,41 4,64 5,31 5,73 6,04 6,28 6,48 6,65
16 3,48 4,12 4,52 4,79 5,02 5,19 5,36 4,59 5,25 5,66 5,96 6,19 6,39 6,55
17 3,46 4,09 4,48 4,76 4,98 5,16 5,31 4,55 5,19 5,59 5,89 6,12 6,29 6,47
18 3,44 4,07 4,45 4,73 4,94 5,12 5,27 4,52 5,15 5,54 5,82 6,05 6,23 6,39
19 3,43 4,05 4,43 4,69 4,91 5,08 5,23 4,49 5,11 5,49 5,77 5,99 6,17 6,32
20 3,41 4,03 4,39 4,67 4,88 5,05 5,19 4,46 5,07 5,45 5,72 5,94 6,11 6,27
24 3,37 3,97 4,33 4,59 4,79 4,96 5,09 4,37 4,95 5,31 5,57 5,77 5,94 6,08
30 3,33 3,91 4,26 4,51 4,69 4,86 4,99 4,28 4,84 5,18 5,42 5,62 5,77 5,91
40 3,28 3,85 4,18 4,42 4,61 4,76 4,89 4,19 4,72 5,04 5,27 5,45 5,59 5,72
60 3,23 3,78 4,09 4,33 4,51 4,66 4,78 4,07 4,57 4,88 5,09 5,27 5,39 5,52
120 3,21 3,74 4,05 4,27 4,44 4,58 4,69 4,05 4,53 4,81 5,02 5,17 5,29 5,41
240 3,19 3,71 4,01 4,23 4,39 4,54 4,65 3,99 4,47 4,75 4,94 5,09 5,22 5,33
V2 =3 V2 =3
gl...., 2 3 4 5 6 7 8 2 3 4 5 6 7 8
5 4,81 5,83 6,46 6,92 7,27 7,56 7,81 7,23 8,59 9,47 10,09 10,59 11,01 11,36
6 4,52 5,43 5,99 6,41 6,73 6,99 7,22 6,53 7,69 8,43 8,96 9,39 9,73 10,03
7 4,33 5,17 5,69 6,08 6,37 6,62 6,82 6,08 7,11 7,76 8,24 8,61 8,92 9,18
8 4,19 4,98 5,48 5,83 6,11 6,34 6,54 5,77 6,71 7,29 7,73 8,08 8,36 8,59
9 4,09 4,84 5,39 5,65 5,92 6,14 6,32 5,55 6,42 6,97 7,37 7,68 7,94 8,16
10 4,01 4,74 5,18 5,51 5,77 5,98 6,16 5,38 6,19 6,71 7,09 7,38 7,63 7,83
11 3,94 4,65 5,08 5,39 5,65 5,85 6,02 5,25 6,02 6,51 6,87 7,15 7,38 7,58
12 3,89 4,58 4,99 5,31 5,55 5,74 5,91 5,14 5,88 6,35 6,69 6,96 7,18 7,37
13 3,85 4,52 4,93 5,23 5,46 5,66 5,82 5,05 5,77 6,21 6,54 6,79 7,01 7,19
14 3,81 4,47 4,87 5,17 5,39 5,58 5,74 4,98 5,67 6,09 6,42 6,67 6,87 7,05
15 3,78 4,43 4,82 5,11 5,33 5,52 5,67 4,91 5,59 6,01 6,31 6,56 6,76 6,92
16 3,75 4,39 4,78 5,06 5,28 5,46 5,61 4,86 5,52 5,93 6,23 6,46 6,65 6,82
17 3,73 4,36 4,74 5,02 5,23 5,41 5,56 4,81 5,46 5,86 6,15 6,38 6,57 6,73
18 3,71 4,33 4,71 4,98 5,19 5,37 5,52 4,77 5,39 5,79 6,08 6,29 6,49 6,64
19 3,69 4,29 4,68• 4,95 5,16 5,33 5,48 4,74 5,36 5,74 6,02 6,24 6,42 6,57
20 3,67 4,28 4,65 4,92 5,13 5,29. 5,44 4,69 5,31 5,69 5,96 6,18 6,36 6,51
24 3,62 4,21 4,57 4,82 5,02 5,19 5,33 4,59 5,18 5,54 5,79 5,99 6,17 6,31
30 3,57 4,14 4,49 4,73 4,92 5,08 5,21 4,51 5,06 5,39 5,64 5,83 5,98 6,12
40 3,52 4,07 4,39 4,64 4,82 4,97 5,09 4,39 4,92 5,24 5,47 5,65 5,79 5,92
60 3,46 3,99 4,31 4,54 4,72 4,86 4,98 4,27 4,76 5,06 5,28 5,45 5,59 5,69
120 3,43 3,94 4,25 4,47 4,63 4,77 4,88 4,24 4,71 4,99 5,19 5,34 5,47 5,58
240 3,39 3,91 4,21 4,42 4,58 4,72 4,83 4,19 4,64 4,92 5,11 5,26 5,38 5,48
© Ediciones Pirámide
TABLA N (continuación)
"• = 2 3 4 5 6 7 8 2 3 4 5 6 7 8
5 5,12 6,14 6,77 7,23 7,58 7,87 8,11 7,64 9,03 9,89 10,53 11,03 11,44 11,78
6 4,79 5,71 6,28 6,69 7,01 7,27 7,49 6,87 8,05 8,79 9,32 9,75 10,09 10,38
7 4,58 5,43 5,95 6,33 6,63 6,87 7,07 6,38 7,42 8,08 8,55 8,93 9,23 9,49
8 4,43 5,23 5,72 6,07 6,35 6,58 6,77 6,05 6,99 7,59 8,02 8,36 8,64 8,88
9 4,31 5,07 5,54 5,88 6,14 6,36 6,54 5,79 6,68 7,23 7,63 7,94 8,19 8,42
10 4,22 4,95 5,39 5,73 5,98 6,19 6,37 5,62 6,44 6,95 7,33 7,63 7,87 8,08
11 4,15 4,86 5,29 5,61 5,85 6,05 6,22 5,47 6,25 6,74 7,09 7,38 7,61 7,81
12 4,09 4,78 5,19 5,51 5,75 5,94 6,11 5,35 6,09 6,57 6,91 7,18 7,39 7,58
13 4,05 4,72 5,13 5,43 5,66 5,85 6,01 5,26 5,97 6,42 6,75 7,01 7,22 7,39
14 4,01 4,66 5,06 5,36 5,58 5,77 5,93 5,18 5,87 6,29 6,62 6,87 7,07 7,25
15 3,97 4,62 5,01 5,29 5,52 5,69 5,85 5,11 5,78 6,19 6,51 6,75 6,95 7,12
16 3,94 4,58 4,96 5,24 5,46 5,64 5,79 5,05 5,71 6,12 6,41 6,65 6,84 7,01
17 3,92 4,54 4,92 5,19 5,41 5,59 5,74 4,99 5,64 6,04 6,33 6,56 6,75 6,91
18 3,89 4,51 4,89 5,16 5,37 5,54 5,69 4,95 5,58 5,97 6,26 6,48 6,67 6,82
19 3,87 4,48 4,85 5,12 5,33 5,49 5,65 4,91 5,53 5,91 6,19 6,41 6,59 6,75
20 3,85 4,46 4,82 5,09 5,29 5,46 5,61 4,88 5,49 5,86 6,14 6,35 6,53 6,68
24 3,79 4,38 4,73 4,99 5,19 5,35 5,49 4,77 5,35 5,69 5,96 6,16 6,33 6,47
30 3,74 4,29 4,64 4,89 5,08 5,23 5,37 4,66 5,21 5,54 5,79 5,98 6,13 6,26
40 3,68 4,23 4,55 4,79 4,97 5,21 5,24 4,55 5,06 5,38 5,61 5,78 5,93 6,05
60 3,62 4,14 4,46 4,68 4,85 4,99 5,12 4,41 4,89 5,19 5,41 5,58 5,71 5,83
120 3,58 4,08 4,38 4,59 4,76 4,89 5,01 4,37 4,83 5,11 5,29 5,46 5,58 5,69
240 3,55 4,05 4,34 4,55 4,71 4,84 4,95 4,32 4,76 5,03 5,22 5,37 5,49 5,59
V2 = 5 V2 = 5
g/error 2 3 4 5 6 7 8 2 3 4 5 6 7 8
5 5,36 6,38 7,01 7,46 7,81 8,09 8,34 7,96 9,36 10,23 10,86 11,35 11,76 12,09
6 5,01 5,93 6,49 6,89 7,22 7,48 7,69 7,14 8,32 9,06 9,59 10,02 10,36 10,65
7 4,78 5,63 6,15 6,53 6,82 7,06 7,26 6,62 7,67 8,32 8,79 9,17 9,47 9,73
8 4,61 5,41 5,89 6,26 6,53 6,76 6,95 6,26 7,21 7,81 8,24 8,58 8,86 9,09
9 4,49 5,25 5,71 6,05 6,32 6,53 6,71 5,99 6,88 7,43 7,83 8,15 8,39 8,62
10 4,39 5,12 5,57 5,89 6,15 6,35 6,53 5,79 6,63 7,14 7,52 7,82 8,06 8,26
11 4,32 5,02 5,45 5,77 6,01 6,21 6,38 5,64 6,43 6,92 7,27 7,55 7,79 7,98
12 4,25 4,94 5,36 5,66 5,89 6,09 6,26 5,52 6,27 6,73 7,08 7,34 7,57 7,75
13 4,19 4,87 5,28 5,57 5,81 5,99 6,16 5,42 6,14 6,58 6,91 7,17 7,38 7,56
14 4,16 4,81 5,21 5,49 5,73 5,91 6,07 5,33 6,03 6,45 6,77 7,02 7,22 7,40
15 4,12 4,76 5,15 5,44 5,66 5,84 5,99 5,26 5,93 6,35 6,66 6,89 7,09 7,27
16 4,09 4,72 5,09 5,38 5,59 5,78 5,93 5,19 5,85 6,26 6,56 6,79 6,99 7,15
17 4,06 4,68 5,06 5,33 5,55 5,72 5,87 5,14 5,78 6,18 6,47 6,69 6,89 7,05
18 4,03 4,65 5,02 5,29 5,49 5,67 5,82 5,09 5,72 6,11 6,39 6,62 6,79 6,96
19 4,01 4,62 4,99 5,25 5,46 5,63 5,77 5,05 5,67 6,05 6,33 6,55 6,73 6,88
20 3,99 4,59 4,96 5,22 5,42 5,59 5,73 5,01 5,62 5,99 6,27 6,48 6,66 6,81
24 3,93 4,51 4,86 5,11 5,31 5,47 5,61 4,89 5,47 5,82 6,08 6,28 6,45 6,59
30 3,87 4,43 4,76 5,01 5,19 5,35 5,48 4,78 5,33 5,66 5,89 6,09 6,24 6,38
40 3,79 4,33 4,66 4,89 5,08 5,22 5,35 4,66 5,17 5,49 5,71 5,89 6,04 6,16
60 3,74 4,25 4,57 4,79 4,96 5,09 5,22 4,52 4,99 5,29 5,51 5,67 5,81 5,92
120 3,69 4,19 4,49 4,69 4,86 4,99 5,11 4,47 4,93 5,19 5,39 5,55 5,67 5,78
240 3,66 4,15 4,44 4,65 4,81 4,93 5,04 4,41 4,86 5,12 5,31 5,46 5,57 5,68
© Ediciones Pirámide
TABLA N (continuación)
"• =
2 3 4 5 6 7 8 2 3 4 5 6 7 8
g/error Probabilidad acumulada = 1 - ex = 0,95 Probabilidad acumulada= 1 - ex= 0,99
5 5,56 6,58 7,19 7,65 7,99 8,28 8,52 8,22 9,63 10,49 11,12 11,62 12,02 12,36
6 5,19 6,09 6,67 7,07 7,39 7,64 7,86 7,36 8,55 9,29 9,82 10,24 10,58 10,86
7 4,94 5,79 6,31 6,68 6,97 7,21 7,41 6,81 7,86 8,52 8,99 9,36 9,67 9,93
8 4,76 5,56 6,05 6,39 6,68 6,89 7,09 6,44 7,39 7,98 8,42 8,76 9,03 9,27
9 4,63 5,39 5,86 6,19 6,45 6,67 6,85 6,16 7,04 7,59 7,99 8,31 8,57 8,79
10 4,53 5,26 5,69 6,03 6,28 6,48 6,66 5,95 6,78 7,29 7,67 7,97 8,21 8,41
11 4,45 5,15 5,58 5,89 6,14 6,34 6,49 5,79 6,57 7,06 7,42 7,69 7,93 8,12
12 4,38 5,06 5,48 5,79 6,02 6,21 6,38 5,65 6,39 6,87 7,21 7,48 7,69 7,89
13 4,33 4,99 5,39 5,69 5,92 6,11 6,27 5,55 6,27 6,72 7,04 7,29 7,51 7,69
14 4,28 4,93 5,33 5,62 5,84 6,03 6,18 5,46 6,15 6,59 6,89 7,15 7,36 7,53
15 4,24 4,88 5,27 5,55 5,77 5,95 6,11 5,38 6,05 6,47 6,78 7,02 7,22 7,39
16 4,19 4,83 5,22 5,49 5,71 5,89 6,04 5,31 5,97 6,38 6,68 6,91 7,09 7,27
17 4,17 4,79 5,17 5,44 5,66 5,83 5,98 5,25 5,89 6,29 6,59 6,82 6,99 7,16
18 4,15 4,76 5,13 5,39 5,61 5,78 5,93 5,19 5,83 6,22 6,51 6,73 6,91 7,07
19 4,12 4,73 5,09 5,36 5,57 5,74 5,88 5,16 5,78 6,16 6,44 6,66 6,84 6,99
20 4,09 4,69 5,06 5,32 5,53 5,69 5,84 5,12 5,73 6,09 6,38 6,59 6,77 6,92
24 4,04 4,61 4,96 5,21 5,41 5,57 5,69 4,99 5,57 5,92 6,18 6,38 6,55 6,69
30 3,97 4,53 4,86 5,09 5,27 5,44 5,57 4,88 5,42 5,75 5,99 6,18 6,34 6,47
40 3,89 4,44 4,76 4,99 5,19 5,32 5,44 4,75 5,26 5,57 5,79 5,98 6,12 6,24
60 3,85 4,36 4,67 4,89 5,06 5,19 5,31 4,59 5,08 5,38 5,59 5,75 5,89 5,99
120 3,79 4,28 4,57 4,78 4,94 5,07 5,18 4,55 4,99 5,27 5,47 5,62 5,74 5,85
240 3,75 4,24 4,52 4,73 4,88 5,01 5,12 4,49 4,93 5,19 5,38 5,52 5,64 5,74
V2 = 7 V2 = 7
g/error 2 3 4 5 6 7 8 2 3 4 5 6 7 8
5 5,72 6,74 7,36 7,81 8,16 8,44 8,68 8,45 9,85 10,72 11,34 11,84 12,24 12,58
6 5,33 6,25 6,81 7,21 7,52 7,78 7,99 7,55 8,74 9,47 10,01 10,42 10,76 11,04
7 5,07 5,92 6,44 6,81 7,09 7,34 7,54 6,98 8,03 8,68 9,16 9,53 9,83 10,09
8 4,89 5,69 6,17 6,52 6,79 7,02 7,21 6,58 7,54 8,13 8,57 8,89 9,18 9,42
9 4,75 5,51 5,97 6,31 6,57 6,78 6,96 6,29 7,18 7,73 8,13 8,44 8,69 8,92
10 4,64 5,37 5,82 6,14 6,39 6,59 6,77 6,08 6,91 7,42 7,79 8,09 8,34 8,54
11 4,56 5,26 5,69 5,99 6,24 6,44 6,61 5,91 6,69 7,18 7,54 7,82 8,05 8,24
12 4,49 5,17 5,59 5,89 6,12 6,32 6,48 5,77 6,52 6,99 7,33 7,59 7,82 7,99
13 4,43 5,09 5,49 5,79 6,02 6,21 6,37 5,66 6,38 6,83 7,15 7,41 7,62 7,79
14 4,38 5,03 5,43 5,72 5,94 6,12 6,28 5,56 6,26 6,69 7,01 7,26 7,46 7,63
15 4,34 4,98 5,37 5,65 5,87 6,05 6,19 5,48 6,16 6,58 6,88 7,12 7,32 7,49
16 4,29 4,93 5,31 5,59 5,79 5,98 6,13 5,41 6,07 6,48 6,78 7,01 7,19 7,37
17 4,27 4,89 5,26 5,54 5,75 5,92 6,07 5,35 5,99 6,39 6,68 6,91 7,09 7,26
18 4,24 4,85 5,22 5,49 5,69 5,87 6,01 5,29 5,93 6,32 6,59 6,82 7,01 7,16
19 4,22 4,82 5,19 5,45 5,66 5,82 5,97 5,25 5,87 6,25 6,53 6,75 6,93 7,08
20 4,19 4,79 5,15 5,41 5,62 5,78 5,92 5,21 5,82 6,19 6,47 6,68 6,86 7,01
24 4,13 4,69 5,09 5,29 5,49 5,65 5,79 5,08 5,66 6,01 6,27 6,47 6,63· 6,77
30 4,06 4,61 4,94 5,18 5,37 5,52 5,65 4,96 5,49 5,83 6,07 6,26 6,41 6,54
40 3,99 4,52 4,84 5,07 5,25 5,39 5,52 4,83 5,34 5,65 5,87 6,05 6,19 6,31
60 3,91 4,42 4,73 4,95 5,12 5,25 5,37 4,67 5,15 5,45 5,66 5,82 5,95 6,07
120 3,86 4,35 4,64 4,85 5,01 5,14 5,25 4,62 5,07 5,34 5,53 5,68 5,79 5,89
240 3,83 4,31 4,59 4,79 4,95 5,07 5,18 4,56 4,99 5,25 5,44 5,58 5,69 5,79
© Ediciones Pirámide
588 / Análisis de datos en psicología 11
TABLA Ñ
Tabla de transformaciones de rxy en Z de Fisher
© Ediciones Pirámide
Tablas estadísticas / 589
TABLA O
Puntos críticos ( sp) para la prueba de Wilcoxon. Probabilidades acumuladas
n -'0.005 -'0.01 -'0.025 -'0.05 -'0.10 -'0,20 -'0,10 -'o,90 -'o,95 -'o,975 -'o.99 -'o.999
4 o o o o 1 3 7 9 10 10 10 10
s o o 1 o 3 4 11 12 14 1S 1S 1S
6 o 1 o 3 4 6 1S 17 18 20 21 21
7 o 1 3 4 6 9 19 22 24 2S 27 28
8 1 2 4 6 9 12 24 27 30 32 34 3S
9 2 4 6 9 11 1S 30 34 36 39 41 43
10 4 6 9 11 1S 19 36 40 44 46 49 Sl
11 6 8 11 14 18 23 43 48 S2 SS S8 60
12 8 10 14 18 22 28 so S6 60 64 68 70
13 10 13 18 22 27 33 S8 64 69 73 78 81
14 13 16 22 26 32 39 66 73 79 83 89 92
1S 16 20 26 31 37 4S 1S 83 89 94 100 104
16 20 24 30 36 43 Sl 8S 93 100 106 112 116
17 24 28 3S 42 49 S8 9S 104 111 118 12S 129
18 28 33 41 48 S6 66 lOS 11S 123 130 138 143
19 33 38 47 S4 63 74 116 127 136 143 1S2 1S1
20 38 44 S3 61 70 83 127 140 149 1S1 166 172
21 44 so S9 68 78 91 140 1S3 163 172 181 187
22 49 S6 67 76 87 100 1S3 166 177 186 197 204
23 SS 63 74 84 9S 110 166 181 192 202 213 221
24 62 70 82 92 lOS 120 180 19S 208 218 230 238
2S 69 77 90 101 114 131 194 211 224 23S 248 2S6
26 76 8S 99 111 12S 142 209 226 240 2S2 266 21S
27 84 94 108 120 13S 1S4 224 243 2S8 270 284 294
28 92 102 117 131 146 166 240 260 21S 289 304 314
29 101 111 127 141 1S8 178 2S1 277 294 308 324 334
30 110 121 138 1S2 170 191 274 29S 313 327 344 3SS
31 119 131 148 164 182 20S 291 314 332 348 36S 377
32 129 141 160 176 19S 219 309 333 3S2 368 387 399
33 139 1S2 171 188 208 233 328 3S3 373 390 409 422
34 149 163 183 201 222 248 347 373 394 412 432 446
3S 160 11S 196 214 236 263 367 394 416 434 4SS 470
36 172 187 209 228 2Sl 279 387 41S 438 4S1 479 494
37 184 199 222 242 266 29S 408 437 461 481 S04 S19
38 196 212 236 2S1 298 312 429 4S9 484 sos S29 S4S
39 208 22S 2SO 272 314 329 4S1 482 S08 S30 sss S12
40 221 239 26S 287 331 347 473 S06 S33 sss S81 S99
Para n > 40, los puntos críticos sP de la distribución del estadístico de Wilcoxon pueden
obtenerse utilizando la aproximación normal:
© Ediciones Pirámide
590 / Análisis de datos en psicología 11
TABLA P
Puntos críticos (up) para la prueba de Mann-Whitney. Probabilidades acumuladas
n, p n2 = 3 4 s 6 7 8 9 10 11 12 13 14 lS 16 17 18 19 20
0,001 6 6 66 6 6 6 6 6 6 6 6
6 6 7 7 7 7
O,OOS 6 6 6 6
6 6 7 7 7 8 8 8 9 9 9 9 10 10
3 0,01 6 6 6 6
7 7 8 8 8 9 9 9 10 10 11 11 11 12
0,02S 6 6 78 9 9 10 10 11 11 12 12
8 13 13 14 14 lS
o,os 7 7 89 10 11 11 12 12 13 14 14
9 IS 16 16 17 18
0,001 10 10 10 10 10 10 10 11 11 11 12 12 12 13 13 14 14 14
o,oos 10 10 10 11 11 12 12 13 13 14 14 IS 16 16 17 17 18 19
4 0,01 10 10 11 12 12 13 14 14 lS 16 16 17 18 18 19 20 20 21
0,02S 10 11 12 13 14 IS lS 16 17 18 19 20 21 22 22 23 24 2S
o,os 11 12 13 14 IS 16 17 18 19 20 21 22 23 2S 26 27 28 29
0,001 lS lS IS IS IS 16 17 17 18 18 19 19 20 21 21 22 23 23
o,oos IS lS 16 17 17 18 19 20 21 22 23 23 24 2S 26 27 28 29
s 0,01 lS 16 17 18 19 20 21 22 23 24 2S 26 27 28 29 30 31 32
0,02S 16 17 18 19 21 22 23 24 2S 27 28 29 30 31 33 34 3S 36
o,os 17 18 20 21 22 24 2S 27 28 29 31 32 34 3S 36 38 39 41
0,001 21 21 21 21 21 23 24 2S 26 26 27 28 29 30 31 32 33 34
0,005 21 22 23 24 25 26 27 28 29 31 32 33 34 35 37 38 39 40
6 0,01 21 23 24 25 26 28 29 30 31 33 34 35 37 38 40 41 42 44
0,025 23 24 25 27 28 30 32 33 35 36 38 39 41 43 44 46 47 49
0,05 24 25 27 29 30 32 34 36 38 39 41 43 45 47 48 50 52 54
0,001 28 28 28 29 30 31 32 34 35 36 37 38 39 40 42 43 44 45
0,005 28 29 30 32 33 3S 36 38 39 41 42 44 4S 47 48 so 51 S3
7 0,01 29 30 32 33 35 36 38 40 41 43 45 46 48 so 52 S3 SS S7
0,025 30 32 34 35 37 39 41 43 4S 47 49 SI 53 SS S7 S9 61 63
0,05 31 33 35 37 40 42 44 46 48 50 53 55 57 59 62 64 66 68
0,001 36 36 37 38 39 41 42 43 45 46 48 49 51 52 54 55 57 S8
0,005 36 38 39 41 43 44 46 48 50 52 54 55 57 59 61 63 65 67
8 0,01 37 39 41 43 44 46 48 50 52 54 56 59 61 63 65 67 69 71
0,025 39 41 43 45 47 50 52 54 56 59 61 63 66 68 71 73 75 78
0,05 40 42 45 47 50 52 55 S7 60 63 65 68 70 73 76 78 81 84
0,001 45 45 47 48 49 51 53 54 56 58 60 61 63 65 67 69 71 72
0,005 46 47 49 51 53 55 57 59 62 64 66 68 70 73 75 77 79 82
9 0,01 47 49 51 53 55 57 60 62 64 67 69 72 74 77 79 82 84 86
0,025 48 50 53 56 58 61 63 66 69 72 74 77 80 83 85 88 91 94
0,05 50 52 55 58 61 64 67 70 73 76 79 82 85 88 91 94 97 100
0,001 55 56 57 59 61 62 64 66 68 70 73 75 77 79 81 83 85 88
0,005 56 58 60 62 65 67 69 72 74 77 80 82 85 87 90 93 95 98
10 0,01 57 59 62 64 67 69 72 7S 78 80 83 86 89 92 94 97 100 103
0,025 59 61 64 67 70 73 76 79 82 85 89 92 95 98 101 104 108 111
0,05 60 63 67 70 73 76 80 83 87 90 93 97 100 104 107 111 114 118
0,001 66 67 69 71 73 75 77 79 82 84 87 89 91 94 96 99 101 104
0,005 67 69 72 74 77 80 83 85 88 91 94 97 100 103 106 109 112 115
11 0,01 68 71 74 76 79 82 85 89 92 95 98 101 104 108 111 114 117 120
0,025 70 73 76 80 83 86 90 93 97 100 104 107 111 114 118 122 125 129
0,05 72 75 79 83 86 90 94 98 101 105 109 113 117 121 124 128 132 136
© Ediciones Pirámide
Tablas estadísticas / 591
TABLA P (continuación)
n1 p n2 = 3 4 S 6 7 8 9 10 11 12 13 14 IS 16 17 18 19 20
© Ediciones Pirámide
TABLA Q
Puntos críticos para la prueba de Kruskal- Wallis
n, ni n3 h P(H ~ h) h P(H ~ h)
2 2 2 4,571 0,0667
3 2 2 4,714 0,0476
3 3 2 5,139 0,0607
3 3 3 5,600 0,0500
4 2 1 4,821 0,0571
4 2 2 5,125 0,0524
4 3 1 5,208 0,0500
4 3 2 5,400 0,0508
4 3 3 5,727 0,0505 6,745 0,0100
4 4 1 4,867 0,0540 6,667 0,0095
4 4 2 5,236 0,0521 6,873 O,ül08
4 4 3 5,576 0,0507 7,136 0,0107
4 4 4 5,692 0,0487 7,538 0,0107
5 2 1 5,000 0,0476
5 2 2 5,040 0,0556 6,533 0,0079
5 3 1 4,871 0,0516 6,400 0,0119
5 3 2 5,251 0,0492 6,822 0,0103
5 3 3 5,515 0,0507 7,079 0,0087
5 4 1 4,860 0,0556 6,840 0,0111
5 4 2 5,268 0,0505 7,118 0,0101
5 4 3 5,631 0,0503 7,445 0,0097
5 4 4 5,618 0,0503 7,760 0,0095
5 5 1 4,909 0,0534 6,836 0,0108
5 5 2 5,246 0,0511 7,269 0,0103
5 5 3 5,626 0,0508 7,543 0,0102
5 5 4 5,643 0,0502 7,823 0,0098
5 5 5 5,660 0,0509 7,980 0,0105
6 2 1 4,822 0,0478
6 3 1 4,855 0,0500 6,582 0,0119
6 3 2 5,227 0,0520 6,970 0,0091
6 3 3 5,615 0,0497 7,192 0,0102
6 4 1 4,947 0,0468 7,083 0,0104
6 4 2 5,263 0,0502 7,212 0,0108
6 4 3 5,604 0,0504 7,467 0,0101
6 4 4 5,667 0,0505 7,724 0,0101
6 5 1 4,836 0,0509 6,997 0,0101
6 5 2 5,319 0,0506 7,299 0,0102
6 5 3 5,600 0,0500 7,560 0,0102
6 5 4 5,661 0,0499 7,936 0,0100
6 5 5 5,729 0,0497 8,012 0,0100
6 6 1 4,857 0,0511 7,066 0,0103
6 6 2 5,410 0,0499 7,410 0,0102
6 6 3 5,625 0,0500 7,725 0,0099
6 6 4 5,721 0,0501 8,000 0,0100
6 6 5 5,765 0,0499 8,119 0,0100
6 6 6 5,719 0,0502 8,187 0,0102
7 7 7 5,766 0,0506 8,334 0,0101
8 8 8 5,805 0,0497 8,435 0,0101
© Ediciones Pirámide
Tablas estadísticas / 593
TABLA Q (continuación)
n1 ni nl n4 h P(H ~ h) h P(H~h)
© Ediciones Pirámide
594 / Análisis de datos en psicología 11
TABLAR
Puntos críticos para la prueba de Friedman
© Ediciones Pirámide
Tablas estadísticas / 595
TABLAS
Puntos críticos para el coeficiente de correlación r,
de Spearman
p = probabilidad acumulada = 1 - ix
4 1,000 • • •
5 0,900 1,000 1,000 •
1,000
6 0,829 0,886 0,943
7 0,714 0,786 0,893 0,929
8 0,643 0,738 0,833 0,881
9 0,600 0,700 0,783 0,833
10 0,564 0,648 0,745 0,794
11 0,536 0,618 0,709 0,755
12 0,503 0,587 0,678 0,727
13 0,484 0,560 0,648 0,703
14 0,464 0,538 0,626 0,679
15 0,446 0,521 0,604 0,654
16 0,429 0,503 0,582 0,635
© Ediciones Pirámide
596 / Análisis de datos en psicología 11
TABLA T
Puntos críticos ('r:p) para el coeficiente de correlación t
de Kendall
p = probabilidad acumulada = 1 - oc
© Ediciones Pirámide
Glosario de
símbolos griegos
© Ediciones Pirámide
Referencias bibliográficas
Cochran, W. G., y Cox, G. M. (1957): Experimental designs (2.ª ed.), Nueva York: Wiley.
Cohen, J. (1960): «A coefficient of agreement for nominal scales», Educational and Psicho-
logical Measurement, 20, 37-46.
Cohen, J. (1966): «Sorne statistical issues in psychological research», en B. B. Wolman (ed.):
Handbook of clinical psychology, Nueva York: McGraw-Hill.
Cohen, J. (1969): Statistical power analysis for the behavioral sciences, Nueva York: Academic
Press.
Cohen, J. (1976): «The distribution of the chi-squared statistic under clustered sampling from
contingency tables», Journal of the American Statistical Association, 71, 665-670.
Cohen, J. (1977): Statistical power analysis for the behavioral sciences (ed. revisada), Nueva
York: Academic Press.
Cohen, J. (1988): Statistical power analysis for the behavioral sciences (2.ª ed.), Nueva York:
Academic Press.
Cohen, J. (1993): «A power primer», Psychological Bulletin, 112, 155-159.
Conover, W. J. (1980): Practica/ nonparametric statistics (2.ª ed.), Nueva York: Wiley.
Conover, W. J.; Johnson, M. E., y Johnson, M. M. (1981): «A comparative study of test for
homogeneity of variances with applications to the outer continental self bidding data»,
Technometrics, 23, 351-361.
Coombs, C. H.; Daves, R. M., y Tversky, A. (1981): Introducción a la psicología matemática,
Madrid: Alianza (original en inglés: Mathematical psychology. An elementary introduction,
Nueva York: Prentice-Hall, 1970).
Chambers, J. M.; Cleveland, W. S.; Kleiner, B., y Tukey, P. A. ( 1983): Graphical methods for
data analysis, Belmont, CA: Wadsworth. .
Davis, J. A. (1985): The logic of causal order, Beverly Hills, CA: Sage.
Dunn, C. W. (1961): «Multiple comparisons among means», Journal of the American
Statistical Association, 56, 52-64.
Dunnett, C. W. ( 1955 ): «A multiple comparison procedure for comparing severa( treatments
with a control», Journal <f the American Satistical Association, 50, 1096-1121.
Dunnett, C. W. (1980a): «Pairwise multij:>le. ~mparisons in the homogeneous variance, une-
qual sample size case», Journal of the American Statistical Association, 75, 789-795.
Dunnett, C. W. (1980b): «Pairwise multiple comparisons in the unequal variance case»,
Journal of the American Statistical Association, 75, 795-800.
Einot, l., y Gabriel, K. R. (1975): «A study of the powers of several methods of multiple
comparisons», Journal of the American Statistical Association, 70, 574-583.
Felzenbaum, A.; Hart, S., y Hochberg, Y. (1983): «lmproving sorne multiple comparison
procedures», Anna/s of Statistics, 11, 121-128.
Fenstad, G. U. (1983): «A comparison between U and V tests in the Behrens-Fisher problem»,
Biometrika, 70, 300-302.
Festinger, L. (1946): «The significance of difference between means without reference to the
frequency distribution function», Psycometrika, 11, 97-105.
Fienberg, S. E. (1980): The analysis of cross-classified categorial data (2.ª ed.), Cambridge,
MA: The MIT Press.
Fisher. R. A. ( 1921 ): «Ün the probable error of a coeficient of correlation deduced from a small
sample». Metrom. J, 3, 32.
Fisher, R. A. (l 922a): «On the mathematical foundations of theoretical statistics», Philosophi-
cal Transactions of the Royal Society of London, 222, 309-368.
Fisher, R. A. (1922b). «On the interpretation of chi square from contingency tables, and the
calculation of P», Journal of the Royal Statistical Society, 85, 87-94.
© Ediciones Pirámide
Bibliografía / 601
Fisher, R. A. (1924): «The conditions under which X 2 measures the discrepancy between
observation and hypothesis», Journal of the Royal Statistical Society, 87, 442-450.
Fisher, R. A. (1925): Statistical methods for research workers, Edimburgo: Oliver and Boyd.
Fisher, R. A. (1955): «Statistical methods and scientific induction», Journal of the Royal
Statistical Society, 17, 69-78.
Fleiss, J. L. (1981): Statistical methods for rates and proportions, Nueva York: Wiley.
Fleiss, J. L.; Cohen, J., y Everitt, B. S. (1969): «Large sample standard errors of kappa
and weighted kappa>>, Psychological Bulletin, 72, 323-327.
Fowler, R. L. (1985): «Point estimates and confidence intervals in measures of association»,
Psychological Bulletin, 98, 160-165.
Friedman, H. (1968): «Magnitude of experimental effect anda table for its rapid estimation»,
Psychological Bulletin, 70, 245-251.
Friedman, M. (1937): «The use of ranks to avoid the assumtion of normality implicit in the
analysis of variance», Journal of the American Statistical Association, 61, 1081-1096.
Games, P. A., y Howell, J. F. (1976): «Pairwise multiple comparison procedures with unequal
n's and/or variances: A Monte Cario study», Journal of Educational Statistics, l. 113-
125.
Games, P. A.; Keselman, H. J., y Rogan, J. C. (1981): «Simultaneous pairwise multiple
comparison procedures for means when sample sizes are unequal», Psychological Bulletin,
90. 594-598.
Geisser, S., y Greenhouse, S. W. (1958): «An extension of Box' results on the use of F
distribution in multivariate analysis», Annals of Mathematical Statistics, 29, 885-891.
Gibbons, R. D.; Hedeker, D. R., y Davis, J. M. (1993): «Estimation of effect size from a series
of experiments involving paired comparisons», Journal of Educational Statistics, 18, 271-
279.
Glass, G. V. (1976): «Primary, secondary and metanalysis of research», Educational Resear-
cher, 5, 3-8.
Glass, G. V.; Peckham, P. D., y Sanders, J. R. (1972): «Consequences of failure to meet
assumptions underlying the fixed effects analysis of variance and covariance», Review of
Educational Research, 42. 237-288.
Glass, G. V., y Stanley, J. C. (1986): Métodos estadísticos aplicados a las ciencias sociales,
Madrid: Prentice-Hall (original en inglés: Statistical methods in educational and psycho-
logy, Englewood Cliffs, NJ: Prentice-Hall, 1970).
Goodman, L. A. (1968): «The analysis of cross-classified data: Independence, quasi-indepen-
dence, and interactions in contingency tables with or without missing data», Journal of
the American Statistical Association, 63, 1091-1131.
Goodman, L. A., y Kruskal, W. H. (1979): Measures of association for cross-classifications,
Nueva York: Springer-Verlag.
Haberman, S. J. (1973): «The analysis of residuals in cross-classification tables», Biometrics,
29, 205-220.
Haberman, S. J. (1978): Analysis of qualitative data. 1: lntroductory topics, Nueva York:
Academic Press.
Haberman, S. J. (1979): Analysis of qualitative data. 2: New developments, Nueva York:
Academic Press.
Hartley, H. O. (1940): «Testing the homogeneity of a set of variances», Biometrika, 31, 249-
255.
Hartley, H. O. (1950): «The maximum F-ratio as a short-cut test for heterogeneity of
variance», Biometrika, 37, 308-312.
© Ediciones Pirámide
602 / Bibliografía
Harwell, M. R.; Rubinstein, E. N.; Hayes, W. S., y Olds, C. C. (1992): «Summarizing Monte
Cario results in methodological research: The one- and two-factor fixed effects ANOVA
cases», Journal of Educational Statistics, 17, 315-339.
Hays, W. L. (1963): Statistics, Nueva York: Holt, Rinehart and Winston.
Hays, W. L. (1995): Statistics (5.ª ed.), Nueva York: Holt, Rinehart and Winston.
Hayter, A. J. ( 1984): «A proof of a conjeture that the Tukey-Kramer multiple comparison
procedure is conservative», Annals o.f Statistics, 12, 61-75.
Hedges, L. V. ( 1981 ): «Distribution theory for Glass's estimator of effect size and related
estimators», Journal of Educationa/ Statistics. 6, 107-128.
Hedges, L. V. ( 1982): «Estimation of efTect size from a series of independent experiments»,
Psycholoyical Bulletin, 91, 490-499.
Hedges, L. V., y Olkin, l. ( 1984): «Nonparametric estimators of efTect size in meta-analysis»,
Psycho/oyical Bulletin, 96, 573-580.
Hempel, C. G. ( 1984): Filos<?fla de la ciencia ntltural, Madrid: Alianza (original en inglés:
Philosophy <?f natural science, Nueva York: Prentice-Hall, 1966).
Hochberg, Y. (1974): «Sorne generalizations of the T-method in simultaneous inference»,
Journal of Multivariate Analysis, 4, 224-234.
Hochberg, Y., y Tamhane, A. C. (1987): Mu/tiple comparison procedures, Nueva York: Wiley.
Holland, B. S., y Copenhaver, M. D. (1988): «lmproved Bonferroni-type multiple testing
procedures», Psycholoyical Bulletin, 104, 145-149.
Holm, S. ( 1979): «A simple sequentially rejective multiple test procedure», Scandinavian
Journal of Statistics. 6, 65-70.
Horsnell, G. ( 1953): «The efTect of unequal groups variances on the F-test for homogeneity of
group means», Biometrika, 40. 128-136.
Hotelling, H. ( 1931 ): «The generalization of Student's ratio», Annals <?f Mathematical
Statistics, 2, 360-378.
Howell, D. C. (1992): Statistical methods .for psyclwloyy (3.ª ed.). Boston: PWS-Kent Publis-
hing Company.
Huynh, H., y Feldt, L. S. (1970): «Conditions under which mean square ratios in repeated
measurements designs have exact F-distribution», Journal of the American Statistica/
Association. 65. 1582-1589.
Huynh, H., y Feldt, L. S. (1976): «Estimation of the Box correction for degrees of freedom
from sample data in randomized block and split-plot design», Journal o.f Educational
Statistics, 1, 69-82.
Huynh, H., y Mandeville, G. K. (1979): «Validity conditions in repeated measures designs»,
Psycholoyical Bt1/letin, 86. 964-973.
Iman, R. L., y Conover, W. J. (1983): A moclern approach to statistics, Nueva York: Wiley.
Iman, R. L., y Davenport, J. M. ( 1980): «Approximations of the critica( region of the
Friedman statistics», Communications in Statistics. A9. 571-595.
Jaccard, J. J.; Becker, M. A., y Wood, G. (1984): «Pairwise multiple comparison procedures:
A review», Psycholoyical Bulletin, 96, 589-596.
Jáñez, L. ( 1989): Fundamentos de psicología matemática. Madrid: Pirámide.
Johnson, N. L., y Kotz, S. ( 1969): Distrihutions in statistics: Discrete clistrihutions. Nueva
York: Wiley.
Kelley, T. L. (1935): «An unbiased correlation ratio measure», Proceedings o.f the National
Academy o.f Sciences, 21, 554-559.
Kendall, M. G. (1938): «A new measure of rank correlation», Biometrika, 30, 81-93.
Kendall, M. G. (1963): Rank corre/ation methods (3.ª ed.), Londres: Griffin.
Kendall, M. G., y Babington-Smith, B. (1939): «The problem of m rankings», The Annals o.f
Mathematical Statistics. 10. 275-287.
© Ediciones Pirámide
Bibliografía / 603
Kenny, D. A., y Judd, Ch. M. (1986): «Consequences of violating the independence assump-
tion in analysis of variance», Psychological Bulletin, 99. 422-431.
Keppel, G. (1991): Design and analysis: A researcher's handbook (3.ª ed.), Englewood Cliffs,
NJ: Prentice-Hall.
Keselman, H. J. (1994): «Stepwise and simultaneous multiple comparison procedures of re-
peated measures' means», Journal of Educational Statistics, 19, 127-162.
Keselman, H. J.; Games, P. A., y Rogan, J. C. (1979): «An addendum to "A comparison ofthe
modified Tukey and Scheffé methods of multiple comparisons for pairwise contrasts»,
Journal of the American Statistical Association, 74, 626-627.
Keselman, H. J.; Keselman, J. C., y Games, P. A. (1991): «Maximum familywise type 1 error
rate: The least significant differende, Newman-Keuls, and other multiple comparison
procedures», Psychological Bulletin, 1JO, 155-161.
Keselman, H. J.; Keselman, J. C., y Shaffer, J. P. (1991): «Multiple pairwise comparisons of
repeated measures means under violation of multisample sphericity», Psychological
Bulletin, 11 O, 162-170.
Keselman, H. J.; Lix, L. M., y Kowalchuk, R. K. (1998): «Multiple comparison procedures
for trimmed means», Psychological Methods, 3, 123-141.
Keselman, H. J., y Rogan, J. C. (1978): «A comparison of the modified Tukey and Scheffé
methods of multiple comparisons», Journal of the American Statistical Association, 73, 47-52.
Keselman, H. J.; Rogan, J. C.; Mendoza, J. L., y Breen, L. J. (1980): «Testing the validity
conditions of repeated measures F tests», Psychological Bulletin, 87. 479-481.
Keuls, M. (1952): «The use of studentized range in connection with an analysis of variance»,
Euphytica, 1, 112-122.
Kirk, R. E. (1978): lntroductory statistics, Monterey, CA: Wadsworth.
Kirk, R. E. (1982): Experimental design. Procedures for the behavioral sciences (2.ª ed.),
Belmont, CA: Brooks/Cole.
Kirk, R. E. (1995): Experimental design: Procedures for the behabioral sciences (3.ª ed.),
Belmont, CA: Brooks/Cole.
Klayman, J., y Ha, Y-W. (1987): «Confirmation, disconfirmation and information in hypothe-
sis testing», Psychological Bulletin. 94, 211-228.
Kohr, R. L., y Games, P. A. (1974): «Robustness of analysis of variance, the Welch procedure,
anda Box procedure to heterogeneous variances», Journal of Experimental Education, 43,
61-69.
Kohr, R. L., y Games, P. A. (1977): «Testing complex a priori contrasts in means from
independent samples», -Journal of Educational Statistics, 1, 207-216.
Kraemer, H. C., y Andrews, G. (1982): «A nonparametric technique for meta-analysis effect
size calculation», Psycho/ogica/ Bulletin, 91, 404-412.
Kramer, C. Y. (1956): «Extension of multiple range test to group means with unequal
numbers of replications», Biometrics, 12, 307-310.
Krantz, D. H.; Luce, R. D.; Suppes, P., y Tversky, A. (1971): Foundations of measurement. 1:
Additive and polynomial representation, Nueva York: Academic Press.
Kruskal, W. H. (1958): «Ordinal measures of associatiom>, Journal of the American Statistical
Association, 53, 814-861.
Kruskal, W. H., y Wallis, W. A. (1952): «Use of ranks on one-criterion variance analysis»,
Journal of the American Statistical Association, 47, 583-621 (aparecen correcciones en el
volumen 48, págs. 907-911).
KvAlseth, T. O. (1991): «A coefficient of agreement for nominal sacales: An asymetric version
of kappa», Educational and Psychological Measurement, 51, 95-101.
© Ediciones Pirámide
604 / Bibliografía
Landis, J. R., y Koch, G. G. (1977): «The measurement of observer agreement for catego-
rical data», Biometrics, 33, 159-174.
León, O. G. (1984): «El uso del término "significativo" en los informes experimentales»,
Revista de Psicología General y Aplicada, 39, 455-469.
León, O. G., y Montero, l. (1997): Diseño de investigaciones. Introducción a la lógica de la
investigación en psicología y educación (2.ª ed.), Madrid: McGraw-Hill.
Levene, H. (1960): «Robust tests for the equality of variance», en J. Olkin (ed.): Contributions
to probabi/ity and statistics, Palo Alto, CA: Stanford University Press.
Levy, P. (1967): «Substantive significance ofsignificant differences between groups», Psycholo-
gical Bulletin, 67, 37-40.
Lewis, P. A. W., y Orav, E. J. (1989): Simulation methodology for statisticians, operation
analysts, and engineers, Belmont, CA: Wadsworth.
Lilliefors, H. W. (1967): «Ün the Kolmogorov-Smirnov test for normality with mean and
variance unknown», Journal of the American Statistical Association, 62, 399-402.
Little, R. J. A., y Rubín, D. B. (1987): Statistical analysis with missing data, Nueva York:
Wiley.
Luce, R. D. y Krumhansl, C. L. (1988): «Measurement scaling and psychophysics», en R. L.
Atkinson, R. J. Herrnstein, G. Luce y R. D. Luce (eds.): Stevens' handhook of experimen-
tal psychology (vol. 1), Nueva York: Wiley.
Mann, H. B., y Whitney, D. R. (1947): «On a test of whether one of two random variables is
stochastically larger than the other», Annals of Mathematical Statistics, 18, 50-60.
Marascuilo, L. A., y Busk, P. L. (1987): «Log-linear models: A way to study main effects and
interactions for multidimensional contingency tables with categorical data», Journal of
Counseling Psychology, 34, 443-455.
Marascuilo, L. A., y McSweeney, M. (1977): Nonparametric and distribution-free methods,
Monterrey, CA: Brooks/Cole.
Marascuilo, L. A., y Serlin, R. C. (1990): Statistical methods for the social and behavioral
sciences, Nueva York: Freeman.
Mauchly, J. W. (1940): «Significance test for sphericity of a normal n-variate distribution»,
Annals of Mathematical Statistics, 11. 204-209.
Maxwell, S. E. (1980): «Pairwise multiple comparisons in repeated measures designs», Journal
of Educational Statistics, 5, 269-287.
Maxwell, S. E.; Camp, C. J., y Arvey, R. D. (1981): «Measures of strength of association:
. A comparative examination», Journal of App/ied Psychology, 66, 525-534.
Maxwell, S. E., y Delany, H. D. (1990): Designing experiments and analyzing data, Belmont,
CA: Wadsworth.
McGraw, K.O., y Wong, S. P. (1992): «A common language effect size statistic», Psychologi-
cal Bulletin, 111. 361-365.
McNemar, Q. (1947): «Note on the sampling error of the difference between correlated
proportions or percentages», Psychometrika, 12, 153-157.
Miller, R. G. Jr. (1981): Simultaneous statistical inference (2.ª ed.), Nueva York: McGraw-Hill.
Narens, L. y Luce. R. D. ( 1986): «Measurement: The theory of numcrical assignmcnts»,
P.1yc/10l0Kical Bulletin, 99, 166-180.
Newman, D. (1939): «The distribution of the range in samples of a normal population, ex-
pressed in terms of an independent estímate of standard deviation», Biometrika, 31, 20-30.
Neyman, J., y Pearson, E. S. (1928): «On the use and interpretation of certain test criteria for
purposes of statistical inference» (2.ª parte), Biometrika, 20, 263-294.
Neyman, J., y Pearson, E. S. (1932): «The testing of statistical hypotheses in relation to
probabilities a priori», Procedings of the Cambridge Philosophical Society, 29, 492-516.
© Ediciones Pirámide
Bibliografía / 605
Neyman, J., y Pearson, E. S. (1933): «On the problem of the most efficient test of statistical
hipotheses», Philosophical Transactions of the Royal Society, 231, 284-337.
Nijsse, M. (1988): «Testing the significance of Kendall's t and Spearman's r,», Psychological
Bulletin, 103, 235-237.
O'Brien, R. G. (1981): «A simple test for variance efTects in experimental designs», Psycho/ogi-
cal Bulletin, 89, 570-574.
O'Grady, K. E. (1982): «Measures of explained variance: Cautions and limitations», Psycho/o-
gical Bulletin, 92, 766-777.
Pardo, A., y Alonso, J. (1990): Motivar en el aula, Madrid: Ediciones de la Universidad
Autónoma.
Pardo, A., y San Martín, R. (1994): Análisis de datos en Psicología 11 (l.ª ed.), Madrid:
Pirámide.
Pearson, K. (1905): «On the theory of skew correlations and nonlinear regression. Mathema-
tical contributions to the theory of evolution», Biometric Laboratory Publications,
Londres: Cambridge University Press.
Pearson, K. (1911): «Ün the probability that two independent distributions of frequency are
really samples from the same population», Biometrika, 8, 250-254.
Peña, D. (1986): Estadística. Modelos y métodos. /: Fundamentos, Madrid: Alianza.
Pereda, S. (1987): Psicología experimental. /: Metodología, Madrid: Pirámide.
Peters, C. C., y Van Voorhis, W. R. (1940): Statistical procedures and their mathematical bases,
Nueva York: McGraw-Hill.
Pfanzagl, J. (1968): Theory of measurement, Nueva York: Wiley.
Popper, K. (1982): La lógica de la investigación científica (7.ª ed.), Madrid: Tecnos (original en
inglés: The logic of scientific discovery, Londres: Hutchinson, 1959).
Posner, K. L.; Sampson, P. D.; Captan, R. A.; Ward. R. J., y Chendly F. W. (1990): «Mea-
suring interrater reliability among multiple raters: An example of methods for nominal
data», Statistics in Medicine, 9, 1103-1116.
Ramsey, P. (1980): «Exact type 1 error rates for robustness ofStudent's t test with unequal
variances», Journal of Educational Statistics, 5, 337-349.
Rao, C. R. (1973): Linear statistical inference and its applications (2.ª ed.), Nueva York: Wiley.
Richardson, J. T. E. (1990): «Variants of chi-square for 2 x 2 contingency tables», British
Journal of Mathematical and Statistical Psychology, 43, 309-326.
Ríos, S. (198S): Métodos estadísticos (l.ª ed., 3.ª reimp.), Madrid: Ediciones del Castillo.
Roberts, F. S. (1979): Measurement theory, Reading, MA: Addison-Wesley.
Rogan, J., y Keselman, H. (1977): «Is the ANOVA F-test robust to variance heterogeneity
when sample sizes are equal? An investigation via a coeficient of variation», American
Educational Research Journal, 14, 493-498.
Rosenthal, R. (1984): Meta-analytic procedures for social research, Beverly-Hills, CA: Sage.
Rosenthal, R., y Rosnow, R. L. (1991): Essentials of behavioral research: Methods and data
analysis (2.ª ed.), Nueva York: McGraw-Hill.
Rosenthal, R., y Rubin, D. B. (1982): «A simple, general pourpose display of magnitude of
experimental efTect», Journal of Educational Psychology, 74, 166-169.
Rosenthal, R., y Rubin, D. B. (1984): «Multiple contrasts and ordered Bonferroni procedu-
res», Journal of Educational Psychology, 76, 1028-1034.
Rouanet, H., y Lépine, D. (1970): «Comparisons between treatments in a repeated-measures
design: ANOVA and multivariate methods», The British Journal of Mathematical and
Statistical Psycho/ogy, 23, 147-163.
Ryan, T. A. (1960): «Significance tests for multiple comparisons of proportions, variances and
other statistics», Psycho/ogical Bulletin, 57, 318-328.
© Ediciones Pirámide
606 / Bibliografía
San Martín, R.; Espinosa, L., y Fernández, L. (1987): Psicoestadística. Estimación y contraste,
Madrid: Pirámide.
San Martín, R., y Pardo, A. (1989): Psicoestadística. Contrastes paramétricos y no paramétri-
cos, Madrid: Pirámide.
Satterthwaite, F. E. (1946): «An approximate distribution of estimates of variance compo-
nents», Biometrics. 2, 110-114.
Sawilowsky, S., y Blair, R. C. (1992): «A more realistic look at the robustness and type JI
error properties of the t test to departures from population normality», Psychological
Bulletin. 111. 352-360.
Scheffé, H. A. ( 1953): «A method for judging ali possible contrasts in the analysis of variance»,
Biometrika, 40, 87-104.
Seaman, M. A.; Levin, J. R., y Serlin, R. C. (1991): «New developments in pairwise multiple
comparisons: Sorne powerfull and practicable procedures», Psychological Bulletin. 1 JO,
577-586.
Shaffer, J. P. ( 1986): «Modified sequentially rejective multiple test procedures», Journal of the
American Statistical Association. 81. 826-831.
Sidák, Z. (1967): «Rectangular confidence regions for the means of multivariate normal
distributions», Journal qf' the American Statistical Association. 62. 626-633.
Snedecor, G. W., y Cochran, W. G. (1967): Statistica/ methods (6.ª ed.), Ames, IA: lowa State
University.
Spearman, C. ( 1904): «The proof and measurement of association between two things»,
American Journal <f Psychology, 15. 72-101.
SPSS Inc. (1998): SPSS Base for Windows: User's guide, Chicago, IL: SPSS Inc.
Steiger, J. H. ( 1980): «Tests for comparing elements of a correlation matrix», Psychologica/
Bulletin. 87, 245-251.
Stevens, S. S. ( 1946): «Ün the theory of scales of measurement», Science, 103, 677-680.
Stevens, S. S. ( 1951 ): «Mathematics, measurement and psychophysics», en S. S. Stevens (ed.):
Handhook of' experimenta/ psychology, Nueva York: Wiley.
Stevens, S. S. ( 1959): «Measurements, psychophysics and utility», en C. W. Churchman
y P. Ratoosh (eds.): Measurement: De.finitions and theorems. Nueva York: Wiley.
Stoline, M. (1981): <<The status of multiple comparisons: Simultaneous estimation of ali
pairwise comparisons in one way ANOVA», American Statistician. 3. 134-142.
Student (1927): «Errors of routine analysis», Biometrika, 19, 151-164.
Suppes, P., y Zinnes, J. L. (1963): «Basic measurement theory», en R. C. Luce y E. Galanter
(eds.): Handhook of' mathematica/ psycho/ogy (vol. 1), Nueva York: Wiley.
Tamhane, A. C. (1977): «Multiple comparisons in model 1 one-way ANOVA with unequal
variances», Communications in Statistics, A6(1), 5-32.
Tamhane, A. C. ( 1979): «A comparison of procedures for multiple comparisons of means with
unequal variances», Journal of' the American Statistical Association. 74. 471-480.
Thurstone, L. L. (1927): «A law of comparative judgement», Psychological Review, 34, 273-
286.
Tomarken, A. J., y Serlin, R. C. ( 1986): «Comparison of A NOVA alterna ti ves under variance
heterogeneity and specific noncentrality structures», Ps_vchological Bul/etin. 99, 90-99.
Toothaker, L. ( 1991 ): Mu/tiple comparisons .fór researchers. Newbury Park, CA: Sage.
Tukey, J. W. (1953): The prohlem of' mu/tiple comparisons. Ditto: Princeton University.
Wallis, W. A. ( 1939): <<The correlation ratio for ranked data», Journal qf' the American
Statistirnl Association, 34. 533-538.
Welch, B. L. ( 1938): «The significance of the difference between two means when the
population variances are unequal», Biometrika, 29. 350-362.
© Ediciones Pirámide
Bibliografía / 607
© Ediciones Pirámide
Índice de materias
© Ediciones Pirámide
610 / Índice de materias
© Ediciones Pirámide
Índice de materias / 611
Dunn-Bonferroni, 303-306, 311-312, 315, nivel de significación o riesgo, 98, 137, 154-
344,370, 373,438, 509 157
Dunnett (comparaciones con un grupo no paramétricos, 415-416
control), 306-307, 311, 344, 439 paramétricos, 415-416
F planeadas, 295-298, 311-313, 344 potencia, 148-154, 163-172, 215-219, 274-
diferencia mínima significativa, 305, 306, 276
308-309, 344-345 regla de decisión, 137-139
en el ANOV A de dos factores completa- supuestos, 133-135 (ver Supuestos de un
mente aleatorizados, 344-349 contraste)
en el ANOVA de dos factores con medidas y estimación por intervalos, 161-163
repetidas en ambos, 370-372 zona de aceptación, 137-138
en el ANOV A de dos factores con medidas zona de rechazo, 137-139
repetidas en un solo factor, 372-376 zona crítica, 13 7-139
en el ANOV A de un factor cempletamente Contrastes de hipótesis sobre:
aleatorizado, 294-317 coeficientes de correlación:
en el ANOVA de un factor con medidas gamma (y) de Goodman y Kruskal, 473-
repetidas, 315 475
en el contraste sobre J proporciones inde- p, de Spearman, 461-464
pendientes (X 2 de Pearson), 540-542 Pxy de Pearson:
en el contraste sobre J proporciones rela- dos coeficientes independientes, 402-
cionadas {Q de Cochran), 508-510 403
en la prueba de Friedman, 447 dos coeficientes relacionados, 403
en la prueba de Kruskal-Wallis, 437-441 un coeficiente, 398-401
métodos secuenciales, 315-317 tau (t) de Kendall, 467-470
post hoc (ver Comparaciones múltiples a tau-b (t-b) de Kendall, 467-471
posteriori) coeficientes de regresión lineal:
tasa de error por comparación, 293-294 dos coeficientes, {1 1-{12 , 401-402
tasa de error por familia de comparaciones, un coeficiente, {I, 392-395
293-294 medianas:
Comparaciones lineales, 287-290 dos medianas:
valor esperado, 289 independientes, 424-430
varianza, 289 relacionadas, 430-433
Comparaciones no ortogonales, 303-307 más de dos medianas:
Comparaciones ortogonales, 295-303 independientes, 433-441
polinomios ortogonales, 299, 301-303, 575 relacionadas, 441-44 7
Componentes de varianza, ANOVA de, 234 una mediana, 416-424
Condición experimental, 239 medias:
Contraste de hipótesis, 127, 130 dos medias independientes:
bilateral y unilateral (bidireccional y unidi- con 11 1 y 11 2 conocidas, 191-193
reccional), 132, 138-139, 159-161 con 11 1 y 11 2 desconocidas y supuestas
decisión, significado, 140-141 iguales, 194-198
enfoque bayesiano, 130 con 11 1 y 11 2 desconocidas y supuestas
enfoque clásico, 128-141 distintas, 198-202
estadístico de contraste, 135-137 dos medias relacionadas, 202-206
hipótesis estadísticas, 131-133 más de dos medias:
lógica, 128-130 independientes, 238-254
nivel crítico, 156-158, 190 relacionadas, 254-265
nivel de confianza, 98, 138 una media:
© Ediciones Pirámide
612 / Índice de materias
© Ediciones Pirámide
Índice de materias / 613
t de Student, 70-71, 104, 189, 197-199, 212- de la diferencia entre dos medias, 192, 195,
213, 215, 402-403; puntos críticos 572 198, 208, 213, 203, 209
uniforme, 63, 525-526 de la media, 67, 102, 105, 192
x2 , 10, 72-74, 106-107, 212, 249, 261, 444; de la proporción, 75, 114, 493
puntos críticos, 571 de la varianza, 73, 113
Distribuciones de probabilidad discretas: de los errores en tablas de contingencia, 543
binomial, 75-76, 116, 136, 416-417, 493, del coeficiente de correlación de Pearson,
525-526; tabla de probabilidades, 562-568 398
multinomial, 525-526, 546 del coeficiente de regresión (B), 401,
poisson, 546 del número de aciertos, 75, 493
Distribución muestra!, 58-59, 65-66 y tamaño muestra!, 68-69
de la diferencia de medias, 212-213 Error de tipo 1, 144
de la media, 66-71 en las comparaciones múltiples, 292-294
de la proporción, 75-77 probabilidad~. 144-145
de la varianza, 71-7 5 Error de tipo 11, 144
ejemplos, 59-65 probabilidad fl, 144-145, 155
Duncan, prueba del rango múltiple, 315 relación entre ~y {I, 146-148
Dunn, prueba de (ver Dunn-Bonferroni) y error típico, 146-147
Dunn-Bonferroni, prueba de, 303-306, 311-312, y tamaño del efecto, 145-146
315, 344, 370, 373, 438, 509; puntos críticos, y tamaño muestra!, 147
576-577 Errores:
Dunnett, estadístico C, 314 aleatorios, 230-231, 242, 244, 256-257, 332,
Dunnett, estadístico T3, 314 390-391
Dunnett, prueba de (para comparaciones con en tablas de contingencia:
un grupo control), 306-307, 311, 344, 439; tipificados, 543
puntos críticos, 578-579 tipificados corregidos o ajustados, 543
Escalas de medida (intervalo, razón, nominal,
ordinal), 24-30
E
Esfericidad (ver Supuestos de un contraste)
Ecuación de regresión lineal (ver Análisis de Espacio muestra!, 52
re~¡resión lineal simple) Estadística:
Efecto, tamaño del (ver Tamaño del efecto) como ciencia, 19
Efectos fijos, aleatorios, mixtos (ver Análisis como herramienta metodológica, 20-21
de varianza) descriptiva, 19
Efectos principales (ANOVA), 370 inferencia! o inductiva, 19-20
Efectos simples (ANOVA), 372 Estadístico:
Eficiencia, 91 como variable aleatoria, 43-45
Eficiente (ver Estimador) de contraste, 135-137
Empates (ver Corrección por empates) distribución muestra! de un, 58-59, 65-66
Épsilon (1:) (ver Homocedasticidad) error típico de un, 66
Épsilon-cuadrado (1: 2), 268-269 valor esperado de un, 66
Error muestra!, 95 varianza de un, 66
Error muestra! máximo, 95, 97, 101-104 Estimación puntual, 90
Error típico, 66 (ver también Varianza) método de máxima verosimilitud, 115-117
de la diferencia entre dos coeficientes de método de mínimos cuadrados, 117-118
correlación, 402 método de los momentos, 90
de la diferencia entre dos coeficientes de Estimación por intervalos, 95
regresión, 402 error muestra!, 95
© Ediciones Pirámide
614 / Índice de materias
error muestra) máximo, 95, 97, 101- 104 F no centrada , distribución (ver Distribuciones
intervalo de confianza: de probabilidad)
en las comparaciones múltiples a poste- F planeadas, comparaciones (ver Comparacio-
riori, 309, 31 O nes múltiples a priori)
en las comparaciones múltiples a priori, Factor, 232
305, 307 efectos fijos (ver Análisis de varianza)
en los contrastes sobre bondad de ajuste, efectos aleatorios (ver Análisis de varianza)
528 intersujetos, 362-366, 372-375
en los contrastes sobre igualdad de pro- intrasujetos, 362-366, 372-375
porciones, 541 Factorial, (ver Diseño factorial)
para el coeficiente de regresión lineal, 393 Falsación, 140-141
para el índice de riesgo relativo, 513 Fijos, factor de efectos (ver Análisis de va-
para la diferencia entre dos medias inde- rianza)
pendientes, 196, 200 Fisher, 130, 140
para la diferencia entre dos medias rela- estadístico F (ver F, estadístico de Fisher)
cionadas, 205 transformación Z, 400, 588
para la diferencia entre dos proporciones Frecuencias:
independientes, 499-500 esperadas o teóricas, 526-527, 532-533,
para la diferencia entre dos proporciones 537-538
relacionadas, 503-504 observadas o empíricas, 526
para la media, 102-105, 190 Friedman, prueba de, 441-447; puntos críti-
para la odds ratio, 514 cos, 594
para la proporción, 109-111, 495 Fuentes de variación (ver Variación)
para la varianza, 106-108 Función de máxima verosimilitud, 116
límites de confianza, 96-97 Función de probabilidad (o de densidad de
precisión del intervalo, 100-101, 103-104, probabilidad), 47-55, 58, 60, 64
111-115 Función de probabilidad conjunta, 47-55
y contraste de hipótesis, 161-163
y tamaño muestra), 111-115
Estimador, 90 G
consistente, 91
eficiente, 91, 94 Games-Howell, prueba de, 314
insesgado, 91, 94 Gamma (y) de Goodman y Kruskal, 471-475
maximoverosímil, 117 Geisser-Greenhouse, solución de (para el caso
minimocuadrático, 118 de no circularidad en el ANOV A de medi-
propiedades de un buen estimador, 90-92 das repetidas), 272-273
ejemplos de buenos estimadores, 92-94 Goodman y Kruskal:
suficiente, 91 coeficiente de incertidumbre, 549-550
Eta-cuadrado (r¡ 2 ), 267-268, 352 gamma (y), 471-475
lambda (A.), 547-549
reducción proporcional del error, 547-550
F tau (t), 549
Gosset, 308
F, distribución (ver Distribuciones de probabi- Grados de libertad, 247, 259-260, 335-336,
lidad) 355, 365
F, estadístico de Fisher (ANOV A), 248-250, corrección de Cochran y Cox, 198
260-261, 269-272, 309, 336-338, 350-351, corrección de W elch, 199, 312
356-357, 365, 396, 434, 442 corrección de Box, 271
© Ediciones Pirámide
Índice de materias / 615
© Ediciones Pirámide
616 / Índice de materias
Medias cuadráticas, 237, 247, 260, 336, 355- con reposición, 46-47
356 sin reposición, 48-49
Medición, 24-27 aleatorio en población infinita, 54-55
Medida, escalas de (ver Escalas de medida) aleatorio estratificado, 56-57
Medidas de asociación: aleatorio por conglomerados, 57-58
asimétricas, 473, 548-550 polietápico, 58
coeficiente de contingencia, 544 aleatorio sistemático, 56
coeficiente de incertidumbre, 549-550 cómo extraer una muestra aleatoria, 77-78
épsilon-cuadrado (e 2 ), 268-269 en tablas de contingencia, 545-546
eta-cuadrado (17 2 ), 267-268, 352 espacio muestra!, 52
lambda (A.) de Goodman y Kruskal, 471-475 método Monte Cario, 78-80
omega-cuadrado (w 2 ), 267-268, 352 probabilístico y no probabilístico, 45
phi (f>), 544 Multivariada del rango studentizado (ver Dis-
reducción proporcional del error, 547-550 tribuciones de probabilidad)
simétricas, 473, 548-550
tau (t) de Goodman y Kruskal, 549
V de Cramer, 545 N
Medidas repetidas, 182-183, 233, 254-265,
353-376, 441, 506 Nivel de confianza, 98, 101
Metodología: Nivel de riesgo, 98, 101
correlaciona! o selectiva, 23-24. Nivel de significación, 137, 154-157
experimental, 23-24 Nivel crítico, 156-158, 190
observacional, 23-24 Niveles de indagación (descriptivo, relacional,
Mínimos cuadrados, 117-118, 392 explicativo), 21-24
Mixtos: Niveles de medida (ver Escalas de medida)
diseños, 353, 362-370, 372-376 No centrada, distribución F, 274, 583-584
efectos, 349-351 No centralidad, parámetro de, 274
Modelo 1 (ANOVA), 234, 349-351 No paramétricos, contrastes:
Modelo 11 (ANOV A), 234, 349-351 características, 415-416
Modelo III (ANOVA), 349-351 dos muestras independientes, 424-430
Modelo lineal general, 229-231, 389-390 dos muestras relacionadas, 430-433
Módulo máximo studentizado (ver Distribucio- más de dos muestras independientes, 433-
nes de probabilidad) 441
Momentos, método de los, 90 más de dos muestras relacionadas, 441-447
Monte Cario, método, 78-80 una muestra, 416-424
Multinomial (ver Distribuciones de probabili- Normal (ver Distribuciones de probabilidad)
dad) Normalidad (ver Supuestos de un contraste)
Muestra, 41-42 Nula, hipótesis, 131-133
aleatoria, 46, Números aleatorios, 78, 561
aleatoria simple, 47
cómo extraer una muestra aleatoria, 77-78
Muestras: o
independientes, 182-183, 233
dependientes o relacionadas, 182-183, 202- O'Brien, prueba sobre igualdad de varianzas,
204, 233, 352 271
Muestreo, 45 Observaciones perdidas (missing), 206-207
aleatorio, 55 Odds ratio, 513-514
aleatorio en población finita: Omega-cuadrado (ro 2 ), 268-269, 352
© Ediciones Pirámide
Índice de materias / 617
© Ediciones Pirámide
618 / Índice de materias
métodos de obtención de tablas de contin- Tukey, prueba de, 308-309, 311-313, 344-349,
gencia, 545-546 373, 439, 509
Tamaño del efecto, 58, 207 Tukey-b, prueba de, 308
en los contrastes sobre medias, 207-212 Tukey-Kramer, prueba de, 309
en el ANOVA de un factor, 266-269
en el ANOV A de dos factores, 352
Tamaño muestra):
u
y estimación por intervalos, 111-115 U de Mann-Whitney, 424-430
y potencia de un contraste, 166-172, 215- Unidad experimental, 232
219, 276 Uniforme (ver Distribuciones de probabilidad)
Tasa de error, 293 Universo (ver Población)
por comparación, 293-294
por experimento, 294
V
por familia de comparaciones, 293-294
Tau ('r) de Goodman y Kruskal, 549 V de Cramer, 545
Tau(<) de Kendall, 464-471 Valor esperado:
Tau-b (<-b) de Kendall, 466-467 de la diferencia entre dos medias, 196
Tau-e (<-e) de Kendall, 467 de la media, 67, 92, 96, 102, 192
Tendencias, comparaciones de (ver Compara- de la proporción, 75, 92, 109, 493
ciones múltiples a priori) de la varianza, 73, 92, 93
Teorema central del límite, 67, 187, 192 de una comparación lineal, 289
Teorema de Tchebycheff, 112 de una media cuadrática, 248, 260, 336-337,
Tipificación: 350-351, 355, 357, 365
de la diferencia entre dos coeficientes de de una suma de rangos, 422, 427, 443
correlación, 402, 403 del número de aciertos, 75, 493
de la diferencia entre dos coeficientes de Variabilidad (ver Variación)
regresión, 402 Variable:
de la diferencia entre dos medias, 193-196, aleatoria, 44-55, 58, 63, 66-68, 72-76
198, 200, 203-204, 212-213, 308 bloqueada, 233
de la diferencia entre dos medias poblacio- extraña, 233, 254
nales, 208-209, 217-218 dependiente, 231-232, 241, 389-390
de la diferencia entre dos proporciones, dicotómica, 75, 79, 490
498, 502 independiente, 231-232, 241, 389-390
de la media, 68, 69, 71, 102, 104, 187-190 politómica, 490
de la proporción, 75, 109, 493-494 Variación, fuentes de:
de la varianza, 73-74, 106, 212 intergrupos, 242, 245, 250, 258, 262, 333,
de una comparación lineal, 296, 302, 304, 313 354
de una suma de rangos, 422, 427, 432, 435, intersujetos, 258, 262, 354, 364
443-444 intragrupos o error, 242, 245, 250, 258,
del coeficiente de correlación de Pearson, 262, 334
400-401 intrasujetos, 364
del coeficiente de regresión lineal, 393, 396 total, 245, 250, 258, 262, 334, 354
del cociente entre dos varianzas indepen- Varianza (ver también Error típico)
dientes, 214-215, 249-250, 261, 296, 338- de la diferencia entre dos medias, 192, 203
339, 356, 357, 365 de la diferencia entre dos variables, 194
del número de aciertos, 75-76, 152, 418, de la media, 67-68, 92-93, 112, 237
493-494 de la mediana, 93
Transformación de puntuaciones, 273-274 de la proporción, 92, 497
© Ediciones Pirámide
Índice de materias / 619
© Ediciones Pirámide