You are on page 1of 65

BLOQUE 1 TEMA 1

LA ESTADSTICA EN EL PROCESO DE INVESTIGACIN PEDAGGICA EMPRICA



Son muchas las razones que justifican la presencia de la Estadstica en la Educacin:
comprender los trabajos que se publican en revistas cientficas, libros, informes, etc.
entender los procesos implicados en la investigacin operativa que hacen posible la inferencia desde
la muestra a la poblacin, y conocer qu garantas nos ofrecen estas decisiones.
facilitar el propio desarrollo de la investigacin socio-educativa.

Definicin de Estadstica
Kerlinger (1985): teora y mtodo de analizar datos cuantitativos obtenidos de muestras de observaciones,
para estudiar y comparar fuentes de varianza de fenmenos, ayudar a tomar decisiones sobre aceptar o
rechazar hiptesis entre los fenmenos y ayudar a hacer inferencias fidedignas de observaciones empricas.
Ofrece las siguientes posibilidades:
calcular de los grupos.
establecer el grado de variabilidad de las observaciones.
representar grficamente, mediante tablas y figuras, los grupos o los sujetos individuales.
transformar los datos para compararlos (centiles, puntuaciones tpicas,)
calcular fiabilidades y valideces de los instrumentos de recogida de datos.
extrapolar los resultados de muestras representativas a grupos ms amplios (poblaciones)
comparar dos o ms grupos y establecer la existencia o no de diferencias significativas.
Funciones de la Estadstica:
facilitar el manejo de datos amplios y dispersos.
inferir desde la muestra a la poblacin.
ayudar en la toma de decisiones.

Tipos de estadstica
ESTADISTICA DESCRIPTIVA
Descripcin grfica y numrica de los conjuntos de datos.
Ofrece una visin global del grupo de sujetos objeto de estudio.
No aporta suficientes argumentos cientficos en la toma de decisiones sobre los grupos.
Importante!! ver cuadro pg. 5
Fox (1981) seala cinco funciones principales:
o conocer los estadsticos de un conjunto de datos.
o interpretar lo que nos dicen los estadsticos muestrales sobre los parmetros de la poblacin.
o conocer la existencia, el sentido y la magnitud de la relacin entre dos variables.
o explorar la relacin entre dos variables.
o predecir las tendencias en el comportamiento de nuevos grupos.
Por la naturaleza de la muestra y los datos:
o estadstica descriptiva univariada (una sola variable)
o bivariada (correlacin de dos variables)
o multivariada (ms de dos variables)

ESTADSTICA INFERENCIAL
Trata de extrapolar los resultados que se han obtenido en muestras a las poblaciones respectivas de
las que proceden.
Se ocupa de los mtodos estadsticos que nos sirven para realizar inferencias objetivas sobre los
datos disponibles y trasladarlos a grupos ms amplios.
Importante!! ver cuadro pg. 6
Nivel de confianza las decisiones que se adoptan en la investigacin socioeducativa no se pueden
realizar en trminos de certeza, sino de probabilidad. Por ello:

Margen de error Nivel de confianza Nomenclatura
0,05 95% ESTADISTICOS en las muestras
0,01 99% PARMETROS en las poblaciones
Campos de la Estadstica inferencial:
o estimacin de parmetros:
puntual un solo valor de la muestra pasa a ser parmetro de la poblacin.
por intervalos entre unos lmites entre los cuales se espera que se encuentre el
verdadero valor del parmetro. Los lmites vienen determinados por los errores
sistemticos y aleatorios.
o contraste de hiptesis:
mediante datos empricos se aprueban o descartan las hiptesis planteadas en la
investigacin.

El papel de la Estadstica en el proceso de investigacin
1. En el problema de la investigacin
a. Identificacin y seleccin del problema como garanta de poder establecer relaciones entre
las variables que se analizan.
b. La Estadstica nos permite afirmar que el problema sea resoluble.
2. En la formulacin de hiptesis y objetivos
a. Las hiptesis han de ser contrastables y los objetivos comprobables.
b. Nos permite conocer qu estadsticos deben ser calculados.
c. Determinar si la hiptesis ha de ser unilateral bilateral:
i. bilateral existen diferencias entre los grupos
ii. unilateral un grupo es ms que el otro (una sola opcin)
3. En el control de variables extraas
a. Seleccionar sujetos de la muestra en funcin de las caractersticas del control.
b. Garantizar el control supone minimizar los efectos de las covariaciones y la influencia de
variables extraas que pudieran ofrecer explicaciones alternativas.
4. En la definicin de las variables
a. Como ejemplo: la motivacin que reciben los estudiantes influir de forma positiva sobre el
rendimiento alcanzado en una determinada asignatura:
i. Vi la motivacin (la manipula el experimentador)
ii. Vd el rendimiento (se mide en el experimento mediante test)
b. La estadstica nos ayuda a definir de forma operativa las Vi y nos indica la forma en que
deben medirse y valorarse.
c. Determinar la fiabilidad y validez de los instrumentos de recogida de datos y de medida.
d. Expresar y valorar los errores de medida que cometemos al medir y estimar indirectamente
las variables, para tenerlos en cuenta y desecharlos de los resultados.
5. En el contraste de hiptesis o comprobacin de los objetivos
a. Tenemos una amplia gama de pruebas estadsticas a eleccin del investigador. Su idoneidad
y validez quedan sujetas al rigor y la veracidad de los datos.
i. paramtricas medidas precisas y curva normal en la poblacin
ii. no paramtricas resto de casos
6. En la decisin estadstica
a. Se obtiene un determinado valor emprico del estadstico empleado, que ser diferente
segn la prueba estadstica que hayamos empleado.
b. Se interpreta este valor en el sentido de si las diferencias entre los grupos son reales y
debidas a la situacin experimental y por tanto, no son aleatorias; o si son debidas al azar.
esto consiste en decidir si la Ho se rechaza y se acepta la H1
i. Ho hiptesis nula no hay diferencias significativas entre los grupos
ii. H1 hiptesis alternativa si hay diferencias significativas entre los grupos y no
son debidas al azar. Regla general :
si (valor emprico) que el (valor terico crtico) rechazo Ho
Valor emprico se mide en la muestra.
Valor terico ( crtico) en las tablas, con el % de nivel de confianza.

BLOQUE 1 TEMA 2
PROBLEMA HIPTESIS Y OBJETIVOS VARIABLES Y DATOS NIVELES DE MEDIDA

Hiptesis y objetivos de la investigacin
Las hiptesis se emplean en el mbito experimental y cuasiexperimental, para probar el
establecimiento de relaciones causales entre las variables.
En las investigaciones descriptivas o correlacionales se emplean objetivos de investigacin, ya que
son los datos los que establecen a posteriori las relaciones y dependencias entre las variables.




Concepto y naturaleza de las hiptesis
La hiptesis es una proposicin o conjunto de proposiciones no demostradas, cuyo anlisis puede
llevar a una conclusin lgica, que debe ser sometida a comprobacin emprica.
Bunge (1981) marca tres requisitos en la formulacin de hiptesis:
1. tiene que ser bien formada y significativa.
2. fundamentada en los conocimientos previos.
3. empricamente contrastable.
Aadimos un cuarto requisito para completar el concepto: que se establezcan relaciones causales entre las
variables:
a. antecedentes, que manipula el experimentador.
b. consecuentes, que reciben los efectos de esa manipulacin.
Las hiptesis han de ser formuladas previamente a la recogida de los datos, ya que si lo hacemos despus, se
vulnera gravemente el rigor cientfico.

Tipos de hiptesis
Segn su forma de expresin cuantitativa:
1) SUSTANTIVA ( cientfica). Puede ser:
a. inductiva derivada de la observacin y la experiencia.
b. deductiva derivando de la teora, se constata sta en la prctica.
2) ESTADSTICA: se establece una diferencia o relacin entre los parmetros poblacionales, que debe
ser comprobada empricamente:
a. Ho (hiptesis nula) no hay diferencias
b. H1 (hiptesis alternativa) s hay diferencias significativas:
i. en forma genrica (bidireccional)
ii. en una de las opciones (unidireccional)

Concepto de variable y sus modalidades
Variable es aquella caracterstica que admite diversos valores dos ms modalidades de presentacin.

1) Variables categricas atributivas
Hacen referencia a caractersticas de los sujetos que no se pueden cuantificar.
Cuando la variable solo admite dos categoras, se la denomina DICOTMICA (sexo, si/no,
verdadero/falso, )
Cuando la variable admite ms de dos categoras, se la denomina POLITMICA.
2) Variables cualitativas
Son aquellas que permiten establecer rangos posiciones en las medidas, pero no ser posible
establecer diferencias numricas precisas.
3) Variables cuantitativas
Son aquellas que admiten medida numrica en la cuantificacin de una determinada cualidad.
Pueden ser:
o discretas solo admiten nmeros enteros en su definicin.
o continuas pueden admitir un nmero infinito de valores de la caracterstica que medimos,
entre dos valores dados cualesquiera.
OBJETIVOS descriptivos
HIPTESIS relaciones causales
4) Variables dependientes (Vd)
Son las que reciben los efectos de la intervencin sobre la variable independiente (Vi)
Los valores que alcance la Vd dependern de la Vi, por ello refleja la consecuencia de los cambios que
se han producido.
5) Variables independientes (Vi)
Son aquellas en las que interviene acta el investigador, con el fin de analizar su influencia sobre la
Vd.
Debe ser una variable experimental y controlada.
6) Variables extraas o intervinientes (Ve)
Variables que estn presentes en el experimento y que deben ser controladas para evitar la
contaminacin de los resultados finales.

Criterios para la seleccin y elaboracin de los instrumentos de recogida de datos
Para SELECCIONAR los instrumentos de recogida de informacin, deben contemplarse los siguientes criterios:
la identificacin total del rasgo caracterstica que pretendemos medir.
el tipo de validez empleado:
o predictiva
o concurrente
o de constructo
o de contenido
la fiabilidad de la precisin de la medida:
o como estabilidad
o como equivalencia
o como consistencia interna
las caractersticas de la muestra y su representatividad de la poblacin.
niveles mnimos de fiabilidad y validez.
otros criterios secundarios:
o tiempo de respuesta
o facilidad de comprensin de los tems
o presentacin de los tems
o coste econmico

Para la ELABORACIN de los instrumentos debemos ser ms exigentes y por ello se tienen en cuenta los
siguientes criterios:
identificacin clara y concisa del rasgo caracterstica
conocer los objetivos a conseguir con el instrumento
seleccionar los tems o elementos ms apropiados
formular los tems o elementos con precisin
ordenar los tems de forma apropiada
duracin de la prueba o tiempo preciso para responder
las respuestas que debe dar el sujeto
proceder a una aplicacin piloto ensayo de prueba para delimitar los posibles fallos o errores que
debamos corregir. Pueden usarse estos datos para determinar los niveles de fiabilidad y validez de la
prueba.

Los datos y sus niveles de medida
Ver tabla 2.1 pg. 38

NIVEL NOMINAL
nivel de medida muy pobre que asigna nmeros smbolos a las caractersticas clases, que deben
ser mutuamente excluyentes.
el nmero no tiene valor operativo, simplemente seala la pertenencia no a esa categora clase.
operaciones de ; y de equivalencia.
no se trabaja con los nmeros, sino con sus frecuencias de aparicin.
moda; frecuencia; coeficiente de asociacin (C) de contingencia; la prueba

NIVEL ORDINAL
utiliza valores de > <, con los que puede establecerse una escala ordenada de las categoras
clases en forma decreciente creciente.
la distancia entre dos posiciones rangos sucesivos no es comparable, por no disponer de una
unidad constante de medida.
es el nivel de medida de ms amplio uso en ciencias sociales
no nos interesa el nmero en s, sino la posicin (rango) que ocupa dentro del grupo.
todos los datos procedentes de la observacin, de variables de tipo cualitativo y aquellos
conseguidos con instrumentos poco precisos, se consideran datos ordinales.
mediana; correlacin de Spearman; las pruebas estadsticas no paramtricas.

NIVEL DE INTERVALO
adems de las caractersticas de la ordinal, se aade la igualdad de distancia o intervalo entre dos
valores cualesquiera consecutivos; es decir, existe una unidad constante de medida.
nivel cuantitativo de datos, por lo que usamos directamente las puntuaciones alcanzadas por los
sujetos en la Vi.
; s; correlacin de Pearson y todas las pruebas estadsticas denominadas paramtricas, siempre
que cumplan las condiciones para ello.

NIVEL DE RAZN O PROPORCIN
a todas las caractersticas descritas, aadimos la existencia de cero absoluto; es decir, la no
presencia del atributo o propiedad medida.
en esta escala podemos ordenar elementos, establecer diferencias entre los mismos y emplear
razones matemticas.
solo aparece en variables fsicas como el peso, la longitud, la temperatura, etc.
media geomtrica y el coeficiente de variacin.



BLOQUE 1 TEMA 3
ANALISIS Y TRATAMIENTO DE LOS DATOS

El anlisis cuantitativo de datos: el proceso

1) construir la matriz o conjunto de datos que permiten realizar los procesos que se describen a
continuacin.

2) depuramos la matriz de datos:
localizamos observaciones aisladas
valoramos y compensamos los datos perdidos
comprobamos los supuestos requeridos por la tcnica a utilizar (normalidad, igualdad de varianzas,
linealidad, etc.)
si procede, transformamos la escala de datos depurados.

3) anlisis descriptivo de los datos:
descripcin de la distribucin y clculo de estadsticos representativos.
con ms de una variable, se establecen la correlacin y la regresin entre ellas.
se realiza una representacin grfica de los datos (diagrama de barras, histograma, diagrama de
dispersin, etc.)
ver tabla 3.1 pg. 45 estadsticos ms usados

4) anlisis inferencial de los datos:
se contrastan las hiptesis planteadas:
o pruebas paramtricas:
hemos de comprobar primero que se cumplen las condiciones de uso:
normalidad de la poblacin y muestra
datos con escala de intervalo, al menos
igualdad de varianza entre poblaciones
independencia de las observaciones
estadsticos usados:
pruebas Z t, para contraste de medias de 1 2 grupos
prueba para contraste de varianza
prueba F para contraste de igualdad de varianzas
o pruebas no paramtricas:
cuando no se cumplen los requisitos anteriores, cualesquiera de ellos, o las muestras
son muy pequeas (n 30)


BLOQUE 2 TEMA 4
ORGANIZACIN DE LOS DATOS. ANLISIS EXPLORATORIO DE DATOS
ESTADSTICA DESCRIPTIVA


De los instrumentos a los datos: la matriz de datos
puntuaciones directas

datos perdidos
o dejarlos en blanco
o asignarle un valor extrao
MATRIZ DE DATOS
Organizacin de los datos: depuracin de datos y distribucin de frecuencias
La depuracin de los datos
control de calidad de la tabulacin
la depuracin de los datos
La distribucin de frecuencias
puntuaciones directas
frecuencias absolutas
frecuencias relativas
porcentajes de aparicin
frecuencia acumulada


percentiles

Aproximacin intuitiva a las represetnaciones grficas y curva normal


representacin grfica

Curva normal o campana de Gauss
o
o
o binomial, t, F, ,
distribuciones muestrales
BLOQUE 2 TEMA 5
MEDIDAS DESCRIPTIVAS BSICAS Y REPRESENTACIONES BSICAS

De la organizacin a la descripcin de los casos
En Estadstica, el concepto ms importante es la VARIABILIDAD, es decir, el estudio de la dispersin
de las puntuaciones.
En Estadstica, pretendemos estudiar la magnitud de la variabilidad y alguna otra caracterstica ligada
a la misma. Cuando efectuamos contraste de hiptesis, se tratar de encontrar posibles variables
asociadas (que expliquen) la variabilidad de los datos.
Variables caractersticas o propiedades que pueden variar de unos sujetos a otros.
Constante contrario a variable. Cuando todos los sujetos tienen la misma puntuacin, cuando no
hay diferencias y por tanto, no hay variabilidad.
Principales medidas en Estadstica descriptiva:
o medidas de tendencia central.
o medidas de variabilidad o dispersin.
o representaciones grficas de las distribuciones de datos.

Medidas de tendencia central
1) Primeramente se estudia la tendencia central del grupo. Es el caso de la MEDIA ARITMTICA. Este ndice
por s solo no nos proporciona suficiente informacin para conocer el grupo.
Solo nos indica que el grupo tiende hacia una puntuacin media.






Para interpretar correctamente una , es conveniente conocer la puntuacin mnima y mxima de la
escala de medida de la variable y situar la media dentro de ese recorrido. (De 0 a 10 de notas, no es
lo mismo una de 2.5; que otra de 7.5).
La solo puede utilizarse en variables cuyo nivel de medida sea de intervalo o de razn, aunque s
es posible hacerlo en medidas nominales dicotmicas.

2) La MODA es el valor de frecuencia absoluta ms alta, la puntuacin que ms se repite en la distribucin.
La moda no necesita ningn clculo, es directamente la puntuacin. Podemos encontrar
distribuciones bimodales, con dos puntuaciones de moda; plurimodales, con ms de dos
puntuaciones que tienen la misma frecuencia alta.

3) La MEDIANA es el valor de la distribucin que deja por encima y por debajo de si al 50% de los sujetos de
la muestra, es decir, el valor central de la distribucin de frecuencias.
Ordenadas las puntuaciones de menor a mayor, la puntuacin que ocupa la posicin central, esa es
la mediana. Coincide con el percentil 50.
Para calcular la mediana, observamos la columna de frecuencias acumuladas y comprobamos qu
puntuacin ocupa el lugar central (50%), es decir, buscamos N/2.
Cuando N sea par, no tenemos una puntuacin central, sino dos. En este caso, se recomienda hallar
la media aritmtica de las puntuaciones correspondientes a esa `posicin central. (ver tablas 5.1; 5.2
y 5.3 pgs. 98 y 99)
La es sensible a las puntuaciones extremas, pero no ocurre esto con la Md , ni con la Mo. Por ello,
la Md puede ser una medida preferible a la cuando las puntuaciones extremas pueden distorsionar
la verdadera tendencia central del grupo.
Cuando el nivel de medida sea ordinal, solo podremos utilizar la Md y la Mo. Con medidas
nominales, solo podemos utilizar la Mo (excepto en el caso de dicotmicas).



=


=


Medidas de variabilidad o dispersin
El ndice de tendencia central debe ir acompaado por un ndice de dispersin o variabilidad que indique en
qu grado las puntuaciones de los sujetos se dispersan o varan en torno a la .

1) la DESVIACIN MEDIA corresponde a una media aritmtica de las desviaciones de las puntuaciones
directas respecto de la . Si la DM es alta, significa que las puntuaciones estn alejadas o se desvan mucho
de su ; mientras que si es pequea, significa que las puntuaciones del grupo estn prximas a la .





2) La DESVIACIN TPICA es el ndice ms conocido y utilizado, representndose por s (estadstico) por
(parmetro). El mismo, pero elevado al cuadrado, recibe el nombre de VARIANZA (s )






Otras frmulas: sin agrupar los datos (en PD)





agrupados en distribucin de frecuencias (en PD)







Para un solo grupo, los valores de referencia son entre cero, s mnima; y el valor mximo, que
corresponde al valor de

2

Cuando la muestra es pequea (N 30) queremos estimar la , utilizamos el clculo del valor
insesgado. La debe ser mayor que s por lgica, pues al haber ms sujetos, habrn mayores
diferencias entre los sujetos.






3) La AMPLITUD o RECORRIDO de una variable se calcula como la diferencia entre la puntuacin mayor y la
menor, ms uno:



Esta medida se utiliza sobre todo para organizar los datos de una distribucin de frecuencias en
intervalos y realizar grficos.
Tambin nos sirve para interpretar el valor de la s. Cuando tenemos s = 2, en una A = 5, es una s muy
alta. Sin embargo, con s = 2 y A =100, entonces es una s muy pequea.
Xi fiXi Xi fiXi


DM =


s =

2

s =

2


S =

-
=


S =


2

s =

2
1

s =

2
1

A = (Xi)mayor (Xi)memor + 1
La A se utiliza como medida de dispersin solo cuando no se puede calcular otra como
complemento de la Mo, en niveles de medida nominales.

4) La DESVIACIN SEMI-INTERCUARTLICA, representada por Q
2
, indica la dispersin en el 50% central de la
distribucin.
Es adecuada cuando el nivel de medida es ordinal (coincidiendo con la Md)
Tambin es adecuada cuando existan puntuaciones extremas que pueden distorsionar en exceso la
S, puesto que en el valor de Q se prescinde del 25% inferior y del 25% superior, calculando el valor
del Q
50
entre los percentiles 25 y 75






5) Otro ndice de variabilidad es el CORFICIENTE DE VARIACIN (V), que nos permite comparar la
variabilidad entre variables que tienen distinta amplitud. Dado que dos S procedentes de instrumentos con
distinta A, diferente escala de medida no son directamente comparables, calculamos V en porcentajes:





A mayor valor de V, ms heterogneo es el grupo y ms variabilidad tienen sus medidas.

Media y desviacin tpica para variables dicotmicas
Como tienen solo dos valores, ceros para noes o respuestas incorrectas, y unos para ses o respuestas
correctas, la ser la proporcin de unos.
La indica la proporcin de sujetos que responden con 1 y se representa por p. Con N = 50 sujetos y
de ellos 30 responden que s, entonces : p = 30/50 = 0,6
La proporcin de noes ceros, ser (1-P), en este caso 0,4, y se representa por q. Entonces
Como la media nos indica el porcentaje de sujetos que contesta acertadamente a una pregunta de
examen, se denomina adems ndice de dificultad del tem.
La desviacin tpica es fcil de calcular:




Asimetra y apuntamiento: relacin con la curva normal
La asimetra y el apuntamiento son dos caractersticas relativas a la forma grfica de la distribucin de
frecuencias. El modelo de comparacin es la CURVA NORMAL, que carece de asimetra, es decir, es simtrica
o tiene un ndice de asimetra igual a cero.
ver fig. 5.1 pg.106
La asimetra positiva indica que la mayora de los sujetos se concentran en la parte baja de las
puntuaciones y que la cola de la distribucin se sita a la derecha. En general, podemos afirmar que
en estos casos, Mo Md
La asimetra negativa indica que los sujetos tienden a agruparse en torno a las puntuaciones altas de
la distribucin. En general, encontramos que Md Mo
El hablar de positiva negativa se debe al signo del clculo del ndice, denominado ndice de
Pearson:
Si As > 0 asimetra positiva
Si As < 0 asimetra negativa
Si As = 0 distribucin simtrica


Q
2
= Q
50
=

75
25
2
=

3
1
2

V =

100
p+q=1
S = .
S = .
As =


Otras frmulas:





El apuntamiento curtosis indica el grado en el que la distribucin es ms o menos picuda; o ms o menos
abierta o dispersa respecto a su media.
ms chata aplanada platicrtica g
2
< 0,263
ms apuntada y estrecha leptocrtica g
2
> 0,263
curva nornal mesocrtica g
2
= 0,263

ver fig. 5.2 pg. 108





Represetnaciones grficas
Ver pginas 108 a 114 (a.i.)


As =
3

As =
32 21
31

g
2
=
1

.

4

4
3
BLOQUE 2 TEMA 6
MEDIDAS INDIVIDUALES

La estadstica se encarga de estudiar el comportamiento de conjuntos de datos, ms que de datos
particulares de las puntuaciones que obtiene un sujeto determinado. Sin embargo, en el mbito educativo,
las puntuaciones individuales, las personas concretas, son el objetivo de nuestra labor.

Puntuaciones directas: problemas de interpretacin y transformaciones
Una puntuacin directa (Xi) es la puntuacin que obtiene un sujeto al realizar una prueba o aplicarle un
instrumento de medida. No son comparables de forma vlida dos Xi que provengan de instrumentos o
muestras diferentes. Para poder efectuar comparaciones estadsticamente vlidas, hemos de efectuar
transformaciones en las Xi.

Puntuaciones proporcionales y percentuales (p)
Una forma de comparar Xi en forma sencilla es transformarlas en una proporcin de respuestas correctas.




o bien en un porcentaje de respuestas correctas (la proporcin anterior multiplicada por 100). Ejemplo:
Prueba A Prueba B pA =
18
40
= 0,45 45%
Xi = 18 Xi = 18
n items = 40 n items = 20 P
B
=
18
20
= 0,9 90%

Puntuaciones diferenciales (x)
Es la puntuacin individual relativa a la del grupo de referencia. Para calcularla, simplemente se le resta a la
puntuacin directa del sujeto la del grupo al que pertenece.
Si Xi > x es positiva
Si Xi < x es negativa

Prueba A Prueba B x
A
= 18 23 = -5
= 23 = 9 x
B
= 18 9 = 9
Podemos comparar dos puntuaciones diferenciales que proceden de diferentes instrumentos de medida?.
La respuesta es NO, aunque s nos da informacin acerca de si la Xi se encuentra por encima o por debajo de
la . Necesitamos una puntuacin que nos permita situar un sujeto con respecto a su grupo de referencia y
hacer comparaciones con independencia de la amplitud del instrumento.

Las puntuaciones tpicas (z)
Indica el nmero de S que se desva una Xi de la .
Las dos propiedades ms importantes de las z son que la = 0 y que la S = 1
Las desviaciones tpicas son muy utilizadas porque nos permiten comparar cualquier puntuacin
entre s, independientemente del instrumento de medida de la amplitud de la escala utilizada.

Si Xi > z positiva
Si Xi < z negativa
en diferenciales
en directas
Prueba A Prueba B z
A
=
1823
5
= -1
= 23 = 9
S = 5 S = 3 z
B
=
189
3
= 3




=
z =


Las puntuaciones tpicas variarn dependiendo de que el grupo sea ms menos homogneo
heterogneo:
muy homogneo S muy pequea z mayor
muy heterogneo S muy grande z pequea

1er. grupo 2 grupo
= 5,5 = 5,5 z
1
=
75,5
0,4
= 3,75
S = 0,4 S = 2,5
z? z? z
2
=
75,5
2,5
= 0,6
Xi = 7 Xi = 7

Una de las utilidades ms importantes de las z, tanto en estadstica descriptiva como en inferencial, es la
correspondencia que hay entre puntuaciones y la curva normal. De esta forma, siempre podemos conocer
la probabilidad que existe de obtener determinada puntuacin.

Puntuaciones tipificadas o escalas derivadas (T) (S)
Consisten en transformaciones de las z, para as poder evitar tanto los decimales como los clculos
negativos.
(T) = a.z + b las dos ms usadas son (T = 10 z + 50) y (S = 2 z + 5)

Puntuaciones cuantiles (Q)
Un cuantil indica el porcentaje de sujetos que deja por debajo se s una puntuacin determinada. Las
puntuaciones ms utilizadas son los percentiles, que dividen una distribucin de frecuencias en 100 partes,
de modo que un percentil 85 corresponde a una Xi que deja por debajo de si al 85% de los sujetos de su
grupo.
P
75
= Q
3
P
50
= Q
2
= Md P
25
= Q
1


Los percentiles se usan para construir los baremos de los test estandarizados. Existen dos formas de obtener
los percentiles:
A) La forma ms sencilla es el procedimiento del clculo directo. Hallaremos los percentiles que
corresponden a cada uno de las Xi que obtienen los sujetos en el test, realizando la distribucin de
frecuencias y calculando la columna
.

. 100 ver tabla 6.1 pg. 120


B) cuando hemos de calcular percentiles que no aparecen en la distribucin de frecuencias, empleamos el
clculo indirecto clculo por interpolacin.





Cm percentil m que queremos calcular
Linf lmite inferior del intervalo en el que se encuentra el percentil m que buscamos
C valor numrico de m
N n total de sujetos casos (Xi)
fa(I-1) frecuencia acumulada del intervalo anterior inferior al que nos encontramos, en el que
se contiene el valor de m
fi frecuencia absoluta del intervalo que contiene el valor de m
a amplitud del intervalo

Con los datos de la tabla 6.1 pg. 120, si queremos averiguar el valor del P
25
, la frmula anterior queda de la
siguiente forma: el valor del 25% queda en el intervalo 2, que tomaremos como referencia:


T = S.z +
Cm = Linf +

100
(1)

.
P
25
= 1,5 +
25.1012
100
179
93
.1 = 1,5 +
253179
93
= 1,5 + 0,7956 = 2,29

si queremos calcular la Md = P
50
, tomaremos el intervalo 4:

P
50
= Md = 3,5 +
50.1012
100
379
128
.1 = 3,5 +
506379
128
= 3,5 + 0,99 = 4,49

Las puntuaciones individuales en la curva normal
La curva normal es una distribucin terica, simtrica y asinttica, en la que los puntos de inflexin
corresponden a las z = +1 y z = -1, y donde la = Md = Mo, y por tanto z = 0 en ese punto.
ver fig. 6.2 pg 123
La curva normal la utilizaremos con arreglo a los valores que nos proporcionan las tablas. Pueden
comprobarse los valores de la fig. 6.3 pg. 123 con los valores obtenidos en tablas en pg. 339.
Casos posibles:
1) qu probabilidad de aparicin tiene una z = 1,25?
tomaremos la columna B (rea mayor) p = 0,8944 89,44%
2) qu probabilidad de aparicin tiene una z > 1,25?
tomaremos la columna C (rea menor) p = 0,1056 10,56%
3) qu probabilidad tenemos de encontrar una puntuacin entre la media y una z = 1,25?
tomaremos la columna A (rea desde la ) p = 0,5 0,1056 = 0,3944 39,44%

En la curva normal, obtener una z >2 z <-2, est considerado como puntuacin extrema, ya que
corresponde al 5% de la poblacin. En porcentajes, entre las z de 1 encontramos al 64% de los sujetos;
entre las z 2 al 95%,; y entre las z 3 al 99,7%

Puntuaciones individuales normalizadas
Es la puntuacin individual que le corresponde a un sujeto si la distribucin de frecuencias original es la
distribucin normal. Es de aplicacin cuando en un test conocemos su y S, pero carecemos de los baremos.
Ejem.: qu puntuacin corresponde a una z?. Sabemos que se trata del percentil P
10
, con una = 100 y S =
15. Deja por debajo al 10 % de los sujetos, es decir, una proporcin del 0,01. Buscamos en pg. 342 el valor
de p = 0,01 en la columna C y encontramos que corresponde a una z = -2,33 (es negativa porque estamos
trabajando en la parte izquierda de la curva, por debajo de la ). Ahora aplicamos la frmula y despejamos:

-2.33 =
100
15
Xi = 65,05 P
10


Ejem.: a cuntos sujetos superara un alumno que obtiene una Xi = 65, si la muestra es de 150 sujetos?

z =
65100
15
= - 2,33
entrando en tablas con 2,33 y la columna C p = 0,01
entonces N. p = 150.0,01 = 1,5 2 sujetos

BLOQUE 2 TEMA 7
RELACIN ENTRE VARIABLES : CORRELACIN Y REGRESIN

En los procesos de investigacin en Educacin, en muchas ocasiones, nos interesa conocer la posible relacin
que puede manifestarse entre dos ms variables.

El concepto de correlacin
Kerlinger (1985) afirma que la esencia de la ciencia son las relaciones entre variables, que pueden ponerse
de manifiesto entre grupos, clases o conjuntos de objetos, pero que no cabe hablar de relaciones entre
variables midiendo solamente a un individuo.
Cuando conocemos la relacin entre variables, pueden llegar a formularse predicciones de los valores de
una a partir de la otra.
Las situaciones que pueden analizarse son varias:
estudiar la relacin entre dos ms variables dentro de un mismo grupo de sujetos.
con dos ms grupos comprobar la relacin entre ellos en una sola variable.
estudiar una misma variable medida en dos momentos diferentes en una misma muestra.

Una relacin simple entre dos series de datos se denomina correlacin entre dos variables. Nos indica la
tendencia entre dos ms conjuntos de datos a variar de forma conjunta. Tenemos varias posibilidades:
a) relacin perfecta positiva
cuando al aumentar los valores de una de las variables, los valores de la otra lo hacen en la misma
proporcin. Ver fig. 7.1 pg. 131. La correlacin se expresa como +1
b) relacin imperfecta positiva
se la conoce como relacin directa de variables. A valores elevados de una variable le corresponden
valores tambin altos de la otra; y a la inversa, los que puntan bajo coinciden en las dos variables.
Ver fig. 7.2 pg. 131. La correlacin se sita entre los valores 0 y +1
c) relacin perfecta negativa
se da una relacin inversa entre las variables, de tal forma que al aumentar los valores de una de
ellas, los de la otra disminuyen y lo hacen en la misma proporcin. Ver fig. 7.3 pg. 132. La
correlacin se expresa como -1
d) relacin imperfecta negativa
llamada relacin inversa entre variables, lo que supone que las puntuaciones altas en una variable se
corresponden con las bajas en la otra. Ver fig. 7.4 pg. 132. La correlacin se sita entre los valores 0
y -1
e) relacin nula o ausencia de relacin
se da cuando dos variables son independientes una de la otra. Puede afirmarse que las puntuaciones
de las dos variables se deben a factores aleatorios. La correlacin se expresa por 0.

El coeficiente de correlacin simple y su interpretacin
El valor del coeficiente nos marca el valor de la covariacin variacin conjunta de dos series de datos.
Puede indicar una relacin directa entre variables (valores positivos) inversa (valores negativos), por loq eu
su expresin se encuentra entre -1 y +1.
Cmo se interpreta un coeficiente de correlacin?. Teniendo en cuenta tres aspectos:
el tipo de variables que se relacionan: entre variables del mismo tipo, mayor correlacin.
la variabilidad del grupo: a mayor variabilidad entre los grupos y dentro de ellos, mayor ser la
correlacin. ante un coeficiente de 0,70, el obtenido en el grupo ms homogneo (menor
variabilidad) se identifica con una mayor intensidad de la correlacin.
la finalidad a la que se destina el coeficiente: si valoramos la fiabilidad de un instrumento de medida,
las correlaciones deben superar el 0,85; mientras que un coeficiente de 0,60 es suficiente si
valoramos la validez del instrumento.
Se aceptan las interpretaciones de la tabla 7.1 pg. 134.
Tambin podemos interpretarlo mediante el coeficiente de determinacin (d), que se interpreta como el
porcentaje de varianza de una variable explicada por la otra:




Si r
xy
= 0,70 d = (0,70)
2
. 100 = 49 49% de varianza explicada.

La eleccin de los diferentes coeficientes de correlacin depende de dos aspectos: el nivel de medida de las
variables y la categora de las mismas. As, tenemos:

INDICE NIVEL DE MEDIDA CATEGORAS DE LAS VARIABLES
Pearson rxy Intervalo Ambas continuas y normales
Coeficiente de contingencia C Nominal Atributos, en dos ms categoras
Spearman rs Ordinal Continuas, por rangos
Biserial rb Intervalo Una continua y la otra
dicotomizada
Biserial puntual rbp Intervalo Continua y dicotmica
Tetracrica rt Intervalo Ambas continuas y dicotomizadas
Phi Nominal Ambas dicotmicas por
atributos (dos nicas categoras)

El coeficiente de correlacin de Pearson (r
xy
)
Se utiliza cuando las dos variables que se relacionan son cuantitativas, medidas a nivel de intervalo, se
distribuyen normalmente y estn linealmente relacionadas.


tpicas



diferenciales




directas




directas


Para el clculo de estas frmulas se construye la siguiente tabla:

Sujetos Var X Var Y X Y XY X Y x y xy


Ver ejemplo en tabla 7.2 pg. 136

El coeficiente de correlacin de Spearman (rs)
En muchas de las variables que utilizamos frecuentemente en el campo educativo no es posible alcanzar
unos niveles de medida muy precisos. Es entonces cuando hemos de recurrir a emplear los puestos que
ocupan las puntuaciones en una serie ordenada.
En medidas ordinales hemos de recurrir a los rangos.
Para hacer la transformacin de las puntuaciones directas en rangos se siguen estos pasos:

=

2
100


=
.
.

=
.

2
.
2


=
.
.
2

2
. .
2

2

2
()
2
.
2
()
2

se asigna el rango 1 a la posicin ms alta, rango 2 a la siguiente en descenso, 3 a la siguiente, y as
hasta que el ltimo rango asignado coincida con N.
cuando tengamos ms de una puntuacin similar, el rango se calcula mediante la de las posiciones
que corresponderan a esos sujetos.
el criterio de asignacin de rangos empleado en una de las variables, debe ser el mismo que en la
otra, pues se trata de pares de puntuaciones que van asociadas y no son independientes.

n nmero de sujetos.
D diferencia de rangos posiciones
que ocupa un mismo sujeto en dos variables distintas.

Ver tablas 7.3 y 7.4 pgs. 138 y 139
Para el clculo se construye la siguiente tabla:

Sujetos Var X Var Y R(X) R(Y) D D


Coeficiwente de contingencia (C)
En el caso de variables de atributo nominales, es preferible utilizar la expresin grado de asociacin en vez
de grado de correlacin. Se utiliza en aquellos casos en que se recogen datos de variables clasificadas en
categoras, como ocurre con las tablas de contingencia, en las que se asignan sujetos a grupos y categoras en
cada una de las variables.
La frmula es : en la cual:



fo frecuencia observada que aparece en cada celdilla de la tabla
de contingencia.
fe frecuencia esperada terica que refleja el grado de asociacin.
Las fe pueden calcularse mediante la frmula siguiente:




Debemos comenzar por calcular el valor de fe en cada una de las celdillas de la tabla de contingencia.
Ver fig. 7.5 y 7.6 pg. 141 y 142.
Seguidamente procedemos a calcular , que representa el grado de discrepancia que se manifiesta entre las
frecuencias observadas empricas (fo) y las frecuencias esperadas aleatorias (fe).
Para finalizar, se calcula el valor de C. Ver ejemplo en pgs.. 141 y 142.
El coeficiente nunca alcanzar el valor de 1, y para su interpretacin se recurre al valor de Cmx., que solo es
vlido su clculo cuando las tablas de contingencia sean cuadradas, es decir, el mismo nmero de filas que de
columnas.
Como comprobacin, la fo y la fe dentro de la misma fila columna, deben ser iguales.

El coeficiente de correlacin biserial puntual (rbp)
Cuando buscamos el grado de relacin entre una variable cuantitativa y otra autnticamente dicotmica,
debemos recurrir al rbp. En realidad, es una extensin del coeficiente de correlacin de Pearson.







= 1
6
2

3


=

+

=

1

fe =

.
El numerador de ambas frmulas se toma en valores absolutos con el fin de evitar los valores negativos para
la correlacin. Generalmente, los datos de la variable continua suelen agruparse en intervalos de clase, tal y
como aparece en la tabla 7.7 pg. 144.
Hemos de realizar unos clculos previos:
de cada uno de los grupos y del total de sujetos.
St del conjunto de puntuaciones.
proporcin de cada uno de los grupos en relacin al total.
finalmente, completar la siguiente tabla:

Intervalo fp fq ft Xc Xcfp Xcfq Xcft Xcft


=

s =

2

()
Xc marca de clase del intervalo
p y q categoras de la variable dicotmica

La rbp se utiliza en el anlisis de los elementos de pruebas objetivas, especialmente en aquellos casos en que
la respuesta no admite nada ms que los valores de acierto error. En estos casos, el rbp es un ndice de la
homogeneidad de tal elemento tem con la puntuacin global de la prueba.

El corficiente phi ()
Se emplea cuando buscamos la existencia de relaciones entre dos variables dicotmicas, aunque de forma
excepcional puede utilizarse en variables dicotomizadas.
Una variable es dicotomizada cuando transformamos la variable continua a una escala de dos categoras,
siendo muy frecuentemente el punto de dicotomizacin, la Md. Ver tabla 7.9 pg. 145







Es la aplicacin a variables dicotmicas del coeficiente

de Pearson.
Su valor ser 1 (correlacin perfecta) cuando las frecuencias de las casillas de las diagonales positiva
negativa sean nulas. en los dems casos se estudia su valor comparndolo con el valor del mx., muy
importante como punto de referencia y de interpretacin:
donde:

frecuencia marginal mayor de las cuatro



1
frecuencia marginal complementaria de esa
misma variable

frecuencia marginal mayor de la otra variable



1
frecuencia marginal complementaria de la anterior

El valor hallado de no se puede interpretar como

, sino que hemos de referirlo al valor mximo
alcanzable con las frecuencias marginales que manejemos. Un ejemplo:

=
30 .4221 .5
63 .35 .51 .47
=
1155
2299
= 0,502

=
35
63
.
51
47
= 0,555 .1,085 = 0,776
X
p q
p A B A+B
Y q C D C+D
A+C B+D total
X
p q
p A 21 B 42 63
Y q C 30 D 5 35
51 47 98
=

+.+.+.+

1


Tambin puede calcularse si disponemos de la distribucin de frecuencias de las variables.
Veamos un ejemplo:






p
x
proporcin de 1 en X 5/12 = 0,4167
q
x
proporcin de 0 en Y 7/12 = 0,5833
p
y
proporcin de 1 en Y 6/12 = 0,50
q
y
proporcin de 0 en Y 1- p
y
= 0,50
p
xy
proporcin de 1 tanto en X como en Y 4/12 = 0,33


=
0,33 0,4167 .0,50
0,4167.0,5833.0,50.0,50
= 0,507

Agrupando datos, tendramos que:
=
220
5 .7 .6 .6
=
18
635
=
3
35
= 0,507


max
=
5
7
.
6
6
= 0,7142 = 0,845



Coeficiente de correlacin tetracrico (r
t
)
Se emplea en aquellos casos en que las dos variables son de tipo cuantitativo y continuo, pero nos interesa
dicotomizarlas, dividiendo las puntuaciones de cada variable en dos categoras y tomando como criterio de
categorizacin generalmente la Md.
Podemos entonces formalizar una tabla de contingencia de 2x2:

A + en X; - en Y
B + en X; + en Y
C - en X; - en Y
D - en X; + en Y

En el numerador siempre el producto de la diagonal de igual signo, y en el denominador siempre el producto
de la diagonal de signos distintos.
En aquellos casos que BC < AD, buscaremos en las tablas el valor de (AD/BC) y al coeficiente resultante le
pondremos un signo menos.
Tambin hay un procedimiento numrico para hallar el valor de este coeficiente. Viene dado por la frmula:




Ver ejemplo resuelto en pgs.. 146 y 147.


Sujeto
X
Sexo
H:1 // M:0
Y
Selectividad
Apto:1 //
No Apto:0
1 0 0
2 1 1
3 0 1
4 0 0
5 1 1
6 1 0
7 0 0
8 1 1
9 0 0
10 0 1
11 0 0
12 1 1
=5 =6
X
p q
p A 4 B 2 6
Y q C 1 D 5 6
5 7 12
Y
- +
- A B
X + C D

=


=
180 .
+


Coeficiente de relacin biserial (r
b
)
Se utiliza cuando se trata de establecer la relacin que existe entre una variable cuantitativa y otra
dicotomizada (una variable continua que ha sido dividida en dos categoras de forma artificial). La variable
continua se presenta en escala de intervalo.






siendo Y la ordenada en el punto z en que se establece el cambio de categora y que se obtiene de las tablas
con el valor de la proporcin de p (n
p
/n
t
)100
Hemos de realizar unos clculos previos:
de cada uno de los grupos y del total de sujetos
s
t
del total de puntuaciones
proporciones de las dos categoras de dicotomizacin (p y q)
valor de Y en tablas de la curva normal

Para efectuar los clculos, completamos la siguiente tabla:

Intervalo fp fq ft Xc Xcfp Xcfq Xcft Xcft


=

s =

2

()
Xc marca de clase del intervalo
p y q categoras de la variable dicotmica

Ver ejemplo 7.1 en pg 148
Tambin puede calcularse si disponemos de la distribucin de frecuencias sin agrupar en intervalos:






1
y
2
medias de X a las que se les asign un 1 y
un 0 respectivamente.
Sx desviacin tpica de las puntuaciones.



n
1
y n
0
nmero de 1 y de 0 en Y. Ntese que
(n
1
+ n
0
= n)
Y ordenada de la distribucin normal, en el punto
donde se encuentra el porcentaje (n
1
/n)100 del rea
bajo la curva.

Clculos previos:


Sujeto
X
Tiempo de
estudio
(en min.)
X
2

Y
Puntuaciones:
suficiente = 1
Insuficiente=0
1 20 400 1
2 25 625 0
3 30 900 1
4 16 256 0
5 10 100 0
6 40 1600 1
7 18 324 0
8 50 2500 1
9 43 1849 1
10 49 2401 1

.
.

1

0

1
.
0
. .
2

2
=


2

n
1
= 6
1
=

1
6
=
232
6
= 38,66

=
10955
10
30,10
2
= 189,49 = 13.76
n
o
= 4
0
=

0
4
=
69
4
= 17,25
n = 10 =

10
=
301
10
= 30,10

Para

100 60% de p, (q = 1- p = 40%), en tablas pg. 336, Y = 0,3867 (por aproximacin)


=
38,66 17,25
13,76
.
6 . 4
0,3867 .10 . 1000 10
= 1,555 .0,654 = 1,02

El coeficiente r
b
puede ser menor que -1 y mayor que +1, en cuyo caso las puntuaciones X no se distribuyen
normalmente o son fluctuaciones de muestreo cuando n es pequeo, como es nuestro caso del ejemplo.

La regresin lineal simple
La interpretacin de los coeficientes de correlacin se basa en la intensidad el grado de esa relacin,
desde valores prximos a 0 hasta los cercanos a 1, que indica la mayor intensidad.
Estos valores permiten conocer la varianza compartida, es decir, la parte de la variabilidad de una de ellas
explicada por la otra. Para su clculo se eleva el valor del coeficiente al cuadrado y se multiplica por 100,
obtenindose el llamado coeficiente de determinacin.
Mediante este coeficiente de determinacin podemos estimar los valores de una variable conociendo los
valores de la otra. es lo que conocemos como regresin lineal simple, cuya funcin principal nos permite la
prediccin.
Lo que pretendemos es predecir puntuaciones en una variable sin aplicar el instrumento de medida,
simplemente conociendo la relacin de esa variable con otra y de la que tenemos los resultados de
determinados sujetos.
Obtenemos as una relacin positiva y prcticamente lineal, conocida como la lnea de regresin y que se
emplea para llevar a cabo la prediccin estimacin de los valores de una variable Y (criterio) a partir del
conocimiento de los valores de la otra variable X (predictora) con la que sabemos que mantiene un buen
nivel de relacin.
Estas son las frmulas de la regresin lineal:




en directas en diferenciales

=



a
yx
a
xy


1 la que se pronostica; 2 la predictora

Y puntuacin directa pronosticada en el criterio
media de las puntuaciones en el criterio
media de las puntuaciones en el test
r
xy
coeficiente de validez
Sx y Sy desviaciones tpicas de las puntuaciones en el test y en el criterio, respectivamente
Xi puntuacin directa del sujeto en el test.

Y=


Y=

. +
BLOQUE 3 TEMA 8
APLICACIONES DE LA CORRELACIN: FIABILIDAD Y VALIDEZ

Estudiaremos a continuacin las caractersticas tcnicas de los instrumentos de medida: que sean fiables
(precisos en sus apreciaciones) y que sean vlidos (que sirvan para lo que realmente se disearon).

ESTUDIO DE LA FIABILIDAD
La fiabilidad constituye la principal caracterstica de los instrumentos de medida, por ese motivo la
estudiaremos primero, y despus atenderemos a los dems. Slo en el caso de las encuestas, la fiabilidad
aparece ligada ntimamente a la validez de los contenidos de la misma.
La fiabilidad de las medidas se identifica con la precisin. Un instrumento es fiable cuando mide algo con
precisin, independientemente de los que se est midiendo.
Ello nos lleva a tener que aceptar el error de medida. Una puntuacin observada (X) en un sujeto se puede
descomponer en dos partes: la correspondiente puntuacin verdadera (V) y el posible error cometido al
medir (E). X


_V +V
_Em +Em

Al campo de valores comprendido entre los valores de (X Em) y (X + Em), le denominaremos INTERVALO
DE CONFIANZA en el que se encontrar la puntuacin verdadera (V)
sistemticos caractersticas internas del instrumento. Afectan a todas las medidas.
errores
aleatorios obedecen al azar.
A medida que el error es ms pequeo, el intervalo es ms fiable. La fiabilidad la establecemos en tres
procedimientos:
* como estabilidad
* como equivalencia
* como consistencia interna

La fiabilidad como estabilidad
Conocida como el mtodo de la repeticin el TEST-RETEST.
Se busca la correlacin que existe entre las puntuaciones obtenidas por un mismo grupo de sujetos en dos
aplicaciones sucesivas de una misma prueba en dos momentos diferentes.
El tiempo entre aplicaciones es importante. Si transcurre poco tiempo, los sujetos pueden recordar las
respuestas anteriores (memoria); pero si transcurre mucho, pueden influir los efectos de la maduracin, la
prctica, la experiencia. Ver ejem. 8.1 pg. 153.
Notacin: mantendremos con el fin de evitar confusiones que: n es para el n de tems y N es para el n de
sujetos.
Cuando los datos proceden de una variable continua, y con nivel de medida de intervalo, por aplicar una
prueba objetiva precisa, podemos recurrir al coeficiente de Pearson:





Como ya es habitual, es necesario realizar unos clculos previos con ayuda de la tabla confeccionada al
efecto.

La fiabilidad como equivalencia
Denominada de FORMAS PARALELAS.
Consiste en aplicar dos pruebas diferentes pero que miden el mismo rasgo o caracterstica, de forma que
calculamos el coeficiente de correlacin entre ambas puntuaciones en cada sujeto.
Sujetos X Y
2

2
XY

=

2
.
2

2


Cuando el transcurso entre las aplicaciones supere los 20 das, podemos interpretar la fiabilidad como
equivalencia y tambin como estabilidad.
Generalmente, utilizaremos la frmula anterior de Pearson.
Ver ejem. 8.2 pg. 154

La fiabilidad como consistencia interna
Procedimiento conocido de las MITADES.
Dividimos la prueba en dos partes (mitades), eligiendo como criterio los tems pares e impares, bien la
primera mitad (de 0 al 50%) y la segunda mitad (de 51 al 100%).
Hallando la correlacin entre ambas partes estableceremos la consistencia interna del instrumento, si bien
en una prueba cuya longitud es la mitad.
Existen varios procedimientos para determinar la fiabilidad.
Ver ejem. 8.3 pg. 155 (comn para todos los procedimientos)
A. Procedimiento de Spearman-Brown
B. Procedimiento de Rulon
C. Procedimiento de Guttman
D. Procedimiento de Kuder-Richardson
E. Procedimiento alfa () de Crombach

(A).- Procedimiento de Spearman-Brown
Empleamos el ya conocido coeficiente de Pearson entre las mitades, pero hemos de corregirlo para el test
total mediante la frmula siguiente, y obtendremos la fiabilidad de la prueba en su conjunto.




los subndices son iguales pues se trata de una correlacin interna, entre dos partes de una misma prueba.
El coeficiente de Pearson entre pares e impares, queda como sigue





Ver ejem. en la pg. 157

(B).- Procedimiento de Rulon
Est basado en la varianza de las diferencias; es decir, en la relacin entre la varianza total del instrumento y
la existente entre ambas mitades.
Si las diferencias entre las puntuaciones de dos sujetos en las mitades aumenta, menor ser el valor del
coeficiente, tal y como se expresa en la frmula




Clculos previos; las varianzas de las diferencias y la total. Cuando nos encontremos con muestras pequeas
(N 30), deberemos dividir los clculos por (N-1). Frmulas:








=
2.

1 +

2

2
.
2

2

= 1

2
=

2
+

2
2.

2
=

2
+

2
+ 2.

2
=

2
=

1

Sujetos P i p-i

2

T = (Xp + Xi) en cada sujeto
Ver ejem. en la pg. 157

(C).- Procedimiento de Guttman
Est basado en la varianza de las mitades, de forma que a menor valor de la varianza, ms elevada ser la
fiabilidad de la prueba.








Ver ejem. en la pg. 158

(D).- Procedimiento de Kuder-Richarson
Partimos de las correlaciones de cada tem con todos los dems, pues se divide la prueba en tantas partes
como elementos tenga. Tomamos entonces las intercorrelaciones entre todos los elementos como una
medida de la fiabilidad.
Existen muchas frmulas para su clculo, pero nosotros nos quedamos con la n 20 de K-R, que se aplica a
elementos dicotmicos:




donde: n n de elementos de que consta la prueba
p proporcin de sujetos que aciertan =

=
1
(media de aciertos en cada tem)
q 1-p (los valores de p y q han de hallarse para cada tem, pues necesitamos el valor de pq)
Ver ejem. 8.4 pg. 159

(E).- Procedimiento alfa () de Crombach
Este procedimiento es muy utilizado cuando recurrimos al cuestionario como instrumento de medida.





donde: n n de elementos de la prueba o tems

2
varianza de cada uno de los tems

2
=
1
2
+
2
2
+ . +

2
varianza de las puntuaciones totales de la prueba

2
=


2
=

2

La fiabilidad de un cuestionario est relacionada directamente con el n de tems del mismo, de forma que a
mayor cantidad de tems, mayor fiabilidad.
Cuadro general para la eleccin del coeficiente de fiabilidad de consistencia interna:
n par y variable cuantitativa 2 mitades Rulon Guttman
n impar y variable continua
n docotmicos K-R20


Sujetos P I
2

2
p.i d
2
T
2

=N

= 2 1

2
+

2
=

2
=

1
.

2
=

1
. 1

2

=

1
. 1

2

Fiabilidad y longitud de las pruebas
De la ecuacin general de Spearman-Brown:
1) conociendo n y , , cmo repercutira en la prueba el aumento de 10 nuevos tems paralelos a los
originales?. n de tems finales
siendo n = ----------------------------
n de tems iniciales

nueva fiabilidad alcanzada


En general, cuando:
n disminuye

<


n aumenta

>


n = 1


Ver ejem. en la pg. 160.

2) conociendo n;

, cuntos elementos sera necesario aadir a la prueba original?



no se redondea, se arrastra hasta el final
si n es (-), el

es imposible de alcanzar


(redondeando al entero superior).
Ver ejem. en pg. 160

Lmites para la puntuacin verdadera de un sujeto
Un sujeto en dos aplicaciones sucesivas de la misma prueba, es muy difcil que obtenga el mismo resultado.
Como ya vimos que la puntuacin observada (X) es la puntuacin verdadera (V) afectada por el error de
medida (E), recurrimos al INTERVALO DE CONFIANZA entre cuyos lmites se encontrar V a un cierto nivel
de confianza.
Ver ejem. 8.5 pg. 161 X


_V +V
_Em +Em

puntuacin verdadera error tpico de medida


puntuacin observada nivel de confianza








El valor de
2

se encuentra en las tablas de z. Ejemplo, si el nivel de confianza es al 99%, entonces = 0,01


/2 = 0,005
1-/2 = 0,995 en tablas, pg. 342 z = 2,575





Ver ejem. 8.5 pg. 161

=
.

1 + 1


n =

.1

.1


n tems finales = n . n tems iniciales
=

=
0

2

. 1

2
=

2
+

2
=

2
. 1

0

2
.


0
+
1 2
.

0
2,575.


0
+ 2,575.


Comparacin de las puntuaciones de dos sujetos en la misma prueba
Tratamos de comprobar si una diferencia emprica de puntuaciones de dos sujetos a los que se les ha
aplicado una misma prueba, es una diferencia real aleatoria.
A la proporcin entre esas diferencias y el error de medida asociado a las diferencias, se le conoce como
razn crtica (RC).
Si valor RC > valor de tablas al nivel de confianza (%) SI hay diferencias reales
Si valor RC valor de tablas las diferencias son efecto del azar

Ver ejem. 8.6 pg. 162


Ejemplo: si el nivel de confianza es del 95%, tenemos que = 0,05
/2 = 0,025
1-/2 = 0,975 en tablas, pg. 341 z = 1,96
comparamos ahora el valor de RC con el valor del intervalo con 1.96. Si RC cae dentro del intervalo (-1,96
RC + 1,96), las diferencias son debidas al azar.

ESTUDIO DE LA VALIDEZ
Un instrumento es vlido cuando mide lo que dice medir y no otra cosa distinta. Tenemos distintos tipos de
validez.

Validez de contenido
Debemos comprobar la suficiencia y representatividad de los tems que componen la prueba.
Suficiencia n mnimo de elementos que debe incluir el instrumento y que comprenden todos los
aspectos esenciales del tema a estudio.
Representatividad definir cada tem con claridad y precisin, procediendo a la seleccin de los tems.
Proceso de validacin elaboracin de una tabla de especificaciones, realizada por varios expertos,
que ser sometida a estudio y crtica.

Los procedimientos para calcularlas son las tablas de especificaciones y las opiniones de expertos y jueces
con un buen conocimiento del tema.

Validez predictiva
Pretendemos establecer predicciones sobre la variable que se mide. Es decir, qu capacidad tiene la prueba
para hacer expectativas de aparicin de sucesos futuros.
Para su clculo se establece la correlacin entre las puntuaciones alcanzadas en la prueba a validar (Xi) y las
obtenidas en otra prueba denominada criterio (Y). Segn sean las caractersticas de las variables y su nivel de
medida, recurriremos al coeficiente de correlacin de Pearson:




Ver ejem. 8.7 pg. 164

Validez concurrente
Es una modalidad de la predictiva. La diferencia aqu estriba en que las mediciones de la prueba a validar (Xi)
y las del criterio (Y), se realizan al mismo tiempo y que los resultados permiten pronsticos a corto plazo, de
utilizacin inmediata. El clculo es el mismo.

Validez de constructo
Tambin denominada de elaboracin de construccin. Es la ms compleja y la que requiere en su
determinacin de procedimientos ms complicados. Fox (1987) nos dice que la validez de constructo es la
capacidad que tiene el instrumento para distinguir entre aquellos grupos cuyo comportamiento difiere en
relacin a la variable estudiada.

Sujetos X Y X Y XY

RC =

. .

. .
=

. 1

. 2

2
.
2

2


Validez aparente
Tambin recibe la denominacin de validez didctica, y se refiere a la serie de aspectos externos de la
prueba. Por ejemplo:
un instrumento muy largo puede provocar rechazo o fatiga, y no reflejar opiniones y valoraciones
reales.
si el formato es ms o menos atractivo, puede motivar a la persona que responde.
el lenguaje ha de ser adecuado a la edad y cultura de las personas que responden.
las instrucciones para las respuestas deben ser claras y fciles de aplicar.
etc.

Algunos coeficientes relacionados con la validez

(A).- Coeficiente de determinacin (d)
Es el coeficiente de validez elevado al cuadrado
Nos indica la proporcin de la varianza del criterio que se explica a partir de la prueba. Si se multiplica por
100, se transforma en porcentaje.

(B).- Coeficiente de alienacin (K)
Nos indica la proporcin de la varianza del criterio que es ajena o extraa a la prueba. Multiplicado por 100,
expresa el porcentaje del azar que queda cuando se predice Y a partir de X.

(C).- Coeficiente de valor predictivo (E)
Nos indica el grado de seguridad que tenemos en la prediccin y si se multiplica por 100, nos indica el
porcentaje de seguridad al predecir las puntuaciones de Y a partir de las puntuaciones de X.

Validez y longitud de la prueba
Al igual que aconteca con la fiabilidad, tambin la longitud de la prueba repercute sobre los valores de la
validez. La frmula es:

nueva validez validez final


validez original inicial


coeficiente de fiabilidad
n =


=
1


Ver ejem. 8.8 y 8.9 pg. 168

Prediccin de puntuaciones
Dado que el coeficiente de validez entre las variables oscila entre 0 y 1, cuando r
xy
= 0, cualquier
prediccin que se realice sobre Y a partir de X ( viceversa), ser totalmente aleatoria. Cuando r
xy
= 1, una de
las variables ser funcin de la otra.
En la mayora de los casos restantes, que es lo ms comn, realizaremos la prediccin del criterio a partir de
la prueba con unas mayores garantas de precisin a medida que vaya en aumento el valor de r
xy.

Como ya vimos, la puntuacin predicha (Y) no podemos asegurar que sea exacta y precisa, pues siempre
encontraremos diferencia entre los valores de Y (estimados) y los de Y (verdaderos), que llamamos error de
estimacin. La desviacin tpica de los errores de estimacin, recibe el nombre de error tpico de estimacin
(
est
).
Repasemos las ecuaciones de regresin simple de la variable Y sobre la X:
A) puntuaciones directas





x en diferenciales

d =

2

K = 1

2

E = 1 - K


Y=

. +

+
B) puntuaciones diferenciales
(Xi - )


(Yi )
C) puntuaciones tpicas



Ver ejem. 8.10 pg. 170.
Para todas las frmulas en directas y diferenciales

; en el caso de las puntuaciones


tpicas,

. Los intervalos de confianza quedan como sigue:



a) puntuaciones directas
2
.


b) puntuaciones diferenciales y
2
.


c) puntuaciones tpicas


2
.



Ver ejemplo en pgs.. 170 y 171


ESTUDIO DE LOS ELEMENTOS DE UNA PRUEBA
Hay que realizar un examen minucioso de todos los elementos que constituyen la prueba. As se podrn
eliminar aquellos que no posean el mnimo grado de calidad o aadir otros que si cumplan los requisitos
establecidos. Veremos tres ndices:

(A).- ndice de dificultad (ID)
Se expresa numricamente por el numero de sujetos que resuelven satisfactoriamente un determinado
elemento. Si solo lo contestan bien unos pocos, el elemento es difcil; si prcticamente todos lo resuelven
acertadamente, el elemento es muy fcil.
Una prueba que se considere bien construida emplear;

Muy fciles 10% 0,75 < ID
Fciles 20% 0,55 < ID < 0,74
Normales (medios) 40% 0,45 < ID < 0,54
Difciles 20% 0,25 < ID < 0,44
Muy difciles 10% ID < 0,24

El ID de un elemento nos indica la proporcin de los sujetos que lo resuelven de forma correcta en relacin
con el total de los que lo contestan. Dos casos:
1. cuando se evoca una respuesta y los errores no penalizan.
A n de sujetos que aciertan el tem
n n de sujetos que lo contestan
2. entre varias opciones elegir la correcta y penalizan los errores.
correccin por respuesta al azar =

1
; en la que A es el n de
tems acertados; E es el n de tems fallados errores, y na es el n de alternativas
de respuesta que se ofrecen. El ndice queda entonces:




Ver ejem. 8.11 pg. 173.
Y= y+
y=

. x


ID =


ID =


(B).- ndice de homogeneidad (IH)
Indica la coherencia de cada uno de los elementos con el total de la prueba. Cada elemento debe medir lo
mismo que mide la prueba en su conjunto.
Para calcularlo hallamos la correlacin de cada elemento con todos los dems. A mayor correlacin, mayor
ser la homogeneidad. Se dan diferentes casos:
1. tems dicotmicos correlacin biserial-puntual (

)
2. una variable continua y la otra dicotomizada correlacin biserial (

)
3. dos variables dicotomizadas correlacin tetracrica (

)

pero sea el caso que sea, siempre debemos corregir el valor de ndice mediante la frmula


correlacin entre el tem y el total


S de las puntuaciones en la prueba



Ver ejem. 8.12 pg. 174

(C).- ndice de validez (IV)
Los elementos de la prueba se consideran vlidos cuando miden lo que dicen medir y no otra cosa. Debe
existir entonces una relacin clara entre las puntuaciones que se obtienen en la prueba y las que se obtienen
en el criterio. cuanto mayor sea esta relacin, mayor ser el IV.
El ndice depende del coeficiente de correlacin ms adecuado a cada caso segn las condiciones de uso de
cada prueba. No es necesario corregirlo.
Ver ejem. 8.13 pg. 175.

IH =

2
+

2
2.


BLOQUE 3 TEMA 9
MODELOS ESTADSTICOS Y PROBABILIDAD. LA CURVA NORMAL

Los modelos nos van a permitir comprender la realidad, acercarnos a su explicacin, e incluso, tomar
decisiones en el campo de la prueba de hiptesis.
Un modelo es un esquema terico, generalmente en forma matemtica de un sistema o una
realidad compleja, que se elabora para facilitar su comprensin y el estudio de su comportamiento.
Los modelos pueden surgir de las teoras, pero tambin puede darse el caso de modelos elaborados a
partir de datos observados. Sea un caso el otro, el modelo basado en la teora debe funcionar bien en la
realidad, y el modelo surgido de la realidad debe encontrar una teora que lo respalde.
Entre realidad y modelo debe existir una ntima relacin y no cabe pensar en una sin tener en
cuenta el otro. Un modelo que no explique con razonable adecuacin la realidad, no nos sirve. Una realidad
para la que no somos capaces de encontrar un modelo que la represente con fidelidad, nos hace muy difciles
tanto su comprensin como la toma de decisiones en torno a la misma.
El modelo, finalmente, ha de ser til, derivando de una propiedad de la teora, que es la
comprobabilidad. Si la teora es correcta, se podr contrastar con la realidad.

RPRESENTACIN DE LOS MODELOS
El modelo es la representacin simplificada de la realidad. A su vez, el modelo puede representarse
de varias formas:
^ representacin icnica una escultura, un cuadro, etc.
^ representacin matemtica mediante frmulas se establece una igualdad ms o menos compleja.
^ representacin analgica con esquemas, diagramas, etc., podemos entender la realidad abstracta
y muchas veces solo observable mediante el uso de aparatos complejos. Por ejem.: el sistema solar,
el tomo.

Efectuar predicciones de futuro acerca de la conducta humana es complicado. Si somos capaces de
establecer modelos suficientemente cercanos a la realidad, podremos hacer este tipo de predicciones, tales
como el porcentaje de suspensos, o de nios violentos, o de hiperactivos, etc.

Modelos matemticos y modelos estadsticos
Un modelo estadstico es un tipo de modelo matemtico en el que se incorpora como componente
fundamental la probabilidad.
Los modelos matemticos se expresan mediante igualdades que reflejan la relacin existente entre
los componentes de la realidad. La funcin es un modelo matemtico. Un modelo matemtico clave en
nuestro campo es la campana de Gauss, tambin conocida como distribucin normal tipificada.





Los valores de cualquier ordenada pueden calcularse para cada distribucin emprica de N datos,
conociendo el valor de su y de la y la o de la poblacin.
Toda prediccin asume un cierto riesgo de error, error que consideraremos aleatorio. Los errores
aleatorios tienden a compensarse y su magnitud puede estimarse. Como podemos imaginar, nuestro inters
consiste en reducir a su mnima expresin este error, siendo la meta a alcanzar que e = 0. La expresin, ya
vista, X = V E, se conoce como Modelo Lineal Clsico.

PROBABILIDAD
El principio bsico de las pruebas estadsticas de significacin consiste en comparar los resultados
obtenidos con los esperados por azar. Cuando los resultados de una prueba estadstica superan a lo
esperado por puro azar, se aceptar que el fenmeno en cuestin no se explica por el azar sino por la accin
del investigador, sometida a contraste en condiciones controladas y analizada mediante tal prueba.
Diferenciamos entre dos conceptos de probabilidad:

=
1
2
.
1
2
.

2
=
1
2
.
1
2
.
2

+ probabilidad a priori antes de que ocurra un fenmeno podemos estimar las probabilidades de
que ocurra de acertar una prediccin.
+ probabilidad a posteriori cuando los fenmenos ya han ocurrido, podemos establecer la
probabilidad de ocurrencia de tal fenmeno. Esta probabilidad se calcula empricamente
y se traduce en la frecuencia relativa con la que ocurre tal fenmeno cuando se repite un
elevado nmero de veces en las mismas condiciones.

Probabilidad a priori y a posteriori
La probabilidad a priori se establece sobre la base del n de casos favorables dividido por el n de
casos posibles, y constituye la base de la probabilidad matemtica, de la probabilidad en trminos tericos.
En el caso de la probabilidad a posteriori, cuando estudios reiterados vienen a arrojar resultados
compatibles, es posible establecer la realizacin de estimaciones sobre la probabilidad de que, en ocasiones
sucesivas, ocurra un determinado acontecimiento.

Clculo de la probabilidad. Definiciones

ESPACIO MUESTRAL es el conjunto de todos los resultados posibles de un fenmeno. Cuando dos
conjuntos, A y B, no tienen elementos en comn, decimos que A B = C; y se lee A interseccin con B, es
igual al conjunto vaco. Entonces:


Pero esto no es lo normal, pues se da con bastante frecuencia que dos ms conjuntos tengan elementos
en comn y entonces decimos que A B C, luego


El fenmeno de la EXHAUSTIVIDAD AGOTAMIENTO se produce cuando los diferentes subconjuntos que
puedan crearse, son subconjuntos del espacio muestral y todos ellos juntos lo agotan, lo completan
plenamente.
Hablamos de MUTUA EXCLUSIN cuando dos acontecimientos distintos no tienen ningn elemento en
comn, es decir, su interseccin es el C. Como en tal caso A B = C, las probabilidades de cada subconjunto
pueden sumarse.
LA INDEPENDENCIA supone que la probabilidad de que ocurra el fenmeno conjunto, es igual al producto de
las probabilidades de cada uno por separado. Entonces:

Esta es una de las condiciones o supuestos que se han de verificar para la aplicacin de las pruebas
denominadas paramtricas en el contraste de hiptesis.
Concepto de PROBABILIDAD CONDICIONAL.
En nuestro mbito de trabajo es bastante frecuente encontrarnos con fenmenos relacionados, es decir, que
no son independientes. Como en este caso, A B C, la probabilidad condicional nos sita ante un caso en
el que deseamos conocer la probabilidad de un determinado acontecimiento suceso cuando la
probabilidad del otro es conocida.




Variables aleatorias continuas y discretas
Una variable cuantitativa es discreta cuando no puede adquirir todos los valores posibles, es decir,
cuando el conjunto de sus valores es numerable.
Una variable cuantitativa es continua cuando admite un nmero no numerable de casos o valores.
ver ejem. en pg. 186.

Si realizamos grficos de histogramas, disminuyendo progresivamente la base de cada barra, como se aprecia
en la fig. 9.1, pg. 187, llegaramos a una curva que unira los infinitos puntos posibles de esa distribucin.
Esas sucesivas representaciones grficas nos permiten desvelar dos valores de la probabilidad: la funcin de
densidad de probabilidad, y la funcin de distribucin. Tienen estas caractersticas:
P(A B) = P(A) + P(B)
P(A B) = P(A) + P(B) P(A B)
P(A B) = P(A) . P(B)
=
( )
()

- el rea ocupada por ambas representaciones tiene como valor la unidad.
- en todos los casos, las representaciones tienen siempre valores positivos.
- en las representaciones de histogramas de barras, y sea cual sea su base, el eje de abscisas
representa una variable aleatoria discreta.
- en las representaciones de histogramas sin barras, cuando la base son puntos y la representacin es
una curva, estamos ante una variable aleatoria continua.

En el caso de las variables aleatorias discretas, el rea que queda entre dos valores A y b, nos indica la
PROPORCIN de casos del total que se encuentran entre esos valores. En el caso de variables cuantitativas
continuas, indica la PROBABILIDAD de que tal variable tome esos valores.

ALGUNAS FUNCIONES DE DENSIDAD DEPROBABILIDAD

Funcin de densidad de probabilidad normal
La ms frecuentemente utilizada por nosotros es la denominada normal, conocida como campana de
Gauss. Ver fig. 9.2 pg. 189 para una representacin de la curva. Algunas de sus caractersticas ms
importantes:
porcentaje de casos entre dos valores de o (desviacin tpica poblacional):
o o 68% 2o 95% 4,5o 99,99932%
o estos valores en porcentajes se convierten en probabilidades dividiendo por 100; es decir, el
conjunto de los casos situados entre o tiene una probabilidad de ocurrencia de 0,68
mediante la tabla de reas de la curva normal, podemos atribuir probabilidades a un caso concreto,
en sus diversas columnas.

Funcin de densidad de probabilidad
Las variables aleatorias a las que se les aplica se distribuyen segn con n-1 grados de libertad (u), esto es,
el n de casos menos 1, puesto que mientras los primeros casos pueden variar libremente, el ltimo viene
condicionado por todos los anteriores.
Segn aumenta el n de los grados de libertad, la distribucin se aproxima progresivamente a la
distribucin normal (ver fig. 9.3 pg. 190). De hecho, las tablas de nos ofrecen valores de probabilidad
hasta 30 gl. A partir de ah, la distribucin sigue con un valor de:


con = 0 y S = 1

La importancia de esta distribucin radica en sus aplicaciones:
^ como prueba de bondad de ajuste
^ como prueba de independencia
^ como prueba del grado de asociacin entre dos conjuntos de variables de atributo, para calcular el
coeficiente de contingencia C:




Funcin de densidad de probabilidad t
La distribucin de probabilidad t se conoce como t de Student. Si tenemos Y y Z, dos variables aleatorias
independientes, Y con una distribucin con n gl., y Z con una distribucin normal (o,1), definimos la
distribucin
Cuando aumentan los gl., la distribucin se aproxima progresivamente a la
campana de Gauss (ver fig. 9.4 pg. 191).
Esta distribucin se utiliza frecuentemente en pruebas de contraste de
hiptesis para decidir si la diferencia de medias es o no es
estadsticamente significativa, a un determinado nivel de confianza.
= 2 2 1
=

+

t =


Cuando las muestras son correlacionadas, la distribucin t no sigue el estadstico de contraste aplicado en
las muestras independientes. Dos muestras son correlacionadas cuando se forman parejas de sujetos, uno de
cada muestra, que gozan de cierta caracterstica comn o similar.

Funcin de densidad de probabilidad F
Denominada F de Fisher, esta funcin de probabilidad, junto con la anterior t, son de las ms utilizadas en el
mbito del contraste de hiptesis.

F puede aplicarse adems a contrastes con tres o ms pares de medias en diseos de tres o ms grupos. Se
aplica fundamentalmente en el anlisis de varianza (ANAVA).
F nos indica si se dan o no diferencias estadsticamente significativas entre varios grupos de medias. En caso
afirmativo, es preciso averiguar entre qu dos pares de medias se concreta tal diferencia, por lo que se hace
necesario la continuacin del trabajo con las denominadas pruebas a posteriori.
La distribucin F se define como la razn entre dos distribuciones independientes, dividida cada una de
ellas entre sus respectivos gl.

Si las dos varianzas poblacionales son iguales, la frmula se reduce a:




Las tablas nos ofrecen los valores de probabilidad que corresponden a diversos gl del numerador (varianza
INTERgrupos en la ANAVA) y del denominador (varianza INTRAgrupos en la ANAVA). La distribucin F es no
negativa, sesgada hacia la derecha y sus valores oscilan entre 0 e , siendo asinttica al eje de abscisas.

LA CURVA NORMAL DE PROBABILIDADES
En ciencia no es aconsejable hacer apreciaciones subjetivas acerca del grado de acercamiento o
parecido entre el modelo y la realidad. Conviene que las apreciaciones sean precisas y para ello tenemos la
prueba de bondad de ajuste.
Si los datos empricos se ajustan razonablemente al modelo, es decir, si las discrepancias son
compatibles con las esperadas por puro azar, consideraremos estos datos como normales, y les aplicaremos
todas las propiedades del modelo. En caso contrario, no podemos afirmar que el modelo sea idneo.

Sobre el modelo
No hay una nica curva normal, sino una por cada par de valores de y de S. Todas ellas cumplen las
siguientes caractersticas (ver fig. 9.2 pg. 198):
el valor mximo de la ordenada corresponde a la , y por tanto, a una z = 0
a ambos lados de la , se encuentran dos puntos de inflexin que se corresponden con los valores de
z 1
la curva es simtrica respecto a la , puesto que = Md = Mo. La ordenada de la divide a la curva
en dos partes iguales, cada una con el 50% de los casos
la curva es asinttica al eje de abscisas, por lo que nunca se llega a abarcar el 100% de los casos.

La prueba de bondad de ajuste
Pretendemos poder afirmar que una distribucin dada se desarrolla normalmente, o que sus datos se
distribuyen normalmente, siguiendo el modelo de la normal (0,1).
Para ello se acude a las pruebas de bondad de ajuste. Nosotros utilizaremos la de
Esta prueba valora las discrepancias entre los valores de las frecuencias empricas y las tericas. Si
estas discrepancias no fueran significativas a un determinado nivel de confianza, admitiramos que los datos
empricos y el modelo son una misma cosa (aceptamos Ho). Admitiramos que las discrepancias encontradas
pueden explicarse por puro azar como consecuencia de errores de muestreo.

Se distribuye segn con:
* gl = n de columnas -1 (si y o son conocidas)
* gl = n de columnas -3 (si y o son estimadas)
F = t
=

1
2

2
2


F =

1
2

2
2

=



Ver tabla 9.2 pg. 197


Xi fo Lsup Zi P(Zi) Pi fe (fo-fe) (fo-fe)




Xi puntuaciones directas obtenidas por el alumno
fo frecuencias observadas
Lsup lmite superior de cada intervalo
Zi las puntuaciones tpicas de tales lmites.
(Necesitamos calcular previamente los valores de y de S)
P(Zi) probabilidades que corresponden a esas Zi (columna B en las tablas)
Pi probabilidad de cada intervalo, que se calcula restando de su valor P(Zi), el valor que
corresponde al intervalo anterior.
fe frecuencias esperadas o tericas. Para su clculo:
* hallamos la columna P(Zi)
* hallamos la columna Pi
* hallamos la columna fe Pi . N

Calculado el valor de empricamente, lo comprobamos con el valor de las tablas, para un nivel de
confianza y (n-1) gl.

Si valor de tablas acepto Ho no hay diferencias significativas entre las distribuciones
el ajuste es bueno
Si > valor de tablas acepto H1 si hay diferencias significativas entre las distribuciones
no hay ajuste.


BLOQUE 3 TEMA 10
LOS BAREMOS O NORMAS. MUESTREO. APLICACIONES.
Para interpretar una puntuacin necesitamos de algn tipo de referencia. En Educacin es frecuente
acudir a alguna de estas tres:
* La idiosincrsica o personalizada la puntuacin alcanzada por una persona en una prueba, se
valora atendiendo bien a la puntuacin que alcanz en una prueba anterior, apreciando si
aumenta, se mantiene o disminuye; o bien estableciendo previamente un nivel adecuado a
sus caractersticas.
El juicio de la comparacin suele ser de satisfactorio / insatisfactorio
* La criterial la referencia es un nivel objetivo, previamente fijado por las personas competentes
como deseable o adecuado para decidir sobre la suficiencia / insuficiencia.
Se conoce como un dominio perfectamente definido y quienes lo alcanzan obtienen una
valoracin de suficiente, frente a la insuficiencia de quienes no llegan.
En el mbito del aprendizaje, esta es la referencia ms adecuada.
* La normativa Para la medida de muchas variables, especialmente en el mbito de la inteligencia
o de la personalidad, ni es fcil ni posible en ocasiones el fijar unos estndares, ni podemos
decidir qu o cunto es lo propio de cada persona, ni resulta factible establecer unas
puntuaciones como las que debieran ser alcanzadas.
Esta es una referencia relativa, ya que, dependiendo del grupo en que uno est integrado,
una misma puntuacin puede ser ms `positiva o favorable en unos casos que en otros.
Esta regla para medir e interpretar las puntuaciones, se conoce como baremo o norma.

NORMAS O BAREMOS
Baremar es construir un baremo; esto es, una escala de puntuaciones obtenidas con un instrumento
de medida que permite su interpretacin, mediante la atribucin a cada una de ellas de un determinado
valor.
Hay unos elementos que deben ser conocidos para interpretar una puntuacin:
el suelo y el techo de las puntuaciones posibles
la regla de medida
el propio contenido del citado instrumento
a quienes va destinado el instrumento.

Cualidades de los baremos o normas
La construccin de un baremo de calidad depende de la muestra utilizada para servir de referencia.
Los valores seleccionados en la muestra no pueden ser valores cualesquiera, sino valores representativos del
grupo a que pertenecen los sujetos cuyas puntuaciones deseamos interpretar.
La cuestin clave para la representatividad reside en que la muestra sea una especie de fotografa del
conjunto de la poblacin. La muestra de referencia, la que se toma como norma o baremo para la
interpretacin debe acercarse cuanto sea posible a las caractersticas ms relevantes de la poblacin de la
que ha sido extrada.
Para alcanzar la representatividad de una muestra es preciso tomar dos decisiones clave:
fijar el tamao de la misma, de forma que sea suficiente para que puedan manifestarse las
caractersticas que definen a la poblacin (con muestras pequeas esto no es posible)
utilizar un procedimiento de seleccin imparcial, que evite todo tipo de sesgos.

Procedimiento de seleccin: aleatoriedad
Aunque existan varios procedimientos de seleccin de los componentes de una muestra, el que
ofrece mayores garantas a priori es el muestreo aleatorio simple, cuya ventaja fundamental es que permite
establecer la magnitud de los errores muestrales, con lo que es posible conocer mediante el intervalo de
confianza deseado, los lmites entre los que se encuentra el valor de la poblacin.





As pues, tamao suficiente y seleccin aleatoria, son las dos condiciones
fundamentales para construir una norma o baremo, para la interpretacin de
las puntuaciones obtenidas en un instrumento de medida.

Construccin de los baremos o normas
Normas cronolgicas o de edad
Uno de los primeros tipos de normas utilizados fue el de las cronolgicas o de edad.
El ejemplo ms conocido es la denominada Edad Mental (EM). La puntuacin media de los sujetos de cada
edad, se convierte en representativa de la misma y en adelante, las puntuaciones de cualquier sujeto, tenga
la Edad Cronolgica (EC) que tenga, se comparan con las del baremo o norma establecida, y se le asigna la
edad mental correspondiente.
Otra medida es el Cociente Intelectual (CI), que consiste en dividir EM / EC. El resultado obtenido se
suele multiplicar por 100 a fin de eliminar la presencia de decimales. Lo normal se sita alrededor de CI =
100; los sujetos adelantados obtienen un CI > 100 y los valores inferiores (CI < 100) representan a los sujetos
con retraso.
Este tipo de normas no es aplicable ms all de los 14-15 aos.
Normas cuantiles
Otro tipo de normas muy utilizadas son las denominadas cuantiles, entre las que destacan:
cuartiles cuantiles de orden 4
1
,
2
,
3
puntuaciones que dejan por debajo de si el 25; 50;
75% de los casos.
deciles cuantiles de orden 10
1
,
2
, ,
9
que dejan cada uno por debajo de si el 10,
20, -----, 90% de casos.
centiles o percentiles cuantiles de orden 100 Ci (i = 1,2,3,------,99) que dejan por debajo de
si el 1,2,3,------, 99% de los casos.

Entendemos por cuantil cada una de las partes en que puede dividirse una serie ordenada de
puntuaciones. El ms conocido de todos es la Md, que es:
* cuantil 1 de orden 2
* cuantil 2 de orden 4, o cuartil 2 (
2
)
* cuantil 5 de orden 10, o decil 5 (
5
)
* centil o percentil 50 de orden 100, (
50
)
Construccin de un baremo en cuantiles
El baremo que construyamos no tendr valor alguno, si la muestra no cumple con las exigencias de
tamao e imparcialidad para hacerla representativa.
El procedimiento comienza con la elaboracin de una distribucin de frecuencias acumuladas, sean
stas con puntuaciones directas o agrupadas en intervalos. Ver ejem. pg. 209.
Calculamos el rango o amplitud de la serie ( A =

+ 1) y estimando la amplitud del intervalo


como nos interese, calculamos el n de intervalos necesarios en la distribucin. Ver tabla 10.1, pg. 210. La
frmula de aplicacin genrica es:




de la que ya vimos la interpretacin de todos sus trminos en el tema 6.
Seguidamente, calculamos el intervalo en el que se encuentra el cuantil de que se trate, mediante el
trmino (

100
)N. Si buscamos deciles, el parntesis lo sustituimos por

10
. Si buscamos cuartiles, lo
sustituimos por

4
. Si buscamos la MD, lo sustituimos por
1
2
.
Para identificar el valor de puntuacin que corresponde al cuantil concreto, basta con sustituir en la frmula
genrica anterior los valores correspondientes de la distribucin agrupada por intervalos, y efectuar los
clculos necesarios. En la tabla 10.2, pg. 212, aparecen todos los valores habitualmente utilizados en la
construccin de baremos.
Normas tpicas
En las puntuaciones centiles se observa que estn muy cercanas unas de otras en el centro del
baremo, mientras que las distancias aumentan en los valores extremos.
= +

100
.
(1)

.
Una forma de evitar esto consiste en expresar la puntuacin de cada sujeto tomando una unidad
constante de medida. Las variables tpicas (z) indican la distancia de cada puntuacin directa hasta la del
grupo, medida en unidades de S. Recordamos la frmula de las puntuaciones tpicas:


Los sujetos con puntuaciones superiores a la , tienen z positivas, y la tienen negativa en caso
contrario.
Puntuaciones tpicas normalizadas
Una distribucin de frecuencias se acerca ms a la normal, cuanto mayor sea el nmero de casos
(N) de la serie, siempre que la variable medida se distribuya normalmente en la poblacin.
Cuando nuestros datos empricos sean compatibles con la curva normal, tras haberlo comprobado
con las correspondientes pruebas de bondad de ajuste, es interesante normalizar la distribucin, y para ello
procedemos a normalizar las puntuaciones tpicas (z).
Podemos obtener una puntuacin tpica normalizada mediante las tablas. Para ello:
calculamos el porcentaje de casos que se encuentren por debajo (o por encima) de cada
puntuacin
se busca tal porcentaje en la tabla de reas de la curva normal y se identifica la z
normalizada correspondiente.
Ejemplo: con los datos de la tabla 10.1
= 21,5
S = 6,29 =
36,521,5
6,29
= 2,384
Xi = 36,5 En la tabla 10,1, una puntuacin de 36,5 deja por debajo de s a 69 de 70
casos proporcin:
69
70
= 0,9857
buscamos en tablas de la curva normal esta proporcin en la columna B, y
encontramos

= 2,19
Las

corresponden a una distribucin con = 0 y S = 1. Para evitar los decimales de las


puntuaciones tpicas, podemos transformarla en otra distribucin con = 50 y S = 10, dando lugar a las
puntuaciones T. O bien en otra con = 50 y S = 20, y tendremos la escala S.
A estas escalas se les denomina puntuaciones tpicas derivadas. En la fig. 10.3 pg. 215, se recoge la
equivalencia de varias puntuaciones normalizadas.
Estaninos y Pentas
En EEUU es frecuente una escala de 10 rangos (9 puntos de corte), con = 5 y S = 2. En nuestro pas,
se utiliza en ocasiones una escala de 5 rangos (4 puntos de corte), con = 3 y S = 1. La primera se llama de
estaninos o eneatipos, y la segunda se conoce como pentas.
La situacin de un sujeto cualquiera en una de estas escalas es muy fcil. Primero calculamos la
puntuacin z del sujeto y posteriormente hacemos la transformacin:
estaninos 5 + 2z
pentas 3 + z

EL MUESTREO
Una muestra no es sino una parte, un subconjunto de una poblacin. Una muestra de calidad es
aquella que representa fielmente el conjunto de caractersticas de la poblacin. Una muestra debe cumplir
ciertas condiciones o exigencias: las dos fundamentales de su adecuado tamao y su seleccin imparcial. Ello
nos proporcionar muestras representativas, que reflejen con fidelidad las caractersticas de la poblacin.
Tamao de la muestra
El tamao de la muestra est en relacin con el de la poblacin, si bien no en una relacin
directamente proporcional.
Para la fijacin del tamao de las muestras, deberemos atender primeramente al tamao de la
poblacin, considerada como infinita si tienen + de 100.000 casos. Junto a esto, deberemos tomar en
consideracin otras tres caractersticas que debe fijar el investigador:
nivel de confianza con el que desea trabajar
=


error de estimacin que considera adecuado asumir
la proporcin en que la caracterstica a estudiar se encuentra en el total de la poblacin.
As mismo, debemos suponer la distribucin normal de la caracterstica muestreada.
Nivel de confianza en distribuciones normales se trabaja con el 95, 99 el 99,9%
Error de estimacin fijado por el investigador en trminos de porcentaje. Cuanto menor error se acepte,
mayor tamao deber tener la muestra.
Proporcin de una caracterstica en la poblacin con frecuencia se desconoce este dato, por lo que
consideramos que se da en el 50% de la poblacin, representando esto un mayor tamao para la
muestra.
Para el clculo del tamao de una muestra contamos con dos frmulas, segn que el tamao de la
poblacin sea:
infinita

finita -------------------------------

donde : N tamao de la poblacin
n tamao de la muestra
z valor de la puntuacin tpica que corresponde al nivel de confianza elegido
E error de estimacin muestral
Ver ejem. pg. 219

Procedimientos de seleccin
El principal procedimiento de extraccin de muestras imparciales es el muestreo aleatorio simple. Lo
caracterstico de este muestreo es que todos los sujetos tienen, a priori, las mismas posibilidades de ser
seleccionados para integrar la muestra.
El muestreo sistemtico es una modalidad del anterior, que nos permite fijar el primero de los
sujetos de la muestra, y a partir de l, seleccionar sistemticamente el resto sumndole un valor constante,
denominado coeficiente de evaluacin, que equivale al cociente (N/n).

Procedimientos de muestreo
Adems de los dos anteriores:
Estratificado los sujetos de cada estrato pueden seleccionarse mediante el sistema aleatorio
simple o el sistemtico.
Por cuotas cuando una determinada poblacin est estratificada por nivel de estudios, clase
social, consumo de drogas, religin, grupo poltico al que votan, ---, pueden seleccionarse sujetos
representativos de los mismos, a fin de contar con representantes de los diferentes estratos
poblacionales.
Incidental o casual es el ms usual por ser el ms asequible. Se toman los sujetos disponibles o
asequibles.

El error muestral
La propia teora de la probabilidad nos va a permitir estimar la magnitud del error muestral para un
determinado nivel de confianza. El error muestral puede calcularse mediante dos frmulas, una se aplica a
muestras finitas (<100.000) y la otra para muestras .

infinita

finita -----------------------------------

ver ejem. pg. 221
Cuanto menor sea el error muestral, menor ser el intervalo de confianza, y ese error muestral ser
tanto mayor cuanto ms elevada sea la seguridad que deseamos tener de que el valor de la caracterstica en
la poblacin se encuentra en ese intervalo.
=

2
. .

2

=

2
. . .

2
. 1 +
2
. .

=

2
. .

2
. .

.

1

BLOQUE 3 TEMA 11
ESTIMACIN DE PARMETROS. ERRORES DE ESTIMACIN

Aproximacin intutitiva a la inferencia estadstica
La Estadstica es la ciencia que se ocupa de la ordenacin y anlisis de datos procedentes de
muestras, y de la realizacin de inferencias acerca de las poblaciones de las que stas proceden.
POBLACIN: conjunto de todos los elementos que cumplen una o varias caractersticas o
propiedades. Los valores numricos que describen a la poblacin se llaman parmetros. Normalmente, los
valores de los parmetros son desconocidos porque resultara enormemente costoso y complicado obtener
datos de todos los sujetos de la poblacin. Por esta razn se trabaja con muestras a partir de las cuales, si
procede, se trata de estimar los valores de los parmetros.
MUESTRA: es un subconjunto de los elementos de una poblacin. Los ndices numricos que
describen a las muestras se denominan estadsticos. La tcnica para seleccionar a los sujetos que entrarn a
formar parte de la muestra se denomina muestreo. Siempre que sea posible debe utilizarse el muestreo
aleatorio porque nos da mayores garantas de que la muestra sea representativa de la poblacin. Otra de las
caractersticas a tener en cuenta en el muestreo, es que la muestra sea suficiente en nmero, de forma que
a mayor tamao de la muestra, mayores garantas de representatividad, si bien debemos matizar que a partir
de cierto tamao que el investigador debe establecer, su aumento no aporta mejoras sustanciales a la
representatividad.
MEDICIN: es uno de los procesos ms peliagudos a los que nos enfrentamos en educacin y
Psicologa. En muchas ocasiones nos enfrentamos a la medicin de constructos, es decir, caractersticas del
ser humano que no son directamente mensurables. Lo que medimos son las manifestaciones observables
que atribuimos a esos constructos. Una vez elaborados los instrumentos de medida, se aplican a la muestra,
se recogen los datos y se elabora la matriz de datos. A partir de aqu volveramos a lo dicho sobre ordenacin
y categorizacin de datos y anlisis descriptivo.
ESTADSTICA INFERENCIAL: pretende sacar conclusiones sobre el conjunto de datos a travs de
observaciones de una parte de esos datos. Mediante la Estadstica Inferencial se pueden estimar parmetros
y realizar contrastes de hiptesis (ver fig. 11.1 pg. 226).
Dentro del marco de la Estadstica Inferencial suelen distinguirse dos tipos de estudios: la estimacin de
parmetros y el contraste de hiptesis. Un parmetro se estima siempre a partir de un estadstico calculado
en una muestra. Se habla de dos tipos de estimacin: estimacin puntual y estimacin por intervalos.
Bsicamente, en la estimacin puntual se hace coincidir el estadstico con el parmetro; mientras que en la
estimacin por intervalos se ofrece un intervalo de puntuaciones en el que es ms probable que se
encuentre el valor del parmetro.

Propiedades de los estimadores
La estimacin consiste en la tcnica que permite conocer el valor aproximado de un parmetro de un
poblacin con una determinada probabilidad a partir de los datos proporcionados por una muestra.
Estas son las caractersticas que debe poseer un buen estimador:
Carencia de sesgo: un estimador insesgado es aquel que tiene sesgo igual a cero. La propiedad del
insesgamiento nos garantiza que las estimaciones que hagamos con el estimador se encuentran alrededor
del parmetro en cuestin, de forma simtrica, es decir, que el promedio de los estadsticos coincide con el
verdadero valor del parmetro.
Eficiencia: un estimador es tanto ms eficiente cuanto menor es su desviacin tpica. Si pensamos en una
distribucin muestral, cuanto ms estrecha sea, cuanto menor sea su error tpico, ms cercanos estarn los
estadsticos al valor del parmetro.
Consistencia: un estimador es consistente si a medida que aumenta el tamao de la muestra, la
probabilidad de que el valor del estadstico se acerque al valor del parmetro va siendo mayor. Si el valor de
N tiende a , un estimador consistente es, al mismo tiempo, insesgado.
Suficiencia: un estimador es suficiente cuando es capaz de obtener de la muestra toda la informacin que
sta contenga acerca del parmetro.



Distribucin muestral, error muestral y error tpico: estimacin del parmetro.

La distribucin muestral se define como la distribucin de un estadstico en el muestreo. Est formada por los
valores del estadstico obtenidos en muestras aleatorias del mismo tamao extradas de la misma
poblacin.
Si nos remitimos a la distribucin muestral de la (media poblacional), est demostrado segn el teorema
central del lmite y para muestras grandes (N > 30), que la distribucin se asemeja a una distribucin normal.
Si el parmetro fuese conocido, comprobaramos como la mayora de las de las muestras se encontraran
cerca del valor del parmetro, pero precisamente por ser muestras aleatorias, algunas se alejan un poco y
otras, muy pocas, se alejan mucho de ese valor.
Por tanto, confiamos en que la muestra elegida sea una de las que el valor de su est cercano al valor de ,
pero no lo podemos asegurar. Por esta razn, en inferencia siempre hablamos de nivel de confianza
(porcentaje de confianza al hacer la estimacin; tambin puede darse en probabilidad y se denomina 1-) y
del nivel de significacin (probabilidad de error que estamos dispuestos a asumir en la estimacin).
Obviamente, se trata de conceptos complementarios que se refieren a lo mismo.
Para hallar el intervalo confidencial, es decir, los valores entre los cuales es ms probable que se encuentre el
verdadero valor del parmetro, necesitaremos calcular la , a la que sumaremos y restaremos el error
muestral; es decir, la diferencia ms probable entre el estadstico y el parmetro.
El error muestral nos da una idea de la precisin de nuestra inferencia estadstica.
Cuanto ms grande sea el error muestral, menor ser la precisin en la estimacin
y menor ser la utilidad de la estimacin.
Una distribucin muestral tiene variabilidad, por tanto tendr su propia desviacin tpica , que recibe el
nombre de error tpico. Es un medida de dispersin con respecto al parmetro, es decir, nos indica la
dispersin de las de las muestras aleatorias extradas respecto a la .
Cmo podemos conocer este dato?
Nuevamente lo estimaremos y nos basaremos en los datos de la muestra, en este caso Sx. Para la
distribucin muestral de medias, la frmula es:



pondremos N-1 en el denominador cuando se haya calculado en la muestra la

2
insesgada, o solo N cuando
se haya calculado la

2
sesgada (cuasivarianza o varianza, respectivamente).
El error tpico no solo depende de la Sx, sino en gran medida del tamao de la muestra. Cuanto ms grande
es N, ms pequeo el cociente, ms pequeo el error tpico y ms precisin en la estimacin del parmetro.
Cmo se calcula el error muestral?
Previamente hemos tenido que definir el nivel de significacin con el que vamos a realizar la estimacin,
calcular la puntuacin z correspondiente a ese nivel (porque la distribucin es normal) y aplicamos la
frmula:


ver fig. 11.2 pg. 230. Un ejemplo: sean N = 1.000; = 105 y Sx = 10. Estimar el valor del parmetro
(intervalo confidencial) con un nivel de confianza del 99%.
IC = EM
nivel de confianza 1- = 99% 0,99
nivel de significacin = 0,01
Por tanto, /2 = 0,005. El rea bajo la curva normal de valor 0,005, corresponde a
una z = - 2,575 (columna C)

1
=
10
999
= 0,316
104,18
IC = 105
2
.

= 105 (-2,575) 0,316
105,81
podemos afirmar con un nivel de confianza del 99%, que el valor de se encuentra en el intervalo siguiente:
(104,18 105,81)
IC = EM

1

EM =
2


Estimacin de para pequeas muestras
Cuando N 30, la distribucin muestral de la media sigue la distribucin t de Student. Esta distribucin vara
en funcin del nmero de sujetos, es decir, de sus grados de libertad, aunque se trata tambin de una
distribucin simtrica y asinttica. Cuando N tiende a , la distribucin t tiende a la distribucin z.
Solo nos cambia en este caso el estadstico para calcular el error muestral. En lugar de trabajar con
2
, lo
haremos con
2
(ver tablas en pg. 347).
Ejemplo: los mismos datos del ejemplo anterior pero ahora con N = 25.
IC = 105 EM
/2 = 0,005. Se distribuye segn t con N-1 grados de libertad. Buscando en tablas,
corresponde a un valor de
2
= 2,797

=
10
24
= 2.04 99,29
IC = 105
2
.

= 105 (2,797) 2,04


110,70
como puede verse, hemos perdido una gran cantidad de precisin al disminuir el tamao de la muestra,
puesto que el intervalo de confianza es ahora mucho mayor.

Estimacin del parmetro proporcin ()
Es un caso particular del anterior, en el que la media oscila entre 0 y 1. En las variables dicotmicas ya vimos
que p corresponde a la proporcin de unos y q a la proporcin de ceros (q = 1-p). En este caso, la

viene
dada por la frmula:


El intervalo de confianza se establece igual que en el caso de la , pero ahora partiendo de una proporcin.
Se emplea el valor de
2
al nivel de confianza correspondiente.

Estimacin de la puntuacin verdadera en una prueba
Queremos realizar la estimacin de la puntuacin verdadera de un sujeto en un instrumento, o dicho de otra
forma, entre qu puntuaciones es ms probable que se encuentre la verdadera puntuacin, ya que toda
medida tiene algn margen de error.
De nuevo se trata de hallar el intervalo de confianza en el que es probable que se encuentre la verdadera
puntuacin del sujeto en la prueba. Sabiendo que la distribucin muestral es normal, necesitamos conocer el
error tpico de medida:

desviacin tpica total en el instrumento de medida


coeficiente de fiabilidad


puntuacin obtenida en la prueba



Intervalo de confianza de la puntuacin estimada en la regresin lineal simple.
Queremos estimar la puntuacin de un sujeto en una variable denominada criterio (Y) a partir de las
puntuaciones conocidas en otra variable denominada predictora (X). Sabiendo que la distribucin muestral
de Y es la normal, debemos conocer el error tpico de estimaciones, que para muestras grandes es:






Estimacin del parmetro correlacin de Pearson.
Introduccin al concepto de significatividad estadstica.
En muchas ocasiones, cuando calculamos una correlacin, en realidad estamos ms interesados en la
relacin que existe entre esas dos variables en la poblacin, que en la muestra. Se trata de calcular el

=
.
1

. 1


IC =

EM

. 1

2

IC = Y EM
intervalo de confianza para la correlacin de Pearson, de modo que podamos estimar entre qu valores se
encuentra dicho coeficiente entre la poblacin.
Sabemos que la distribucin muestral de la correlacin de Pearson se asemeja a la distribucin normal con el
siguiente error tpico:
* para muestras grandes (N > 100)


* y para muestras pequeas ---------------------------------------------------


y como ya es habitual ; donde

Ejemplo: Sea N = 20 y

= 0,35. Cmo ser la correlacin en la poblacin con un nivel de confianza del


95%?.

=
10,35
2
201
=
0,8775
4,358
= 0,201
= 0,05 2 = 0,025. En tablas, un rea bajo la curva de 0,025 (columna C)
corresponde a una z = -1,96
-0,04
IC = 0,35 (-1,96).0,201
0,74
El intervalo tan amplio es debido al pequeo tamao de la muestra. Cuanto ms pequea sea la muestra, ms imprecisa
ser la estimacin.

Significacin o significatividad estadstica
Hablamos de significacin estadstica cuando nos referimos al significado de la diferencia entre dos medidas. Decimos
tambin que un coeficiente de correlacin es estadsticamente significativo cuando es distinto de cero, es decir,
cuando el coeficiente de correlacin (estadstico) es lo suficientemente grande como para decir que la correlacin en la
poblacin (parmetro) de referencia es distinta de cero. Si queremos conocer cul es su magnitud en la poblacin,
entonces calcularemos el intervalo de confianza.
Cuando estimamos el intervalo de confianza en el cual es probable que se encuentre la verdadera correlacin en la
poblacin, y este intervalo contiene el valor cero (ausencia absoluta de correlacin) diremos que dicha correlacin NO
es estadsticamente significativa.

Estimacin del parmetro diferencia de medias (


Si una universidad encuentra que el CI medio de sus estudiantes es de 110, y otra universidad lo tiene de
105, cmo es la diferencia entre estas dos puntuaciones en la poblacin de referencia?. La diferencia entre
estas dos puntuaciones es estadsticamente igual a cero?. Si dicha diferencia es compatible con una
diferencia igual a cero, concluimos que ambas muestras tienen el mismo CI, al nivel de confianza fijado, y que
la diferencia encontrada es aleatoria.
Si establecemos el intervalo de confianza a partir del estadstico diferencia de medias, obtendremos los
lmites confidenciales entre los cuales es ms probable que se encuentre la diferencia de medias en la
poblacin.
Si este intervalo incluye la puntuacin cero, entonces dicha diferencia es compatible con una diferencia de
medias igual a cero, y en consecuencia, podremos interpretar que dicha diferencia es estadsticamente igual
a cero.



para muestras grandes e independientes (N > 100)


para muestras pequeas e independientes
(N 100)

=
1
1

=
1

2
1

IC =

EM
EM =
2
.


IC = (
1

2
) EM EM =
2
.

1
2

1
1
+

2
2

2
1

1
2
+
2

2
2

1
+
2
2

1
+
1

2

Ejemplo:
Universidad 1 Universidad 2
= 110 =105

1
= 10
2
= 12

1
= 90
2
= 120 Calculamos primero el error tpico de la diferencia de medias.

=
90.100+120.144
90+1202

1
90
+
1
120
=
183960
74880
= 2,4567 = 1,567
La
2
al 95% de nivel de confianza, ya sabemos que corresponde a una z = - 1,96
EM = (- 1,96) 1,567 = - 3,071 por tanto:
1,929
IC = (110 105) (- 3,071)
8,071
Al ser el intervalo incompatible con el valor cero, concluimos que la diferencia marcada es
estadsticamente significativa, es decir, que las diferencias de medias en CI entre ambos grupos no son
aleatorias. (Ver fig. 11.4 pg. 238)

Estimacin del parmetro diferencia de proporciones (

)
Lo nico que vara en este caso es el error tpico. Al igual que en el contraste de medias, lo ms interesante
suele ser la diferencia entre dos proporciones.
El error tpico de la diferencia de proporciones es:

y la estimacin del intervalo de confianza y su interpretacin ser la misma que en el caso anterior, pero con
medias en trminos de proporcin, que frecuentemente se multiplican por 100 para convertirlos en
porcentajes.

Estimacin de parmetros y contraste de hiptesis
Todo se reduce al contraste de una hiptesis estadstica, denominada hiptesis nula (Ho), segn la cual NO
existen diferencias estadsticamente significativas. Se afirma en ella que no hay efecto presente de la VI
sobre la VD.
Ver fig. 11.5 pg. 240
Se establece una zona central alrededor de la media en la curva normal, en la que es ms probable que las
diferencias encontradas entre las medias de las muestras se deban efectivamente a los efectos del azar. Es la
zona de aceptacin ( de no rechazo) de Ho. Por tanto, al no poder rechazar la Ho, decimos que no es falsa.
Queda de forma inmediata otra zona (bilateral o unilateralmente) en la que las diferencias entre las medias
resulta muy improbable (al nivel de confianza establecido) que sean aleatorias, por lo que dichas diferencias
se atribuyen a los efectos de la VI.
La Ho se expresa as:
Hiptesis nula Ho : 1 - 2 = 0
las diferencias entre las de los grupos o muestras son estadsticamente iguales a cero;
o bien, que las diferencias empricas que existen entre las de las muestras se deben al azar;
o bien, que los valores paramtricos son iguales;
o bien, que ambas muestras pertenecen a la misma poblacin.
Las frmulas para hallar el intervalo de confianza son las mismas que el epgrafe anterior, para muestras
grandes y pequeas.
Si resulta que nuestra diferencia emprica de medias se encuentra dentro del intervalo de confianza de la
distribucin muestral conforme a Ho, diremos que nuestra diferencia de medias es compatible con una
diferencia de medias igual a cero, y por tanto, que se trata de una diferencia estadsticamente no significativa
o igual a cero.
Lo que haremos despus ser calcular un estadstico (t, z, etc.) que nos dir cuntas desviaciones tpicas
(errores tpicos) se aleja nuestra diferencia de medias de una diferencia de medias igual a cero.

= .
1

1
+
1

2

Bloque 3 Tema 12
PRUEBAS ESTADSTICAS PARA EL CONTRASTE DE HIPTESIS: PRUEBAS PARAMTRICAS

Hay ocasiones en las que tenemos que tomar decisiones relativas a una poblacin sobre la base de
los conocimientos que tenemos de la muestra. A la hora de tomar una decisin, tenemos que enunciar una
hiptesis, es decir, tenemos que hacer unas suposiciones y ver si stas se cumplen o se rechazan.
Para realizar este proceso necesitamos el empleo de unas pruebas estadsticas test, para contrastar
la veracidad o falsedad de las hiptesis enunciadas desde el punto de vista estadstico.
Los test o pruebas estadsticas se clasifican en dos grandes grupos:
+ paramtricas muy estudiadas y de uso frecuente. La variable que estamos tratando tiene una
funcin de distribucin determinada, conocindose todos los parmetros bien algunos de ellos.
+ no paramtricas de uso ms reciente y an no muy desarrolladas. En estas pruebas suele
desconocerse la funcin de distribucin de la variable.

HIPTESIS ESTADSTICA
Es una proposicin sobre la distribucin de una o ms variables aleatorias, en referencia a la forma
que adopta dicha distribucin los parmetros que definen a la poblacin. La formulacin de una hiptesis
estadstica se puede realizar mediante una hiptesis simple ( = 5), o bien mediante una hiptesis
compuesta, formadas con varias simples ( = 5; > 5; < 5)

Hiptesis nula (Ho)
Es la formulacin terica que trata de proteger a priori la distribucin que se pretende contrastar,
teniendo dos planteamientos:
+ el estadstico tiene un valor dado Ho: = 100
+ no hay diferencias significativas entre dos estadsticos Ho:
1

2
= 0

Hiptesis alternativa (H1)
Las contrarias a las anteriores. Tambin dos planteamientos:
+ ante un valor dado H1: = 100; o bien H1: =104; o bien H1: < 100; o bien H1: > 100
+ si hay diferencias significativas entre dos estadsticos H1:
1

2
= 0; o bien H1:
1

2
< 0; o
bien H1:
1

2
> 0
En realidad, la H1 es la que queremos probar y su formulacin es imprescindible an cuando Ho no se
rechace.

FORMULACIN DE HIPTESIS
Sea una variable aleatoria X que tiene una distribucin de probabilidad F(X) que depende de un
parmetro desconocido u, que puede tomar los valores uo y u1. El contraste consiste en elegir entre dos
hiptesis simples:
+ hiptesis nula Ho: u = uo
+ hiptesis alternativa H1: u = u1.
El contraste de hiptesis es una regla que permite decidir cul de las dos hiptesis es acertada, partiendo de
una muestra aleatoria Xi = (X1,----,Xn) de X

Regiones crticas y de aceptacin
Diferenciamos entre regin crtica o de rechazo de la Ho, y no crtica o de aceptacin de Ho.
Se llama regin crtica o de nivel de significacin o, a un subconjunto del espacio muestral, tal que la
probabilidad de que la muestra pertenezca a este espacio, cuando es cierto Ho, es igual a o. Lgicamente, la
probabilidad de que la muestra no pertenezca a este espacio, cuando Ho es cierta, es igual a 1-o.
El nivel de significacin o es una probabilidad pequea (oscila entre 0,1 0,05 0,01) que
normalmente elige el investigador.
La regla de decisin para optar entre Ho y H1 es la siguiente:
+ la muestra pertenece a la regin crtica se rechazo Ho y se acepta H1
+ la muestra no pertenece a la regin crtica, por tanto pertenece a la regin de aceptacin se
acepta Ho y se rechaza H1

Error tipo I, error tipo II y potencia de una prueba
Rechazar la Ho siendo cierta, se llama error de tipo I. La probabilidad de cometer este error es el
nivel de significacin o.
Aceptar la Ho siendo falsa, se llama error de
tipo II. La probabilidad de cometerlo recibe la
denominacin de |.
Definimos la potencia del test como la
decisin de aceptar H1 siendo sta verdadera. Una
prueba es ms potente que otra, cuando con un o
dado, el valor de (1-|) es mayor en una prueba que
en otra. Dentro de una misma prueba, es ms
potente la decisin unilateral que la bilateral.
Ver ejemplo 12.1 en pg. 247.

Hiptesis simple frente a alternativa compuesta
En muchos contrastes normalmente existen ms de una H1 frente a una sola Ho. El contraste de
hiptesis se formula entonces:
Ho: u = uo (valor conocido)
H1: u = uo
y se dice que H1 es una alternativa bilateral (o de dos colas).
Los test de hiptesis simple frente a alternativa simple generan regiones crticas de una sola cola y se
llaman unilaterales (dcha. o izda.). Ver fig. 12.2 pg. 248
Los test de hiptesis simple frente a alternativa compuesta tienen regiones crticas en ambos
extremos de la curva de la distribucin, y se llaman de dos colas o bilaterales. Ver fig. 12.3 pg. 248
En todas las pruebas fijaremos un nivel de significacin o y hay que tener presente que si el
estadstico calculado cae en la regin de rechazo, entonces se rechazar la Ho.

Potencia de una prueba de hiptesis
Ya hemos visto que | representa la probabilidad de aceptar Ho cuando es falsa, mientras que 1-| es
la probabilidad de rechazar dicha hiptesis cuando es falsa. A esta probabilidad se la conoce como potencia
de una prueba.
El objetivo es conseguir pruebas potentes con valores bajos del error tipo I(o) y del error tipo II (|);
sin embargo, stos y la potencia tienen unos condicionantes:
1.- el valor de o se fija al escoger la regin de rechazo
2.- el valor de | depender de la H1 que se escoja.
3.- para un tamao muestral fijo, al aumentar la regin de rechazo (y por tanto o), | disminuye. Si o
decrece, | aumentar.
4.- al aumentar el tamao muestral (n), o y | decrecern a la vez.
Como vemos, para conseguir el objetivo de mxima potencia y menor error, la solucin est en aumentar el
tamao de la muestra. As mismo, dentro de la misma prueba, la decisin unilateral es ms potente que la
bilateral. Ver ejemplo en pg. 249.

Clculo de n para un o y | dados
Existe relacin entre los valores de o y | y el tamao de la muestra (n). Aunque los valores de o y |
son inversos entre s, lo que indudablemente se busca es que ambos tengan los valores ms bajos posible.
Ver ejemplo en pg. 254

PRINCIPALES PRUEBAS PARAMTRICAS
Condiciones que exigen las pruebas paramtricas:
+ Independencia de los datos
o cualquier sujetos tiene las mismas posibilidades de ser elegido en la muestra (aleatoriedad).
o la puntuacin de un sujeto no influye en la obtenida por otro.
+ Normalidad
o las poblaciones de las que se extraen los sujetos de las muestras deben estar distribuidas
normalmente para el parmetro a estimar.



Decisin
H
i
p

t
e
s
i
s

v
e
r
d
a
d
e
r
a


Ho H1

Ho
Sin error o (error tipo I)
H1 | (error tipo II)
Sin error
Potencia (1-|)
o esta condicin se asume cuando la muestra es grande.
+ Homocedasticidad
o cuando hay varios grupos se supone que proceden de la misma poblacin o de poblaciones
con igual varianza.
o si esta condicin se incumple, afecta a los contrastes de varios grupos.
+ Medida de intervalo
o las variables deben medirse en una escala de intervalo en una escala ordinal
multicategrica.
+ Linealidad (solo en la prueba F)
o la relacin atribuida a los efectos de las interacciones entre fila y columna, o ambos, debe ser
aditiva y no multiplicativa, para evitar su influencia sobre las varianzas.

Para contrastar una hiptesis estadstica hay que:
1.- FORMULAR la Ho y la H1
2.- FIJAR el nivel de significacin o
3.- COMPROBAR las caractersticas de las variables y plantear las suposiciones necesarias(cumplimiento o no
de las condiciones paramtricas)
4.- ELEGIR un estadstico para contrastar las hiptesis
5.- ESTUDIAR las caractersticas de la distribucin muestral del estadstico
6.- DETERMINAR la regin crtica o de rechazo de Ho y la de aceptacin. Viene determinada por el nivel de
significacin o y por la direccin de H1
7.- DECIDIR sobre la aceptacin o rechazo de Ho. Si el valor calculado en la muestra se sita dentro de la zona
de aceptacin, se acepta la Ho; en caso contrario, se rechaza.

Pruebas paramtricas para muestras grandes (N> 30)


Supuestos: Una muestra aleatoria, con n > 30. Conocida la varianza de la poblacin
2
. Si se
desconoce
2
, se sustituye por la varianza de la muestra

2
.
Ver fig. 12.11 pg. 257
Ho: =
0

H1: >
0
(unilateral dcho.)
<
0
(unilateral izdo.)
=
0
(bilateral)

Estadstico de contraste ----------
Regin de rechazo:
unilateral

>
o
(dcho.) ; o bien

< -
o
(izdo.)
bilateral

>
o 2
; o bien

< -
o 2

Intervalo de confianza ----------------------------------------------




Supuestos: Poblacin dicotmica y muestreo aleatorio, con n suficientemente grande para que
la distribucin muestral de Xi ( y de ), tenga un distribucin aproximadamente
normal. Conocida
2
. Ver fig. 12.12 pg. 258
Ho: p =
0

H1: p >
0
(unilateral dcho.)
p <
0
(unilateral izdo.)
p =
0
(bilateral)
P =


Estadstico de contraste ----------

MEDIA

=

0

=

0



o 2
.


PROPORCIN

=

0

=

0


Si se desconoce

, se sustituye por su estimador

:

Regin de rechazo:
unilateral

>
o
(dcho.) ; o bien

< -
o
(izdo.)
bilateral

>
o 2
; o bien

< -
o 2

Intervalo de confianza ----------------------------------------------




Supuestos: Dos muestras aleatorias e independientes, de dos poblaciones distintas, con
1
> 30
y
2
> 30. Conocidas
1
2
y
2
2
.
Ver fig. 12.13 pg. 259
Ho:
1

2
=
0
, siendo Do una diferencia especificada que se quiere probar. En la mayora de los
casos, se opta por probar que no hay diferencias significativas, en cuyo
caso Do = 0
H1:
1

2
>
0
; o bien
1
>
2
(unilateral dcho.)

1

2
<
0
; o bien
1
<
2
(unilateral izdo.)

1

2
=
0
(bilateral)

Estadstico de contraste -------------------------------------

Si se desconocen
1
2
y
2
2
, se sustituyen por las cuasivarianzas muestrales

1
2

2
2
,siendo:




Regin de rechazo:
unilateral

>
o
(dcho.) ; o bien

< -
o
(izdo.)
bilateral

>
o 2
; o bien

< -
o 2

Intervalo de confianza ----------------------------------------------




Supuestos: Dos muestras aleatorias e independientes, de dos poblaciones distintas, y con

1

2
suficientemente grandes para que las distribuciones muestrales de
1

2
(y por tanto de ) sean aproximadamente normales.
Ver fig. 12.14 pg. 260
Ho:
1

2
=
0
, siendo Do una diferencia especificada que se quiere probar. En la mayora de los
casos, se opta por probar que no hay diferencias significativas, en cuyo
caso Do = 0
H1:
1

2
>
0
; o bien
1
>
2
(unilateral dcho.)

1

2
<
0
; o bien
1
<
2
(unilateral izdo.)

1

2
=
0
(bilateral)

Estadstico de contraste -------------------------------------

Como normalmente se desconocen
1
y
2
, tendremos que estimar sus valores para poder
calcularla desviacin tpica

1

2

. Se nos presentan dos casos:


CASO I: suponemos que
1
=
2
. Entonces
0
= 0 y el mejor estimador de p es la
acumulacin ponderada de ambas muestras,
es decir:


o 2
.


DIFERENCIA DE MEDIAS

2

0

2

0

1
2

1
+

1
2

2

o 2
.

1
2
=

1
1

2
2
=

2
1

DIFERENCIA DE PROPORCIONES

1

2

0

1
+

2

=

1
+
2

1
+
2
=

1
+
2

1
+
2

y el estadstico de contraste es:




Caso II: suponemos que
0
= 0 y entonces los mejores estimadores de
1
y
2
son
respectivamente
1
y
2
. El estadstico de contraste ser:





Regin de rechazo:
unilateral

>
o
(dcho.) ; o bien

< -
o
(izdo.)
bilateral

>
o 2
; o bien

< -
o 2

Intervalo de confianza ----------------------------------------------


Pruebas paramtricas para muestras pequeas (N 30)


Supuestos: Una muestra aleatoria, de una poblacin distribuida normalmente. Desconocida la
varianza de la poblacin
2
.
Ver fig. 12.15 pg. 261
Ho: =
0

H1: >
0
(unilateral dcho.)
<
0
(unilateral izdo.)
=
0
(bilateral)

Estadstico de contraste ---------- con (n-1) gl.
Regin de rechazo:
unilateral

>
o
(dcho.) ; o bien

< -
o
(izdo.)
bilateral

>
o 2
; o bien

< -
o 2

Intervalo de confianza ----------------------------------------------



NUESTRAS INDEPENDIENTES
Supuestos: Dos muestras aleatorias e independientes, de dos poblaciones distintas, que se
distribuyen normalmente. Desconocidas
1
2
y
2
2
, pero supuestamente iguales.
Ver fig. 12.16 pg. 262
Ho:
1

2
=
0
, siendo Do una diferencia especificada que se quiere probar. En la mayora de
los casos, se opta por probar que no hay diferencias significativas, en cuyo
caso Do = 0
H1:
1

2
>
0
; o bien
1
>
2
(unilateral dcho.)

1

2
<
0
; o bien
1
<
2
(unilateral izdo.)

1

2
=
0
(bilateral)

Estadstico de contraste -----------------------------

con (
1
+
2
2) gl.


2

o 2
.

1

2

0

1
+

1

2

0

1
+

=

0

=

0



o 2 (1)
.


MEDIA
DIFERENCIA DE MEDIAS

2

0

1
1
1
2
+
2
1
2
2

1
+
2
2

1

1
+
1


Regin de rechazo:
unilateral

>
o
(dcho.) ; o bien

< -
o
(izdo.)
bilateral

>
o 2
; o bien

< -
o 2

Intervalo de confianza -----------------------------


En el caso de que
1
2
=
2
2
, tendramos:
que se distribuye segn t de Student con m grados de
libertad, segn la frmula:
=

1
2

1
+

2
2

1
2

1
+1
+

2
2

2
+1
2
(cuando el resultado es decimal, se redondea al entero ms
prximo).


NUESTRAS CORRELACIONADAS
Supuestos: Dos muestras aleatorias de la misma poblacin, formada por n parejas de diferencias.
Los sujetos de
1

2
(
1
=
2
= n) son los mismos pero sometidos a diferentes
pruebas. Se desconoce la varianza de las diferencias.
Ver fig. 12.17 pg. 264
Ho:
1

2
= 0
H1:
1

2
> 0 ; o bien
1
>
2
(unilateral dcho.)

1

2
< 0 ; o bien
1
<
2
(unilateral izdo.)

1

2
= 0 (bilateral)

Estadstico de contraste -----------------------------

siendo: n n diferencias por parejas
con (n1) gl.

2
1
=

1

Regin de rechazo:
unilateral

>
o
(dcho.) ; o bien

< -
o
(izdo.)
bilateral

>
o 2
; o bien

< -
o 2

Intervalo de confianza --------------------------------------




Supuestos: La muestra se selecciona aleatoriamente de una poblacin normalmente distribuida .
Ver fig. 12.18 pg. 265
Ho:
2
=
0
2

H1:
2
>
0
2
(unilateral dcho.)

2
<
0
2
(unilateral izdo.)

2
=
0
2
(bilateral)
se distribuye segn
2
con
Estadstico de contraste ---------- (n-1) gl.
Regin de rechazo:
unilateral
0
2
>

2
(dcho.) ; o bien
0
2
<
1
2
(izdo.)
bilateral
0
2
>
2
2
; o bien
0
2
<
1

1

2
d
2


E E E E

1

2

1

2

o 2 (
1
+
2
2)
.

1

2

0

1
2

1
+

1
2

2

DIFERENCIA DE MEDIAS


o 2 (1)
.


VARIANZA POBLACIONAL

0
2
=
1

0
2

Intervalo de confianza ---------------------





Supuestos: Las muestras se seleccionaron aleatoriamente e independientemente de poblaciones
con distribuciones normales, Se trata pues de dos varianzas con observaciones
independientes.
Ver fig. 12.19 pg. 266
Ho:
1
2
=
2
2

H1:
1
2
>
2
2
(unilateral dcho.)

1
2
<
2
2
(unilateral izdo.) (dcho.)

1
2
=
2
2
(bilateral)

Estadstico de contraste : prueba unilateral (izdo.)


Prueba bilateral siendo
1
2
la mayor varianza muestral y con
(
1
1) y
2
1 gl. en el numerador y
denominador, respectivamente.
Regin de rechazo:
unilateral
0
>


bilateral
0
>
2




Supuestos: Coeficiente de correlacin de Pearson.
Ho: = 0
H1: > 0 (unilateral dcho.)
< 0 (unilateral izdo.)
= 0 (bilateral)

Estadstico de contraste ---------- con (n-2) gl.
Regin de rechazo:
unilateral

>
o
(dcho.) ; o bien

< -
o
(izdo.)
bilateral

>
o 2
; o bien

< -
o 2

Intervalo de confianza ----------------------------------------------







1

0(1

2
)
2
<
2
<
1

0(

2)

2

IGUALDAD DE DOS VARIANZAS POBLACIONALES

0
=

1
2

2
2

0
=

2
2

1
2

0
=

1
2

2
2

2
1


o 2 (2)
. 1

2

COEFICIENTE DE CORRELACIN POBLACIONAL
Bloque 3 Tema 13
PRUEBAS ESTADSTICAS PARA EL CONTRASTE DE HIPTESIS: PRUEBAS NO PARAMTRICAS

Todos los estadsticos y las frmulas de contraste de z, la t de Student, y la F de Fisher, parten de
unos supuestos que denominbamos paramtricos. En la prctica, aparecen situaciones en las que tales
requisitos no se cumplen, como en el caso de distribuciones claramente asimtricas o muestras muy
pequeas. En estas ocasiones, existen mtodos denominados no paramtricos, que no suponen nada sobre
la distribucin poblacional.
Estos mtodos aportan ventajas:
capacidad para trabajar con datos que sean mediciones cuantitativas ordinales o incluso nominales
no necesitan que se cumplan supuestos previos para su aplicacin
son sencillos de aplicar
quedan como nica posibilidad cuando el tamao de la muestra es pequeo.
Pero tambin tienen unos inconvenientes:
para la misma potencia de la prueba, los test paramtricos necesitan menor tamao muestral que
los test no paramtricos.
cuando el tamao de la muestra es elevado obtenemos los mismos resultados con las pruebas
paramtricas que con las no paramtricas.
Las podemos clasificar atendiendo a la organizacin de los datos y al nivel de medida de los mismos. Ver
tabla 13.1, pg. 274.

PRUEBAS DE UNA SOLA MUESTRA
En el caso de una sola muestra, podemos utilizar las pruebas no paramtricas en los siguientes casos:
- comprobar el supuesto de que la muestra proviene de una distribucin conocida (bondad de ajuste)
- ver si la muestra es aleatoria para saber si los resultados se pueden extender a toda la poblacin, o a
un nico conjunto de datos, o bien no se pueden extender.
- comprobar la simetra de la muestra.

DE BONDAD DE AJUSTE
A.1.- Kolmogorov-Smirnov
Este mtodo se basa en la comparacin entre las frecuencias acumuladas de la distribucin emprica de la
muestra y de la distribucin hipottica terica, fijndose en el punto en que las dos distribuciones presentan
mayor divergencia. Solo se puede aplicar para mediciones ordinales o de intervalo. Se calcula mediante la
frmula:


siendo:

frecuencia relativa acumulada observada en la muestra


frecuencia relativa acumulada esperada en la distribucin terica a la cual queremos ajustar



Ho: F(x) = N(, o) no hay discrepancia entre la distribucin terica y la observada
H
1
: F(x) = N(, o) la distribucin terica no se ajusta a la observada

Procedimiento de clculo
Solo tenemos contraste bilateral. Se completa la siguiente tabla:
Xi X
1
X
2
(Ordenados por rangos de menor a mayor) X
n

Fo (1/n); (2/n); ----> (n/n)
Fe
Se aplica a cada valor la frmula de z y se busca en tablas el valor de esa
puntuacin tpica
por ejemplo:
=

o
= -2,34 en tablas se busca en la columna C para los valores negativos y en la
columna B para los positivos Fe = 0,0096


Efectuada la tabla, se halla la diferencia de la frmula y tomamos la mayor de ellas en mdulo.
Seguidamente, buscamos en las tablas de la prueba (pg. 369) el valor terico correspondiente a los valores
de n y o. El criterio de decisin ser:
Si D
n
> D
tablas
rechazo Ho Si D
n
D
tablas
acepto Ho
Ver ejemplo 13.1 pg. 275 (parmetros desconocidos y medida ordinal)

La prueba de Kolmogorov-Smirnov tiene la ventaja sobre la prueba
2
que no se ve afectada por los
agrupamientos de intervalos y se puede aplicar en muestras muy pequeas (n 10).
Cuando tengamos que estimar, por desconocerlos, los parmetros y o, utilizaremos el contraste de
la prueba de Lilliefors, que se realiza igual que el de Kolmogorov-Smirnov salvo que los parmetros
mencionados se estiman mediante sus valores muestrales.
= =



Ver ejemplo 13.2 pg. 275 (parmetros desconocidos y medida de intervalo, por lo que podemos estimar la
y la .

A.2.- Contraste de


Como en el contraste anterior, tiene la misin de observar si una variable tiene una distribucin de
probabilidad dada.
En general: Ho: F(X) = N(, o)
H
1
: F(X) = N(, o)

Solo hay pues contraste bilateral. Se nos pueden presentar dos casos:
a) Conocida la forma de la distribucin y sus parmetros
frecuencias empricas obtenidas en la muestra
frecuencias tericas esperadas que se obtendran en funcin
de la Ho que se est probando (N/n intervalos)
K n de intervalos
gl K-1
* se ordena la muestra de menor a mayor
* se divide la muestra en trozos de la curva normal y se buscan las
z de cada una de las partes
* se hallan los lmites de los intervalos con =

o
y se despeja
el valor de Xi
* se aplica el estadstico de contraste
* criterio de decisin: el valor obtenido tiene que ser menor o igual
que el de las tablas para que se ajuste u aceptemos Ho




b) Parmetros desconocidos
Cuando tenemos que estimar los parmetros y o, utilizaremos la prueba de Lilliefors. El contraste se define
de la misma manera que K-S, pero ahora no se suponen los valores de y de o, sino que se estiman
mediante sus valores muestrales.

=


2
1

2
=

1
2
=


20% 20% 20% 20% 20%
K = 5 z
0,20
= 0,85
z
0,40
= 0,26
25% 25% 25% 25%
K = 4 z
0,25
= 0,68

1
2

2
acepto Ho
La diferencia es que hay que buscar el valor de tablas de
2
con los siguientes
grados de libertad:
gl = k-1-n de parmetros estimados
Ver ejemplo 13.3 pg. 279

Cuadro general de las pruebas de bondad de ajuste
* muestra grande
- conozco los parmetros : K-S bien
2

- desconozco :
2

* muestras pequeas
-conozco los parmetros: K-S
- desconozco: Lilliefors

DE ALEATORIEDAD
Prueba de rachas
Esta prueba tiene por objeto comprobar el carcter aleatorio de una muestra atendiendo a la obtencin
original de las observaciones realizadas. Para ello, analizaremos el nmero de rachas (sucesiones de
smbolos idnticos) que se producen en la obtencin de esos datos.
Los datos se presentarn de forma dicotmica o dicotomizada (p y q) y contaremos las ocurrencias del
hecho p (que lo llamaremos n
1
) y las ocurrencias del hecho q (que lo llamaremos n
2
). Luego contaremos las
rachas (r), que son el nmero de ocurrencias de cambio de p a q en la serie objeto de estudio.
La toma de decisin se hace con el siguiente criterio:
- si n
1
y n
2
20
o se determinan los valores mnimo (r
1
) y mximo (r
2
) de rachas en tablas para un nivel de
significacin o dado. Si se cumple que r
1
< r < r
2
aceptamos Ho y la hiptesis de
aleatoriedad se cumple.
- si n
1
n
2
> 20
o se hace una transformacin de r en z mediante la frmula:
Si

<

acepto Ho

2
1

1
+
2
+1

2
1

2
2
1

1
+
2

1
+
2
1
Si

>

rechazo Ho de aleatoriedad
Con pruebas bilaterales:

>
2
; o bien

< -
2


Con datos numricos, se procede de la siguiente forma:
- segn los datos, damos un + cuando el valor sea mayor que el anterior y un cuando sea menor.
Obtendremos una secuencia (por ejemplo)

5 15 17 13 18 20 22 19 17 N
------- -------------- --------
+ + - + + + - - obtendremos (n-1) signos
1 2 3 4

- las rachas son los grupos de signos que van cambiando y las llamaremos (r). Llamaremos n
1
al n de
signos + que tenemos en la secuencia y llamaremos n
2
al n de signos que tenemos en la secuencia.
En el ejemplo anterior, n
1
= 5
;
n
2
= 3 ; r = 4
- acudimos a las tablas (pgs.. 363 y 364) y hallamos los valores de

, con un o dado. Si el
valor de r hallado en la muestra cumple con

< r <

acepto Ho (hiptesis de aleatoriedad


independencia de los datos)
- si r <

; o bien r >

tendramos que rechazar la Ho


Ver ejem. 13.4 y 13.5 en pgs.. 280 y 281

2
=


PRUEBAS DE DOS MUESTRAS (Muestras relacionadas)
Se usan cuando el investigador desea saber la diferencia entre dos tratamientos, por ejemplo comparar dos
mtodos de enseanza, haciendo que cada sujeto sea su propio control.
En estas comparaciones de dos grupos, algunas veces se observan diferencias significativas que no son
resultado del tratamiento. Por ejemplo, para comparar dos mtodos de enseanza, un investigador elige un
grupo al azar para aplicarle un mtodo de enseanza, y otro grupo diferente para el otro mtodo. El
resultado puede no ser fiable porque en un grupo existan alumnos ms capacitados que en el otro.
Una manera de resolver este problema es usar dos muestras relacionadas, y esto se puede lograr a si a cada
individuo se le aplican los dos tratamientos o si se forman parejas lo ms semejantes posibles con respecto a
cualquier variable externa que pueda influir en el resultado de la investigacin.
La prueba paramtrica usual para analizar datos provenientes de dos muestras relacionadas o de parejas de
datos igualados, es aplicar una prueba t a las puntuaciones de las diferencias, pero la prueba t exige que
estas diferencias estn distribuidas normalmente y las medidas han de ser, al menos, una escala de intervalo.
Con estos condicionantes, muchas veces no se puede aplicar la prueba t. En estos casos, el investigador
puede escoger una de las pruebas estadsticas no paramtricas para dos muestras relacionadas. Estas
pruebas tienen la ventaja que no requieren que las parejas provengan de una misma poblacin.

La prueba de McNemar para la significacin de los cambios
Es llamada prueba de antes y despus. Los mismos sujetos constituyen el grupo experimental y el grupo de
control de la prueba. Se utiliza para detectar cambios de actitudes. En la prueba se presentan los datos de
forma dicotomizada en dos categoras, segn el esquema:

Las filas representan las distintas respuestas antes de utilizar ningn
mtodo y las columnas las respuestas despus de emplear el
mtodo que queremos estudiar.
En la tabla designamos por + y los dos tipos de respuestas que se
pueden dar, y por tanto, los cambios producidos aparecern en las
casillas A y D. En la A se vern los cambios de + a -; y en la D ase
vern los cambios de a +. Si no existen cambios, todos los casos
estarn en las casillas B C.

Ho: no existen diferencias entre las situaciones de antes y despus del tratamiento.
Estadstico de contraste: con 1 gl.

Si aplicamos la correccin por continuidad,

2
=
1
2
+

tambin con 1 gl.
La decisin que adoptaremos es:
Si

2
<

2
acepto Ho
Si

2
>

2
rechazo Ho. El cambio es significativo
Ver ejem. 13.6 pg. 284.

Prueba de pares igualados de Wilcoxon
Esta prueba se utiliza para datos cuantitativos continuos discretos. Emplea la informacin que proporciona
el tamao de las diferencias, y como mnimo se exige que las variables estn dadas en escala ordinal.
La Ho se plantea en el sentido de que no existen diferencias significativas entre los grupos de individuos
(igualdad de frecuencias relativas poblacionales)
Ho: Tratamiento 1 = Tratamiento 2
H
1
: T1 = T2 (bilateral)
T1 > T2 (uni, dcho.)
T1 < T2 (uni. izdo.)

- con las diferencias entre los valores de cada par de sujetos, se establece una ordenacin de esas
diferencias desde la ms pequea a la mayor, independientemente del sentido o signo de la
diferencia.

Despus
menos ms
Antes
ms A B
menos C D

2
=

2
+

- si el valor absoluto de esa diferencia coincide para dos o ms datos, se asignan a todos ellos la media
de los lugares que les corresponderan.
- si una diferencia es cero (0) no se toma en consideracin
- la suma de los rangos obtenidos para las diferencias positivas y negativas nos aportan los valores Tp
y Tn, tales que se cumple:

=
+1
2

- si no hubiera diferencia significativa entre las dos muestras, Tp y Tn tendran que ser iguales con un
valor cercano al promedio de los N rasgos: (media de Ti)

=
+1
4

- tomamos como

de Wilcoxon el menor de los valores entre Tp y Tn


Criterio de decisin:
a) si n 25 (siendo n el n de pares de sujetos cuya diferencia es = 0), se observa en la tabla de
Wilcoxon (pg. 359) el valor crtico de T:
si To >

acepto Ho. No hay diferencias significativas.


si To

rechazo Ho (prueba de una sola cola)


b) si n > 25, hacemos normalizacin del valor de T mediante la frmula:

+1
4

+12+1
24

si
2
rechazamos Ho (prueba de dos colas)
Ver ejem. 13.7 pg. 286

PRUEBAS DE DOS MUESTRAS (Muestras independientes)
Cuando el uso de dos muestras relacionadas no es prctico ni adecuado, han de usarse muestras
independientes. Las muestras pueden obtenerse con la ayuda de dos mtodos:
a) tomndolas al azar de dos poblaciones
b) asignando al azar ambos tratamientos a los sujetos de una muestra arbitraria.
En cualquier caso, no es necesario que las dos muestras tengan el mismo tamao, y es importante que los
datos de ambas muestras a contrastar sean independientes.
Las tcnicas paramtricas usuales para analizar datos de dos muestras independientes consisten en aplicar
una prueba t a las medias de ambos grupos. La prueba t supone que las puntuaciones son observaciones
independientes de poblaciones distribuidas normalmente con varianzas iguales. Debido a que usa medias y
otros estadsticos obtenidos por operaciones matemticas, requiere que las observaciones se midan por lo
menos en una escala de intervalo.
Las pruebas que vamos a examinar en este apartado, se emplean para ver si las dos muestras proceden de la
misma poblacin. Sirven para examinar la significacin de la diferencia entre dos muestras independientes.
* cuando se desea saber si las dos muestras representan poblaciones que difieren en su media
U de Mann-Whitney
* cuando los datos aparezcan clasificados por grupos



Contraste de


Queremos determinar la significacin de las diferencias entre dos grupos independientes. Los datos han de
estar dados en categoras discretas, y bsicamente, el mtodo utilizado es contar los casos de cada grupo en
cada categora y comparar la proporcin de casos en las distintas categoras de un grupo con las del otro.
La Ho se plantea as: los dos conjuntos de caractersticas son independientes.
El estadstico de contraste:
=

1

que sigue la distribucin

con (f-1)(k-1) gl.; siendo f el n de filas o categoras y k el n de columnas o


grupos. Las frecuencias esperadas

se calculan mediante la frmula:

suma de las frecuencias observadas en la fila i




idem en la columna j
suma total =

1
=

1

Construiremos la siguiente tabla (a modo de ejemplo para la mejor comprensin del problema)

Las fo son datos del problema, las fe las calculamos:


1
=

;
3
=

; etc.,

=

1
+

1

1

1
+
+

3


Condiciones de la prueba:



1.- cuando N < 20, se usa en todos los casos la prueba de la probabilidad exacta de Fisher (que no
vemos en este curso)
2.- cuando 20 < N < 40, puede usarse

siempre que las

> 5. Si alguna

resultara < 5, debemos
utilizar de nuevo la prueba de la probabilidad exacta de Fisher.
3.- cuando N > 40, se usa la

con la correccin por falta de continuidad:







1.- puede usarse

cuando ninguna celda tenga una

< 1
2.- cuando varias celdas (el 20% de ellas o superior) tengan una

< 5, conviene combinar categoras
para que todas las

> 5

El criterio de decisin ser :
si d

con (f -1)(k-1) gl y o rechazo Ho


si d <

con (f -1)(k-1) gl y o acepto Ho



Debido a la complejidad de las frmulas utilizadas en este contraste, veremos la resolucin del ejemplo 13.8
pg. 291, para facilitar la asimilacin de las mismas.


1
=
44.43
95
= 19,91;
2
=
36.52
95
= 19,70; y as con todos los
dems hasta construir la tabla.

=
1219,91
2
19,91
+
3224,08
2
24,08
+ +
68,21
2
8,21
=

= 3,142 + 2,604 + + 0,594 = 10,716
En tablas, pg. 346, para (f-1)(k-1)= (3-1)(2-1) = 2 gl. y o= 0,05
encontramos que

= 5,991
Como d >

2
rechazo Ho

Prueba U de Mann-Whitney
Esta prueba es muy til cuando las medidas de la variable se han tomado de forma ordinal. Incluso cuando
los datos se han tomado de forma cuantitativa pero por alguna causa se sospecha que las condiciones de
normalidad e igualdad de varianzas entre las poblaciones de las que provienen las muestras no se cumplen.
Ho: Md(X1) = Md(X2) No hay diferencias significativas entre las muestras
H
1
: Md(X1) = Md(X2)

Grupo A Grupo B
Catg. 1
fo1A
fe1A
fo1B
fe1B
Ef1
Catg. 2
fo2A
fe2A
fo2B
fe2B
Ef2
Catg. 3
fo3A
fe3A
fo3B
fe3B
Ef3
EK1 EK2 ET
Bajo Alto
Lder
12
19,91
32
24,08
44
Adepto
22
16,29
14
19,70
36
Inclasif.
9
6.78
6
8,21
15
43 52 95
TABLA 2 x 2

2
=

2
+ + + +

TABLA F x K
La H
1
solo establece que las distribuciones son diferentes para las dos muestras, pero solo implica un
desplazamiento en la tendencia central de una distribucin respecto de la otra; no sugiere la diferencia en la
forma o en la dispersin.
La pruebe U de Mann-Whitney es un clculo del desorden de clasificaciones entre las dos muestras, es
decir, cuntas veces los datos de un grupo estn precedidos por los datos de otra muestra.
Calcularemos previamente

suma de los rangos del grupo A

1
+
2

1
+
2
+1
2

suma de los rangos del grupo B


Si las muestras provienen de poblaciones que tienen la misma distribucin, se espera que los rangos en cada
muestra se encuentren lo suficientemente dispersos. Por el contrario, si las poblaciones tienen distinta
distribucin, entonces se espera que los rangos estn agrupados.
Calculamos los valores de

=
1

2


siendo:
1
tamao del grupo 1

2
tamao del grupo 2



Para determinar si las dos muestras provienen de la misma poblacin, se elige el mnimo (

) y lo
comparamos con la U de las tablas (pgs.. 354 a 358).
El criterio de decisin ser:
Si mn (

) <

rechazo Ho, y afirmamos que existen diferencias significativas entre


las dos muestras.
Cuando
1

2
> 20 la distribucin muestral de U sigue la normal con:
=

2
2
=

1
+
2
+1
12

Ver ejem. 13.9 pg. 294

PRUEBAS PARA K MUESTRAS (Relacionadas)
Cuando tres ms muestras o condiciones van a ser comparadas en un experimento, es necesario usar una
prueba estadstica que indique si hay una diferencia total entre las K muestras condiciones antes de
escoger un par de ellas para probar la significacin de las diferencias entre ellas.
Solamente cuando una prueba de K muestras (k 3) nos permite rechazar la hiptesis de nulidad, se justifica
el uso subsiguiente de un procedimiento para probar las diferencias significativas entre cualquier par de las K
muestras.
La tcnica paramtrica para probar si varias muestras proceden de poblaciones idnticas es el anlisis de
varianza prueba F. Los supuestos de este modelo son estrictos:
- que las puntuaciones u observaciones sean sacadas independientemente de poblaciones distribuidas
normalmente
- que las poblaciones tengan todas la misma varianza
- que las medidas en las poblaciones sean combinaciones lineales de los efectos debidos a filas y
columnas, es decir, que los efectos sean aditivos
- que las medidas sean por lo menos de intervalo en las variables involucradas
Cuando todas estas condiciones no se pueden cumplir, deberemos utilizar las pruebas no paramtricas.

Prueba Q de Cochran
Esta prueba se considera una extensin de la prueba de McNemar. La prueba Q pretende analizar la posible
diferencia significativa de los cambios producidos en tres o ms situaciones distintas.
Las variables tienen que ser nominales dicotmicas o dicotomizadas. Pierde potencia la prueba si se utiliza
con variables continuas dicotomizadas.
Los sujetos pueden estar ya relacionados o bien se relacionan en el momento de la prueba.
La Ho: no existen diferencias significativas entre las caractersticas que tienen los sujetos en las K muestras

=
1

2
+

1
+ 1
2

=
1

2
+

2
+ 1
2


Se confecciona una tabla con los datos, con tantas filas como sujetos y tantas columnas como grupos o
muestras existan.

que se distribuye segn

con (k-1) gl.




siendo: k n de grupos, columnas o categoras
Co n de respuestas afirmativas ( de 1) en cada columna
Fi n de respuestas afirmativas ( de 1) en cada fila.
El criterio de decisin ser: si Q <

2
se acepta Ho
si Q

2
se rechaza Ho y por tanto no hay diferencias significativas
Ver ejem. 13.10 pg. 298

Anlisis de la varianza de Friedman
Consiste en comparar k muestras relacionadas para ver si provienen de la misma poblacin. Se emplea con
variables medidas en escala ordinal, al menos. Funciona de forma similar a como lo hace el anlisis de
varianza (prueba F de Snedecor) con datos de intervalo y continuos.
Los tamaos de los grupos son iguales o se pueden igualar.
La Ho: no existen diferencias significativas entre las k muestras relacionadas.
Para el clculo, se hace una tabla con n filas de sujetos y k columnas de muestras grupos. Se ordena cada
fila (es decir, cada sujeto o grupo de sujetos) en rangos, asignando el primero al valor ms pequeo y el
ltimo al valor mayor. En caso de empate se reparte el puesto o rango medio entre los valores que forman el
empate.
Se calcula la suma de rasgos de cada columna o grupo (Rj)
Estadstico de contraste:

donde: n n de filas
k n de columnas
Rj suma de rangos de cada columna

Si la Ho resultase verdadera, -que todas las muestras (columnas) proceden de la misma poblacin-, la
distribucin de rangos de cada columna ser obra del azar y los rangos de los diferentes grupos (1 .. k)
debern aparecer en todas las columnas con frecuencia casi igual.
Criterio de decisin:
* si k = 3 y 1 < n <10 tambin k = 4 y 1 < n < 5 las tablas de Friedman (pg. 370) nos
proporcionan un valor p para un o dado.
si p o rechazo Ho, hay diferencias significativas entre los grupos
si p > o acepto Ho
* si no se cumplen las condiciones anteriores, se calcula

2
con los valores de o y (k-1) gl.
si

2
<

2
se acepta Ho
si

2
se rechaza Ho y por tanto no hay diferencias significativas
Ver ejem. 13.11 pg. 301

PRUEBAS PARA K MUESTRAS (Independientes)
Estudiaremos la significacin de diferencias entre tres ms grupos o muestras independientes. Se trata de
tcnicas para probar la hiptesis de nulidad de que k muestras independientes se recogieron de la misma
poblacin de k poblaciones idnticas.
La tcnica paramtrica usual para aprobar si varias muestras independientes proceden de la misma
poblacin es el anlisis de la varianza, o prueba F. Los supuestos asociados con el modelo piden:
- observaciones independientes tomadas de poblaciones distribuidas normalmente
- iguales varianzas en todas las poblaciones
- la medida de la variable estudiada ha de ser, al menos, de intervalo.
Cuando estos supuestos no se cumplan o necesitemos una generalizacin de los resultados, acudiremos a las
pruebas no paramtricas.
=
1
2

2

2
=
12
+1

2
3 + 1
Anlisis de la varianza de Kruskal-Wallis
La prueba pretende ver si existen diferencias entre varias muestras que provienen de la misma poblacin. Se
exige, al menos, una medida ordinal de la variable. La prueba supone que la variable en estudio tiene como
base una distribucin continua.
La Ho: no existen diferencias significativas entre k muestras independientes, es decir, que todas las
muestras provienen de la misma poblacin.
Se ordenan todos los valores de los k grupos en una misma serie, del 1 hasta el N independientemente del
grupo al que pertenezcan esos valores, asignando el rango 1 al valor ms pequeo y respetando, aunque se
ordena en conjunto, la pertenencia de cada valor a su grupo correspondiente.
Los empates se resuelven asignando un rango medio a todos los valores empatados.
Se calcula previamente Rj, que es la suma de rangos de cada uno de los k grupos.
Estadstico de contraste:


donde: N n total de sujetos
nj n de sujetos de cada grupo
Si obtenemos ms del 25% de N con empates, conviene introducir una correccin:


siendo T =
3
- t ; y t es el n de sujetos empatados en cada grupo de puntuaciones repetidas.
Tendremos tantos T como distintas puntuaciones empatadas haya.
Criterio de decisin:
* si k = 3 y
1
,
2

3
5 se consulta la tabla de Kruskal-Wallis (pg. 360) y se toma el valor p
asociado al valor H calculado
si p o rechazo Ho, hay diferencias significativas entre los grupos
si p > o acepto Ho
* en cualquier otro caso, se busca

2
para o y (k-1) gl.
si H

2
se rechaza Ho
Si no existen diferencias significativas entre las muestras, el rango promedio en ellas tendera a coincidir, o al
menos, sus diferencias seran explicables por azar. Si los rangos promedio, por contra, se diferencian
bastante, quiere decir que las muestras son significativamente diferentes o que provienen por eleccin al
azar de una misma poblacin.
La prueba U de Mann-Whitney es la apropiada para comprobar posteriormente si tal diferencia es producida
por los resultados de un solo grupo de varios.

=
12
+1

3 + 1
Bloque 3 Tema 14
ANLISIS DE LA VARIANZA. PRUEBA F

El objetivo fundamental de la experimentacin es estudiar la posible relacin de causalidad existente entre
dos o ms variables. Este estudio representa la eleccin de las variables que pueden determinar a otras, pero
sobre todo, el establecer una relacin de causa-efecto implica el cumplimiento de tres condiciones:
a) debe existir una covariacin (correlacin) entre la variable causal (VI) y el efecto (VD)
b) temporalmente, la causa debe preceder al efecto
c) no deben existir variables extraas, ajenas al modelo, que puedan explicar el efecto.
En suma, experimentar significa modificar de forma intencionada las condiciones normales de trabajo para
localizar mejores maneras de proceder y conseguir, a su vez, un conocimiento ms profundo sobre el
comportamiento de productos y procesos.

Elementos bsicos del diseo de experimentos
Variabilidad de los resultados
El objetivo de un experimento es medir el efecto de las variables explicativas (o VI,s) sobre una VD, mientras
se controlan otras variables que puedan confundir el resultado.
Supongamos que una variable respuesta (VD) y, se va a medir como resultado de dos VI,s
1

2
. Las
fluctuaciones que se produzcan en esas variables, y la intervencin de otras variables que el experimentador
desconoce, harn que el modelo se exprese como: siendo el error.
Evidentemente, cuanto menor sea el error experimental, ms perfecto ser el modelo, en el sentido de
poder obtener con l unas estimaciones ms precisas.
Interaccin
Se entiende por interaccin el efecto que produce la combinacin de dos o ms VI,s sobre la VD.

Los diseos factoriales
Vamos a fijar unos conceptos importantes de conocer:
FACTOR cada una de las variables que pueden influir en la VD o resultado, y por tanto, se incluirn
en el plan de experimentacin.
NIVEL cada uno de los valores que toma el factor en un experimento.
RESPUESTA denominacin que toma la VD o resultado.

Si para obtener los resultados solo intervienen unos determinados niveles y siempre los mismos, en
cualquiera de las observaciones que se realicen, estaremos ante un modelo de efectos fijos.
Si de los diferentes niveles que pueden tomar los factores, se coge una muestra de los mismos, estaremos
ante un modelo de efectos aleatorios.

Anlisis de la varianza factorial
El anlisis de la varianza resuelve el problema de comparar varios grupos que tienen sus propias
particularidades estimndose, en virtud de los resultados, la diferencia que existe entre dichos grupos y la
significacin o no de dicha diferencia.
El anlisis de la varianza considera los datos de los grupos como un conjunto, y a travs de las pruebas
estadsticas oportunas, decide si los grupos provienen o no de la misma poblacin ( o de poblaciones
distintas con la misma varianza), y por consiguiente, si los grupos tienen medias significativamente distintas o
no.
Puede parecer extrao que un procedimiento que compara las medias se llame anlisis de la varianza. Este
nombre deriva del hecho de que para probar la diferencia de medias, estamos comparando realmente (es
decir, analizando) las variaciones.
El procedimiento de comparar ms de dos medias poblacionales se conoce como anlisis de la varianza
(ANAVA). Para aplicar la ANAVA deben comprobarse tres supuestos tericos:
a) independencia de las observaciones los datos de los distintos grupos han sido elegidos al azar de
una poblacin normal.
b) igualdad de varianza (homocedasticidad) ser supone que los distintos grupos tienen una varianza
comn, de modo que no existe diferencia significativa entre las varianzas de los distintos grupos.
=
1
;
2
+
c) los errores se distribuyen normalmente.
En las frmulas que vamos a emplear, el trmino varianza ser equivalente a la suma de los cuadrados
dividida por los gl.



Anlisis de la varianza con un factor. Modelo de efectos fijos
El anlisis de varianza de un factor trata de contrastar la Ho de que las poblaciones normales, de las cuales
se tomaron las muestras, tienen media comn, frente a la

de que al menos dos difieren.



El modelo lineal es:

Sea un factor A de tratamientos, con K niveles en dicho factor, en cada uno de los cuales se dispone de

= 1; 2; . . ; observaciones independientes, seleccionadas de poblaciones normales con varianza


comn
2
. Los smbolos:

puntuacin (x) del elemento (i) en el grupo (k). Los nicos datos que podemos observar.
promedio de las K medias de las poblaciones

media de la variable para el nivel (k) del factor


diferencia entre

(error del modelo lineal)



Ejecucin del modelo:
Sea un diseo que pretende comparar tres mtodos de aprendizaje. A cada uno de los mtodos se destinan
sujetos que obtuvieron unas puntuaciones en una determinada prueba, segn la tabla:
Mtodo A Mtodo B Mtodo C
X1A X1B X1C
X2A X2B X2C
X3A X3B X3C
X4A X4B X4C
X5A X5B X5C
En cada mtodo hallaremos:

(sumatorio de los valores de cada grupo). Sumados todos es

(medias de cada grupo)


(medias de todas las puntuaciones del diseo)



Suma de cuadrados (Frmulas)

Suma de cuadrados total:

tambin

siendo:

suma de cuadrados total (con todas las puntuaciones del diseo)


suma de todas las puntuaciones


2
suma de los cuadrados de todas las puntuaciones
Suma de cuadrados entre-grupos:
=



Suma de cuadrados intra-grupos:
=

0
:
1
=
2
=
3

1
:
1

2

3

= +


Como frmula general de la ANAVA, tenemos que la suma de cuadrados cumple:

Suma de cuadrados entre los grupos. Equivale a la varianza de la media de los grupos,
tratados stos como datos individuales. Son las desviaciones de la media de las
puntuaciones en cada grupo respecto a la media total.

Suma de cuadrados intra (dentro de ) los grupos. Son las desviaciones de las puntuaciones
en cada grupo respecto a la media del grupo y refleja la dispersin de los datos dentro de
cada grupo.

Hiptesis nula: Ho:

(no existen diferencias significativas entre las medias de los grupos)



Tabla de la ANAVA:









Criterio de decisin:
El estadstico F se distribuye con una F de Snedecor, con (k-1) y (N-k) grados de libertad. Cuando el valor de F
sea mayor o igual que el valor de F obtenido en tablas (las tablas son de F de Fisher), rechazaremos la Ho al
nivel de significacin . Si

<

. F es siempre positivo y > 1.



Problemas
Dada la complejidad del mtodo ANAVA y para facilitar la comprensin de sus frmulas y secuencia de
clculo, se presentan de forma ntegra la realizacin de dos problemas modelo, segn que los grupos tengan
igual o distinto nmero de elementos.
1) Ejem. 14.2 pg. 326. Ver su enunciado en el texto de la asignatura.




Clculos previos (con calculadora)

= 429

= 472

= 537

2
= 27169

2
= 32228

2
= 41467

= 61,285

= 64,428

= 76,714

= 1438

2
= 100864

= 68,476

Clculo de los sumatorios de los cuadrados (segn frmulas)

= 100864
1438
2
21
= 100864 98468,761 = 2395,239

=
429
2
7
+
472
7
2
+
537
2
7
98468,761 =

= 26291,571 +31826,285 + 41195,571 98468,761 = 844,666

= 100864 99313,427 = 1550,573



Ahora podemos construir la tabla ANAVA:



Fuente de
variacin
Suma de
cuadrados
Grados de
libertad
Media de
cuadrados
Estadstico F
Intergrupos

k-1

1

=


Intragrupos

N-k



Total

N-1
Profesor_A 68 72 77 52 42 60 58
Profesor_B 71 78 56 59 63 71 74
Profesor_C 78 81 82 83 70 65 78
Fuente de
variacin
Suma de
cuadrados
Grados de
libertad
Media de
cuadrados
Estadstico F










Criterio de decisin: si F(tablas) < Fexp. rechazo Ho.
Buscamos en tablas de F de Fisher el valor de F con (3-1) y (21-3) gl., y encontramos que F = 3,55
Como 3,%% < 4,902 rechazo Ho y si hay diferencias significativas entre los mtodos de enseanza.

Pruebas a posteriori:
Como el estadstico F no discrimina entre las muestras, sino que solo contrasta la Ho acerca de su validez,
hemos de utilizar la prueba de las comparaciones mltiples de Scheffe, que tiene por estadstico el siguiente:

= 1.

1
+
1

2

como en este caso

= 7, tenemos que: = 2. 3,5586,143


2
7
= 13,218
diferencias entre las medias de los grupos: d(AB) = 6,143 ; d(BC) = 9,286 ; d(AC) = 15,429 > 13,218
por tanto encontramos que es significativa la diferencia de medias entre los grupos A y C.

2) Problema
Un equipo educador preocupado por el comportamiento de los alumnos en clase decide comprobar qu tipo
de refuerzo puede favorecer una dinmica ms positiva e integrada. Se dividen aleatoriamente 50
estudiantes entre los grupos A (alabanzas), B (premios) y C (castigos), de forma que el A lo integran 20
estudiantes, el B tiene solo 10 y el C tienen otros 20. A travs de una escala de interaccin verbal, se les
calific despus de un periodo de tiempo (2 evaluaciones) en una escala del 1 al 15. Se pretende conocer si
las diferencias obtenidas son significativas. Las puntuaciones de los grupos se ofrecen en la tabla adjunta.

(A) Alabanzas (B) Premios (C) Castigos
15 10 18 15 19 12 12 11 9 7
12 11 14 17 11 10 8 8 6 3
13 15 12 14 15 9 7 6 10 9
11 13 15 19 13 12 9 13 11 4
17 12 13 14 9 15 5 9 4 7

Clculos previos (con calculadora)

= 280

= 125

= 158

2
= 4032

2
= 1651

2
= 1392

= 14

= 12,5

= 7,9

= 20

= 10

= 20

= 563

2
= 7075

= 11,26 = 50

Clculo de los sumatorios de los cuadrados (segn frmulas)

= 7075
563
2
50
= 7075 6339,38 = 735,62

=
280
2
20
+
125
10
2
+
158
2
20
6339,38 =

= 3920 +1562,5 +1248,2 6339,38 = 391,32

= 735,62 391,32 = 344,30



Construccin de la tabla de ANAVA:
Fuente de
variacin
Suma de
cuadrados
Grados de
libertad
Media de
cuadrados
Estadstico F
Intergrupos 844,666 2 422,333
422,333
86,143
= 4,902
Intragrupos 1550,573 18 86,143
Total 2395,239 20









Criterio de decisin: si F(tablas) < Fexp. rechazo Ho
Buscamos en tablas de Fisher, con (3-1) y (50-3) gl., y encontramos que F = 3,20
Como 3,20 < 26,71 rechazo Ho y hay diferencias significativas entre los tipos de refuerzo.

Efectuamos la prueba de Scheff: = 1.

1
+
1

2
; como en este caso

, hemos de efectuar tres comparaciones:



() = 2. 3,207,325
1
20
+
1
10
= 2,651 la diferencia de medias entre A y B es 1,5
1,5 < 2,651, luego la diferencia de medias no es significativa

() = 2. 3,207,325
1
10
+
1
20
= 2,651 la diferencia de medias entre B y C es 4,6
4,6 > 2,651, luego es significativa la diferencia de medias entre los mtodos de refuerzo B y C

() = 2. 3,207,325
1
20
+
1
20
= 2,164 la diferencia de medias entre A y C es 6,1
6,1 > 2,164, luego es significativa la diferencia de medias entre los mtodos de refuerzo A y C


Pruebas a posteriori (ad-hoc)
Con el anlisis de varianza se llega a la conclusin de rechazar o no la Ho de igualdad de medias. En caso de
rechazarla, se sabe que por lo menos existe una diferencia significativa entre algn par de medias, pero no se
sabe entre qu par o pares se encuentran las diferencias.
El objetivo de los mtodos de comparacin mltiple es aislar las comparaciones entre las medias que, por ser
significativas, influyen en la decisin.
Hay dos mtodos de comparacin:
Tukey se emplea cuando los tamaos muestrales son iguales y existe homocedasticidad. Es muy
potente. (No la vemos en este curso)
Scheff no le influye que los tamaos muestrales sean iguales o diferentes. Es menos potente que
el anterior. Su expresin es :



donde: diferencia mnima entre dos medias para que sean significativas

1
y
2
tamaos de las muestras
n de grupos

Fuente de
variacin
Suma de
cuadrados
Grados de
libertad
Media de
cuadrados
Estadstico F
Intergrupos 391,32 2 195,66
195,66
7,325
= 26,71
Intragrupos 344,30 47 7,325
Total 735,62 49
= 1.

1
+
1

You might also like