Professional Documents
Culture Documents
Medidas de variabilidad o dispersin
El ndice de tendencia central debe ir acompaado por un ndice de dispersin o variabilidad que indique en
qu grado las puntuaciones de los sujetos se dispersan o varan en torno a la .
1) la DESVIACIN MEDIA corresponde a una media aritmtica de las desviaciones de las puntuaciones
directas respecto de la . Si la DM es alta, significa que las puntuaciones estn alejadas o se desvan mucho
de su ; mientras que si es pequea, significa que las puntuaciones del grupo estn prximas a la .
2) La DESVIACIN TPICA es el ndice ms conocido y utilizado, representndose por s (estadstico) por
(parmetro). El mismo, pero elevado al cuadrado, recibe el nombre de VARIANZA (s )
Otras frmulas: sin agrupar los datos (en PD)
agrupados en distribucin de frecuencias (en PD)
Para un solo grupo, los valores de referencia son entre cero, s mnima; y el valor mximo, que
corresponde al valor de
2
Cuando la muestra es pequea (N 30) queremos estimar la , utilizamos el clculo del valor
insesgado. La debe ser mayor que s por lgica, pues al haber ms sujetos, habrn mayores
diferencias entre los sujetos.
3) La AMPLITUD o RECORRIDO de una variable se calcula como la diferencia entre la puntuacin mayor y la
menor, ms uno:
Esta medida se utiliza sobre todo para organizar los datos de una distribucin de frecuencias en
intervalos y realizar grficos.
Tambin nos sirve para interpretar el valor de la s. Cuando tenemos s = 2, en una A = 5, es una s muy
alta. Sin embargo, con s = 2 y A =100, entonces es una s muy pequea.
Xi fiXi Xi fiXi
DM =
s =
2
s =
2
S =
-
=
S =
2
s =
2
1
s =
2
1
A = (Xi)mayor (Xi)memor + 1
La A se utiliza como medida de dispersin solo cuando no se puede calcular otra como
complemento de la Mo, en niveles de medida nominales.
4) La DESVIACIN SEMI-INTERCUARTLICA, representada por Q
2
, indica la dispersin en el 50% central de la
distribucin.
Es adecuada cuando el nivel de medida es ordinal (coincidiendo con la Md)
Tambin es adecuada cuando existan puntuaciones extremas que pueden distorsionar en exceso la
S, puesto que en el valor de Q se prescinde del 25% inferior y del 25% superior, calculando el valor
del Q
50
entre los percentiles 25 y 75
5) Otro ndice de variabilidad es el CORFICIENTE DE VARIACIN (V), que nos permite comparar la
variabilidad entre variables que tienen distinta amplitud. Dado que dos S procedentes de instrumentos con
distinta A, diferente escala de medida no son directamente comparables, calculamos V en porcentajes:
A mayor valor de V, ms heterogneo es el grupo y ms variabilidad tienen sus medidas.
Media y desviacin tpica para variables dicotmicas
Como tienen solo dos valores, ceros para noes o respuestas incorrectas, y unos para ses o respuestas
correctas, la ser la proporcin de unos.
La indica la proporcin de sujetos que responden con 1 y se representa por p. Con N = 50 sujetos y
de ellos 30 responden que s, entonces : p = 30/50 = 0,6
La proporcin de noes ceros, ser (1-P), en este caso 0,4, y se representa por q. Entonces
Como la media nos indica el porcentaje de sujetos que contesta acertadamente a una pregunta de
examen, se denomina adems ndice de dificultad del tem.
La desviacin tpica es fcil de calcular:
Asimetra y apuntamiento: relacin con la curva normal
La asimetra y el apuntamiento son dos caractersticas relativas a la forma grfica de la distribucin de
frecuencias. El modelo de comparacin es la CURVA NORMAL, que carece de asimetra, es decir, es simtrica
o tiene un ndice de asimetra igual a cero.
ver fig. 5.1 pg.106
La asimetra positiva indica que la mayora de los sujetos se concentran en la parte baja de las
puntuaciones y que la cola de la distribucin se sita a la derecha. En general, podemos afirmar que
en estos casos, Mo Md
La asimetra negativa indica que los sujetos tienden a agruparse en torno a las puntuaciones altas de
la distribucin. En general, encontramos que Md Mo
El hablar de positiva negativa se debe al signo del clculo del ndice, denominado ndice de
Pearson:
Si As > 0 asimetra positiva
Si As < 0 asimetra negativa
Si As = 0 distribucin simtrica
Q
2
= Q
50
=
75
25
2
=
3
1
2
V =
100
p+q=1
S = .
S = .
As =
Otras frmulas:
El apuntamiento curtosis indica el grado en el que la distribucin es ms o menos picuda; o ms o menos
abierta o dispersa respecto a su media.
ms chata aplanada platicrtica g
2
< 0,263
ms apuntada y estrecha leptocrtica g
2
> 0,263
curva nornal mesocrtica g
2
= 0,263
ver fig. 5.2 pg. 108
Represetnaciones grficas
Ver pginas 108 a 114 (a.i.)
As =
3
As =
32 21
31
g
2
=
1
.
4
4
3
BLOQUE 2 TEMA 6
MEDIDAS INDIVIDUALES
La estadstica se encarga de estudiar el comportamiento de conjuntos de datos, ms que de datos
particulares de las puntuaciones que obtiene un sujeto determinado. Sin embargo, en el mbito educativo,
las puntuaciones individuales, las personas concretas, son el objetivo de nuestra labor.
Puntuaciones directas: problemas de interpretacin y transformaciones
Una puntuacin directa (Xi) es la puntuacin que obtiene un sujeto al realizar una prueba o aplicarle un
instrumento de medida. No son comparables de forma vlida dos Xi que provengan de instrumentos o
muestras diferentes. Para poder efectuar comparaciones estadsticamente vlidas, hemos de efectuar
transformaciones en las Xi.
Puntuaciones proporcionales y percentuales (p)
Una forma de comparar Xi en forma sencilla es transformarlas en una proporcin de respuestas correctas.
o bien en un porcentaje de respuestas correctas (la proporcin anterior multiplicada por 100). Ejemplo:
Prueba A Prueba B pA =
18
40
= 0,45 45%
Xi = 18 Xi = 18
n items = 40 n items = 20 P
B
=
18
20
= 0,9 90%
Puntuaciones diferenciales (x)
Es la puntuacin individual relativa a la del grupo de referencia. Para calcularla, simplemente se le resta a la
puntuacin directa del sujeto la del grupo al que pertenece.
Si Xi > x es positiva
Si Xi < x es negativa
Prueba A Prueba B x
A
= 18 23 = -5
= 23 = 9 x
B
= 18 9 = 9
Podemos comparar dos puntuaciones diferenciales que proceden de diferentes instrumentos de medida?.
La respuesta es NO, aunque s nos da informacin acerca de si la Xi se encuentra por encima o por debajo de
la . Necesitamos una puntuacin que nos permita situar un sujeto con respecto a su grupo de referencia y
hacer comparaciones con independencia de la amplitud del instrumento.
Las puntuaciones tpicas (z)
Indica el nmero de S que se desva una Xi de la .
Las dos propiedades ms importantes de las z son que la = 0 y que la S = 1
Las desviaciones tpicas son muy utilizadas porque nos permiten comparar cualquier puntuacin
entre s, independientemente del instrumento de medida de la amplitud de la escala utilizada.
Si Xi > z positiva
Si Xi < z negativa
en diferenciales
en directas
Prueba A Prueba B z
A
=
1823
5
= -1
= 23 = 9
S = 5 S = 3 z
B
=
189
3
= 3
=
z =
Las puntuaciones tpicas variarn dependiendo de que el grupo sea ms menos homogneo
heterogneo:
muy homogneo S muy pequea z mayor
muy heterogneo S muy grande z pequea
1er. grupo 2 grupo
= 5,5 = 5,5 z
1
=
75,5
0,4
= 3,75
S = 0,4 S = 2,5
z? z? z
2
=
75,5
2,5
= 0,6
Xi = 7 Xi = 7
Una de las utilidades ms importantes de las z, tanto en estadstica descriptiva como en inferencial, es la
correspondencia que hay entre puntuaciones y la curva normal. De esta forma, siempre podemos conocer
la probabilidad que existe de obtener determinada puntuacin.
Puntuaciones tipificadas o escalas derivadas (T) (S)
Consisten en transformaciones de las z, para as poder evitar tanto los decimales como los clculos
negativos.
(T) = a.z + b las dos ms usadas son (T = 10 z + 50) y (S = 2 z + 5)
Puntuaciones cuantiles (Q)
Un cuantil indica el porcentaje de sujetos que deja por debajo se s una puntuacin determinada. Las
puntuaciones ms utilizadas son los percentiles, que dividen una distribucin de frecuencias en 100 partes,
de modo que un percentil 85 corresponde a una Xi que deja por debajo de si al 85% de los sujetos de su
grupo.
P
75
= Q
3
P
50
= Q
2
= Md P
25
= Q
1
Los percentiles se usan para construir los baremos de los test estandarizados. Existen dos formas de obtener
los percentiles:
A) La forma ms sencilla es el procedimiento del clculo directo. Hallaremos los percentiles que
corresponden a cada uno de las Xi que obtienen los sujetos en el test, realizando la distribucin de
frecuencias y calculando la columna
.
100
(1)
.
P
25
= 1,5 +
25.1012
100
179
93
.1 = 1,5 +
253179
93
= 1,5 + 0,7956 = 2,29
si queremos calcular la Md = P
50
, tomaremos el intervalo 4:
P
50
= Md = 3,5 +
50.1012
100
379
128
.1 = 3,5 +
506379
128
= 3,5 + 0,99 = 4,49
Las puntuaciones individuales en la curva normal
La curva normal es una distribucin terica, simtrica y asinttica, en la que los puntos de inflexin
corresponden a las z = +1 y z = -1, y donde la = Md = Mo, y por tanto z = 0 en ese punto.
ver fig. 6.2 pg 123
La curva normal la utilizaremos con arreglo a los valores que nos proporcionan las tablas. Pueden
comprobarse los valores de la fig. 6.3 pg. 123 con los valores obtenidos en tablas en pg. 339.
Casos posibles:
1) qu probabilidad de aparicin tiene una z = 1,25?
tomaremos la columna B (rea mayor) p = 0,8944 89,44%
2) qu probabilidad de aparicin tiene una z > 1,25?
tomaremos la columna C (rea menor) p = 0,1056 10,56%
3) qu probabilidad tenemos de encontrar una puntuacin entre la media y una z = 1,25?
tomaremos la columna A (rea desde la ) p = 0,5 0,1056 = 0,3944 39,44%
En la curva normal, obtener una z >2 z <-2, est considerado como puntuacin extrema, ya que
corresponde al 5% de la poblacin. En porcentajes, entre las z de 1 encontramos al 64% de los sujetos;
entre las z 2 al 95%,; y entre las z 3 al 99,7%
Puntuaciones individuales normalizadas
Es la puntuacin individual que le corresponde a un sujeto si la distribucin de frecuencias original es la
distribucin normal. Es de aplicacin cuando en un test conocemos su y S, pero carecemos de los baremos.
Ejem.: qu puntuacin corresponde a una z?. Sabemos que se trata del percentil P
10
, con una = 100 y S =
15. Deja por debajo al 10 % de los sujetos, es decir, una proporcin del 0,01. Buscamos en pg. 342 el valor
de p = 0,01 en la columna C y encontramos que corresponde a una z = -2,33 (es negativa porque estamos
trabajando en la parte izquierda de la curva, por debajo de la ). Ahora aplicamos la frmula y despejamos:
-2.33 =
100
15
Xi = 65,05 P
10
Ejem.: a cuntos sujetos superara un alumno que obtiene una Xi = 65, si la muestra es de 150 sujetos?
z =
65100
15
= - 2,33
entrando en tablas con 2,33 y la columna C p = 0,01
entonces N. p = 150.0,01 = 1,5 2 sujetos
BLOQUE 2 TEMA 7
RELACIN ENTRE VARIABLES : CORRELACIN Y REGRESIN
En los procesos de investigacin en Educacin, en muchas ocasiones, nos interesa conocer la posible relacin
que puede manifestarse entre dos ms variables.
El concepto de correlacin
Kerlinger (1985) afirma que la esencia de la ciencia son las relaciones entre variables, que pueden ponerse
de manifiesto entre grupos, clases o conjuntos de objetos, pero que no cabe hablar de relaciones entre
variables midiendo solamente a un individuo.
Cuando conocemos la relacin entre variables, pueden llegar a formularse predicciones de los valores de
una a partir de la otra.
Las situaciones que pueden analizarse son varias:
estudiar la relacin entre dos ms variables dentro de un mismo grupo de sujetos.
con dos ms grupos comprobar la relacin entre ellos en una sola variable.
estudiar una misma variable medida en dos momentos diferentes en una misma muestra.
Una relacin simple entre dos series de datos se denomina correlacin entre dos variables. Nos indica la
tendencia entre dos ms conjuntos de datos a variar de forma conjunta. Tenemos varias posibilidades:
a) relacin perfecta positiva
cuando al aumentar los valores de una de las variables, los valores de la otra lo hacen en la misma
proporcin. Ver fig. 7.1 pg. 131. La correlacin se expresa como +1
b) relacin imperfecta positiva
se la conoce como relacin directa de variables. A valores elevados de una variable le corresponden
valores tambin altos de la otra; y a la inversa, los que puntan bajo coinciden en las dos variables.
Ver fig. 7.2 pg. 131. La correlacin se sita entre los valores 0 y +1
c) relacin perfecta negativa
se da una relacin inversa entre las variables, de tal forma que al aumentar los valores de una de
ellas, los de la otra disminuyen y lo hacen en la misma proporcin. Ver fig. 7.3 pg. 132. La
correlacin se expresa como -1
d) relacin imperfecta negativa
llamada relacin inversa entre variables, lo que supone que las puntuaciones altas en una variable se
corresponden con las bajas en la otra. Ver fig. 7.4 pg. 132. La correlacin se sita entre los valores 0
y -1
e) relacin nula o ausencia de relacin
se da cuando dos variables son independientes una de la otra. Puede afirmarse que las puntuaciones
de las dos variables se deben a factores aleatorios. La correlacin se expresa por 0.
El coeficiente de correlacin simple y su interpretacin
El valor del coeficiente nos marca el valor de la covariacin variacin conjunta de dos series de datos.
Puede indicar una relacin directa entre variables (valores positivos) inversa (valores negativos), por loq eu
su expresin se encuentra entre -1 y +1.
Cmo se interpreta un coeficiente de correlacin?. Teniendo en cuenta tres aspectos:
el tipo de variables que se relacionan: entre variables del mismo tipo, mayor correlacin.
la variabilidad del grupo: a mayor variabilidad entre los grupos y dentro de ellos, mayor ser la
correlacin. ante un coeficiente de 0,70, el obtenido en el grupo ms homogneo (menor
variabilidad) se identifica con una mayor intensidad de la correlacin.
la finalidad a la que se destina el coeficiente: si valoramos la fiabilidad de un instrumento de medida,
las correlaciones deben superar el 0,85; mientras que un coeficiente de 0,60 es suficiente si
valoramos la validez del instrumento.
Se aceptan las interpretaciones de la tabla 7.1 pg. 134.
Tambin podemos interpretarlo mediante el coeficiente de determinacin (d), que se interpreta como el
porcentaje de varianza de una variable explicada por la otra:
Si r
xy
= 0,70 d = (0,70)
2
. 100 = 49 49% de varianza explicada.
La eleccin de los diferentes coeficientes de correlacin depende de dos aspectos: el nivel de medida de las
variables y la categora de las mismas. As, tenemos:
INDICE NIVEL DE MEDIDA CATEGORAS DE LAS VARIABLES
Pearson rxy Intervalo Ambas continuas y normales
Coeficiente de contingencia C Nominal Atributos, en dos ms categoras
Spearman rs Ordinal Continuas, por rangos
Biserial rb Intervalo Una continua y la otra
dicotomizada
Biserial puntual rbp Intervalo Continua y dicotmica
Tetracrica rt Intervalo Ambas continuas y dicotomizadas
Phi Nominal Ambas dicotmicas por
atributos (dos nicas categoras)
El coeficiente de correlacin de Pearson (r
xy
)
Se utiliza cuando las dos variables que se relacionan son cuantitativas, medidas a nivel de intervalo, se
distribuyen normalmente y estn linealmente relacionadas.
tpicas
diferenciales
directas
directas
Para el clculo de estas frmulas se construye la siguiente tabla:
Sujetos Var X Var Y X Y XY X Y x y xy
Ver ejemplo en tabla 7.2 pg. 136
El coeficiente de correlacin de Spearman (rs)
En muchas de las variables que utilizamos frecuentemente en el campo educativo no es posible alcanzar
unos niveles de medida muy precisos. Es entonces cuando hemos de recurrir a emplear los puestos que
ocupan las puntuaciones en una serie ordenada.
En medidas ordinales hemos de recurrir a los rangos.
Para hacer la transformacin de las puntuaciones directas en rangos se siguen estos pasos:
=
2
100
=
.
.
=
.
2
.
2
=
.
.
2
2
. .
2
2
2
()
2
.
2
()
2
se asigna el rango 1 a la posicin ms alta, rango 2 a la siguiente en descenso, 3 a la siguiente, y as
hasta que el ltimo rango asignado coincida con N.
cuando tengamos ms de una puntuacin similar, el rango se calcula mediante la de las posiciones
que corresponderan a esos sujetos.
el criterio de asignacin de rangos empleado en una de las variables, debe ser el mismo que en la
otra, pues se trata de pares de puntuaciones que van asociadas y no son independientes.
n nmero de sujetos.
D diferencia de rangos posiciones
que ocupa un mismo sujeto en dos variables distintas.
Ver tablas 7.3 y 7.4 pgs. 138 y 139
Para el clculo se construye la siguiente tabla:
Sujetos Var X Var Y R(X) R(Y) D D
Coeficiwente de contingencia (C)
En el caso de variables de atributo nominales, es preferible utilizar la expresin grado de asociacin en vez
de grado de correlacin. Se utiliza en aquellos casos en que se recogen datos de variables clasificadas en
categoras, como ocurre con las tablas de contingencia, en las que se asignan sujetos a grupos y categoras en
cada una de las variables.
La frmula es : en la cual:
fo frecuencia observada que aparece en cada celdilla de la tabla
de contingencia.
fe frecuencia esperada terica que refleja el grado de asociacin.
Las fe pueden calcularse mediante la frmula siguiente:
Debemos comenzar por calcular el valor de fe en cada una de las celdillas de la tabla de contingencia.
Ver fig. 7.5 y 7.6 pg. 141 y 142.
Seguidamente procedemos a calcular , que representa el grado de discrepancia que se manifiesta entre las
frecuencias observadas empricas (fo) y las frecuencias esperadas aleatorias (fe).
Para finalizar, se calcula el valor de C. Ver ejemplo en pgs.. 141 y 142.
El coeficiente nunca alcanzar el valor de 1, y para su interpretacin se recurre al valor de Cmx., que solo es
vlido su clculo cuando las tablas de contingencia sean cuadradas, es decir, el mismo nmero de filas que de
columnas.
Como comprobacin, la fo y la fe dentro de la misma fila columna, deben ser iguales.
El coeficiente de correlacin biserial puntual (rbp)
Cuando buscamos el grado de relacin entre una variable cuantitativa y otra autnticamente dicotmica,
debemos recurrir al rbp. En realidad, es una extensin del coeficiente de correlacin de Pearson.
= 1
6
2
3
=
+
=
1
fe =
.
El numerador de ambas frmulas se toma en valores absolutos con el fin de evitar los valores negativos para
la correlacin. Generalmente, los datos de la variable continua suelen agruparse en intervalos de clase, tal y
como aparece en la tabla 7.7 pg. 144.
Hemos de realizar unos clculos previos:
de cada uno de los grupos y del total de sujetos.
St del conjunto de puntuaciones.
proporcin de cada uno de los grupos en relacin al total.
finalmente, completar la siguiente tabla:
Intervalo fp fq ft Xc Xcfp Xcfq Xcft Xcft
=
s =
2
()
Xc marca de clase del intervalo
p y q categoras de la variable dicotmica
La rbp se utiliza en el anlisis de los elementos de pruebas objetivas, especialmente en aquellos casos en que
la respuesta no admite nada ms que los valores de acierto error. En estos casos, el rbp es un ndice de la
homogeneidad de tal elemento tem con la puntuacin global de la prueba.
El corficiente phi ()
Se emplea cuando buscamos la existencia de relaciones entre dos variables dicotmicas, aunque de forma
excepcional puede utilizarse en variables dicotomizadas.
Una variable es dicotomizada cuando transformamos la variable continua a una escala de dos categoras,
siendo muy frecuentemente el punto de dicotomizacin, la Md. Ver tabla 7.9 pg. 145
Es la aplicacin a variables dicotmicas del coeficiente
de Pearson.
Su valor ser 1 (correlacin perfecta) cuando las frecuencias de las casillas de las diagonales positiva
negativa sean nulas. en los dems casos se estudia su valor comparndolo con el valor del mx., muy
importante como punto de referencia y de interpretacin:
donde:
=
35
63
.
51
47
= 0,555 .1,085 = 0,776
X
p q
p A B A+B
Y q C D C+D
A+C B+D total
X
p q
p A 21 B 42 63
Y q C 30 D 5 35
51 47 98
=
+.+.+.+
1
Tambin puede calcularse si disponemos de la distribucin de frecuencias de las variables.
Veamos un ejemplo:
p
x
proporcin de 1 en X 5/12 = 0,4167
q
x
proporcin de 0 en Y 7/12 = 0,5833
p
y
proporcin de 1 en Y 6/12 = 0,50
q
y
proporcin de 0 en Y 1- p
y
= 0,50
p
xy
proporcin de 1 tanto en X como en Y 4/12 = 0,33
=
0,33 0,4167 .0,50
0,4167.0,5833.0,50.0,50
= 0,507
Agrupando datos, tendramos que:
=
220
5 .7 .6 .6
=
18
635
=
3
35
= 0,507
max
=
5
7
.
6
6
= 0,7142 = 0,845
Coeficiente de correlacin tetracrico (r
t
)
Se emplea en aquellos casos en que las dos variables son de tipo cuantitativo y continuo, pero nos interesa
dicotomizarlas, dividiendo las puntuaciones de cada variable en dos categoras y tomando como criterio de
categorizacin generalmente la Md.
Podemos entonces formalizar una tabla de contingencia de 2x2:
A + en X; - en Y
B + en X; + en Y
C - en X; - en Y
D - en X; + en Y
En el numerador siempre el producto de la diagonal de igual signo, y en el denominador siempre el producto
de la diagonal de signos distintos.
En aquellos casos que BC < AD, buscaremos en las tablas el valor de (AD/BC) y al coeficiente resultante le
pondremos un signo menos.
Tambin hay un procedimiento numrico para hallar el valor de este coeficiente. Viene dado por la frmula:
Ver ejemplo resuelto en pgs.. 146 y 147.
Sujeto
X
Sexo
H:1 // M:0
Y
Selectividad
Apto:1 //
No Apto:0
1 0 0
2 1 1
3 0 1
4 0 0
5 1 1
6 1 0
7 0 0
8 1 1
9 0 0
10 0 1
11 0 0
12 1 1
=5 =6
X
p q
p A 4 B 2 6
Y q C 1 D 5 6
5 7 12
Y
- +
- A B
X + C D
=
=
180 .
+
Coeficiente de relacin biserial (r
b
)
Se utiliza cuando se trata de establecer la relacin que existe entre una variable cuantitativa y otra
dicotomizada (una variable continua que ha sido dividida en dos categoras de forma artificial). La variable
continua se presenta en escala de intervalo.
siendo Y la ordenada en el punto z en que se establece el cambio de categora y que se obtiene de las tablas
con el valor de la proporcin de p (n
p
/n
t
)100
Hemos de realizar unos clculos previos:
de cada uno de los grupos y del total de sujetos
s
t
del total de puntuaciones
proporciones de las dos categoras de dicotomizacin (p y q)
valor de Y en tablas de la curva normal
Para efectuar los clculos, completamos la siguiente tabla:
Intervalo fp fq ft Xc Xcfp Xcfq Xcft Xcft
=
s =
2
()
Xc marca de clase del intervalo
p y q categoras de la variable dicotmica
Ver ejemplo 7.1 en pg 148
Tambin puede calcularse si disponemos de la distribucin de frecuencias sin agrupar en intervalos:
1
y
2
medias de X a las que se les asign un 1 y
un 0 respectivamente.
Sx desviacin tpica de las puntuaciones.
n
1
y n
0
nmero de 1 y de 0 en Y. Ntese que
(n
1
+ n
0
= n)
Y ordenada de la distribucin normal, en el punto
donde se encuentra el porcentaje (n
1
/n)100 del rea
bajo la curva.
Clculos previos:
Sujeto
X
Tiempo de
estudio
(en min.)
X
2
Y
Puntuaciones:
suficiente = 1
Insuficiente=0
1 20 400 1
2 25 625 0
3 30 900 1
4 16 256 0
5 10 100 0
6 40 1600 1
7 18 324 0
8 50 2500 1
9 43 1849 1
10 49 2401 1
.
.
1
0
1
.
0
. .
2
2
=
2
n
1
= 6
1
=
1
6
=
232
6
= 38,66
=
10955
10
30,10
2
= 189,49 = 13.76
n
o
= 4
0
=
0
4
=
69
4
= 17,25
n = 10 =
10
=
301
10
= 30,10
Para
=
38,66 17,25
13,76
.
6 . 4
0,3867 .10 . 1000 10
= 1,555 .0,654 = 1,02
El coeficiente r
b
puede ser menor que -1 y mayor que +1, en cuyo caso las puntuaciones X no se distribuyen
normalmente o son fluctuaciones de muestreo cuando n es pequeo, como es nuestro caso del ejemplo.
La regresin lineal simple
La interpretacin de los coeficientes de correlacin se basa en la intensidad el grado de esa relacin,
desde valores prximos a 0 hasta los cercanos a 1, que indica la mayor intensidad.
Estos valores permiten conocer la varianza compartida, es decir, la parte de la variabilidad de una de ellas
explicada por la otra. Para su clculo se eleva el valor del coeficiente al cuadrado y se multiplica por 100,
obtenindose el llamado coeficiente de determinacin.
Mediante este coeficiente de determinacin podemos estimar los valores de una variable conociendo los
valores de la otra. es lo que conocemos como regresin lineal simple, cuya funcin principal nos permite la
prediccin.
Lo que pretendemos es predecir puntuaciones en una variable sin aplicar el instrumento de medida,
simplemente conociendo la relacin de esa variable con otra y de la que tenemos los resultados de
determinados sujetos.
Obtenemos as una relacin positiva y prcticamente lineal, conocida como la lnea de regresin y que se
emplea para llevar a cabo la prediccin estimacin de los valores de una variable Y (criterio) a partir del
conocimiento de los valores de la otra variable X (predictora) con la que sabemos que mantiene un buen
nivel de relacin.
Estas son las frmulas de la regresin lineal:
en directas en diferenciales
=
a
yx
a
xy
1 la que se pronostica; 2 la predictora
Y puntuacin directa pronosticada en el criterio
media de las puntuaciones en el criterio
media de las puntuaciones en el test
r
xy
coeficiente de validez
Sx y Sy desviaciones tpicas de las puntuaciones en el test y en el criterio, respectivamente
Xi puntuacin directa del sujeto en el test.
Y=
Y=
. +
BLOQUE 3 TEMA 8
APLICACIONES DE LA CORRELACIN: FIABILIDAD Y VALIDEZ
Estudiaremos a continuacin las caractersticas tcnicas de los instrumentos de medida: que sean fiables
(precisos en sus apreciaciones) y que sean vlidos (que sirvan para lo que realmente se disearon).
ESTUDIO DE LA FIABILIDAD
La fiabilidad constituye la principal caracterstica de los instrumentos de medida, por ese motivo la
estudiaremos primero, y despus atenderemos a los dems. Slo en el caso de las encuestas, la fiabilidad
aparece ligada ntimamente a la validez de los contenidos de la misma.
La fiabilidad de las medidas se identifica con la precisin. Un instrumento es fiable cuando mide algo con
precisin, independientemente de los que se est midiendo.
Ello nos lleva a tener que aceptar el error de medida. Una puntuacin observada (X) en un sujeto se puede
descomponer en dos partes: la correspondiente puntuacin verdadera (V) y el posible error cometido al
medir (E). X
_V +V
_Em +Em
Al campo de valores comprendido entre los valores de (X Em) y (X + Em), le denominaremos INTERVALO
DE CONFIANZA en el que se encontrar la puntuacin verdadera (V)
sistemticos caractersticas internas del instrumento. Afectan a todas las medidas.
errores
aleatorios obedecen al azar.
A medida que el error es ms pequeo, el intervalo es ms fiable. La fiabilidad la establecemos en tres
procedimientos:
* como estabilidad
* como equivalencia
* como consistencia interna
La fiabilidad como estabilidad
Conocida como el mtodo de la repeticin el TEST-RETEST.
Se busca la correlacin que existe entre las puntuaciones obtenidas por un mismo grupo de sujetos en dos
aplicaciones sucesivas de una misma prueba en dos momentos diferentes.
El tiempo entre aplicaciones es importante. Si transcurre poco tiempo, los sujetos pueden recordar las
respuestas anteriores (memoria); pero si transcurre mucho, pueden influir los efectos de la maduracin, la
prctica, la experiencia. Ver ejem. 8.1 pg. 153.
Notacin: mantendremos con el fin de evitar confusiones que: n es para el n de tems y N es para el n de
sujetos.
Cuando los datos proceden de una variable continua, y con nivel de medida de intervalo, por aplicar una
prueba objetiva precisa, podemos recurrir al coeficiente de Pearson:
Como ya es habitual, es necesario realizar unos clculos previos con ayuda de la tabla confeccionada al
efecto.
La fiabilidad como equivalencia
Denominada de FORMAS PARALELAS.
Consiste en aplicar dos pruebas diferentes pero que miden el mismo rasgo o caracterstica, de forma que
calculamos el coeficiente de correlacin entre ambas puntuaciones en cada sujeto.
Sujetos X Y
2
2
XY
=
2
.
2
2
Cuando el transcurso entre las aplicaciones supere los 20 das, podemos interpretar la fiabilidad como
equivalencia y tambin como estabilidad.
Generalmente, utilizaremos la frmula anterior de Pearson.
Ver ejem. 8.2 pg. 154
La fiabilidad como consistencia interna
Procedimiento conocido de las MITADES.
Dividimos la prueba en dos partes (mitades), eligiendo como criterio los tems pares e impares, bien la
primera mitad (de 0 al 50%) y la segunda mitad (de 51 al 100%).
Hallando la correlacin entre ambas partes estableceremos la consistencia interna del instrumento, si bien
en una prueba cuya longitud es la mitad.
Existen varios procedimientos para determinar la fiabilidad.
Ver ejem. 8.3 pg. 155 (comn para todos los procedimientos)
A. Procedimiento de Spearman-Brown
B. Procedimiento de Rulon
C. Procedimiento de Guttman
D. Procedimiento de Kuder-Richardson
E. Procedimiento alfa () de Crombach
(A).- Procedimiento de Spearman-Brown
Empleamos el ya conocido coeficiente de Pearson entre las mitades, pero hemos de corregirlo para el test
total mediante la frmula siguiente, y obtendremos la fiabilidad de la prueba en su conjunto.
los subndices son iguales pues se trata de una correlacin interna, entre dos partes de una misma prueba.
El coeficiente de Pearson entre pares e impares, queda como sigue
Ver ejem. en la pg. 157
(B).- Procedimiento de Rulon
Est basado en la varianza de las diferencias; es decir, en la relacin entre la varianza total del instrumento y
la existente entre ambas mitades.
Si las diferencias entre las puntuaciones de dos sujetos en las mitades aumenta, menor ser el valor del
coeficiente, tal y como se expresa en la frmula
Clculos previos; las varianzas de las diferencias y la total. Cuando nos encontremos con muestras pequeas
(N 30), deberemos dividir los clculos por (N-1). Frmulas:
=
2.
1 +
2
2
.
2
2
= 1
2
=
2
+
2
2.
2
=
2
+
2
+ 2.
2
=
2
=
1
Sujetos P i p-i
2
T = (Xp + Xi) en cada sujeto
Ver ejem. en la pg. 157
(C).- Procedimiento de Guttman
Est basado en la varianza de las mitades, de forma que a menor valor de la varianza, ms elevada ser la
fiabilidad de la prueba.
Ver ejem. en la pg. 158
(D).- Procedimiento de Kuder-Richarson
Partimos de las correlaciones de cada tem con todos los dems, pues se divide la prueba en tantas partes
como elementos tenga. Tomamos entonces las intercorrelaciones entre todos los elementos como una
medida de la fiabilidad.
Existen muchas frmulas para su clculo, pero nosotros nos quedamos con la n 20 de K-R, que se aplica a
elementos dicotmicos:
donde: n n de elementos de que consta la prueba
p proporcin de sujetos que aciertan =
=
1
(media de aciertos en cada tem)
q 1-p (los valores de p y q han de hallarse para cada tem, pues necesitamos el valor de pq)
Ver ejem. 8.4 pg. 159
(E).- Procedimiento alfa () de Crombach
Este procedimiento es muy utilizado cuando recurrimos al cuestionario como instrumento de medida.
donde: n n de elementos de la prueba o tems
2
varianza de cada uno de los tems
2
=
1
2
+
2
2
+ . +
2
varianza de las puntuaciones totales de la prueba
2
=
2
=
2
La fiabilidad de un cuestionario est relacionada directamente con el n de tems del mismo, de forma que a
mayor cantidad de tems, mayor fiabilidad.
Cuadro general para la eleccin del coeficiente de fiabilidad de consistencia interna:
n par y variable cuantitativa 2 mitades Rulon Guttman
n impar y variable continua
n docotmicos K-R20
Sujetos P I
2
2
p.i d
2
T
2
=N
= 2 1
2
+
2
=
2
=
1
.
2
=
1
. 1
2
=
1
. 1
2
Fiabilidad y longitud de las pruebas
De la ecuacin general de Spearman-Brown:
1) conociendo n y , , cmo repercutira en la prueba el aumento de 10 nuevos tems paralelos a los
originales?. n de tems finales
siendo n = ----------------------------
n de tems iniciales
<
n aumenta
>
n = 1
Ver ejem. en la pg. 160.
2) conociendo n;
es imposible de alcanzar
(redondeando al entero superior).
Ver ejem. en pg. 160
Lmites para la puntuacin verdadera de un sujeto
Un sujeto en dos aplicaciones sucesivas de la misma prueba, es muy difcil que obtenga el mismo resultado.
Como ya vimos que la puntuacin observada (X) es la puntuacin verdadera (V) afectada por el error de
medida (E), recurrimos al INTERVALO DE CONFIANZA entre cuyos lmites se encontrar V a un cierto nivel
de confianza.
Ver ejem. 8.5 pg. 161 X
_V +V
_Em +Em
puntuacin verdadera error tpico de medida
puntuacin observada nivel de confianza
El valor de
2
=
.
1 + 1
n =
.1
.1
n tems finales = n . n tems iniciales
=
=
0
2
. 1
2
=
2
+
2
=
2
. 1
0
2
.
0
+
1 2
.
0
2,575.
0
+ 2,575.
Comparacin de las puntuaciones de dos sujetos en la misma prueba
Tratamos de comprobar si una diferencia emprica de puntuaciones de dos sujetos a los que se les ha
aplicado una misma prueba, es una diferencia real aleatoria.
A la proporcin entre esas diferencias y el error de medida asociado a las diferencias, se le conoce como
razn crtica (RC).
Si valor RC > valor de tablas al nivel de confianza (%) SI hay diferencias reales
Si valor RC valor de tablas las diferencias son efecto del azar
Ver ejem. 8.6 pg. 162
Ejemplo: si el nivel de confianza es del 95%, tenemos que = 0,05
/2 = 0,025
1-/2 = 0,975 en tablas, pg. 341 z = 1,96
comparamos ahora el valor de RC con el valor del intervalo con 1.96. Si RC cae dentro del intervalo (-1,96
RC + 1,96), las diferencias son debidas al azar.
ESTUDIO DE LA VALIDEZ
Un instrumento es vlido cuando mide lo que dice medir y no otra cosa distinta. Tenemos distintos tipos de
validez.
Validez de contenido
Debemos comprobar la suficiencia y representatividad de los tems que componen la prueba.
Suficiencia n mnimo de elementos que debe incluir el instrumento y que comprenden todos los
aspectos esenciales del tema a estudio.
Representatividad definir cada tem con claridad y precisin, procediendo a la seleccin de los tems.
Proceso de validacin elaboracin de una tabla de especificaciones, realizada por varios expertos,
que ser sometida a estudio y crtica.
Los procedimientos para calcularlas son las tablas de especificaciones y las opiniones de expertos y jueces
con un buen conocimiento del tema.
Validez predictiva
Pretendemos establecer predicciones sobre la variable que se mide. Es decir, qu capacidad tiene la prueba
para hacer expectativas de aparicin de sucesos futuros.
Para su clculo se establece la correlacin entre las puntuaciones alcanzadas en la prueba a validar (Xi) y las
obtenidas en otra prueba denominada criterio (Y). Segn sean las caractersticas de las variables y su nivel de
medida, recurriremos al coeficiente de correlacin de Pearson:
Ver ejem. 8.7 pg. 164
Validez concurrente
Es una modalidad de la predictiva. La diferencia aqu estriba en que las mediciones de la prueba a validar (Xi)
y las del criterio (Y), se realizan al mismo tiempo y que los resultados permiten pronsticos a corto plazo, de
utilizacin inmediata. El clculo es el mismo.
Validez de constructo
Tambin denominada de elaboracin de construccin. Es la ms compleja y la que requiere en su
determinacin de procedimientos ms complicados. Fox (1987) nos dice que la validez de constructo es la
capacidad que tiene el instrumento para distinguir entre aquellos grupos cuyo comportamiento difiere en
relacin a la variable estudiada.
Sujetos X Y X Y XY
RC =
. .
. .
=
. 1
. 2
2
.
2
2
Validez aparente
Tambin recibe la denominacin de validez didctica, y se refiere a la serie de aspectos externos de la
prueba. Por ejemplo:
un instrumento muy largo puede provocar rechazo o fatiga, y no reflejar opiniones y valoraciones
reales.
si el formato es ms o menos atractivo, puede motivar a la persona que responde.
el lenguaje ha de ser adecuado a la edad y cultura de las personas que responden.
las instrucciones para las respuestas deben ser claras y fciles de aplicar.
etc.
Algunos coeficientes relacionados con la validez
(A).- Coeficiente de determinacin (d)
Es el coeficiente de validez elevado al cuadrado
Nos indica la proporcin de la varianza del criterio que se explica a partir de la prueba. Si se multiplica por
100, se transforma en porcentaje.
(B).- Coeficiente de alienacin (K)
Nos indica la proporcin de la varianza del criterio que es ajena o extraa a la prueba. Multiplicado por 100,
expresa el porcentaje del azar que queda cuando se predice Y a partir de X.
(C).- Coeficiente de valor predictivo (E)
Nos indica el grado de seguridad que tenemos en la prediccin y si se multiplica por 100, nos indica el
porcentaje de seguridad al predecir las puntuaciones de Y a partir de las puntuaciones de X.
Validez y longitud de la prueba
Al igual que aconteca con la fiabilidad, tambin la longitud de la prueba repercute sobre los valores de la
validez. La frmula es:
coeficiente de fiabilidad
n =
=
1
Ver ejem. 8.8 y 8.9 pg. 168
Prediccin de puntuaciones
Dado que el coeficiente de validez entre las variables oscila entre 0 y 1, cuando r
xy
= 0, cualquier
prediccin que se realice sobre Y a partir de X ( viceversa), ser totalmente aleatoria. Cuando r
xy
= 1, una de
las variables ser funcin de la otra.
En la mayora de los casos restantes, que es lo ms comn, realizaremos la prediccin del criterio a partir de
la prueba con unas mayores garantas de precisin a medida que vaya en aumento el valor de r
xy.
Como ya vimos, la puntuacin predicha (Y) no podemos asegurar que sea exacta y precisa, pues siempre
encontraremos diferencia entre los valores de Y (estimados) y los de Y (verdaderos), que llamamos error de
estimacin. La desviacin tpica de los errores de estimacin, recibe el nombre de error tpico de estimacin
(
est
).
Repasemos las ecuaciones de regresin simple de la variable Y sobre la X:
A) puntuaciones directas
x en diferenciales
d =
2
K = 1
2
E = 1 - K
Y=
. +
+
B) puntuaciones diferenciales
(Xi - )
(Yi )
C) puntuaciones tpicas
Ver ejem. 8.10 pg. 170.
Para todas las frmulas en directas y diferenciales
b) puntuaciones diferenciales y
2
.
c) puntuaciones tpicas
2
.
Ver ejemplo en pgs.. 170 y 171
ESTUDIO DE LOS ELEMENTOS DE UNA PRUEBA
Hay que realizar un examen minucioso de todos los elementos que constituyen la prueba. As se podrn
eliminar aquellos que no posean el mnimo grado de calidad o aadir otros que si cumplan los requisitos
establecidos. Veremos tres ndices:
(A).- ndice de dificultad (ID)
Se expresa numricamente por el numero de sujetos que resuelven satisfactoriamente un determinado
elemento. Si solo lo contestan bien unos pocos, el elemento es difcil; si prcticamente todos lo resuelven
acertadamente, el elemento es muy fcil.
Una prueba que se considere bien construida emplear;
Muy fciles 10% 0,75 < ID
Fciles 20% 0,55 < ID < 0,74
Normales (medios) 40% 0,45 < ID < 0,54
Difciles 20% 0,25 < ID < 0,44
Muy difciles 10% ID < 0,24
El ID de un elemento nos indica la proporcin de los sujetos que lo resuelven de forma correcta en relacin
con el total de los que lo contestan. Dos casos:
1. cuando se evoca una respuesta y los errores no penalizan.
A n de sujetos que aciertan el tem
n n de sujetos que lo contestan
2. entre varias opciones elegir la correcta y penalizan los errores.
correccin por respuesta al azar =
1
; en la que A es el n de
tems acertados; E es el n de tems fallados errores, y na es el n de alternativas
de respuesta que se ofrecen. El ndice queda entonces:
Ver ejem. 8.11 pg. 173.
Y= y+
y=
. x
ID =
ID =
(B).- ndice de homogeneidad (IH)
Indica la coherencia de cada uno de los elementos con el total de la prueba. Cada elemento debe medir lo
mismo que mide la prueba en su conjunto.
Para calcularlo hallamos la correlacin de cada elemento con todos los dems. A mayor correlacin, mayor
ser la homogeneidad. Se dan diferentes casos:
1. tems dicotmicos correlacin biserial-puntual (
)
2. una variable continua y la otra dicotomizada correlacin biserial (
)
3. dos variables dicotomizadas correlacin tetracrica (
)
pero sea el caso que sea, siempre debemos corregir el valor de ndice mediante la frmula
correlacin entre el tem y el total
S de las puntuaciones en la prueba
Ver ejem. 8.12 pg. 174
(C).- ndice de validez (IV)
Los elementos de la prueba se consideran vlidos cuando miden lo que dicen medir y no otra cosa. Debe
existir entonces una relacin clara entre las puntuaciones que se obtienen en la prueba y las que se obtienen
en el criterio. cuanto mayor sea esta relacin, mayor ser el IV.
El ndice depende del coeficiente de correlacin ms adecuado a cada caso segn las condiciones de uso de
cada prueba. No es necesario corregirlo.
Ver ejem. 8.13 pg. 175.
IH =
2
+
2
2.
BLOQUE 3 TEMA 9
MODELOS ESTADSTICOS Y PROBABILIDAD. LA CURVA NORMAL
Los modelos nos van a permitir comprender la realidad, acercarnos a su explicacin, e incluso, tomar
decisiones en el campo de la prueba de hiptesis.
Un modelo es un esquema terico, generalmente en forma matemtica de un sistema o una
realidad compleja, que se elabora para facilitar su comprensin y el estudio de su comportamiento.
Los modelos pueden surgir de las teoras, pero tambin puede darse el caso de modelos elaborados a
partir de datos observados. Sea un caso el otro, el modelo basado en la teora debe funcionar bien en la
realidad, y el modelo surgido de la realidad debe encontrar una teora que lo respalde.
Entre realidad y modelo debe existir una ntima relacin y no cabe pensar en una sin tener en
cuenta el otro. Un modelo que no explique con razonable adecuacin la realidad, no nos sirve. Una realidad
para la que no somos capaces de encontrar un modelo que la represente con fidelidad, nos hace muy difciles
tanto su comprensin como la toma de decisiones en torno a la misma.
El modelo, finalmente, ha de ser til, derivando de una propiedad de la teora, que es la
comprobabilidad. Si la teora es correcta, se podr contrastar con la realidad.
RPRESENTACIN DE LOS MODELOS
El modelo es la representacin simplificada de la realidad. A su vez, el modelo puede representarse
de varias formas:
^ representacin icnica una escultura, un cuadro, etc.
^ representacin matemtica mediante frmulas se establece una igualdad ms o menos compleja.
^ representacin analgica con esquemas, diagramas, etc., podemos entender la realidad abstracta
y muchas veces solo observable mediante el uso de aparatos complejos. Por ejem.: el sistema solar,
el tomo.
Efectuar predicciones de futuro acerca de la conducta humana es complicado. Si somos capaces de
establecer modelos suficientemente cercanos a la realidad, podremos hacer este tipo de predicciones, tales
como el porcentaje de suspensos, o de nios violentos, o de hiperactivos, etc.
Modelos matemticos y modelos estadsticos
Un modelo estadstico es un tipo de modelo matemtico en el que se incorpora como componente
fundamental la probabilidad.
Los modelos matemticos se expresan mediante igualdades que reflejan la relacin existente entre
los componentes de la realidad. La funcin es un modelo matemtico. Un modelo matemtico clave en
nuestro campo es la campana de Gauss, tambin conocida como distribucin normal tipificada.
Los valores de cualquier ordenada pueden calcularse para cada distribucin emprica de N datos,
conociendo el valor de su y de la y la o de la poblacin.
Toda prediccin asume un cierto riesgo de error, error que consideraremos aleatorio. Los errores
aleatorios tienden a compensarse y su magnitud puede estimarse. Como podemos imaginar, nuestro inters
consiste en reducir a su mnima expresin este error, siendo la meta a alcanzar que e = 0. La expresin, ya
vista, X = V E, se conoce como Modelo Lineal Clsico.
PROBABILIDAD
El principio bsico de las pruebas estadsticas de significacin consiste en comparar los resultados
obtenidos con los esperados por azar. Cuando los resultados de una prueba estadstica superan a lo
esperado por puro azar, se aceptar que el fenmeno en cuestin no se explica por el azar sino por la accin
del investigador, sometida a contraste en condiciones controladas y analizada mediante tal prueba.
Diferenciamos entre dos conceptos de probabilidad:
=
1
2
.
1
2
.
2
=
1
2
.
1
2
.
2
+ probabilidad a priori antes de que ocurra un fenmeno podemos estimar las probabilidades de
que ocurra de acertar una prediccin.
+ probabilidad a posteriori cuando los fenmenos ya han ocurrido, podemos establecer la
probabilidad de ocurrencia de tal fenmeno. Esta probabilidad se calcula empricamente
y se traduce en la frecuencia relativa con la que ocurre tal fenmeno cuando se repite un
elevado nmero de veces en las mismas condiciones.
Probabilidad a priori y a posteriori
La probabilidad a priori se establece sobre la base del n de casos favorables dividido por el n de
casos posibles, y constituye la base de la probabilidad matemtica, de la probabilidad en trminos tericos.
En el caso de la probabilidad a posteriori, cuando estudios reiterados vienen a arrojar resultados
compatibles, es posible establecer la realizacin de estimaciones sobre la probabilidad de que, en ocasiones
sucesivas, ocurra un determinado acontecimiento.
Clculo de la probabilidad. Definiciones
ESPACIO MUESTRAL es el conjunto de todos los resultados posibles de un fenmeno. Cuando dos
conjuntos, A y B, no tienen elementos en comn, decimos que A B = C; y se lee A interseccin con B, es
igual al conjunto vaco. Entonces:
Pero esto no es lo normal, pues se da con bastante frecuencia que dos ms conjuntos tengan elementos
en comn y entonces decimos que A B C, luego
El fenmeno de la EXHAUSTIVIDAD AGOTAMIENTO se produce cuando los diferentes subconjuntos que
puedan crearse, son subconjuntos del espacio muestral y todos ellos juntos lo agotan, lo completan
plenamente.
Hablamos de MUTUA EXCLUSIN cuando dos acontecimientos distintos no tienen ningn elemento en
comn, es decir, su interseccin es el C. Como en tal caso A B = C, las probabilidades de cada subconjunto
pueden sumarse.
LA INDEPENDENCIA supone que la probabilidad de que ocurra el fenmeno conjunto, es igual al producto de
las probabilidades de cada uno por separado. Entonces:
Esta es una de las condiciones o supuestos que se han de verificar para la aplicacin de las pruebas
denominadas paramtricas en el contraste de hiptesis.
Concepto de PROBABILIDAD CONDICIONAL.
En nuestro mbito de trabajo es bastante frecuente encontrarnos con fenmenos relacionados, es decir, que
no son independientes. Como en este caso, A B C, la probabilidad condicional nos sita ante un caso en
el que deseamos conocer la probabilidad de un determinado acontecimiento suceso cuando la
probabilidad del otro es conocida.
Variables aleatorias continuas y discretas
Una variable cuantitativa es discreta cuando no puede adquirir todos los valores posibles, es decir,
cuando el conjunto de sus valores es numerable.
Una variable cuantitativa es continua cuando admite un nmero no numerable de casos o valores.
ver ejem. en pg. 186.
Si realizamos grficos de histogramas, disminuyendo progresivamente la base de cada barra, como se aprecia
en la fig. 9.1, pg. 187, llegaramos a una curva que unira los infinitos puntos posibles de esa distribucin.
Esas sucesivas representaciones grficas nos permiten desvelar dos valores de la probabilidad: la funcin de
densidad de probabilidad, y la funcin de distribucin. Tienen estas caractersticas:
P(A B) = P(A) + P(B)
P(A B) = P(A) + P(B) P(A B)
P(A B) = P(A) . P(B)
=
( )
()
- el rea ocupada por ambas representaciones tiene como valor la unidad.
- en todos los casos, las representaciones tienen siempre valores positivos.
- en las representaciones de histogramas de barras, y sea cual sea su base, el eje de abscisas
representa una variable aleatoria discreta.
- en las representaciones de histogramas sin barras, cuando la base son puntos y la representacin es
una curva, estamos ante una variable aleatoria continua.
En el caso de las variables aleatorias discretas, el rea que queda entre dos valores A y b, nos indica la
PROPORCIN de casos del total que se encuentran entre esos valores. En el caso de variables cuantitativas
continuas, indica la PROBABILIDAD de que tal variable tome esos valores.
ALGUNAS FUNCIONES DE DENSIDAD DEPROBABILIDAD
Funcin de densidad de probabilidad normal
La ms frecuentemente utilizada por nosotros es la denominada normal, conocida como campana de
Gauss. Ver fig. 9.2 pg. 189 para una representacin de la curva. Algunas de sus caractersticas ms
importantes:
porcentaje de casos entre dos valores de o (desviacin tpica poblacional):
o o 68% 2o 95% 4,5o 99,99932%
o estos valores en porcentajes se convierten en probabilidades dividiendo por 100; es decir, el
conjunto de los casos situados entre o tiene una probabilidad de ocurrencia de 0,68
mediante la tabla de reas de la curva normal, podemos atribuir probabilidades a un caso concreto,
en sus diversas columnas.
Funcin de densidad de probabilidad
Las variables aleatorias a las que se les aplica se distribuyen segn con n-1 grados de libertad (u), esto es,
el n de casos menos 1, puesto que mientras los primeros casos pueden variar libremente, el ltimo viene
condicionado por todos los anteriores.
Segn aumenta el n de los grados de libertad, la distribucin se aproxima progresivamente a la
distribucin normal (ver fig. 9.3 pg. 190). De hecho, las tablas de nos ofrecen valores de probabilidad
hasta 30 gl. A partir de ah, la distribucin sigue con un valor de:
con = 0 y S = 1
La importancia de esta distribucin radica en sus aplicaciones:
^ como prueba de bondad de ajuste
^ como prueba de independencia
^ como prueba del grado de asociacin entre dos conjuntos de variables de atributo, para calcular el
coeficiente de contingencia C:
Funcin de densidad de probabilidad t
La distribucin de probabilidad t se conoce como t de Student. Si tenemos Y y Z, dos variables aleatorias
independientes, Y con una distribucin con n gl., y Z con una distribucin normal (o,1), definimos la
distribucin
Cuando aumentan los gl., la distribucin se aproxima progresivamente a la
campana de Gauss (ver fig. 9.4 pg. 191).
Esta distribucin se utiliza frecuentemente en pruebas de contraste de
hiptesis para decidir si la diferencia de medias es o no es
estadsticamente significativa, a un determinado nivel de confianza.
= 2 2 1
=
+
t =
Cuando las muestras son correlacionadas, la distribucin t no sigue el estadstico de contraste aplicado en
las muestras independientes. Dos muestras son correlacionadas cuando se forman parejas de sujetos, uno de
cada muestra, que gozan de cierta caracterstica comn o similar.
Funcin de densidad de probabilidad F
Denominada F de Fisher, esta funcin de probabilidad, junto con la anterior t, son de las ms utilizadas en el
mbito del contraste de hiptesis.
F puede aplicarse adems a contrastes con tres o ms pares de medias en diseos de tres o ms grupos. Se
aplica fundamentalmente en el anlisis de varianza (ANAVA).
F nos indica si se dan o no diferencias estadsticamente significativas entre varios grupos de medias. En caso
afirmativo, es preciso averiguar entre qu dos pares de medias se concreta tal diferencia, por lo que se hace
necesario la continuacin del trabajo con las denominadas pruebas a posteriori.
La distribucin F se define como la razn entre dos distribuciones independientes, dividida cada una de
ellas entre sus respectivos gl.
Si las dos varianzas poblacionales son iguales, la frmula se reduce a:
Las tablas nos ofrecen los valores de probabilidad que corresponden a diversos gl del numerador (varianza
INTERgrupos en la ANAVA) y del denominador (varianza INTRAgrupos en la ANAVA). La distribucin F es no
negativa, sesgada hacia la derecha y sus valores oscilan entre 0 e , siendo asinttica al eje de abscisas.
LA CURVA NORMAL DE PROBABILIDADES
En ciencia no es aconsejable hacer apreciaciones subjetivas acerca del grado de acercamiento o
parecido entre el modelo y la realidad. Conviene que las apreciaciones sean precisas y para ello tenemos la
prueba de bondad de ajuste.
Si los datos empricos se ajustan razonablemente al modelo, es decir, si las discrepancias son
compatibles con las esperadas por puro azar, consideraremos estos datos como normales, y les aplicaremos
todas las propiedades del modelo. En caso contrario, no podemos afirmar que el modelo sea idneo.
Sobre el modelo
No hay una nica curva normal, sino una por cada par de valores de y de S. Todas ellas cumplen las
siguientes caractersticas (ver fig. 9.2 pg. 198):
el valor mximo de la ordenada corresponde a la , y por tanto, a una z = 0
a ambos lados de la , se encuentran dos puntos de inflexin que se corresponden con los valores de
z 1
la curva es simtrica respecto a la , puesto que = Md = Mo. La ordenada de la divide a la curva
en dos partes iguales, cada una con el 50% de los casos
la curva es asinttica al eje de abscisas, por lo que nunca se llega a abarcar el 100% de los casos.
La prueba de bondad de ajuste
Pretendemos poder afirmar que una distribucin dada se desarrolla normalmente, o que sus datos se
distribuyen normalmente, siguiendo el modelo de la normal (0,1).
Para ello se acude a las pruebas de bondad de ajuste. Nosotros utilizaremos la de
Esta prueba valora las discrepancias entre los valores de las frecuencias empricas y las tericas. Si
estas discrepancias no fueran significativas a un determinado nivel de confianza, admitiramos que los datos
empricos y el modelo son una misma cosa (aceptamos Ho). Admitiramos que las discrepancias encontradas
pueden explicarse por puro azar como consecuencia de errores de muestreo.
Se distribuye segn con:
* gl = n de columnas -1 (si y o son conocidas)
* gl = n de columnas -3 (si y o son estimadas)
F = t
=
1
2
2
2
F =
1
2
2
2
=
Ver tabla 9.2 pg. 197
Xi fo Lsup Zi P(Zi) Pi fe (fo-fe) (fo-fe)
Xi puntuaciones directas obtenidas por el alumno
fo frecuencias observadas
Lsup lmite superior de cada intervalo
Zi las puntuaciones tpicas de tales lmites.
(Necesitamos calcular previamente los valores de y de S)
P(Zi) probabilidades que corresponden a esas Zi (columna B en las tablas)
Pi probabilidad de cada intervalo, que se calcula restando de su valor P(Zi), el valor que
corresponde al intervalo anterior.
fe frecuencias esperadas o tericas. Para su clculo:
* hallamos la columna P(Zi)
* hallamos la columna Pi
* hallamos la columna fe Pi . N
Calculado el valor de empricamente, lo comprobamos con el valor de las tablas, para un nivel de
confianza y (n-1) gl.
Si valor de tablas acepto Ho no hay diferencias significativas entre las distribuciones
el ajuste es bueno
Si > valor de tablas acepto H1 si hay diferencias significativas entre las distribuciones
no hay ajuste.
BLOQUE 3 TEMA 10
LOS BAREMOS O NORMAS. MUESTREO. APLICACIONES.
Para interpretar una puntuacin necesitamos de algn tipo de referencia. En Educacin es frecuente
acudir a alguna de estas tres:
* La idiosincrsica o personalizada la puntuacin alcanzada por una persona en una prueba, se
valora atendiendo bien a la puntuacin que alcanz en una prueba anterior, apreciando si
aumenta, se mantiene o disminuye; o bien estableciendo previamente un nivel adecuado a
sus caractersticas.
El juicio de la comparacin suele ser de satisfactorio / insatisfactorio
* La criterial la referencia es un nivel objetivo, previamente fijado por las personas competentes
como deseable o adecuado para decidir sobre la suficiencia / insuficiencia.
Se conoce como un dominio perfectamente definido y quienes lo alcanzan obtienen una
valoracin de suficiente, frente a la insuficiencia de quienes no llegan.
En el mbito del aprendizaje, esta es la referencia ms adecuada.
* La normativa Para la medida de muchas variables, especialmente en el mbito de la inteligencia
o de la personalidad, ni es fcil ni posible en ocasiones el fijar unos estndares, ni podemos
decidir qu o cunto es lo propio de cada persona, ni resulta factible establecer unas
puntuaciones como las que debieran ser alcanzadas.
Esta es una referencia relativa, ya que, dependiendo del grupo en que uno est integrado,
una misma puntuacin puede ser ms `positiva o favorable en unos casos que en otros.
Esta regla para medir e interpretar las puntuaciones, se conoce como baremo o norma.
NORMAS O BAREMOS
Baremar es construir un baremo; esto es, una escala de puntuaciones obtenidas con un instrumento
de medida que permite su interpretacin, mediante la atribucin a cada una de ellas de un determinado
valor.
Hay unos elementos que deben ser conocidos para interpretar una puntuacin:
el suelo y el techo de las puntuaciones posibles
la regla de medida
el propio contenido del citado instrumento
a quienes va destinado el instrumento.
Cualidades de los baremos o normas
La construccin de un baremo de calidad depende de la muestra utilizada para servir de referencia.
Los valores seleccionados en la muestra no pueden ser valores cualesquiera, sino valores representativos del
grupo a que pertenecen los sujetos cuyas puntuaciones deseamos interpretar.
La cuestin clave para la representatividad reside en que la muestra sea una especie de fotografa del
conjunto de la poblacin. La muestra de referencia, la que se toma como norma o baremo para la
interpretacin debe acercarse cuanto sea posible a las caractersticas ms relevantes de la poblacin de la
que ha sido extrada.
Para alcanzar la representatividad de una muestra es preciso tomar dos decisiones clave:
fijar el tamao de la misma, de forma que sea suficiente para que puedan manifestarse las
caractersticas que definen a la poblacin (con muestras pequeas esto no es posible)
utilizar un procedimiento de seleccin imparcial, que evite todo tipo de sesgos.
Procedimiento de seleccin: aleatoriedad
Aunque existan varios procedimientos de seleccin de los componentes de una muestra, el que
ofrece mayores garantas a priori es el muestreo aleatorio simple, cuya ventaja fundamental es que permite
establecer la magnitud de los errores muestrales, con lo que es posible conocer mediante el intervalo de
confianza deseado, los lmites entre los que se encuentra el valor de la poblacin.
As pues, tamao suficiente y seleccin aleatoria, son las dos condiciones
fundamentales para construir una norma o baremo, para la interpretacin de
las puntuaciones obtenidas en un instrumento de medida.
Construccin de los baremos o normas
Normas cronolgicas o de edad
Uno de los primeros tipos de normas utilizados fue el de las cronolgicas o de edad.
El ejemplo ms conocido es la denominada Edad Mental (EM). La puntuacin media de los sujetos de cada
edad, se convierte en representativa de la misma y en adelante, las puntuaciones de cualquier sujeto, tenga
la Edad Cronolgica (EC) que tenga, se comparan con las del baremo o norma establecida, y se le asigna la
edad mental correspondiente.
Otra medida es el Cociente Intelectual (CI), que consiste en dividir EM / EC. El resultado obtenido se
suele multiplicar por 100 a fin de eliminar la presencia de decimales. Lo normal se sita alrededor de CI =
100; los sujetos adelantados obtienen un CI > 100 y los valores inferiores (CI < 100) representan a los sujetos
con retraso.
Este tipo de normas no es aplicable ms all de los 14-15 aos.
Normas cuantiles
Otro tipo de normas muy utilizadas son las denominadas cuantiles, entre las que destacan:
cuartiles cuantiles de orden 4
1
,
2
,
3
puntuaciones que dejan por debajo de si el 25; 50;
75% de los casos.
deciles cuantiles de orden 10
1
,
2
, ,
9
que dejan cada uno por debajo de si el 10,
20, -----, 90% de casos.
centiles o percentiles cuantiles de orden 100 Ci (i = 1,2,3,------,99) que dejan por debajo de
si el 1,2,3,------, 99% de los casos.
Entendemos por cuantil cada una de las partes en que puede dividirse una serie ordenada de
puntuaciones. El ms conocido de todos es la Md, que es:
* cuantil 1 de orden 2
* cuantil 2 de orden 4, o cuartil 2 (
2
)
* cuantil 5 de orden 10, o decil 5 (
5
)
* centil o percentil 50 de orden 100, (
50
)
Construccin de un baremo en cuantiles
El baremo que construyamos no tendr valor alguno, si la muestra no cumple con las exigencias de
tamao e imparcialidad para hacerla representativa.
El procedimiento comienza con la elaboracin de una distribucin de frecuencias acumuladas, sean
stas con puntuaciones directas o agrupadas en intervalos. Ver ejem. pg. 209.
Calculamos el rango o amplitud de la serie ( A =
100
)N. Si buscamos deciles, el parntesis lo sustituimos por
10
. Si buscamos cuartiles, lo
sustituimos por
4
. Si buscamos la MD, lo sustituimos por
1
2
.
Para identificar el valor de puntuacin que corresponde al cuantil concreto, basta con sustituir en la frmula
genrica anterior los valores correspondientes de la distribucin agrupada por intervalos, y efectuar los
clculos necesarios. En la tabla 10.2, pg. 212, aparecen todos los valores habitualmente utilizados en la
construccin de baremos.
Normas tpicas
En las puntuaciones centiles se observa que estn muy cercanas unas de otras en el centro del
baremo, mientras que las distancias aumentan en los valores extremos.
= +
100
.
(1)
.
Una forma de evitar esto consiste en expresar la puntuacin de cada sujeto tomando una unidad
constante de medida. Las variables tpicas (z) indican la distancia de cada puntuacin directa hasta la del
grupo, medida en unidades de S. Recordamos la frmula de las puntuaciones tpicas:
Los sujetos con puntuaciones superiores a la , tienen z positivas, y la tienen negativa en caso
contrario.
Puntuaciones tpicas normalizadas
Una distribucin de frecuencias se acerca ms a la normal, cuanto mayor sea el nmero de casos
(N) de la serie, siempre que la variable medida se distribuya normalmente en la poblacin.
Cuando nuestros datos empricos sean compatibles con la curva normal, tras haberlo comprobado
con las correspondientes pruebas de bondad de ajuste, es interesante normalizar la distribucin, y para ello
procedemos a normalizar las puntuaciones tpicas (z).
Podemos obtener una puntuacin tpica normalizada mediante las tablas. Para ello:
calculamos el porcentaje de casos que se encuentren por debajo (o por encima) de cada
puntuacin
se busca tal porcentaje en la tabla de reas de la curva normal y se identifica la z
normalizada correspondiente.
Ejemplo: con los datos de la tabla 10.1
= 21,5
S = 6,29 =
36,521,5
6,29
= 2,384
Xi = 36,5 En la tabla 10,1, una puntuacin de 36,5 deja por debajo de s a 69 de 70
casos proporcin:
69
70
= 0,9857
buscamos en tablas de la curva normal esta proporcin en la columna B, y
encontramos
= 2,19
Las
error de estimacin que considera adecuado asumir
la proporcin en que la caracterstica a estudiar se encuentra en el total de la poblacin.
As mismo, debemos suponer la distribucin normal de la caracterstica muestreada.
Nivel de confianza en distribuciones normales se trabaja con el 95, 99 el 99,9%
Error de estimacin fijado por el investigador en trminos de porcentaje. Cuanto menor error se acepte,
mayor tamao deber tener la muestra.
Proporcin de una caracterstica en la poblacin con frecuencia se desconoce este dato, por lo que
consideramos que se da en el 50% de la poblacin, representando esto un mayor tamao para la
muestra.
Para el clculo del tamao de una muestra contamos con dos frmulas, segn que el tamao de la
poblacin sea:
infinita
finita -------------------------------
donde : N tamao de la poblacin
n tamao de la muestra
z valor de la puntuacin tpica que corresponde al nivel de confianza elegido
E error de estimacin muestral
Ver ejem. pg. 219
Procedimientos de seleccin
El principal procedimiento de extraccin de muestras imparciales es el muestreo aleatorio simple. Lo
caracterstico de este muestreo es que todos los sujetos tienen, a priori, las mismas posibilidades de ser
seleccionados para integrar la muestra.
El muestreo sistemtico es una modalidad del anterior, que nos permite fijar el primero de los
sujetos de la muestra, y a partir de l, seleccionar sistemticamente el resto sumndole un valor constante,
denominado coeficiente de evaluacin, que equivale al cociente (N/n).
Procedimientos de muestreo
Adems de los dos anteriores:
Estratificado los sujetos de cada estrato pueden seleccionarse mediante el sistema aleatorio
simple o el sistemtico.
Por cuotas cuando una determinada poblacin est estratificada por nivel de estudios, clase
social, consumo de drogas, religin, grupo poltico al que votan, ---, pueden seleccionarse sujetos
representativos de los mismos, a fin de contar con representantes de los diferentes estratos
poblacionales.
Incidental o casual es el ms usual por ser el ms asequible. Se toman los sujetos disponibles o
asequibles.
El error muestral
La propia teora de la probabilidad nos va a permitir estimar la magnitud del error muestral para un
determinado nivel de confianza. El error muestral puede calcularse mediante dos frmulas, una se aplica a
muestras finitas (<100.000) y la otra para muestras .
infinita
finita -----------------------------------
ver ejem. pg. 221
Cuanto menor sea el error muestral, menor ser el intervalo de confianza, y ese error muestral ser
tanto mayor cuanto ms elevada sea la seguridad que deseamos tener de que el valor de la caracterstica en
la poblacin se encuentra en ese intervalo.
=
2
. .
2
=
2
. . .
2
. 1 +
2
. .
=
2
. .
2
. .
.
1
BLOQUE 3 TEMA 11
ESTIMACIN DE PARMETROS. ERRORES DE ESTIMACIN
Aproximacin intutitiva a la inferencia estadstica
La Estadstica es la ciencia que se ocupa de la ordenacin y anlisis de datos procedentes de
muestras, y de la realizacin de inferencias acerca de las poblaciones de las que stas proceden.
POBLACIN: conjunto de todos los elementos que cumplen una o varias caractersticas o
propiedades. Los valores numricos que describen a la poblacin se llaman parmetros. Normalmente, los
valores de los parmetros son desconocidos porque resultara enormemente costoso y complicado obtener
datos de todos los sujetos de la poblacin. Por esta razn se trabaja con muestras a partir de las cuales, si
procede, se trata de estimar los valores de los parmetros.
MUESTRA: es un subconjunto de los elementos de una poblacin. Los ndices numricos que
describen a las muestras se denominan estadsticos. La tcnica para seleccionar a los sujetos que entrarn a
formar parte de la muestra se denomina muestreo. Siempre que sea posible debe utilizarse el muestreo
aleatorio porque nos da mayores garantas de que la muestra sea representativa de la poblacin. Otra de las
caractersticas a tener en cuenta en el muestreo, es que la muestra sea suficiente en nmero, de forma que
a mayor tamao de la muestra, mayores garantas de representatividad, si bien debemos matizar que a partir
de cierto tamao que el investigador debe establecer, su aumento no aporta mejoras sustanciales a la
representatividad.
MEDICIN: es uno de los procesos ms peliagudos a los que nos enfrentamos en educacin y
Psicologa. En muchas ocasiones nos enfrentamos a la medicin de constructos, es decir, caractersticas del
ser humano que no son directamente mensurables. Lo que medimos son las manifestaciones observables
que atribuimos a esos constructos. Una vez elaborados los instrumentos de medida, se aplican a la muestra,
se recogen los datos y se elabora la matriz de datos. A partir de aqu volveramos a lo dicho sobre ordenacin
y categorizacin de datos y anlisis descriptivo.
ESTADSTICA INFERENCIAL: pretende sacar conclusiones sobre el conjunto de datos a travs de
observaciones de una parte de esos datos. Mediante la Estadstica Inferencial se pueden estimar parmetros
y realizar contrastes de hiptesis (ver fig. 11.1 pg. 226).
Dentro del marco de la Estadstica Inferencial suelen distinguirse dos tipos de estudios: la estimacin de
parmetros y el contraste de hiptesis. Un parmetro se estima siempre a partir de un estadstico calculado
en una muestra. Se habla de dos tipos de estimacin: estimacin puntual y estimacin por intervalos.
Bsicamente, en la estimacin puntual se hace coincidir el estadstico con el parmetro; mientras que en la
estimacin por intervalos se ofrece un intervalo de puntuaciones en el que es ms probable que se
encuentre el valor del parmetro.
Propiedades de los estimadores
La estimacin consiste en la tcnica que permite conocer el valor aproximado de un parmetro de un
poblacin con una determinada probabilidad a partir de los datos proporcionados por una muestra.
Estas son las caractersticas que debe poseer un buen estimador:
Carencia de sesgo: un estimador insesgado es aquel que tiene sesgo igual a cero. La propiedad del
insesgamiento nos garantiza que las estimaciones que hagamos con el estimador se encuentran alrededor
del parmetro en cuestin, de forma simtrica, es decir, que el promedio de los estadsticos coincide con el
verdadero valor del parmetro.
Eficiencia: un estimador es tanto ms eficiente cuanto menor es su desviacin tpica. Si pensamos en una
distribucin muestral, cuanto ms estrecha sea, cuanto menor sea su error tpico, ms cercanos estarn los
estadsticos al valor del parmetro.
Consistencia: un estimador es consistente si a medida que aumenta el tamao de la muestra, la
probabilidad de que el valor del estadstico se acerque al valor del parmetro va siendo mayor. Si el valor de
N tiende a , un estimador consistente es, al mismo tiempo, insesgado.
Suficiencia: un estimador es suficiente cuando es capaz de obtener de la muestra toda la informacin que
sta contenga acerca del parmetro.
Distribucin muestral, error muestral y error tpico: estimacin del parmetro.
La distribucin muestral se define como la distribucin de un estadstico en el muestreo. Est formada por los
valores del estadstico obtenidos en muestras aleatorias del mismo tamao extradas de la misma
poblacin.
Si nos remitimos a la distribucin muestral de la (media poblacional), est demostrado segn el teorema
central del lmite y para muestras grandes (N > 30), que la distribucin se asemeja a una distribucin normal.
Si el parmetro fuese conocido, comprobaramos como la mayora de las de las muestras se encontraran
cerca del valor del parmetro, pero precisamente por ser muestras aleatorias, algunas se alejan un poco y
otras, muy pocas, se alejan mucho de ese valor.
Por tanto, confiamos en que la muestra elegida sea una de las que el valor de su est cercano al valor de ,
pero no lo podemos asegurar. Por esta razn, en inferencia siempre hablamos de nivel de confianza
(porcentaje de confianza al hacer la estimacin; tambin puede darse en probabilidad y se denomina 1-) y
del nivel de significacin (probabilidad de error que estamos dispuestos a asumir en la estimacin).
Obviamente, se trata de conceptos complementarios que se refieren a lo mismo.
Para hallar el intervalo confidencial, es decir, los valores entre los cuales es ms probable que se encuentre el
verdadero valor del parmetro, necesitaremos calcular la , a la que sumaremos y restaremos el error
muestral; es decir, la diferencia ms probable entre el estadstico y el parmetro.
El error muestral nos da una idea de la precisin de nuestra inferencia estadstica.
Cuanto ms grande sea el error muestral, menor ser la precisin en la estimacin
y menor ser la utilidad de la estimacin.
Una distribucin muestral tiene variabilidad, por tanto tendr su propia desviacin tpica , que recibe el
nombre de error tpico. Es un medida de dispersin con respecto al parmetro, es decir, nos indica la
dispersin de las de las muestras aleatorias extradas respecto a la .
Cmo podemos conocer este dato?
Nuevamente lo estimaremos y nos basaremos en los datos de la muestra, en este caso Sx. Para la
distribucin muestral de medias, la frmula es:
pondremos N-1 en el denominador cuando se haya calculado en la muestra la
2
insesgada, o solo N cuando
se haya calculado la
2
sesgada (cuasivarianza o varianza, respectivamente).
El error tpico no solo depende de la Sx, sino en gran medida del tamao de la muestra. Cuanto ms grande
es N, ms pequeo el cociente, ms pequeo el error tpico y ms precisin en la estimacin del parmetro.
Cmo se calcula el error muestral?
Previamente hemos tenido que definir el nivel de significacin con el que vamos a realizar la estimacin,
calcular la puntuacin z correspondiente a ese nivel (porque la distribucin es normal) y aplicamos la
frmula:
ver fig. 11.2 pg. 230. Un ejemplo: sean N = 1.000; = 105 y Sx = 10. Estimar el valor del parmetro
(intervalo confidencial) con un nivel de confianza del 99%.
IC = EM
nivel de confianza 1- = 99% 0,99
nivel de significacin = 0,01
Por tanto, /2 = 0,005. El rea bajo la curva normal de valor 0,005, corresponde a
una z = - 2,575 (columna C)
1
=
10
999
= 0,316
104,18
IC = 105
2
.
= 105 (-2,575) 0,316
105,81
podemos afirmar con un nivel de confianza del 99%, que el valor de se encuentra en el intervalo siguiente:
(104,18 105,81)
IC = EM
1
EM =
2
Estimacin de para pequeas muestras
Cuando N 30, la distribucin muestral de la media sigue la distribucin t de Student. Esta distribucin vara
en funcin del nmero de sujetos, es decir, de sus grados de libertad, aunque se trata tambin de una
distribucin simtrica y asinttica. Cuando N tiende a , la distribucin t tiende a la distribucin z.
Solo nos cambia en este caso el estadstico para calcular el error muestral. En lugar de trabajar con
2
, lo
haremos con
2
(ver tablas en pg. 347).
Ejemplo: los mismos datos del ejemplo anterior pero ahora con N = 25.
IC = 105 EM
/2 = 0,005. Se distribuye segn t con N-1 grados de libertad. Buscando en tablas,
corresponde a un valor de
2
= 2,797
=
10
24
= 2.04 99,29
IC = 105
2
.
viene
dada por la frmula:
El intervalo de confianza se establece igual que en el caso de la , pero ahora partiendo de una proporcin.
Se emplea el valor de
2
al nivel de confianza correspondiente.
Estimacin de la puntuacin verdadera en una prueba
Queremos realizar la estimacin de la puntuacin verdadera de un sujeto en un instrumento, o dicho de otra
forma, entre qu puntuaciones es ms probable que se encuentre la verdadera puntuacin, ya que toda
medida tiene algn margen de error.
De nuevo se trata de hallar el intervalo de confianza en el que es probable que se encuentre la verdadera
puntuacin del sujeto en la prueba. Sabiendo que la distribucin muestral es normal, necesitamos conocer el
error tpico de medida:
coeficiente de fiabilidad
=
.
1
. 1
IC =
EM
. 1
2
IC = Y EM
intervalo de confianza para la correlacin de Pearson, de modo que podamos estimar entre qu valores se
encuentra dicho coeficiente entre la poblacin.
Sabemos que la distribucin muestral de la correlacin de Pearson se asemeja a la distribucin normal con el
siguiente error tpico:
* para muestras grandes (N > 100)
* y para muestras pequeas ---------------------------------------------------
y como ya es habitual ; donde
Ejemplo: Sea N = 20 y
=
10,35
2
201
=
0,8775
4,358
= 0,201
= 0,05 2 = 0,025. En tablas, un rea bajo la curva de 0,025 (columna C)
corresponde a una z = -1,96
-0,04
IC = 0,35 (-1,96).0,201
0,74
El intervalo tan amplio es debido al pequeo tamao de la muestra. Cuanto ms pequea sea la muestra, ms imprecisa
ser la estimacin.
Significacin o significatividad estadstica
Hablamos de significacin estadstica cuando nos referimos al significado de la diferencia entre dos medidas. Decimos
tambin que un coeficiente de correlacin es estadsticamente significativo cuando es distinto de cero, es decir,
cuando el coeficiente de correlacin (estadstico) es lo suficientemente grande como para decir que la correlacin en la
poblacin (parmetro) de referencia es distinta de cero. Si queremos conocer cul es su magnitud en la poblacin,
entonces calcularemos el intervalo de confianza.
Cuando estimamos el intervalo de confianza en el cual es probable que se encuentre la verdadera correlacin en la
poblacin, y este intervalo contiene el valor cero (ausencia absoluta de correlacin) diremos que dicha correlacin NO
es estadsticamente significativa.
Estimacin del parmetro diferencia de medias (
Si una universidad encuentra que el CI medio de sus estudiantes es de 110, y otra universidad lo tiene de
105, cmo es la diferencia entre estas dos puntuaciones en la poblacin de referencia?. La diferencia entre
estas dos puntuaciones es estadsticamente igual a cero?. Si dicha diferencia es compatible con una
diferencia igual a cero, concluimos que ambas muestras tienen el mismo CI, al nivel de confianza fijado, y que
la diferencia encontrada es aleatoria.
Si establecemos el intervalo de confianza a partir del estadstico diferencia de medias, obtendremos los
lmites confidenciales entre los cuales es ms probable que se encuentre la diferencia de medias en la
poblacin.
Si este intervalo incluye la puntuacin cero, entonces dicha diferencia es compatible con una diferencia de
medias igual a cero, y en consecuencia, podremos interpretar que dicha diferencia es estadsticamente igual
a cero.
para muestras grandes e independientes (N > 100)
para muestras pequeas e independientes
(N 100)
=
1
1
=
1
2
1
IC =
EM
EM =
2
.
IC = (
1
2
) EM EM =
2
.
1
2
1
1
+
2
2
2
1
1
2
+
2
2
2
1
+
2
2
1
+
1
2
Ejemplo:
Universidad 1 Universidad 2
= 110 =105
1
= 10
2
= 12
1
= 90
2
= 120 Calculamos primero el error tpico de la diferencia de medias.
=
90.100+120.144
90+1202
1
90
+
1
120
=
183960
74880
= 2,4567 = 1,567
La
2
al 95% de nivel de confianza, ya sabemos que corresponde a una z = - 1,96
EM = (- 1,96) 1,567 = - 3,071 por tanto:
1,929
IC = (110 105) (- 3,071)
8,071
Al ser el intervalo incompatible con el valor cero, concluimos que la diferencia marcada es
estadsticamente significativa, es decir, que las diferencias de medias en CI entre ambos grupos no son
aleatorias. (Ver fig. 11.4 pg. 238)
Estimacin del parmetro diferencia de proporciones (
)
Lo nico que vara en este caso es el error tpico. Al igual que en el contraste de medias, lo ms interesante
suele ser la diferencia entre dos proporciones.
El error tpico de la diferencia de proporciones es:
y la estimacin del intervalo de confianza y su interpretacin ser la misma que en el caso anterior, pero con
medias en trminos de proporcin, que frecuentemente se multiplican por 100 para convertirlos en
porcentajes.
Estimacin de parmetros y contraste de hiptesis
Todo se reduce al contraste de una hiptesis estadstica, denominada hiptesis nula (Ho), segn la cual NO
existen diferencias estadsticamente significativas. Se afirma en ella que no hay efecto presente de la VI
sobre la VD.
Ver fig. 11.5 pg. 240
Se establece una zona central alrededor de la media en la curva normal, en la que es ms probable que las
diferencias encontradas entre las medias de las muestras se deban efectivamente a los efectos del azar. Es la
zona de aceptacin ( de no rechazo) de Ho. Por tanto, al no poder rechazar la Ho, decimos que no es falsa.
Queda de forma inmediata otra zona (bilateral o unilateralmente) en la que las diferencias entre las medias
resulta muy improbable (al nivel de confianza establecido) que sean aleatorias, por lo que dichas diferencias
se atribuyen a los efectos de la VI.
La Ho se expresa as:
Hiptesis nula Ho : 1 - 2 = 0
las diferencias entre las de los grupos o muestras son estadsticamente iguales a cero;
o bien, que las diferencias empricas que existen entre las de las muestras se deben al azar;
o bien, que los valores paramtricos son iguales;
o bien, que ambas muestras pertenecen a la misma poblacin.
Las frmulas para hallar el intervalo de confianza son las mismas que el epgrafe anterior, para muestras
grandes y pequeas.
Si resulta que nuestra diferencia emprica de medias se encuentra dentro del intervalo de confianza de la
distribucin muestral conforme a Ho, diremos que nuestra diferencia de medias es compatible con una
diferencia de medias igual a cero, y por tanto, que se trata de una diferencia estadsticamente no significativa
o igual a cero.
Lo que haremos despus ser calcular un estadstico (t, z, etc.) que nos dir cuntas desviaciones tpicas
(errores tpicos) se aleja nuestra diferencia de medias de una diferencia de medias igual a cero.
= .
1
1
+
1
2
Bloque 3 Tema 12
PRUEBAS ESTADSTICAS PARA EL CONTRASTE DE HIPTESIS: PRUEBAS PARAMTRICAS
Hay ocasiones en las que tenemos que tomar decisiones relativas a una poblacin sobre la base de
los conocimientos que tenemos de la muestra. A la hora de tomar una decisin, tenemos que enunciar una
hiptesis, es decir, tenemos que hacer unas suposiciones y ver si stas se cumplen o se rechazan.
Para realizar este proceso necesitamos el empleo de unas pruebas estadsticas test, para contrastar
la veracidad o falsedad de las hiptesis enunciadas desde el punto de vista estadstico.
Los test o pruebas estadsticas se clasifican en dos grandes grupos:
+ paramtricas muy estudiadas y de uso frecuente. La variable que estamos tratando tiene una
funcin de distribucin determinada, conocindose todos los parmetros bien algunos de ellos.
+ no paramtricas de uso ms reciente y an no muy desarrolladas. En estas pruebas suele
desconocerse la funcin de distribucin de la variable.
HIPTESIS ESTADSTICA
Es una proposicin sobre la distribucin de una o ms variables aleatorias, en referencia a la forma
que adopta dicha distribucin los parmetros que definen a la poblacin. La formulacin de una hiptesis
estadstica se puede realizar mediante una hiptesis simple ( = 5), o bien mediante una hiptesis
compuesta, formadas con varias simples ( = 5; > 5; < 5)
Hiptesis nula (Ho)
Es la formulacin terica que trata de proteger a priori la distribucin que se pretende contrastar,
teniendo dos planteamientos:
+ el estadstico tiene un valor dado Ho: = 100
+ no hay diferencias significativas entre dos estadsticos Ho:
1
2
= 0
Hiptesis alternativa (H1)
Las contrarias a las anteriores. Tambin dos planteamientos:
+ ante un valor dado H1: = 100; o bien H1: =104; o bien H1: < 100; o bien H1: > 100
+ si hay diferencias significativas entre dos estadsticos H1:
1
2
= 0; o bien H1:
1
2
< 0; o
bien H1:
1
2
> 0
En realidad, la H1 es la que queremos probar y su formulacin es imprescindible an cuando Ho no se
rechace.
FORMULACIN DE HIPTESIS
Sea una variable aleatoria X que tiene una distribucin de probabilidad F(X) que depende de un
parmetro desconocido u, que puede tomar los valores uo y u1. El contraste consiste en elegir entre dos
hiptesis simples:
+ hiptesis nula Ho: u = uo
+ hiptesis alternativa H1: u = u1.
El contraste de hiptesis es una regla que permite decidir cul de las dos hiptesis es acertada, partiendo de
una muestra aleatoria Xi = (X1,----,Xn) de X
Regiones crticas y de aceptacin
Diferenciamos entre regin crtica o de rechazo de la Ho, y no crtica o de aceptacin de Ho.
Se llama regin crtica o de nivel de significacin o, a un subconjunto del espacio muestral, tal que la
probabilidad de que la muestra pertenezca a este espacio, cuando es cierto Ho, es igual a o. Lgicamente, la
probabilidad de que la muestra no pertenezca a este espacio, cuando Ho es cierta, es igual a 1-o.
El nivel de significacin o es una probabilidad pequea (oscila entre 0,1 0,05 0,01) que
normalmente elige el investigador.
La regla de decisin para optar entre Ho y H1 es la siguiente:
+ la muestra pertenece a la regin crtica se rechazo Ho y se acepta H1
+ la muestra no pertenece a la regin crtica, por tanto pertenece a la regin de aceptacin se
acepta Ho y se rechaza H1
Error tipo I, error tipo II y potencia de una prueba
Rechazar la Ho siendo cierta, se llama error de tipo I. La probabilidad de cometer este error es el
nivel de significacin o.
Aceptar la Ho siendo falsa, se llama error de
tipo II. La probabilidad de cometerlo recibe la
denominacin de |.
Definimos la potencia del test como la
decisin de aceptar H1 siendo sta verdadera. Una
prueba es ms potente que otra, cuando con un o
dado, el valor de (1-|) es mayor en una prueba que
en otra. Dentro de una misma prueba, es ms
potente la decisin unilateral que la bilateral.
Ver ejemplo 12.1 en pg. 247.
Hiptesis simple frente a alternativa compuesta
En muchos contrastes normalmente existen ms de una H1 frente a una sola Ho. El contraste de
hiptesis se formula entonces:
Ho: u = uo (valor conocido)
H1: u = uo
y se dice que H1 es una alternativa bilateral (o de dos colas).
Los test de hiptesis simple frente a alternativa simple generan regiones crticas de una sola cola y se
llaman unilaterales (dcha. o izda.). Ver fig. 12.2 pg. 248
Los test de hiptesis simple frente a alternativa compuesta tienen regiones crticas en ambos
extremos de la curva de la distribucin, y se llaman de dos colas o bilaterales. Ver fig. 12.3 pg. 248
En todas las pruebas fijaremos un nivel de significacin o y hay que tener presente que si el
estadstico calculado cae en la regin de rechazo, entonces se rechazar la Ho.
Potencia de una prueba de hiptesis
Ya hemos visto que | representa la probabilidad de aceptar Ho cuando es falsa, mientras que 1-| es
la probabilidad de rechazar dicha hiptesis cuando es falsa. A esta probabilidad se la conoce como potencia
de una prueba.
El objetivo es conseguir pruebas potentes con valores bajos del error tipo I(o) y del error tipo II (|);
sin embargo, stos y la potencia tienen unos condicionantes:
1.- el valor de o se fija al escoger la regin de rechazo
2.- el valor de | depender de la H1 que se escoja.
3.- para un tamao muestral fijo, al aumentar la regin de rechazo (y por tanto o), | disminuye. Si o
decrece, | aumentar.
4.- al aumentar el tamao muestral (n), o y | decrecern a la vez.
Como vemos, para conseguir el objetivo de mxima potencia y menor error, la solucin est en aumentar el
tamao de la muestra. As mismo, dentro de la misma prueba, la decisin unilateral es ms potente que la
bilateral. Ver ejemplo en pg. 249.
Clculo de n para un o y | dados
Existe relacin entre los valores de o y | y el tamao de la muestra (n). Aunque los valores de o y |
son inversos entre s, lo que indudablemente se busca es que ambos tengan los valores ms bajos posible.
Ver ejemplo en pg. 254
PRINCIPALES PRUEBAS PARAMTRICAS
Condiciones que exigen las pruebas paramtricas:
+ Independencia de los datos
o cualquier sujetos tiene las mismas posibilidades de ser elegido en la muestra (aleatoriedad).
o la puntuacin de un sujeto no influye en la obtenida por otro.
+ Normalidad
o las poblaciones de las que se extraen los sujetos de las muestras deben estar distribuidas
normalmente para el parmetro a estimar.
Decisin
H
i
p
t
e
s
i
s
v
e
r
d
a
d
e
r
a
Ho H1
Ho
Sin error o (error tipo I)
H1 | (error tipo II)
Sin error
Potencia (1-|)
o esta condicin se asume cuando la muestra es grande.
+ Homocedasticidad
o cuando hay varios grupos se supone que proceden de la misma poblacin o de poblaciones
con igual varianza.
o si esta condicin se incumple, afecta a los contrastes de varios grupos.
+ Medida de intervalo
o las variables deben medirse en una escala de intervalo en una escala ordinal
multicategrica.
+ Linealidad (solo en la prueba F)
o la relacin atribuida a los efectos de las interacciones entre fila y columna, o ambos, debe ser
aditiva y no multiplicativa, para evitar su influencia sobre las varianzas.
Para contrastar una hiptesis estadstica hay que:
1.- FORMULAR la Ho y la H1
2.- FIJAR el nivel de significacin o
3.- COMPROBAR las caractersticas de las variables y plantear las suposiciones necesarias(cumplimiento o no
de las condiciones paramtricas)
4.- ELEGIR un estadstico para contrastar las hiptesis
5.- ESTUDIAR las caractersticas de la distribucin muestral del estadstico
6.- DETERMINAR la regin crtica o de rechazo de Ho y la de aceptacin. Viene determinada por el nivel de
significacin o y por la direccin de H1
7.- DECIDIR sobre la aceptacin o rechazo de Ho. Si el valor calculado en la muestra se sita dentro de la zona
de aceptacin, se acepta la Ho; en caso contrario, se rechaza.
Pruebas paramtricas para muestras grandes (N> 30)
Supuestos: Una muestra aleatoria, con n > 30. Conocida la varianza de la poblacin
2
. Si se
desconoce
2
, se sustituye por la varianza de la muestra
2
.
Ver fig. 12.11 pg. 257
Ho: =
0
H1: >
0
(unilateral dcho.)
<
0
(unilateral izdo.)
=
0
(bilateral)
Estadstico de contraste ----------
Regin de rechazo:
unilateral
>
o
(dcho.) ; o bien
< -
o
(izdo.)
bilateral
>
o 2
; o bien
< -
o 2
Intervalo de confianza ----------------------------------------------
Supuestos: Poblacin dicotmica y muestreo aleatorio, con n suficientemente grande para que
la distribucin muestral de Xi ( y de ), tenga un distribucin aproximadamente
normal. Conocida
2
. Ver fig. 12.12 pg. 258
Ho: p =
0
H1: p >
0
(unilateral dcho.)
p <
0
(unilateral izdo.)
p =
0
(bilateral)
P =
Estadstico de contraste ----------
MEDIA
=
0
=
0
o 2
.
PROPORCIN
=
0
=
0
Si se desconoce
:
Regin de rechazo:
unilateral
>
o
(dcho.) ; o bien
< -
o
(izdo.)
bilateral
>
o 2
; o bien
< -
o 2
Intervalo de confianza ----------------------------------------------
Supuestos: Dos muestras aleatorias e independientes, de dos poblaciones distintas, con
1
> 30
y
2
> 30. Conocidas
1
2
y
2
2
.
Ver fig. 12.13 pg. 259
Ho:
1
2
=
0
, siendo Do una diferencia especificada que se quiere probar. En la mayora de los
casos, se opta por probar que no hay diferencias significativas, en cuyo
caso Do = 0
H1:
1
2
>
0
; o bien
1
>
2
(unilateral dcho.)
1
2
<
0
; o bien
1
<
2
(unilateral izdo.)
1
2
=
0
(bilateral)
Estadstico de contraste -------------------------------------
Si se desconocen
1
2
y
2
2
, se sustituyen por las cuasivarianzas muestrales
1
2
2
2
,siendo:
Regin de rechazo:
unilateral
>
o
(dcho.) ; o bien
< -
o
(izdo.)
bilateral
>
o 2
; o bien
< -
o 2
Intervalo de confianza ----------------------------------------------
Supuestos: Dos muestras aleatorias e independientes, de dos poblaciones distintas, y con
1
2
suficientemente grandes para que las distribuciones muestrales de
1
2
(y por tanto de ) sean aproximadamente normales.
Ver fig. 12.14 pg. 260
Ho:
1
2
=
0
, siendo Do una diferencia especificada que se quiere probar. En la mayora de los
casos, se opta por probar que no hay diferencias significativas, en cuyo
caso Do = 0
H1:
1
2
>
0
; o bien
1
>
2
(unilateral dcho.)
1
2
<
0
; o bien
1
<
2
(unilateral izdo.)
1
2
=
0
(bilateral)
Estadstico de contraste -------------------------------------
Como normalmente se desconocen
1
y
2
, tendremos que estimar sus valores para poder
calcularla desviacin tpica
1
2
DIFERENCIA DE MEDIAS
2
0
2
0
1
2
1
+
1
2
2
o 2
.
1
2
=
1
1
2
2
=
2
1
DIFERENCIA DE PROPORCIONES
1
2
0
1
+
2
=
1
+
2
1
+
2
=
1
+
2
1
+
2
y el estadstico de contraste es:
Caso II: suponemos que
0
= 0 y entonces los mejores estimadores de
1
y
2
son
respectivamente
1
y
2
. El estadstico de contraste ser:
Regin de rechazo:
unilateral
>
o
(dcho.) ; o bien
< -
o
(izdo.)
bilateral
>
o 2
; o bien
< -
o 2
Intervalo de confianza ----------------------------------------------
Pruebas paramtricas para muestras pequeas (N 30)
Supuestos: Una muestra aleatoria, de una poblacin distribuida normalmente. Desconocida la
varianza de la poblacin
2
.
Ver fig. 12.15 pg. 261
Ho: =
0
H1: >
0
(unilateral dcho.)
<
0
(unilateral izdo.)
=
0
(bilateral)
Estadstico de contraste ---------- con (n-1) gl.
Regin de rechazo:
unilateral
>
o
(dcho.) ; o bien
< -
o
(izdo.)
bilateral
>
o 2
; o bien
< -
o 2
Intervalo de confianza ----------------------------------------------
NUESTRAS INDEPENDIENTES
Supuestos: Dos muestras aleatorias e independientes, de dos poblaciones distintas, que se
distribuyen normalmente. Desconocidas
1
2
y
2
2
, pero supuestamente iguales.
Ver fig. 12.16 pg. 262
Ho:
1
2
=
0
, siendo Do una diferencia especificada que se quiere probar. En la mayora de
los casos, se opta por probar que no hay diferencias significativas, en cuyo
caso Do = 0
H1:
1
2
>
0
; o bien
1
>
2
(unilateral dcho.)
1
2
<
0
; o bien
1
<
2
(unilateral izdo.)
1
2
=
0
(bilateral)
Estadstico de contraste -----------------------------
con (
1
+
2
2) gl.
2
o 2
.
1
2
0
1
+
1
2
0
1
+
=
0
=
0
o 2 (1)
.
MEDIA
DIFERENCIA DE MEDIAS
2
0
1
1
1
2
+
2
1
2
2
1
+
2
2
1
1
+
1
Regin de rechazo:
unilateral
>
o
(dcho.) ; o bien
< -
o
(izdo.)
bilateral
>
o 2
; o bien
< -
o 2
Intervalo de confianza -----------------------------
En el caso de que
1
2
=
2
2
, tendramos:
que se distribuye segn t de Student con m grados de
libertad, segn la frmula:
=
1
2
1
+
2
2
1
2
1
+1
+
2
2
2
+1
2
(cuando el resultado es decimal, se redondea al entero ms
prximo).
NUESTRAS CORRELACIONADAS
Supuestos: Dos muestras aleatorias de la misma poblacin, formada por n parejas de diferencias.
Los sujetos de
1
2
(
1
=
2
= n) son los mismos pero sometidos a diferentes
pruebas. Se desconoce la varianza de las diferencias.
Ver fig. 12.17 pg. 264
Ho:
1
2
= 0
H1:
1
2
> 0 ; o bien
1
>
2
(unilateral dcho.)
1
2
< 0 ; o bien
1
<
2
(unilateral izdo.)
1
2
= 0 (bilateral)
Estadstico de contraste -----------------------------
siendo: n n diferencias por parejas
con (n1) gl.
2
1
=
1
Regin de rechazo:
unilateral
>
o
(dcho.) ; o bien
< -
o
(izdo.)
bilateral
>
o 2
; o bien
< -
o 2
Intervalo de confianza --------------------------------------
Supuestos: La muestra se selecciona aleatoriamente de una poblacin normalmente distribuida .
Ver fig. 12.18 pg. 265
Ho:
2
=
0
2
H1:
2
>
0
2
(unilateral dcho.)
2
<
0
2
(unilateral izdo.)
2
=
0
2
(bilateral)
se distribuye segn
2
con
Estadstico de contraste ---------- (n-1) gl.
Regin de rechazo:
unilateral
0
2
>
2
(dcho.) ; o bien
0
2
<
1
2
(izdo.)
bilateral
0
2
>
2
2
; o bien
0
2
<
1
1
2
d
2
E E E E
1
2
1
2
o 2 (
1
+
2
2)
.
1
2
0
1
2
1
+
1
2
2
DIFERENCIA DE MEDIAS
o 2 (1)
.
VARIANZA POBLACIONAL
0
2
=
1
0
2
Intervalo de confianza ---------------------
Supuestos: Las muestras se seleccionaron aleatoriamente e independientemente de poblaciones
con distribuciones normales, Se trata pues de dos varianzas con observaciones
independientes.
Ver fig. 12.19 pg. 266
Ho:
1
2
=
2
2
H1:
1
2
>
2
2
(unilateral dcho.)
1
2
<
2
2
(unilateral izdo.) (dcho.)
1
2
=
2
2
(bilateral)
Estadstico de contraste : prueba unilateral (izdo.)
Prueba bilateral siendo
1
2
la mayor varianza muestral y con
(
1
1) y
2
1 gl. en el numerador y
denominador, respectivamente.
Regin de rechazo:
unilateral
0
>
bilateral
0
>
2
Supuestos: Coeficiente de correlacin de Pearson.
Ho: = 0
H1: > 0 (unilateral dcho.)
< 0 (unilateral izdo.)
= 0 (bilateral)
Estadstico de contraste ---------- con (n-2) gl.
Regin de rechazo:
unilateral
>
o
(dcho.) ; o bien
< -
o
(izdo.)
bilateral
>
o 2
; o bien
< -
o 2
Intervalo de confianza ----------------------------------------------
1
0(1
2
)
2
<
2
<
1
0(
2)
2
IGUALDAD DE DOS VARIANZAS POBLACIONALES
0
=
1
2
2
2
0
=
2
2
1
2
0
=
1
2
2
2
2
1
o 2 (2)
. 1
2
COEFICIENTE DE CORRELACIN POBLACIONAL
Bloque 3 Tema 13
PRUEBAS ESTADSTICAS PARA EL CONTRASTE DE HIPTESIS: PRUEBAS NO PARAMTRICAS
Todos los estadsticos y las frmulas de contraste de z, la t de Student, y la F de Fisher, parten de
unos supuestos que denominbamos paramtricos. En la prctica, aparecen situaciones en las que tales
requisitos no se cumplen, como en el caso de distribuciones claramente asimtricas o muestras muy
pequeas. En estas ocasiones, existen mtodos denominados no paramtricos, que no suponen nada sobre
la distribucin poblacional.
Estos mtodos aportan ventajas:
capacidad para trabajar con datos que sean mediciones cuantitativas ordinales o incluso nominales
no necesitan que se cumplan supuestos previos para su aplicacin
son sencillos de aplicar
quedan como nica posibilidad cuando el tamao de la muestra es pequeo.
Pero tambin tienen unos inconvenientes:
para la misma potencia de la prueba, los test paramtricos necesitan menor tamao muestral que
los test no paramtricos.
cuando el tamao de la muestra es elevado obtenemos los mismos resultados con las pruebas
paramtricas que con las no paramtricas.
Las podemos clasificar atendiendo a la organizacin de los datos y al nivel de medida de los mismos. Ver
tabla 13.1, pg. 274.
PRUEBAS DE UNA SOLA MUESTRA
En el caso de una sola muestra, podemos utilizar las pruebas no paramtricas en los siguientes casos:
- comprobar el supuesto de que la muestra proviene de una distribucin conocida (bondad de ajuste)
- ver si la muestra es aleatoria para saber si los resultados se pueden extender a toda la poblacin, o a
un nico conjunto de datos, o bien no se pueden extender.
- comprobar la simetra de la muestra.
DE BONDAD DE AJUSTE
A.1.- Kolmogorov-Smirnov
Este mtodo se basa en la comparacin entre las frecuencias acumuladas de la distribucin emprica de la
muestra y de la distribucin hipottica terica, fijndose en el punto en que las dos distribuciones presentan
mayor divergencia. Solo se puede aplicar para mediciones ordinales o de intervalo. Se calcula mediante la
frmula:
siendo:
o
= -2,34 en tablas se busca en la columna C para los valores negativos y en la
columna B para los positivos Fe = 0,0096
Efectuada la tabla, se halla la diferencia de la frmula y tomamos la mayor de ellas en mdulo.
Seguidamente, buscamos en las tablas de la prueba (pg. 369) el valor terico correspondiente a los valores
de n y o. El criterio de decisin ser:
Si D
n
> D
tablas
rechazo Ho Si D
n
D
tablas
acepto Ho
Ver ejemplo 13.1 pg. 275 (parmetros desconocidos y medida ordinal)
La prueba de Kolmogorov-Smirnov tiene la ventaja sobre la prueba
2
que no se ve afectada por los
agrupamientos de intervalos y se puede aplicar en muestras muy pequeas (n 10).
Cuando tengamos que estimar, por desconocerlos, los parmetros y o, utilizaremos el contraste de
la prueba de Lilliefors, que se realiza igual que el de Kolmogorov-Smirnov salvo que los parmetros
mencionados se estiman mediante sus valores muestrales.
= =
Ver ejemplo 13.2 pg. 275 (parmetros desconocidos y medida de intervalo, por lo que podemos estimar la
y la .
A.2.- Contraste de
Como en el contraste anterior, tiene la misin de observar si una variable tiene una distribucin de
probabilidad dada.
En general: Ho: F(X) = N(, o)
H
1
: F(X) = N(, o)
Solo hay pues contraste bilateral. Se nos pueden presentar dos casos:
a) Conocida la forma de la distribucin y sus parmetros
frecuencias empricas obtenidas en la muestra
frecuencias tericas esperadas que se obtendran en funcin
de la Ho que se est probando (N/n intervalos)
K n de intervalos
gl K-1
* se ordena la muestra de menor a mayor
* se divide la muestra en trozos de la curva normal y se buscan las
z de cada una de las partes
* se hallan los lmites de los intervalos con =
o
y se despeja
el valor de Xi
* se aplica el estadstico de contraste
* criterio de decisin: el valor obtenido tiene que ser menor o igual
que el de las tablas para que se ajuste u aceptemos Ho
b) Parmetros desconocidos
Cuando tenemos que estimar los parmetros y o, utilizaremos la prueba de Lilliefors. El contraste se define
de la misma manera que K-S, pero ahora no se suponen los valores de y de o, sino que se estiman
mediante sus valores muestrales.
=
2
1
2
=
1
2
=
20% 20% 20% 20% 20%
K = 5 z
0,20
= 0,85
z
0,40
= 0,26
25% 25% 25% 25%
K = 4 z
0,25
= 0,68
1
2
2
acepto Ho
La diferencia es que hay que buscar el valor de tablas de
2
con los siguientes
grados de libertad:
gl = k-1-n de parmetros estimados
Ver ejemplo 13.3 pg. 279
Cuadro general de las pruebas de bondad de ajuste
* muestra grande
- conozco los parmetros : K-S bien
2
- desconozco :
2
* muestras pequeas
-conozco los parmetros: K-S
- desconozco: Lilliefors
DE ALEATORIEDAD
Prueba de rachas
Esta prueba tiene por objeto comprobar el carcter aleatorio de una muestra atendiendo a la obtencin
original de las observaciones realizadas. Para ello, analizaremos el nmero de rachas (sucesiones de
smbolos idnticos) que se producen en la obtencin de esos datos.
Los datos se presentarn de forma dicotmica o dicotomizada (p y q) y contaremos las ocurrencias del
hecho p (que lo llamaremos n
1
) y las ocurrencias del hecho q (que lo llamaremos n
2
). Luego contaremos las
rachas (r), que son el nmero de ocurrencias de cambio de p a q en la serie objeto de estudio.
La toma de decisin se hace con el siguiente criterio:
- si n
1
y n
2
20
o se determinan los valores mnimo (r
1
) y mximo (r
2
) de rachas en tablas para un nivel de
significacin o dado. Si se cumple que r
1
< r < r
2
aceptamos Ho y la hiptesis de
aleatoriedad se cumple.
- si n
1
n
2
> 20
o se hace una transformacin de r en z mediante la frmula:
Si
<
acepto Ho
2
1
1
+
2
+1
2
1
2
2
1
1
+
2
1
+
2
1
Si
>
rechazo Ho de aleatoriedad
Con pruebas bilaterales:
>
2
; o bien
< -
2
Con datos numricos, se procede de la siguiente forma:
- segn los datos, damos un + cuando el valor sea mayor que el anterior y un cuando sea menor.
Obtendremos una secuencia (por ejemplo)
5 15 17 13 18 20 22 19 17 N
------- -------------- --------
+ + - + + + - - obtendremos (n-1) signos
1 2 3 4
- las rachas son los grupos de signos que van cambiando y las llamaremos (r). Llamaremos n
1
al n de
signos + que tenemos en la secuencia y llamaremos n
2
al n de signos que tenemos en la secuencia.
En el ejemplo anterior, n
1
= 5
;
n
2
= 3 ; r = 4
- acudimos a las tablas (pgs.. 363 y 364) y hallamos los valores de
, con un o dado. Si el
valor de r hallado en la muestra cumple con
< r <
; o bien r >
2
=
PRUEBAS DE DOS MUESTRAS (Muestras relacionadas)
Se usan cuando el investigador desea saber la diferencia entre dos tratamientos, por ejemplo comparar dos
mtodos de enseanza, haciendo que cada sujeto sea su propio control.
En estas comparaciones de dos grupos, algunas veces se observan diferencias significativas que no son
resultado del tratamiento. Por ejemplo, para comparar dos mtodos de enseanza, un investigador elige un
grupo al azar para aplicarle un mtodo de enseanza, y otro grupo diferente para el otro mtodo. El
resultado puede no ser fiable porque en un grupo existan alumnos ms capacitados que en el otro.
Una manera de resolver este problema es usar dos muestras relacionadas, y esto se puede lograr a si a cada
individuo se le aplican los dos tratamientos o si se forman parejas lo ms semejantes posibles con respecto a
cualquier variable externa que pueda influir en el resultado de la investigacin.
La prueba paramtrica usual para analizar datos provenientes de dos muestras relacionadas o de parejas de
datos igualados, es aplicar una prueba t a las puntuaciones de las diferencias, pero la prueba t exige que
estas diferencias estn distribuidas normalmente y las medidas han de ser, al menos, una escala de intervalo.
Con estos condicionantes, muchas veces no se puede aplicar la prueba t. En estos casos, el investigador
puede escoger una de las pruebas estadsticas no paramtricas para dos muestras relacionadas. Estas
pruebas tienen la ventaja que no requieren que las parejas provengan de una misma poblacin.
La prueba de McNemar para la significacin de los cambios
Es llamada prueba de antes y despus. Los mismos sujetos constituyen el grupo experimental y el grupo de
control de la prueba. Se utiliza para detectar cambios de actitudes. En la prueba se presentan los datos de
forma dicotomizada en dos categoras, segn el esquema:
Las filas representan las distintas respuestas antes de utilizar ningn
mtodo y las columnas las respuestas despus de emplear el
mtodo que queremos estudiar.
En la tabla designamos por + y los dos tipos de respuestas que se
pueden dar, y por tanto, los cambios producidos aparecern en las
casillas A y D. En la A se vern los cambios de + a -; y en la D ase
vern los cambios de a +. Si no existen cambios, todos los casos
estarn en las casillas B C.
Ho: no existen diferencias entre las situaciones de antes y despus del tratamiento.
Estadstico de contraste: con 1 gl.
Si aplicamos la correccin por continuidad,
2
=
1
2
+
tambin con 1 gl.
La decisin que adoptaremos es:
Si
2
<
2
acepto Ho
Si
2
>
2
rechazo Ho. El cambio es significativo
Ver ejem. 13.6 pg. 284.
Prueba de pares igualados de Wilcoxon
Esta prueba se utiliza para datos cuantitativos continuos discretos. Emplea la informacin que proporciona
el tamao de las diferencias, y como mnimo se exige que las variables estn dadas en escala ordinal.
La Ho se plantea en el sentido de que no existen diferencias significativas entre los grupos de individuos
(igualdad de frecuencias relativas poblacionales)
Ho: Tratamiento 1 = Tratamiento 2
H
1
: T1 = T2 (bilateral)
T1 > T2 (uni, dcho.)
T1 < T2 (uni. izdo.)
- con las diferencias entre los valores de cada par de sujetos, se establece una ordenacin de esas
diferencias desde la ms pequea a la mayor, independientemente del sentido o signo de la
diferencia.
Despus
menos ms
Antes
ms A B
menos C D
2
=
2
+
- si el valor absoluto de esa diferencia coincide para dos o ms datos, se asignan a todos ellos la media
de los lugares que les corresponderan.
- si una diferencia es cero (0) no se toma en consideracin
- la suma de los rangos obtenidos para las diferencias positivas y negativas nos aportan los valores Tp
y Tn, tales que se cumple:
=
+1
2
- si no hubiera diferencia significativa entre las dos muestras, Tp y Tn tendran que ser iguales con un
valor cercano al promedio de los N rasgos: (media de Ti)
=
+1
4
- tomamos como
+1
4
+12+1
24
si
2
rechazamos Ho (prueba de dos colas)
Ver ejem. 13.7 pg. 286
PRUEBAS DE DOS MUESTRAS (Muestras independientes)
Cuando el uso de dos muestras relacionadas no es prctico ni adecuado, han de usarse muestras
independientes. Las muestras pueden obtenerse con la ayuda de dos mtodos:
a) tomndolas al azar de dos poblaciones
b) asignando al azar ambos tratamientos a los sujetos de una muestra arbitraria.
En cualquier caso, no es necesario que las dos muestras tengan el mismo tamao, y es importante que los
datos de ambas muestras a contrastar sean independientes.
Las tcnicas paramtricas usuales para analizar datos de dos muestras independientes consisten en aplicar
una prueba t a las medias de ambos grupos. La prueba t supone que las puntuaciones son observaciones
independientes de poblaciones distribuidas normalmente con varianzas iguales. Debido a que usa medias y
otros estadsticos obtenidos por operaciones matemticas, requiere que las observaciones se midan por lo
menos en una escala de intervalo.
Las pruebas que vamos a examinar en este apartado, se emplean para ver si las dos muestras proceden de la
misma poblacin. Sirven para examinar la significacin de la diferencia entre dos muestras independientes.
* cuando se desea saber si las dos muestras representan poblaciones que difieren en su media
U de Mann-Whitney
* cuando los datos aparezcan clasificados por grupos
Contraste de
Queremos determinar la significacin de las diferencias entre dos grupos independientes. Los datos han de
estar dados en categoras discretas, y bsicamente, el mtodo utilizado es contar los casos de cada grupo en
cada categora y comparar la proporcin de casos en las distintas categoras de un grupo con las del otro.
La Ho se plantea as: los dos conjuntos de caractersticas son independientes.
El estadstico de contraste:
=
1
que sigue la distribucin
1
=
1
Construiremos la siguiente tabla (a modo de ejemplo para la mejor comprensin del problema)
Las fo son datos del problema, las fe las calculamos:
1
=
;
3
=
; etc.,
=
1
+
1
1
1
+
+
3
Condiciones de la prueba:
1.- cuando N < 20, se usa en todos los casos la prueba de la probabilidad exacta de Fisher (que no
vemos en este curso)
2.- cuando 20 < N < 40, puede usarse
> 5. Si alguna
resultara < 5, debemos
utilizar de nuevo la prueba de la probabilidad exacta de Fisher.
3.- cuando N > 40, se usa la
< 1
2.- cuando varias celdas (el 20% de ellas o superior) tengan una
< 5, conviene combinar categoras
para que todas las
> 5
El criterio de decisin ser :
si d
= 5,991
Como d >
2
rechazo Ho
Prueba U de Mann-Whitney
Esta prueba es muy til cuando las medidas de la variable se han tomado de forma ordinal. Incluso cuando
los datos se han tomado de forma cuantitativa pero por alguna causa se sospecha que las condiciones de
normalidad e igualdad de varianzas entre las poblaciones de las que provienen las muestras no se cumplen.
Ho: Md(X1) = Md(X2) No hay diferencias significativas entre las muestras
H
1
: Md(X1) = Md(X2)
Grupo A Grupo B
Catg. 1
fo1A
fe1A
fo1B
fe1B
Ef1
Catg. 2
fo2A
fe2A
fo2B
fe2B
Ef2
Catg. 3
fo3A
fe3A
fo3B
fe3B
Ef3
EK1 EK2 ET
Bajo Alto
Lder
12
19,91
32
24,08
44
Adepto
22
16,29
14
19,70
36
Inclasif.
9
6.78
6
8,21
15
43 52 95
TABLA 2 x 2
2
=
2
+ + + +
TABLA F x K
La H
1
solo establece que las distribuciones son diferentes para las dos muestras, pero solo implica un
desplazamiento en la tendencia central de una distribucin respecto de la otra; no sugiere la diferencia en la
forma o en la dispersin.
La pruebe U de Mann-Whitney es un clculo del desorden de clasificaciones entre las dos muestras, es
decir, cuntas veces los datos de un grupo estn precedidos por los datos de otra muestra.
Calcularemos previamente
1
+
2
1
+
2
+1
2
=
1
2
siendo:
1
tamao del grupo 1
2
tamao del grupo 2
Para determinar si las dos muestras provienen de la misma poblacin, se elige el mnimo (
) y lo
comparamos con la U de las tablas (pgs.. 354 a 358).
El criterio de decisin ser:
Si mn (
) <
2
2
=
1
+
2
+1
12
Ver ejem. 13.9 pg. 294
PRUEBAS PARA K MUESTRAS (Relacionadas)
Cuando tres ms muestras o condiciones van a ser comparadas en un experimento, es necesario usar una
prueba estadstica que indique si hay una diferencia total entre las K muestras condiciones antes de
escoger un par de ellas para probar la significacin de las diferencias entre ellas.
Solamente cuando una prueba de K muestras (k 3) nos permite rechazar la hiptesis de nulidad, se justifica
el uso subsiguiente de un procedimiento para probar las diferencias significativas entre cualquier par de las K
muestras.
La tcnica paramtrica para probar si varias muestras proceden de poblaciones idnticas es el anlisis de
varianza prueba F. Los supuestos de este modelo son estrictos:
- que las puntuaciones u observaciones sean sacadas independientemente de poblaciones distribuidas
normalmente
- que las poblaciones tengan todas la misma varianza
- que las medidas en las poblaciones sean combinaciones lineales de los efectos debidos a filas y
columnas, es decir, que los efectos sean aditivos
- que las medidas sean por lo menos de intervalo en las variables involucradas
Cuando todas estas condiciones no se pueden cumplir, deberemos utilizar las pruebas no paramtricas.
Prueba Q de Cochran
Esta prueba se considera una extensin de la prueba de McNemar. La prueba Q pretende analizar la posible
diferencia significativa de los cambios producidos en tres o ms situaciones distintas.
Las variables tienen que ser nominales dicotmicas o dicotomizadas. Pierde potencia la prueba si se utiliza
con variables continuas dicotomizadas.
Los sujetos pueden estar ya relacionados o bien se relacionan en el momento de la prueba.
La Ho: no existen diferencias significativas entre las caractersticas que tienen los sujetos en las K muestras
=
1
2
+
1
+ 1
2
=
1
2
+
2
+ 1
2
Se confecciona una tabla con los datos, con tantas filas como sujetos y tantas columnas como grupos o
muestras existan.
que se distribuye segn
2
se acepta Ho
si Q
2
se rechaza Ho y por tanto no hay diferencias significativas
Ver ejem. 13.10 pg. 298
Anlisis de la varianza de Friedman
Consiste en comparar k muestras relacionadas para ver si provienen de la misma poblacin. Se emplea con
variables medidas en escala ordinal, al menos. Funciona de forma similar a como lo hace el anlisis de
varianza (prueba F de Snedecor) con datos de intervalo y continuos.
Los tamaos de los grupos son iguales o se pueden igualar.
La Ho: no existen diferencias significativas entre las k muestras relacionadas.
Para el clculo, se hace una tabla con n filas de sujetos y k columnas de muestras grupos. Se ordena cada
fila (es decir, cada sujeto o grupo de sujetos) en rangos, asignando el primero al valor ms pequeo y el
ltimo al valor mayor. En caso de empate se reparte el puesto o rango medio entre los valores que forman el
empate.
Se calcula la suma de rasgos de cada columna o grupo (Rj)
Estadstico de contraste:
donde: n n de filas
k n de columnas
Rj suma de rangos de cada columna
Si la Ho resultase verdadera, -que todas las muestras (columnas) proceden de la misma poblacin-, la
distribucin de rangos de cada columna ser obra del azar y los rangos de los diferentes grupos (1 .. k)
debern aparecer en todas las columnas con frecuencia casi igual.
Criterio de decisin:
* si k = 3 y 1 < n <10 tambin k = 4 y 1 < n < 5 las tablas de Friedman (pg. 370) nos
proporcionan un valor p para un o dado.
si p o rechazo Ho, hay diferencias significativas entre los grupos
si p > o acepto Ho
* si no se cumplen las condiciones anteriores, se calcula
2
con los valores de o y (k-1) gl.
si
2
<
2
se acepta Ho
si
2
se rechaza Ho y por tanto no hay diferencias significativas
Ver ejem. 13.11 pg. 301
PRUEBAS PARA K MUESTRAS (Independientes)
Estudiaremos la significacin de diferencias entre tres ms grupos o muestras independientes. Se trata de
tcnicas para probar la hiptesis de nulidad de que k muestras independientes se recogieron de la misma
poblacin de k poblaciones idnticas.
La tcnica paramtrica usual para aprobar si varias muestras independientes proceden de la misma
poblacin es el anlisis de la varianza, o prueba F. Los supuestos asociados con el modelo piden:
- observaciones independientes tomadas de poblaciones distribuidas normalmente
- iguales varianzas en todas las poblaciones
- la medida de la variable estudiada ha de ser, al menos, de intervalo.
Cuando estos supuestos no se cumplan o necesitemos una generalizacin de los resultados, acudiremos a las
pruebas no paramtricas.
=
1
2
2
2
=
12
+1
2
3 + 1
Anlisis de la varianza de Kruskal-Wallis
La prueba pretende ver si existen diferencias entre varias muestras que provienen de la misma poblacin. Se
exige, al menos, una medida ordinal de la variable. La prueba supone que la variable en estudio tiene como
base una distribucin continua.
La Ho: no existen diferencias significativas entre k muestras independientes, es decir, que todas las
muestras provienen de la misma poblacin.
Se ordenan todos los valores de los k grupos en una misma serie, del 1 hasta el N independientemente del
grupo al que pertenezcan esos valores, asignando el rango 1 al valor ms pequeo y respetando, aunque se
ordena en conjunto, la pertenencia de cada valor a su grupo correspondiente.
Los empates se resuelven asignando un rango medio a todos los valores empatados.
Se calcula previamente Rj, que es la suma de rangos de cada uno de los k grupos.
Estadstico de contraste:
donde: N n total de sujetos
nj n de sujetos de cada grupo
Si obtenemos ms del 25% de N con empates, conviene introducir una correccin:
siendo T =
3
- t ; y t es el n de sujetos empatados en cada grupo de puntuaciones repetidas.
Tendremos tantos T como distintas puntuaciones empatadas haya.
Criterio de decisin:
* si k = 3 y
1
,
2
3
5 se consulta la tabla de Kruskal-Wallis (pg. 360) y se toma el valor p
asociado al valor H calculado
si p o rechazo Ho, hay diferencias significativas entre los grupos
si p > o acepto Ho
* en cualquier otro caso, se busca
2
para o y (k-1) gl.
si H
2
se rechaza Ho
Si no existen diferencias significativas entre las muestras, el rango promedio en ellas tendera a coincidir, o al
menos, sus diferencias seran explicables por azar. Si los rangos promedio, por contra, se diferencian
bastante, quiere decir que las muestras son significativamente diferentes o que provienen por eleccin al
azar de una misma poblacin.
La prueba U de Mann-Whitney es la apropiada para comprobar posteriormente si tal diferencia es producida
por los resultados de un solo grupo de varios.
=
12
+1
3 + 1
Bloque 3 Tema 14
ANLISIS DE LA VARIANZA. PRUEBA F
El objetivo fundamental de la experimentacin es estudiar la posible relacin de causalidad existente entre
dos o ms variables. Este estudio representa la eleccin de las variables que pueden determinar a otras, pero
sobre todo, el establecer una relacin de causa-efecto implica el cumplimiento de tres condiciones:
a) debe existir una covariacin (correlacin) entre la variable causal (VI) y el efecto (VD)
b) temporalmente, la causa debe preceder al efecto
c) no deben existir variables extraas, ajenas al modelo, que puedan explicar el efecto.
En suma, experimentar significa modificar de forma intencionada las condiciones normales de trabajo para
localizar mejores maneras de proceder y conseguir, a su vez, un conocimiento ms profundo sobre el
comportamiento de productos y procesos.
Elementos bsicos del diseo de experimentos
Variabilidad de los resultados
El objetivo de un experimento es medir el efecto de las variables explicativas (o VI,s) sobre una VD, mientras
se controlan otras variables que puedan confundir el resultado.
Supongamos que una variable respuesta (VD) y, se va a medir como resultado de dos VI,s
1
2
. Las
fluctuaciones que se produzcan en esas variables, y la intervencin de otras variables que el experimentador
desconoce, harn que el modelo se exprese como: siendo el error.
Evidentemente, cuanto menor sea el error experimental, ms perfecto ser el modelo, en el sentido de
poder obtener con l unas estimaciones ms precisas.
Interaccin
Se entiende por interaccin el efecto que produce la combinacin de dos o ms VI,s sobre la VD.
Los diseos factoriales
Vamos a fijar unos conceptos importantes de conocer:
FACTOR cada una de las variables que pueden influir en la VD o resultado, y por tanto, se incluirn
en el plan de experimentacin.
NIVEL cada uno de los valores que toma el factor en un experimento.
RESPUESTA denominacin que toma la VD o resultado.
Si para obtener los resultados solo intervienen unos determinados niveles y siempre los mismos, en
cualquiera de las observaciones que se realicen, estaremos ante un modelo de efectos fijos.
Si de los diferentes niveles que pueden tomar los factores, se coge una muestra de los mismos, estaremos
ante un modelo de efectos aleatorios.
Anlisis de la varianza factorial
El anlisis de la varianza resuelve el problema de comparar varios grupos que tienen sus propias
particularidades estimndose, en virtud de los resultados, la diferencia que existe entre dichos grupos y la
significacin o no de dicha diferencia.
El anlisis de la varianza considera los datos de los grupos como un conjunto, y a travs de las pruebas
estadsticas oportunas, decide si los grupos provienen o no de la misma poblacin ( o de poblaciones
distintas con la misma varianza), y por consiguiente, si los grupos tienen medias significativamente distintas o
no.
Puede parecer extrao que un procedimiento que compara las medias se llame anlisis de la varianza. Este
nombre deriva del hecho de que para probar la diferencia de medias, estamos comparando realmente (es
decir, analizando) las variaciones.
El procedimiento de comparar ms de dos medias poblacionales se conoce como anlisis de la varianza
(ANAVA). Para aplicar la ANAVA deben comprobarse tres supuestos tericos:
a) independencia de las observaciones los datos de los distintos grupos han sido elegidos al azar de
una poblacin normal.
b) igualdad de varianza (homocedasticidad) ser supone que los distintos grupos tienen una varianza
comn, de modo que no existe diferencia significativa entre las varianzas de los distintos grupos.
=
1
;
2
+
c) los errores se distribuyen normalmente.
En las frmulas que vamos a emplear, el trmino varianza ser equivalente a la suma de los cuadrados
dividida por los gl.
Anlisis de la varianza con un factor. Modelo de efectos fijos
El anlisis de varianza de un factor trata de contrastar la Ho de que las poblaciones normales, de las cuales
se tomaron las muestras, tienen media comn, frente a la
puntuacin (x) del elemento (i) en el grupo (k). Los nicos datos que podemos observar.
promedio de las K medias de las poblaciones
diferencia entre
2
suma de los cuadrados de todas las puntuaciones
Suma de cuadrados entre-grupos:
=
Suma de cuadrados intra-grupos:
=
0
:
1
=
2
=
3
1
:
1
2
3
= +
Como frmula general de la ANAVA, tenemos que la suma de cuadrados cumple:
Suma de cuadrados entre los grupos. Equivale a la varianza de la media de los grupos,
tratados stos como datos individuales. Son las desviaciones de la media de las
puntuaciones en cada grupo respecto a la media total.
Suma de cuadrados intra (dentro de ) los grupos. Son las desviaciones de las puntuaciones
en cada grupo respecto a la media del grupo y refleja la dispersin de los datos dentro de
cada grupo.
Hiptesis nula: Ho:
<
= 429
= 472
= 537
2
= 27169
2
= 32228
2
= 41467
= 61,285
= 64,428
= 76,714
= 1438
2
= 100864
= 68,476
Clculo de los sumatorios de los cuadrados (segn frmulas)
= 100864
1438
2
21
= 100864 98468,761 = 2395,239
=
429
2
7
+
472
7
2
+
537
2
7
98468,761 =
= 26291,571 +31826,285 + 41195,571 98468,761 = 844,666
k-1
1
=
Intragrupos
N-k
Total
N-1
Profesor_A 68 72 77 52 42 60 58
Profesor_B 71 78 56 59 63 71 74
Profesor_C 78 81 82 83 70 65 78
Fuente de
variacin
Suma de
cuadrados
Grados de
libertad
Media de
cuadrados
Estadstico F
Criterio de decisin: si F(tablas) < Fexp. rechazo Ho.
Buscamos en tablas de F de Fisher el valor de F con (3-1) y (21-3) gl., y encontramos que F = 3,55
Como 3,%% < 4,902 rechazo Ho y si hay diferencias significativas entre los mtodos de enseanza.
Pruebas a posteriori:
Como el estadstico F no discrimina entre las muestras, sino que solo contrasta la Ho acerca de su validez,
hemos de utilizar la prueba de las comparaciones mltiples de Scheffe, que tiene por estadstico el siguiente:
= 1.
1
+
1
2
como en este caso
= 280
= 125
= 158
2
= 4032
2
= 1651
2
= 1392
= 14
= 12,5
= 7,9
= 20
= 10
= 20
= 563
2
= 7075
= 11,26 = 50
Clculo de los sumatorios de los cuadrados (segn frmulas)
= 7075
563
2
50
= 7075 6339,38 = 735,62
=
280
2
20
+
125
10
2
+
158
2
20
6339,38 =
= 3920 +1562,5 +1248,2 6339,38 = 391,32
1
+
1
2
; como en este caso
1
+
1