You are on page 1of 31

HERRAMIENTAS

ESTADSTICAS
para asegurar la comparabilidad
en la calidad analtica

Es necesario disponer de las herramientas estadsticas


convenientes para aplicarlas en el aseguramiento de la
calidad analtica, fundamentalmente para expresar
adecuadamente el resultado de una medida y realizar
adecuadamente las comparaciones entre resultados
analticos
Objetivos:
INTRODUCIR LOS ELEMENTOS BSICOS
METROLGICOS Y ESTADSTICOS
PRESENTAR LOS DISTINTOS ENSAYOS
ESTADSTICOS PARA ASEGURAR LA
COMPARABILIDAD
EVALUAR LA INCERTIDUMBRE DEL RESULTADO
ANALTICO

CONCEPTOS BASICOS DE METROLOGA


MEDIDA es la cuantificacin de
una magnitud observable
mediante COMPARACIN con
una REFERENCIA de la misma
especie a la que llamamos
UNIDAD
MAGNITUD es todo aquello
q
q
que
se puede medir y expresar
mediante una UNIDAD
RESULTADO es el valor final que
se obtiene al aplicar a una
cantidad un procedimiento de
MEDIDA

CADENA DE COMPARACIN
RESULTADO
DE UNA
MEDIDA

REFERENCIA

CADA ESLABN TIENE UNA


INCERTIDUMBRE

Principios fundamentales de la metrologa:


1. MEDIR ES COMPARAR CON UNA REFERENCIA
2. CADA COMPARACIN CONTRIBUYE CON UNA INCERTIDUMBRE
3. EL RESULTADO OBTENIDO MEDIANTE UNA CADENA DE
COMPARACIONES TIENE UNA INCERTIDUMBRE QUE ES LA
COMBINACIN DE LAS DE LAS MEDIDAS INTERMEDIAS

Trazabilidad
Es la propiedad del resultado de una medida o
del valor de un patrn, mediante la cual puede
relacionarse con referencias establecidas
(normalmente patrones nacionales o
internacionales) mediante una cadena
ininterrumpida de comparaciones (cada una de
ellas con una incertidumbre calculada)
Vocabulario Internacional de Metrologa (ISO,
1993)

Incertidumbre
Es el intervalo dentro del cual esperamos
encontrar (con una gran probabilidad) el
valor real de aquello que se mide
parmetro asociado con el
Es un p
resultado de la medida que caracteriza la
dispersin del resultado
Se expresa como un intervalo y engloba
tanto errores aleatorios como la parte no
controlada de los errores sistemticos

Trazabilidad e Incertidumbre

Estimacin del error total del resultado de


una medida tiene dos contribuciones: el
error sistemtico y el aleatorio
El error aleatorio lo estimamos evaluando
la PRECISIN del resultado realizando
medidas repetidas
El error sistemtico lo estimamos
comparando el resultado esperable de la
medida (promedio) con una referencia
(valor verdadero)

Los parmetros de calidad (Performance


Characteristics/Figures of Merit) que
corresponden a dichos errores son:
VERACIDAD = Proximidad del valor promedio de
la medida con la referencia = Ausencia del error
sistemtico
PRECISIN = Proximidad del valor de una medida
individual con el promedio = Inmaterialidad del
error aleatorio
EXACTITUD = Tanto mayor cuanto menor es el
error total, es decir cuanto mayor es la
VERACIDAD y la PRECISIN

Estos parmetros de calidad se


cuantifican mediante unos valores
numricos
VERACIDAD---- SESGO (Bias)
PRECISIN ----- DESVIACIN
ESTNDAR
EXACTITUD ----- INCERTIDUMBRE

MUESTRA Y POBLACIN

Generalmente se asume que la poblacin


presenta una distribucin normal, la mayora de
las veces esgrimiendo el teorema del lmite
central, pero existen otras muchas
distribuciones que se dan en la Naturaleza

Las caractersticas de la poblacin se asocian a


variables aleatorias cuyos valores medimos en una
muestra representativa
La inferencia estadstica consiste en estimar el valor del
parmetro poblacional a partir de los de la variable en el
espacio muestral
Consideremos un espacio muestral de tamao n,
compuesto por eventos que son medidas repetidas de
una variable

{ x1 , x2 ,... xi ,... xn }

La serie de datos obtenida, presentar un


histograma de frecuencias que
dependiendo de su tamao se ajustar al
perfil de la distribucin de la poblacin y
que puede caracterizarse
fundamentalmente p
por sus p
parmetros
descriptivos

Medidas descriptivas
Las medidas descriptivas son valores numricos
calculados a partir de la muestra y que nos resumen la
informacin contenida en ella.

Medidas de Posicin: Cuantiles


Los cuantiles son valores de la distribucin que la dividen en partes
iguales, es decir, en intervalos, que comprenden el mismo nmero
de valores. Los ms usados son los cuartiles y los percentiles.
PERCENTILES: son 99 valores que dividen en cien partes
iguales el conjunto de datos ordenados. Ejemplo, el percentil de
orden 15 deja por debajo al 15% de las observaciones, y por encima
queda el 85%
CUARTILES son los
CUARTILES:
l tres
t
valores
l
que dividen
di id all conjunto
j t de
d
datos ordenados en cuatro partes iguales, son un caso particular de
los percentiles:
- El primer cuartil Q 1 es el menor valor que es mayor
que una cuarta parte de los datos
- El segundo cuartil Q 2 (la mediana), es el menor valor
que es mayor que la mitad de los datos
- El tercer cuartil Q 3 es el menor valor que es mayor
que tres cuartas partes de los datos

Medidas de Centralizacin
Nos dan un centro de la distribucin de frecuencias, es un valor que se puede tomar
como representativo de todos los datos. Hay diferentes modos para definir el
"centro" de las observaciones en un conjunto de datos. Por orden de importancia,
son:
MEDIA : (media aritmtica o simplemente media). es el promedio aritmtico de
las observaciones
MEDIANA :es el valor que separa por la mitad las observaciones ordenadas de
menor a mayor, de tal forma que el 50% de estas son menores que la mediana y el
otro 50% son mayores. Si el nmero de datos es impar la mediana ser el valor
central, si es par tomaremos como mediana la media aritmtica de los dos valores
centrales.
MODA : es el valor de la variable que ms veces se repite, es decir, aquella cuya
frecuencia absoluta es mayor. No tiene porque ser nica.

Clculo de la mediana
Si n es impar: x0.5 = x n +1
2

Si n es par: x0.5

1
= xn + xn
+1
2 2
2

Medidas de Dispersin
Las medidas de tendencia central tienen como objetivo el sintetizar los datos en un
valor representativo, las medidas de dispersin nos dicen hasta que punto estas
medidas de tendencia central son representativas como sntesis de la informacin. Las
medidas de dispersin cuantifican la separacin, la dispersin, la variabilidad de los
valores de la distribucin respecto al valor central. Distinguimos entre medidas de
dispersin absolutas, que no son comparables entre diferentes muestras y las relativas
que nos permitirn comparar varias muestras.
MEDIDAS DE DISPERSIN ABSOLUTAS
VARIANZA ( s2 ): es el promedio del cuadrado de las distancias entre cada
observacin y la media aritmtica del conjunto de observaciones.
DESVIACIN TPICA (S): La varianza viene dada por las mismas unidades que la
variable pero al cuadrado
cuadrado, para evitar este problema podemos usar como medida de
dispersin la desviacin tpica que se define como la raz cuadrada positiva de la
varianza
RECORRIDO O RANGO MUESTRAL (Re). Es la diferencia entre el valor de las
observaciones mayor y el menor. Re = xmax - xmin
MEDIDAS DE DISPERSIN RELATIVAS
COEFICIENTE DE VARIACIN DE PEARSON: Cuando se quiere comparar el grado
de dispersin de dos distribuciones que no vienen dadas en las mismas unidades o
que las medias no son iguales se utiliza el coeficiente de variacin de Pearson que se
define como el cociente entre la desviacin tpica y el valor absoluto de la media
aritmtica
CV representa el nmero de veces que la desviacin tpica contiene a la media
aritmtica y por lo tanto cuanto mayor es CV mayor es la dispersin y menor la
representatividad de la media.

Medidas de Forma
Comparan la forma que tiene la representacin grfica, bien sea el histograma
o el diagrama de barras de la distribucin, con la distribucin normal.
ASIMETRA
Diremos que una distribucin es simtrica cuando su mediana, su moda y su
media aritmtica coinciden.
Diremos que una distribucin es asimtrica a la derecha si las frecuencias
(absolutas o relativas) descienden ms lentamente por la derecha que por la
izquierda.
Si las frecuencias descienden ms lentamente por la izquierda que por la
derecha diremos que la distribucin es asimtrica a la izquierda.

APUNTAMIENTO O CURTOSIS

Miden la mayor o menor cantidad de datos que se agrupan en


torno a la moda. Se definen 3 tipos de distribuciones segn su
grado de curtosis:
Distribucin mesocrtica: presenta un grado de concentracin
medio alrededor de los valores centrales de la variable (el mismo
que presenta una distribucin normal). Distribucin leptocrtica:
presenta un elevado grado de concentracin alrededor de los
valores centrales de la variable. Distribucin platicrtica: presenta
un reducido g
grado de concentracin alrededor de los valores
centrales de la variable.

Distribuciones segn su amplitud


Al aumentar el nmero de datos
experimentales, las distribuciones tienden
a la normalidad (NO SIEMPRE)
n<30: Caso muy frecuente en el laboratorio
laboratorio, se
ajustan a la distribucin de Student
n30: Se puede considerar que los datos
conforman una distribucin suficientemente
normal

Media Geomtrica
Se utiliza en el caso de distribuciones lognormales
xG =

i =1

Media armnica
Se emplea para no tener en cuenta valores extremadamente altos
xH =

1
1 n 1

n i =1 xi

Estimaciones no paramtricas de
la tendencia central y la dispersin
Son estimaciones independientes del
conocimiento de la funcin de distribucin de
los datos
La mediana es el parmetro utilizado para
estimar la tendencia central
El recorrido intercuartil, x0.75 x0.25 es la
estimacin no paramtrica de la dispersin

S 0.74( x0.75 x0.25 )

Five number summary


En IDA (Initial Data Analysis), un conjunto
de datos viene bien caracterizado por
cinco nmeros, a saber:

Mximo
Mnimo
X1/4 (primer cuartil)
X3/4 (tercer cuartil)
X0.5 (mediana)

X 1/ 4

X 1/ 2

Primer cuartil

X 3/ 4

Segundo cuartil o
mediana

Tercer cuartil

Box & Whisker plot


Una representacin grfica de estos cinco
nmeros viene dada por el grfico de caja y
bigotes
X 1/ 4
X 3/ 4

Mediana

Mximo

Mnimo

Niveles de plasma
Los niveles de protena en plasma en 20 hombres y
20 mujeres (mg/100 mL) fueron:

9 13

11 3

18

2 4

6 2

1 14

2 11

3 11

3 2

4 8

10

Box & Whisker plot


Box & Whisker Plot
20
18
16
14
12
10
8
6
4
2

Median
25%-75%
Min-Max

0
Hombre

Mujer

Ensayos de significacin: Pruebas


de comparabilidad
Para realizar adecuadamente la comparabilidad de los
datos analticos se realizan las pruebas estadsticas, en
las que se sigue siempre el mismo protocolo:
La hiptesis a contrastar, llamada HIPTESIS NULA
(H0) se formula en trminos de que no hay diferencia
significativa
g
entre las cantidades q
que estn siendo
comparadas
Se obtiene un estadstico (valor numrico) a partir de los
datos experimentales
Se compara este valor con el valor tabulado que
correspondera a la prueba estadstica segn los grados
de libertad del sistema y la probabilidad de rechazar H0
siendo cierta (nivel de significacin)

Ensayos de significacin: Pruebas


de comparabilidad
Generalmente se utilizan ensayos de
significacin paramtricos que suponen
que las poblaciones correspondientes a
los datos muestrales son normales y que
se basan en la aplicacin de otras
funciones de distribucin como la de
Student, Snedecor-Fisher, Chi
cuadrado,

11

Errores tipo I y II
Cuando se contrasta H0 siempre existe
una probabilidad de rechazarla siendo
cierta, que se llama nivel de significacin
La probabilidad de no
no equivocarnos
equivocarnos , es
decir, aceptar H0 cuando es cierta, 1-, es
el nivel de confianza
es una medida del llamado error tipo I o
de FALSO NEGATIVO

Errores tipo I y II
En principio, podramos tomar 0 para evitar
la probabilidad de falsos negativos, pero
podramos acabar aceptando H0 siendo falsa
(cuando en realidad se da la hiptesis
alternativa)
El error correspondiente a la proporcin de
FALSOS POSITIVOS se llama tipo II o .
Si queremos disminuir la probabilidad de error
tipo I disminuyendo , aumentar el riesgo de
un error tipo II

Errores tipo I y II
Certeza sobre la
poblacin
H0 CIERTA H0 FALSA
Decisin H0
Error I
basada RECHAZADA
en la
Decisin
muestra H0
ACEPTADA
correcta

Decisin
correcta
Error II

12

Ensayos de una y dos colas


La comparacin y el rechazo de H0 puede
hacerse de modo unidireccional o bidireccional,
dependiendo de la teora y las evidencias
empricas
Si consideramos una comparacin muy simple,
entre las medias de poblacin A y B podemos
rechazar H0 admitiendo como alternativa que
A > B (una cola)
A < B (una cola)
A > B A < B (dos colas)

Ensayos de una y dos colas


Cuando no hay evidencia emprica previa
de que haya una desigualdad
unidireccional en las dos series de datos
que comparamos
comparamos, debemos optar por
ensayos de dos colas
Si existe un conocimiento previo de tal
direccionalidad, entonces usaremos
ensayos de una cola

H0: A B
H1: A <B
Una cola, mitad +
H0: A B
H1: A >B
Una cola, mitad -

H0: A = B
H1: A <B o A> B
Dos colas

13

ERRORES TIPO I y II

Pruebas estadsticas univariantes


Los ensayos de significacin paramtricos
ms usados en comparabilidad son las
pruebas de comparacin de valores
centrales (Ensayo de Student)
Student), de
dispersiones (Ensayo de Snedecor-Fisher)
y de distribuciones de frecuencia (Ensayo
Chi cuadrado)

14

EJEMPLOS
Comparacin de la dispersin de dos
conjuntos de datos

15

Pruebas t de Student
Las pruebas t de Student se aplican
generalmente en dos casos:
C
Comparar llos valores
l
promedio
di d
de d
dos
conjuntos de datos
Comparar diferencias entre resultados
emparejados (muestras dependientes)

16

EJEMPLOS
Comparacin entre valores promedio

17

EJEMPLOS
Ensayo de resultados emparejados

Valores extremos
Se denominan valores extremos a aquellas
observaciones tan alejadas del resto de las medidas que
parece que proceden de una poblacin diferente o bien
son el resultado de un error en la medida.
Estos valores pueden subdividirse en
stragglers (valores rezagados) que aparecen
entre el 95-99% del nivel de confianza de la
distribucin
outliers (resultados aberrantes) que surgen ms
all del 99% del nivel de confianza y por lo tanto
podra asumirse que pertenecen a otra poblacin

18

Diferentes tipos de extremos

Podemos encontrar valores extremos de


centralizacin y de dispersin, outliers con
respecto al valor esperado (media,
mediana) y outliers con respecto a la
dispersin (varianza, rango)
Para la posible eliminacin, existen
criterios y tcnicas que se aplican a los
dos tipos de extremos

Criterios estadsticos para


extremos de dispersin
Criterio de Bartlett
Ensayo de Levene
y
Test de Hartley
Criterio de Cochran
En todos los casos
consideraremos K series de datos
con Ni medidas cada uno

19

Criterio de Bartlett
El estadstico es:
K

T=

( N K ) ln S p2 ( Ni 1) ln Si2
i =1

1 K 1
1
1+

3( K 1) i =1 Ni 1 N K
N = numero total de medidas
( Ni 1)Si2
N K
i =1
K

S p2 =

Criterio de Bartlett
H 0 : 1 = 2 = ... = K
Si T 2 ( , K 1), H 0 se admite
Este criterio es muy sensible a las
desviaciones de la normalidad de los
datos

Ensayo de Levene
El estadstico es
K

W=

( N K ) N i ( Z i. Z.. ) 2
i =1
K Ni

( K 1)) ( Z ij Z i. ) 2
i =1 j =1

Z ij = X ij X i
Ni

Zi. =

Z
j =1

Ni

ij

Z.. =

Ni

Z
i =1 j =1

ij

20

Ensayo de Levene
H0 es igual que en el ensayo anterior

Si W F ( , K 1, N K ) H 0 se acepta
Admite que la distribucin es normal

Test de Hartley
En este caso se supone que todas las
series tienen el mismo nmero de datos
Ni=n y siguen la distribucin normal
Usa como estadstico

F=

2
S max
2
S min

Que sigue la distribucin de SnedecorFisher

Criterio de Cochran
En principio, como el anterior est
pensado para series con el mismo nmero
de datos Ni=n
El estadstico es

C=

2
S max
K

S
i =1

2
i

21

Criterio de Cochran
En lugar de comprobar si hay
homogeneidad en las varianzas, permite
ensayar si la varianza sospechosa ha de
considerarse como outlier
outlier
Funciona bien con desviaciones de la
normalidad
Puede aplicarse tambin cuando Ni no es
constante

Criterio de Cochran
Se compara C con el valor tabulado
C(K,n,) con = 1% y ensayo de 1 cola
Si Ni no es constante se calcula
K

n=

N
i =1

Y se busca el valor C(K,, )

Outliers centrales

22

Como regla de oro si ms del 20% de los datos se


identifican como anmalos, ms vale cuestionar la
supuesta distribucin de los mismos o considerar la
calidad de los datos medidos.
Los ensayos apropiados para identificar outliers en
los tres casos presentados en la figura son:
(a) Dean & Dixon o Grubbs 1
(b) Grubbs 2
(c) Grubbs 3
La primera operacin consiste en ordenar los
valores del conjunto de los n datos en orden
creciente; de este modo los posibles valores
anmalos se distribuirn hacia los extremos (x1 o
xn)

Test de Dean & Dixon


Este ensayo se usa generalmente para
detectar un nmero pequeo de outliers
(Gibbons, 1994) cuando el tamao de la
muestra es de 3-25
3 25 observaciones
observaciones. Los
ndatos se ordenan de manera creciente:
x1, x2, x3, ... xn-2, xn-1, xn y entonces el
estadstico Q se calcula segn el nmero
de observaciones:

Clculo del estadstico Q

Observaciones
3a7

8-10

11-13

x1 sospechoso

xn sospechoso

x x
Q= 2 1
xn x1

Q=

xn xn 1
xn x1

x2 x1
xn 1 x1

Q=

xn xn1
xn x2

Q=

Q=

14-25

Q=

x3 x1
xn 1 x1

x3 x1
xn 2 x1

Q=

xn xn 2
xn x2

Q=

xn xn 2
xn x3

23

Test de Dean & Dixon


El valor se compara
con el valor tabulado
para un 1% de nivel
de significacin

Ensayos de Grubbs
No hay uno, sino tres ensayos de Grubbs:
G1, cuando el resultado sospechoso es uno
(situacin a de la figura 1)
G2 cuando hay un par de resultados sospechosos
en los
l extremos
t
opuestos
t (situacin
( it
i b)
G3, cuando la pareja de datos sospechosos est a
un mismo lado de la media (caso c)

Estos estadsticos se calculan utilizando las


expresiones siguientes una vez que los datos se
han ordenado en orden creciente:

Ensayos de Grubbs
S es la desviacin estndar del conjunto completo,
xi es un resultado sospechoso nico, x es la media,
n el nmero de resultados, xn y x1 son los valores
extremos de la serie y sn-2 es la desviacin estndar para
El conjunto de datos excluyendo la pareja de resultados
sospechosos
Los valores calculados de los estadsticos se comparan
con los valores crticos tabulados para un 99% de nivel
De confianza

24

ANOVA
Hasta ahora hemos estudiado pruebas
estadsticas para la comparacin de dos series
de datos. En el caso de comparaciones
mltiples (tres o ms series) hay que acudir a
otros procedimientos o realizar combinaciones
binarias.
La tcnica fundamental para realizar mltiples
comparaciones es el Anlisis de la Varianza
(ANOVA)

ANOVA
Para contrastar las dispersiones de varias series de
datos procederemos a realizar cualquiera de los
ensayos que se practicaron para la deteccin de outliers
dispersivos, como el criterio de Bartlett, Levene, Hartley
o Cochran
Para
P
comparar llos valores
l
centrales
t l d
de ms
d
de d
dos
series de datos independientes, emplearemos el
ANOVA de un factor en diseo completamente
aleatorizado
Para realizar comparaciones entre ms de dos series de
datos apareados (dependientes) utilizaremos el ANOVA
de un factor en diseo por bloques aleatorizados

25

ANOVA
Consideraremos que en la realizacin de la
medida solamente hay una variable
experimental influyente o FACTOR, el cual se
investiga hacindolo actuar a diversos valores
(niveles o tratamientos).
Al material soporte (muestras, especmenes,
individuos...) donde se realiza el experimento se
le llama unidad experimental y se le mide el
efecto producido por el tratamiento.

ANOVA
Designemos por xij a la j-sima unidad experimental sometida al isimo tratamiento (j =1, ...,n; i=1,...p)

Nivel

Observaciones

Medias

x11

x12

x1j

x1n

x1

x21

x22

x2j

x2n

x2

xi1

xi2

xij

xin

xi

xp1

xp2

xpj

xpn

xn

ANOVA
Para contrastar H0: 1=2=...=p es
necesario aceptar las suposiciones:
La poblacin de las p muestras es normal
Las p poblaciones son homocedsticas
(tienen la misma dispersin)
Las p poblaciones son independientes
Las muestras tomadas son aleatorias

26

ANOVA
El factor que induce las posibles
diferencias entre las series de muestras
puede ser el modo diferente en que han
sido medidas o su diversa procedencia,...
El efecto de la variacin (ti) se
superpondr a la desviacin aleatoria pura
(eij) de la medida, de manera que se
separar de su hipottico valor verdadero
() segn el modelo

xij = + ti + eij

ANOVA
Si asimilamos

x
ti efecto de la variacin = xi x
eij desviacin respecto a la media = xij xi
xij x = xi x + xij xi

ANOVA
p

( x
i =1 j =1

ij

x ) 2 = ( xi x ) 2 + ( xij xi ) 2

TSS (Total)

i =1 j =1

i =1 j =1

BSS (Between) WSS (Within)

27

ANOVA
TSS registra la dispersin total existente
en los datos
BSS es la suma de cuadrados debida a
los cambios ENTRE niveles.
niveles Refleja el
sesgo debido a la variacin en los niveles
WSS es la suma de cuadrados DENTRO
de cada nivel y se adscribe al error
aleatorio puro

ANOVA
Si la varianza entre niveles es
significativamente mayor que la varianza
de error puro puede comprobarse
aplicando la prueba F de Snedecor
Snedecor-Fisher:
Fisher:

F=

S B2
BSS / ( p 1)
=
2
SW WSS / p (n 1)

Si F < Fp-1,n(p-1); H0 se acepta

ANOVA
Si el resultado del ANOVA fue rechazar H0, esto
nos indica que las medias no son iguales por
causa de la variacin de los tratamientos.
Pero en realidad no sabemos q
qu medias son
las que realmente difieren, pues puede suceder
que:
Una media sea diferente de las restantes
Todas sean distintas
Se encuentren agrupadas

28

ANOVA: Pruebas post-hoc


Para comprobar fcilmente si existe diferencia
significativa entre parejas de medias se emplean las
llamadas pruebas a posteriori o post-hoc.
Una de ellas es el criterio de la Mnima Diferencia
Si ifi ti (LSD) empleando
Significativa
l
d un ensayo t-Student.
t St d t
Dos medias diferirn significativamente si:

xk xl t p ( n 1); / 2

2WSS
n

ANOVA: Pruebas post-hoc


No obstante, como realizamos c = r (r-1)/2
comparaciones cada una de ellas tomando un
nivel de significacin , se produce una inflacin
del error tipo I, siendo * = 1-(1-)c.
En el caso tpico de = 0.05, se obtiene * = 0.4
Para evitar esta inflacin, se emplea el ensayo
LSD pero tomando un valor del nivel de
significacin recalculado para evitar la
inflacin.

ANOVA: Pruebas post-hoc


Existen dos procedimientos principales:
BONFERRONI propone = /c
DUNN-SIDAK usan =1-(1-)1/c
Pero tambin existen otros ensayos
y como el de la
Diferencia francamente significativa (HSD) de Tukey,
que no sufre inflacin.
Dos medias son estadsticamente significativas si:

xk xl qr , p ( n 1);

SEE
n

29

ANOVA: Pruebas post-hoc


El valor crtico qr,n-r; se obtiene de unas
tablas de rango studentizado de Tukey.
Existen
E
i t modelos
d l d
de ANOVA en bl
bloques
aleatorios y multifactoriales, pero no los
consideraremos.

EJEMPLO ANOVA
Cuatro laboratorios han aplicado el mismo
mtodo a una misma muestra y han
realizado un triplicado de la medida. Los
resultados se indican en la tabla adjunta
adjunta.
Hay diferencias significativas entre los
resultados obtenidos por los laboratorios?

EJEMPLO ANOVA
Lab

Rplicas

Medias

102

100

101

101

101

101

104

102

97

95

99

97

90

92

94

92

p= 4, n = 3, N=np = 12

30

EJEMPLO ANOVA
Fuente de
variacin
Niveles
(Labs)
Residual
(Error aleat.)
Total

Suma de
Grados de Varianzas
cuadrados libertad
BSS= 186 4-1 = 3
186/3 = 62
11-3 = 8
WSS =
210-186 =
24
TSS = 210 12-1 = 11

24/8 = 3

EJEMPLO ANOVA
F = 62/3 = 20.7 > F3,8;0.05 = 4.07
Se rechaza H0: Las medias difieren
significativamente, pero Cules?
Utili
Utilicemos
ell mtodo
t d post-hoc
th d
de T
Tukey
k
1/2
HSD = q4,8;0.05 (3/3) = 4.529
Las diferencias entre medias son:

EJEMPLO ANOVA
x1
x1
x2
x3

x2

x3

x4

10
5

x4
Todas las medias difieren excepto las del
laboratorio 1 y el 2 y las del laboratorio 1 y
el 3

31

You might also like