You are on page 1of 52

VERIFICACIN DE SUPUESTOS

P
A

IM

10

43

11

TEMAS SELECTOS DE MATEMATICAS PARA LA


INGENIERIA INDUSTRIA
Maestra: Francis Soler

CLAUDIA ARIAS PORTELA


JORGE ESPEJEL HERRERA
HECTOR HERNNDEZ LPEZ
MARIO RODRGUEZ LPEZ

11
43
10
E
IM
P

P
A

Sobre los autores:

CLAUDIA ARIAS PORTELA

Alumnos del Posgrado en Ingeniera (Industrial)


de la Universidad Nacional Autnoma de
Mxico (UNAM). Semestre 2013-1

Agradecimientos

P
A

IM

10

43

11

Los autores antes mencionados agradecen a DGAPA por


permitirles fortalecer el conocimiento de las herramientas de
la probabilidad y la estadstica mediante su colaboracin en el
proyecto Aplicaciones de la estadstica de la ingeniera
PAPIME 104311 debido a que con esta participacin lograron
una vinculacin de sus conocimientos anteriores y los
adquiridos en las clases de la maestra, para presentarlos en
una forma sencilla a travs de este material .didctico Y a la
Divisin de Ingeniera Mecnica e Industrial por las gestiones
hechas para la consecucin de dicho proyecto

Agenda

P
A

IM

10

43

11

1. Introduccin
2. Cul es la finalidad del anlisis de varianzas?
3. Qu comprobamos con el anlisis de varianzas?
4. Verificacin de los supuestos:
Normalidad
Independencia
Homocedasticidad

1. Introduccin

10

43

11

La metodologa estadstica se basa en supuestos que deben


verificarse si se quiere tener la confianza de que las inferencias
son pertinentes.

P
A

IM

El proceso por el que verificamos si estos supuestos son


correctos se denomina verificacin del modelo el cual tiene
una enorme importancia en las aplicaciones de la Estadstica
y, es una prctica estadstica muy recomendable realizar una
verificacin del modelo adecuado.
Cuando se propone un modelo para el ajuste de los datos se
establecen bsicamente los siguientes supuestos sobre el
error: Independencia, normalidad, Media cero y varianza
constante.

IM

10

43

11

Es importante notar que los errores (i) son no observables, no


se conocen, pero se pueden estimar mediante los residuales
(i), as todas las pruebas de los supuestos se realizan sobre
estos ltimos. Al ajustar el modelo se espera que los residuales
satisfagan los anteriores supuestos sobre el error. Despus de
examinar los residuales slo se podr concluir que los supuestos
se cumplen, o no se cumplen con los riesgos inherentes a
toda decisin estadstica.

P
A

Toda la inferencia que se puede realizar (estimacin por intervalo


de las combinaciones lineales o no lineales de los
parmetros, pruebas de hiptesis, entre otras) sobre el
modelo, tiene como base los supuestos sobre la variable
respuesta. Si alguno de estos no se cumple, los procesos de
inferencia conllevan a decisiones con alto riesgo de estar
equivocadas.

11

Los supuestos bsicos que se deben verificar en el ajuste de los


modelos son los siguientes:

IM

10

43

La no correlacin de los errores: Este supuesto no se cumplen cuando


las observaciones son tomadas secuencialmente en el tiempo, el
espacio y en datos cluster, entre otros. Cuando los datos estn
correlacionados se debe trabajar con mtodos estadsticos apropiados.

P
A

La homocedasticidad de los errores: Este supuesto puede no cumplirse


por diversas razones, por ejemplo: Por daos en alguna parte del
experimento, contratiempos, uso del material experimental menos
homogneo en algunas rplicas, por no tener cuidado en el control
durante la ejecucin del experimento o en el control de las unidades
experimentales.

P
A

IM

43
10

El anlisis de varianza es
utilizado para verificar si
hay diferencias
estadsticamente
significativas entre medias
cuando tenemos ms de
dos muestras o grupos en
el mismo planteamiento. Lo
ms importante es la toma
de decisiones.

11

2. Cul es la finalidad del anlisis de varianzas?

3. Qu comprobamos con el anlisis de varianzas?

10

43

11

Comprobamos si existen diferencias estadsticamente


significativas entre ms de dos muestras.

P
A

IM

Buscamos comprobar si hay diferencias entre las medias


de las muestras.
Es el mtodo apropiado cuando tenemos ms de dos
muestras en el mismo planteamiento; en vez de
comparar las medias de dos en dos, utilizamos el anlisis
de varianza.

4. Verificacin de los supuestos

10

43

11

Existen distintas tcnicas de verificacin de supuestos, pero las


que se presentan aqu se basan en los predictores de los errores
ij, es decir los residuos.

IM

ij = valor observado valor predicho.

P
A

Una vez calculados los predictores se puede verificar el


cumplimiento de los supuestos de normalidad, independencia y
homoscedasticidad de varianzas de los ij, mediante pruebas de
hiptesis e interpretaciones grficas.

Ejemplo de aplicacin

11

Para ejemplificar la verificacin de supuestos y sus pruebas, se


trabajar con datos tomados de dos lneas de llenado de tubos de
crema antiarrugas de 100g de peso, de una empresa mexicana.

43

Lnea 1

Lnea 2

100.225

100.75

100.225

100.775

100.3

100.8

100.3

100.85

100.4

100.85

100.475

100.85

100.5

101.075

102.875

100.575

101.1

101.5

102.95

100.625

101.1

101.55

103.025

100.675

101.175

101.575

103.425

100.725

101.25

101.625

103.425

100.725

101.275

102.4

100.2

102.4

100.45

102.65

100.975

102.675

101.15

102.825

101.45

10

100.075

101.925

IM

100

n = 24 para
ambas lneas

101.85

P
A

99.9

Datos tomados del Cuaderno de Divulgacin Anlisis de la


Capacidad de Procesos Industriales. Ann Wellens. Mxico 2012

Normalidad

10

HISTOGRAMA

43

11

Cuando se requiere probar la normalidad de un conjunto de datos pueden


emplearse grficas como auxiliares visuales, la ventaja de stas herramientas es
que pueden generarse fcilmente de forma manual o con algn paquete
computacional como Excel o Minitab .

Histograma de Linea 1

IM

Normal

14
12

P
A

Frecuencia

10

6
4

Normal

20

101.8
1.858
96

Media
Desv .Est.
N

15

Frecuencia

Media
Desv .Est.
N

Histograma de Linea 2

10

2
0

97.5

99.0

100.5

102.0
Linea 1

103.5

105.0

99.6

100.0

100.4

100.8 101.2
Linea 2

101.6

102.0

102.4

Histogramas generados en Minitab, se grafica la curva normal que mejor se ajusta a los datos analizados.
La lnea 2 es la que presenta un mejor ajuste.

100.7
0.5424
96

Normalidad
Grfica de Probabilidad Normal
Grfica de probabilidad de Linea 1

Grfica de probabilidad de Linea 2


Normal - 95% de IC

Media
Desv .Est.
N
AD
Valor P

99

95
90
80
70
60
50
40
30
20

Media
Desv .Est.
N
AD
Valor P

100.7
0.5424
96
0.551
0.152

Porcentaje

10

5
1

100.0

102.5
Linea 1

105.0

107.5

110.0

97.5

5
1

0.1

99

100

101
Linea 2

102

103

P
A

95.0

IM

10

0.1

99

10

80
70
60
50
40
30
20

101.8
1.858
96
0.618
0.105

Porcentaje

95
90

99.9

43

99.9

11

Normal - 95% de IC

Grficas de Probabilidad Normal generadas en Minitab. El conjunto de


datos que mejor se ajusta a la recta del centro es el que se aproxima ms
a la normal. Se refuerza la observacin realizada con los histogramas.
Las grficas se pueden realizar manualmente en papel probabilstico
normal.

Normalidad

43

10

Es aplicada nicamente a variables continuas.


Calcula la distancia mxima entre la funcin de distribucin emprica
de la muestra seleccionada y la terica.
Es aplicable para distribuciones: Normal, Exponencial, Weibull. En este
caso probaremos Normalidad.

IM

11

1. Prueba de Kolmogorov - Smirnof

P
A

Sea una muestra ordenada de la forma . La funcin de distribucin


emprica de esta muestra es de la forma:

IM

P
A

43

10

11

Normalidad

IM

P
A

43

10

11

Normalidad

Ejemplo prctico Kolmogorov Smirnov :


Para los datos de la muestra 1 se obtienen los siguientes resultados:
Calculo del estadistico D para la muestra 1

0.044220899
0.01166602
0.022236511
0.049034323
0.052944022
0.023496415
0.032716514
0.088951324
0.06459897
0.04045003
0.007608016
0.016299328
0.022880733
0.008118287
0.126909487
0.08524282
0.115599976
0.080519986
0.075855958
0.045546939
0.019992239
0.006668949
0.013867304
0.027799362

Max=

()

11

0.0442209
0.05333269
0.06109682
0.07596568
0.11372265
0.23182975
0.28271651
0.38061799
0.3979323
0.41545003
0.42427468
0.44203401
0.52288073
0.54978495
0.71024282
0.71024282
0.78226664
0.78885332
0.82585596
0.83721361
0.85332557
0.86833105
0.93053397
0.93053397

( )
0.002554233
0.030000646
0.063903177
0.09070099
0.094610688
0.018170251
0.008950153
0.047284657
0.022932303
0.001216637
0.034058651
0.057965995
0.018785934
0.03354838
0.08524282
0.043576153
0.07393331
0.038853319
0.034189291
0.003880272
0.021674427
0.048335616
0.027799362
0.069466029

43

-1.70367512
-1.61336435
-1.54563127
-1.4327428
-1.20696587
-0.7328343
-0.57479045
-0.30385813
-0.25870274
-0.21354735
-0.19096966
-0.14581427
0.05738497
0.12511805
0.55409423
0.55409423
0.77987116
0.80244886
0.93791502
0.9830704
1.05080348
1.11853657
1.47977966
1.47977966

1 ( )

10

0.04166667
0.08333333
0.125
0.16666667
0.20833333
0.25
0.29166667
0.33333333
0.375
0.41666667
0.45833333
0.5
0.54166667
0.58333333
0.625
0.66666667
0.70833333
0.75
0.79166667
0.83333333
0.875
0.91666667
0.95833333
1

()

99.9
100
100.075
100.2
100.45
100.975
101.15
101.45
101.5
101.55
101.575
101.625
101.85
101.925
102.4
102.4
102.65
102.675
102.825
102.875
102.95
103.025
103.425
103.425

IM

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24

()

P
A

0.126909487

0.12690949

0.094610688

Promedio
Desv. Est.

101.786458
1.1072876

Ejemplo prctico Kolmogorov Smirnov :


Para los datos de la muestra 2 se obtienen los siguientes resultados:

0.05601083
0.05601083
0.087756
0.087756
0.14868736
0.20965705
0.23286145
0.31030434
0.36742695
0.42764856
0.48960793
0.48960793
0.52077708
0.55181962
0.5825479
0.64234273
0.64234273
0.64234273
0.85726945
0.87416193
0.87416193
0.91632294
0.94686885
0.95480838

0.056010833
0.014344166
0.004422668
0.037243999
0.017979304
0.00132372
0.017138551
0.018637677
0.034093613
0.052648558
0.072941267
0.031274601
0.020777081
0.010152956
0.000785438
0.017342734
0.024323932
0.065990599
0.107269447
0.082495264
0.040828598
0.041322943
0.030202187
0.003524958

Max=

0.014344166
0.0273225
0.037243999
0.078910665
0.059645971
0.040342947
0.058805218
0.023028989
0.007573053
0.010981891
0.031274601
0.010392066
0.020889585
0.031513711
0.042452105
0.024323932
0.065990599
0.107657266
0.06560278
0.040828598
0.000838069
0.000343724
0.011464479
0.045191624

43

-1.58917156
-1.58917156
-1.35470362
-1.35470362
-1.04207971
-0.80761178
-0.7294558
-0.49498786
-0.33867591
-0.18236395
-0.02605199
-0.02605199
0.05210399
0.13025996
0.20841594
0.3647279
0.3647279
0.3647279
1.0681317
1.14628768
1.14628768
1.38075562
1.61522355
1.69337953

( )

()

10

0.04166667
0.08333333
0.125
0.16666667
0.20833333
0.25
0.29166667
0.33333333
0.375
0.41666667
0.45833333
0.5
0.54166667
0.58333333
0.625
0.66666667
0.70833333
0.75
0.79166667
0.83333333
0.875
0.91666667
0.95833333
1

1 ( )

100.225
100.225
100.3
100.3
100.4
100.475
100.5
100.575
100.625
100.675
100.725
100.725
100.75
100.775
100.8
100.85
100.85
100.85
101.075
101.1
101.1
101.175
101.25
101.275

IM

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24

()

P
A

11

Calculo del estadistico D para la muestra 2

0.107269447

0.10765727

0.107657266

Promedio
Desv. Est.

100.733333
0.31987316

Normalidad

11

2. Prueba de Anderson-Darling

P
A

IM

10

43

Dada a conocer en 1954.


Su propsito es corroborar si una muestra de variables aleatorias proviene
de una poblacin con una distribucin de probabilidad especfica.
Modificacin de la prueba de Kolmogorov-Smirnov.
Tiene la virtud de detectar las discrepancias en los extremos de las
distribuciones.
Su desventaja estriba en que es necesario calcular los valores crticos para
cada distribucin.
Es muy sensible a los extremos de la distribucin.
No es confiable para distribuciones de tipo discreto.
Actualmente es posible encontrar tablas de valores crticos para las
distribuciones normal, log normal, exponencial, log-logstica, de Weillbull.

Normalidad

7.
8.
9.

P
A

IM

10

43

11

El procedimiento general de la prueba de Anderson Darling es el siguiente:


1. Obtener n datos de la variable aleatoria a analizar.
2. Calcular la media y la varianza de los datos.
3. Organizar los datos en forma ascendente; xi : x(1) x(2) x(n)
4. Establecer explcitamente la hiptesis nula, proponiendo una distribucin
de probabilidad.
5. Calcular
y determinar las probabilidades acumuladas P(i)
correspondientes a los z(i) con ayuda de una tabla de la distribucin
normal.
6. Calcular el estadstico de prueba:
Ajustar el estadstico de prueba de acuerdo con la distribucin de
probabilidad propuesta.
Definir el nivel de significancia de la prueba y determinar su valor crtico.
Comparar el estadstico de prueba con el valor crtico. Si el estadstico de
prueba es menor que el valor crtico no se puede rechazar la hiptesis
nula.

Ejemplo prctico Anderson-Darling:

43

11

Determinar si la muestra 1 proviene de una distribucin normal, con un nivel de


significancia del 5 %.

10

Se calcula la media y la varianza:

H0: Los datos se ajustan a un modelo normal


H1: Los datos no se ajustan a un modelo normal

P
A

Hiptesis estadstica:

IM

Se ordenan de menor a mayor:

Se estandariza cada valor de X, y se calcula su probabilidad acumulada P(i) de la


siguiente manera:

Entonces la probabilidad normal acumulada p(1) = 0.0378

Ejemplo prctico Anderson-Darling:

11

.
.
.

43

Entonces la probabilidad normal acumulada p(24) = 0.9415

P
A

IM

10

Calcular A2 segn la frmula

Una vez calculado el estadstico de prueba es necesario ajustarlo de acuerdo con


la tabla de la distribucin de A2. En este caso, como tenemos n 5 no se requiere
ajuste.

Ejemplo prctico Anderson-Darling:

Tabla de A2

IM

10

43

11

.
.
.

P
A

Como:

Finalmente al comparar el estadstico de prueba A2 = 0.4947 con el valor


crtico de la prueba con el nivel de significancia seleccionado, A2 = 2.492.

Por lo tanto, no se puede rechazar la hiptesis nula Ho: Los datos se


ajustan a un modelo normal

Ejemplo prctico Anderson-Darling:

43

11

Determinar si la muestra 2 proviene de una distribucin normal, con un


nivel de significancia del 5 %.

IM

10

Se calcula la media y la varianza:

P
A

Se ordenan de menor a mayor:

Hiptesis estadstica: H0: Los datos se ajustan a un modelo normal


H1: Los datos no se ajustan a un modelo normal

y ordenados

101.28

100.23

-1.1324

0.1287

-2.05026006

47

-0.13777057

-8.52547686

101.08

100.23

-1.1324

0.1287

-2.05026006

45

-0.13777057

-12.3504558

100.48

100.30

-0.9913

0.1608

-1.82769416

43

-0.17528702

-16.6758125

101.10

100.30

-0.9913

0.1608

-1.82769416

41

-0.17528702

-19.9806268

100.68

100.40

-0.8032

0.2110

-1.55608646

39

-0.23693834

-23.2453733

100.63

100.48

-0.6622

0.2539

11

43

ln P

2n + 1 - 2i

-1.37081062

37

-0.29289706

-25.916108

100.85

100.50

-0.6152

0.2692

13

-1.31231745

35

-0.31360928

-28.0364516

100.73

100.63

-0.3801

0.3520

15

-1.04419791

33

-0.43382449

-29.9791769

101.18

100.68

-0.2860

0.3874

17

-0.94827751

31

-0.49005574

-31.3124457

100.40

100.73

-0.1920

0.4238

19

-0.85844113

29

-0.55133907

-32.2992146

100.85

100.73

-0.1920

0.4238

21

-0.85844113

27

-0.55133907

-32.9134187

100.78

100.75

-0.1450

0.4424

23

-0.81563202

25

-0.58404107

-33.3605633

100.30

100.78

-0.0980

0.4610

25

-0.7743636

23

-0.61803426

-33.5738781

102.83

100.80

-0.0509

0.4797

27

-0.73454204

21

-0.65339796

-33.5539923

100.23

100.85

0.0431

0.5172

29

-0.65930767

19

-0.72817203

-32.955191

100.85

100.85

0.0431

0.5172

31

-0.65930767

17

-0.72817203

-32.8174623

100.30

100.85

0.0431

0.5172

33

-0.65930767

15

-0.72817203

-32.6797336

101.25

101.08

0.4663

0.6795

35

-0.38646013

13

-1.13774139

-28.3167426

101.10

101.10

0.5133

0.6962

37

-0.36218762

11

-1.19122687

-26.5044373

100.75

101.10

0.5133

0.6962

39

-0.36218762

-1.19122687

-24.8463588

100.73

101.18

0.6543

0.7436

41

-0.29626378

-1.36098247

-21.6736921

100.50

101.25

0.7954

0.7868

43

-0.23982268

-1.54537149

-18.0392328

100.23

101.28

0.8424

0.8003

45

-0.22282561

-1.61071068

-14.8592846

100.80

102.83

3.7576

0.9999

47

-0.00010001

-9.21034037

-9.21504061

10

2i - 1

IM

P
A

11

Normalidad
ln (1 - P)

SUMATORIA

Tabla de A2

IM

10

43

11

.
.
.

P
A

Como:

Finalmente al comparar el estadstico de prueba A2 = 1.1513 con el valor


crtico de la prueba con el nivel de significancia seleccionado, A2 = 2.492.

Por lo tanto, no se puede rechazar la hiptesis nula Ho: Los datos se


ajustan a un modelo normal

IM

P
A

43

10

11

Normalidad

IM

P
A

43

10

11

Normalidad

Normalidad

P
A

IM

10

43

11

Procedimiento para realizar el clculo del estadstico :

Ejemplo prctico Shapiro - Wilks :


Prueba de Shapiro - Wilks para la muestra 1

43

11

a(in)
{w(n-i+1)-w(i)} * a(in)
0.4493
1.5837825
0.3098
1.061065
0.2554
0.75343
0.2145
0.589875
0.1807
0.4381975
0.1512
0.27972
0.1245
0.1898625
0.0997
0.11964
0.0764
0.06876
0.0539
0.045815
0.0321
0.011235
0.0107
0.0024075
sumatoria
5.14379
sum al cuadrado
26.45857556

10

w(n-i+1)-w(i)
3.525
3.425
2.95
2.75
2.425
1.85
1.525
1.2
0.9
0.85
0.35
0.225

w(n-i+1)
103.425
103.425
103.025
102.95
102.875
102.825
102.675
102.65
102.4
102.4
101.925
101.85
101.625
101.575
101.55
101.5
101.45
101.15
100.975
100.45
100.2
100.075
100
99.9

IM

(n-i+1)
24
23
22
21
20
19
18
17
16
15
14
13
12
11
10
9
8
7
6
5
4
3
2
1

w(i)
99.9
100
100.075
100.2
100.45
100.975
101.15
101.45
101.5
101.55
101.575
101.625
101.85
101.925
102.4
102.4
102.65
102.675
102.825
102.875
102.95
103.025
103.425
103.425

P
A

n
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24

w=
w(0.5, 24)=

0.899154551
0.963

w < w(0.5, 24)

Se aprueba Ho

h=

12

var. Muestral

1.226085824

Ejemplo prctico Shapiro - Wilks :


Prueba de Shapiro - Wilks para la muestra 2

11

a(in)
{w(n-i+1)-w(i)} * a(in)
0.4493
0.471765
0.3098
0.317545
0.2554
0.223475
0.2145
0.1716
0.1807
0.12649
0.1512
0.09072
0.1245
0.043575
0.0997
0.0274175
0.0764
0.01719
0.0539
0.0067375
0.0321
0.001605
0.0107
0.0002675
sumatoria
1.4983875
sum al cuadrado
2.2451651

10

43

w(n-i+1)-w(i)
1.05
1.025
0.875
0.8
0.7
0.6
0.35
0.275
0.225
0.125
0.05
0.025

w(n-i+1)
101.275
101.25
101.175
101.1
101.1
101.075
100.85
100.85
100.85
100.8
100.775
100.75
100.725
100.725
100.675
100.625
100.575
100.5
100.475
100.4
100.3
100.3
100.225
100.225

IM

(n-i+1)
24
23
22
21
20
19
18
17
16
15
14
13
12
11
10
9
8
7
6
5
4
3
2
1

w(i)
100.225
100.225
100.3
100.3
100.4
100.475
100.5
100.575
100.625
100.675
100.725
100.725
100.75
100.775
100.8
100.85
100.85
100.85
101.075
101.1
101.1
101.175
101.25
101.275

P
A

n
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24

w=
w(0.5, 24)=

0.914284655
0.963

w < w(0.5, 24)

Se aprueba Ho

h=

12

var. Muestral

0.102318841

Homoscedasticidad
Homoscedasticidad significa igual
dispersin.

11

Distribucin homocedstica

10

43

Hablamos de homocedasticidad si el error


cometido por el modelo, con dos ms
muestras, tiene siempre la misma varianza.

P
A

Distribucin heterocedstica

IM

El no cumplimiento de esta propiedad


puede conllevar que las conclusiones que se
extraigan del modelo sean falsas.
Las dos pruebas ms usadas para verificar la
homoscedasticidad de varianzas son:
1.
2.

Test de Bartlett.
Test de Hartley - Fmax.

Homoscedasticidad
Test de Bartlett (para muestras de tamao distinto)

11

1.

10

43

Hiptesis estadsticas:

IM

Ho: 21 = 22 = 23 =2n
H1: 21 22 23 2n

P
A

Supuesto: El test de Bartlett se usa para modelos con tamao de


muestra distintos.
Estadstico de contraste: Sigue la distribucin Chi-cuadrado con
(r-1) grados de libertad. Donde r = no. de muestras.

Homoscedasticidad

P
A

IM

10

43

11

Ejemplo prctico:

P
A

IM

10

43

11

Homoscedasticidad

Homoscedasticidad
R.R

P
A

IM

10

43

11

R.A

Variable de inters: peso (g) para tubos de cosmticos de 100 g


Al aceptar la hiptesis nula de igualdad de varianzas, podemos demostrar
que ambas lneas de produccin son de dispersiones en torno a la media
similares, y se evidencia que el comportamiento errtico es igual en las dos
lneas de produccin. Podemos continuar trabajando con stas muestras.

Homoscedasticidad

10

43

11

2. Test de Hartley Fmax (para muestras de igual tamao)

P
A

IM

Hiptesis estadsticas:
Ho: 21 = 22 = 23 =2n
H1: 21 22 23 2n
Supuesto: Asume que las poblaciones son normales e
independientes y los tamaos de las muestras son iguales.
Estadstico de contraste: Prueba Fmax

P
A

IM

10

43

11

Homoscedasticidad

Homoscedasticidad
R.R

P
A

IM

10

43

11

R.A

Variable de inters: peso (g) para tubos de cosmticos de 100 g


Al aceptar la hiptesis nula de igualdad de varianzas, podemos demostrar
que ambas lneas de produccin son de dispersiones en torno a la media
similares, y no se evidencia diferencia entre las varianzas.

Homoscedasticidad

P
A

IM

10

43

11

TABLA Fmx

n-1

r = no. de muestras

Independencia

11

Grfica de los residuales en secuencia en el tiempo.

P
A

IM

10

43

Una ayuda valiosa para estudiar la


falta de independencia entre los
errores es realizar un grfico de los
residuos segn la secuencia en el
tiempo o espacio fsico en que han
sido colectados los datos.

Graficar los residuos contra el orden del tiempo en el que se


recopilaron los datos es til para detectar alguna correlacin entre
ellos.
Si el modelo es adecuado, los residuales debern estar sin
estructura, es decir, no debern contener patrones obvios.

43

11

Ejemplo practico:

10

Residuo:

P
A

IM

eij = ij - i

Un paso importante para


asegurar la independencia es
realizar un procedimiento
apropiado de aleatorizacin.

RESIDUOS CONTRA EL TIEMPO L1


1.50

43

11

1.00

10
E

-0.50
-1.00
-1.50

10

IM

0.00

12

P
A

Residuos

0.50

Tiempo

14

16

18

20

22

24

RESIDUOS CONTRA TIEMPO L2


1.50

11

1.00

-1.00
-1.50

43
10
4

10

IM

12

14

16

18

20

22

24

-0.50

0.00

P
A

Residuos

0.50

Tiempo

Conclusin.
Observando las dos graficas es evidente que no hay patrones de
comportamiento por tal razn no hay razn para sospechar una violacin
de los supuestos de independencia.

Prueba para comprobar independencia Chi-cuadrado ( 2 )

Se usa para analizar la frecuencia de dos variables con categoras mltiples para
determinar si las dos variables son independientes o no.

11

El procedimiento general de la prueba es el siguiente:

Obtener n datos de las variables aleatorias a analizar.

2.
3.

Establecer explcitamente la hiptesis nula.


Generar una tabla de contingencia con los datos de las variables.

4.

Calcular el estadstico de prueba:

5.

Definir el nivel de significancia de la prueba.

6.

Determinar los grados de libertad y su valor crtico.

7.

Comparar el estadstico de prueba con el valor crtico. Si el estadstico de

P
A

IM

10

43

1.

prueba es menor que el valor crtico no se puede rechazar la hiptesis nula.

10

43

11

Ejemplo practico:
Determinar si estas dos variables son independientes, con un nivel de
significancia del 5 %.

IM

En primer lugar se debe plantear las hiptesis que someteremos a prueba:

P
A

Ho: Las variables de frecuencia en horas y produccin son independientes.


H1: Las variables de frecuencia en horas y produccin no son independientes.
*En esta prueba estadstica siempre la hiptesis nula plantea que las variables
analizadas son independientes.

P
A

IM

10

43

11

Tabla de contingencia.

En donde Ti es el total de las observaciones


de la fila i-sima, Tj es el total de la suma de
la columna j-sima y T es el total de las
observaciones.

Frmula para clculo del estadstico:

10

43

11

Donde:
oi son las frecuencias observadas en la tabla.
ei = Ti * Tj / T

P
A

IM

Desarrollo:

Entonces 2= .21417 es el valor de nuestro estadstico de prueba.

Obtencin de la regin critica.


Ho. Sigue aproximadamente una distribucin 2 con (r-1)*(c-1) grados de libertad

43

11

Siendo:
Grados de libertad (gl)=(n de filas1)x(n de columnas1)

IM

10

As, en nuestro ejemplo, en que hay 2 filas y 24 columnas, los grados de libertad sern:
gl=(2-1)x(24-1)= 23

P
A

La regin critica (a nivel ) es: (2, )

IM

P
A

43

10

11

Conclusin:

P
A

IM

10

43

11

Regin critica: (2, ) = ( 35.1725, )

Se acepta Ho: debido a que el valor observado no pertenece a la regin


critica, y se deduce que las dos variables son independientes.

11
43

P
A

IM

10

Gracias por su atencin.

You might also like