You are on page 1of 243

______________________________________________________Elkin Castao V.

XII SEMINARIO DE ESTADSTICA APLICADA


III ESCUELA DE VERANO
VII COLOQUIO REGIONAL DE ESTADSTICA

INTRODUCCIN AL ANLISIS DE DATOS


MULTIVARIADOS EN CIENCIAS SOCIALES

Profesor
ELKIN CASTAO V.
Facultad de Ciencias, Universidad Nacional de Colombia,
Medelln
Facultad de Ciencias Econmicas, Universidad de
Antioquia

______________________________________________________Elkin Castao V.

CONTENIDO
Captulo 1. Aspectos Bsicos del Anlisis Multivariado
Captulo 2. Vectores y Matrices Aleatorias
Captulo 3. La Distribucin Normal Multivariada
Captulo 4. Anlisis de Componentes Principales
Captulo 5. Anlisis de Factor

______________________________________________________Elkin Castao V.

CAPTULO 1.
ASPECTOS BSICOS DEL ANLISIS MULTIVARIADO
1. INTRODUCCIN

La investigacin cientfica es un proceso iterativo aprendizaje


 Los objetivos relacionados con la explicacin de un
fenmeno fsico o social deben ser especificados y probados
por medio de la consecucin y el anlisis de los datos.
 A su vez, el anlisis de los datos generalmente sugerir
modificaciones a la explicacin del fenmeno: se agregarn
o suprimirn variables.
La complejidad de la mayora de los fenmenos exigen que el
investigador recoja informacin sobre muchas variables
diferentes.
El Anlisis de datos multivariados proporciona al investigador
mtodos para analizar esta clase de datos:

______________________________________________________Elkin Castao V.

 Mtodos de reduccin de datos


Tratan de obtener representaciones de los datos en forma tan
simple como sea posible, sin sacrificar informacin.
 Mtodos de Ordenamiento y agrupacin
Tratan de crear grupos de objetos o de variables que sean
similares.
Alternativamente, tratan de generar reglas para clasificar
objetos dentro de grupos bien definidos.
 Mtodos para investigar las relaciones de dependencia entre
las variables, pues generalmente las relaciones entre las
variables son de inters.
 Mtodos de prediccin
Establecidas las relaciones de las variables, se trata de
predecir los valores de una o ms variables sobre las base de
las observaciones de as dems variables.
 Construccin y pruebas de hiptesis
Tratan de validar supuestos o reforzar convicciones a priori.

______________________________________________________Elkin Castao V.

2. LOS DATOS Y SU ORGANIZACIN

Tipos de datos: Los datos recolectados pueden ser generados


por:
 Experimentacin: a travs del diseo experimental
 Observacin: se recoge la informacin existente
Presentacin de los datos: su objetivo es facilitar el anlisis
 Tablas
 Arreglos matriciales
 Medidas resmenes o descriptivas
 Grficos
Tablas
Sea xjk el valor que toma la k-sima variable sobre el j-simo
objeto (o individuo o unidad experimental). Si se toman n
mediciones sobre p variables de inters, el conjunto de datos
puede ser presentado como

______________________________________________________Elkin Castao V.

Objeto
1
2

var 1
x11
x 21

Var 2
x12
x 22

x j1

x j2

x n1

x n2

Var k
x1k
x2k

Var p
x1p
x2p

xjk

xnk

xjp

xnp

Arreglos matriciales
Los datos tambin pueden ser presentados usando arreglos
matriciales:
x11

x 21

X=
x j1


x
n1

x12 x1k x1p

x 22 x 2k x 2p

x j2 x jk x jp


x n2 x nk x np

Estadsticas descriptivas:
 Los conjuntos de datos generalmente son voluminosos.
 Esto es un serio obstculo para extraer informacin
relevante visualmente.
 Mucha de la informacin contenida en X puede ser evaluada
por medio de medidas que describen cuantitativamente

______________________________________________________Elkin Castao V.

ciertas caractersticas de los datos: localizacin, dispersin,


correlacin, simetra, curtosis.
La media aritmtica o media muestral: es una medida de
localizacin. Para los datos de la i-sima variable se define
como
xi =

1 n
x ji
n j =1

La varianza muestral: Es una medida de dispersin. Para


los datos de la i-sima variable se define como

si2 =

1 n
2
( x ji xi )
n j=

Observacin: Algunos autores definen la varianza


muestral usando n-1 en lugar de n en el denominador.
Existen razones tericas para hacerlo, especialmente
cuando n es pequeo.
La desviacin estndar muestral: Es otra medida de
dispersin. Tiene la ventaja de que posee las mismas
unidades de medicin de los datos. Para los datos de la isima variable se define como

______________________________________________________Elkin Castao V.

si = + si2

Covarianza muestral: es una medida de asociacin lineal


entre los datos de dos variables. Para los datos de la i-sima
y k-sima variable se define como

sik =

1 n
( x ji xi )( x jk xk )
n j =1

Interpretacin:
sik>0 indica una asociacin lineal positiva entre los datos de
las variables
sik<0 indica una asociacin lineal negativa entre los datos de
las variables
sik=0 indica que no hay una asociacin lineal entre los datos
de las variables
Observacin: como la varianza muestral es la
covarianza muestral entre los datos de la i-sima
variable con ella misma, algunas veces se denotar
como sii

______________________________________________________Elkin Castao V.

Correlacin muestral: Es otra medida de asociacin lineal.


Para los datos de la i-sima y k-sima variable se define
como
rik =

sik
sii skk

A diferencia de la covarianza muestral, que no indica cul es


la fortaleza de la relacin lineal, la correlacin est acotada
entre -1 y 1.

Propiedades de rik:
1) | rik| 1
rik=1 indica que hay una asociacin lineal positiva y perfecta
entre los datos de las variables. Los datos caen sobre una
lnea recta de pendiente positiva.
0<rik<1 indica que hay una asociacin lineal positiva
imperfecta entre los datos de las variables. Los datos caen
alrededor de una lnea recta de pendiente positiva.
rik=-1 indica que hay una asociacin lineal negativa y
perfecta entre los datos de las variables. Los datos caen
sobre una lnea recta de pendiente negativa.

______________________________________________________Elkin Castao V. 10

-1<rik<0 indica que hay una asociacin lineal negativa


imperfecta entre los datos de las variables. Los datos caen
alrededor de una lnea recta de pendiente negativa.
rik=0 indica que no hay una asociacin lineal entre los datos
de las variables.
2) Considere las versiones estandarizadas de las variables xi
y xk
z ji =

x ji xi
sii

z jk =

x jk xk
skk

Entonces rik es la covarianza muestral entre zji y zjk.


3) Considere las transformaciones
y ji = ax ji + b
y jk = cx jk + d

Entonces la correlacin muestral entre xji y xjk es la misma


que la que hay entre yji y yjk, dado que a y c tengan el
mismo signo.
4) sik y rik solamente informan sobre la existencia o no de
una asociacin lineal.

______________________________________________________Elkin Castao V. 11

5) sik y rik son muy sensibles a la existencia de


atpicos

(outliers).

Cuando

existen

datos

observaciones

sospechosas, es recomendable calcularlas con y sin dichas


observaciones.
Coeficiente de asimetra muestral: es una medida que
describe la asimetra de la distribucin de los datos con
respecto a la media muestral. Se define como:

n ( x ji xi )3
sk ( xi ) =

j =1

n
2
( x ji xi )
j =1

3/ 2

Cuando los datos proceden de una distribucin simtrica,


como la distribucin normal, sk ( xi ) 0
Coeficiente de curtosis muestral: es una medida que
describe el comportamiento en las colas de la distribucin de
los datos. Se define como
n

n ( x ji xi ) 4
k ( xi ) =

j =1

n
2
( x ji xi )
j =1

______________________________________________________Elkin Castao V. 12

Cuando los datos proceden de una distribucin como la


normal, k ( xi ) 3.
ARREGLOS BASADOS EN ESTADSTICAS DESCRIPTIVAS

Para las medias muestrales: El vector de media muestral se


define como
x1
x
2
x=


x p

Para las varianzas y covarianzas muestrales: La matriz de


varianza y covarianza

muestral, o matriz de covarianza

muestral, se define como


s11

s12
S=

s1p

s12 ... s1p

s22 ... s2p

s2p ... spp

S es una matriz simtrica.


Para

las

correlaciones

muestrales:

correlaciones muestral se define como

La

matriz

de

______________________________________________________Elkin Castao V. 13

r12
R=

r1p

r12 ... r1p

1 ... r2p

r2p ... 1

R es una matriz simtrica.


Ejemplo: Lectura de datos en R y clculo de arreglos muestrales.
Datos sobre 8 variables para 22 compaas de servicio pblico.
X1: Cargo fijo
X2: Tasa de retorno del capital
X3: Costo por kilovatio
X4: Factor anual de carga
X5: Crecimiento del pico de la demanda desde 1964.
X6: Ventas
X7: Porcentaje de generacin nuclear
X8: Costo total de combustible
Empleo del programa R
# lectura de los datos desde un archivo de texto con nombres de las variables
publ_util<-read.table("c:/unal/datos/j-wdata/t12-5_sin.dat", header = TRUE)
# visualizacin de los datos ledos
publ_util
# asignacin de nombres a las variables: X1, X2, ....
attach(publ_util)
# obtencin del vector de media muestral

______________________________________________________Elkin Castao V. 14

medias<-mean(publ_util)
medias
# obtencin de la matriz de covarianza muestral
mat_cov<-cov(publ_util)
mat_cov
# obtencin de la matriz de correlacin muestral
mat_cor<-cor(publ_util)
mat_cor
# obtencin del coeficiente de asimetra muestral
skewness=function(x) {
m3=mean((x-mean(x))^3)
skew=m3/(sd(x)^3)
skew}
skewness(X1)
# obtencin del coeficiente de curtosis muestral
kurtosis=function(x) {
m4=mean((x-mean(x))^4)
kurt=m4/(sd(x)^4)
kurt}
kurtosis(X1)

Observacin: Los coeficientes de asimetra y curtosis muestrales


tambin se pueden calcular usando libreras como moments,
e1071 y fEcofin.
RESULTADOS:
TABLA DE DATOS
1
2
3
4
5
6
7
8
9
10
11
12
13
14

X1
1.06
0.89
1.43
1.02
1.49
1.32
1.22
1.10
1.34
1.12
0.75
1.13
1.15
1.09

X2
9.2
10.3
15.4
11.2
8.8
13.5
12.2
9.2
13.0
12.4
7.5
10.9
12.7
12.0

X3
151
202
113
168
192
111
175
245
168
197
173
178
199
96

X4
X5
X6
X7
X8
54.4 1.6 9077 0.0 0.628
57.9 2.2 5088 25.3 1.555
53.0 3.4 9212 0.0 1.058
56.0 0.3 6423 34.3 0.700
51.2 1.0 3300 15.6 2.044
60.0 -2.2 11127 22.5 1.241
67.6 2.2 7642 0.0 1.652
57.0 3.3 13082 0.0 0.309
60.4 7.2 8406 0.0 0.862
53.0 2.7 6455 39.2 0.623
51.5 6.5 17441 0.0 0.768
62.0 3.7 6154 0.0 1.897
53.7 6.4 7179 50.2 0.527
49.8 1.4 9673 0.0 0.588

______________________________________________________Elkin Castao V. 15

15
16
17
18
19
20
21
22

0.96 7.6 164 62.2 -0.1 6468 0.9 1.400


1.16 9.9 252 56.0 9.2 15991 0.0 0.620
0.76 6.4 136 61.9 9.0 5714 8.3 1.920
1.05 12.6 150 56.7 2.7 10140 0.0 1.108
1.16 11.7 104 54.0 -2.1 13507 0.0 0.636
1.20 11.8 148 59.9 3.5 7287 41.1 0.702
1.04 8.6 204 61.0 3.5 6650 0.0 2.116
1.07 9.3 174 54.3 5.9 10093 26.6 1.306

MEDIAS MUESTRALES
X1
1.114091

X2
10.736364

X3
168.181818

X4
56.977273

X5
X6
3.240909 8914.045455

X7
12.000000

X8
1.102727

MATRIZ DE COVARIANZA MUESTRAL


X1
X2
X3
X4
X1
0.034044372
0.2661299
-0.7812554 -6.752165e-02
X2
0.266129870
5.0357576 -32.1259740 -8.643723e-01
X3 -0.781255411 -32.1259740 1696.7272727 1.843290e+01
X4 -0.067521645 -0.8643723
18.4329004 1.990184e+01
X5 -0.149080087 -1.8201299
55.9207792 4.657359e-01
X6 -99.346385281 -76.6160173 4092.5151515 -4.560037e+03
X7
0.138809524
7.9676190
79.3095238 -1.229762e+01
X8 -0.001372165 -0.4088848
0.1195758 1.204446e+00
X5
X6
X7
X1
-0.14908009 -9.934639e+01 1.388095e-01
X2
-1.82012987 -7.661602e+01 7.967619e+00
X3
55.92077922 4.092515e+03 7.930952e+01
X4
0.46573593 -4.560037e+03 -1.229762e+01
X5
9.72348485 1.952874e+03 -1.001429e+00
X6 1952.87424242 1.260239e+07 -2.227602e+04
X7
-1.00142857 -2.227602e+04 2.819686e+02
X8
-0.01236926 -1.106557e+03 -1.728324e+00

X8
-1.372165e-03
-4.088848e-01
1.195758e-01
1.204446e+00
-1.236926e-02
-1.106557e+03
-1.728324e+00
3.092451e-01

MATRIZ DE CORRELACIN MUESTRAL


X1
X2
X3
X4
X1 1.00000000 0.642744766 -0.102793192 -0.08203019
X2 0.64274477 1.000000000 -0.347550467 -0.08634194
X3 -0.10279319 -0.347550467 1.000000000 0.10030926

______________________________________________________Elkin Castao V. 16

X4
X5
X6
X7
X8
X1
X2
X3
X4
X5
X6
X7
X8

-0.08203019 -0.086341943
-0.25911109 -0.260111168
-0.15167116 -0.009617468
0.04480188 0.211444212
-0.01337310 -0.327655318
X5
X6
-0.259111089 -0.151671159
-0.260111168 -0.009617468
0.435367718 0.027987098
0.033479746 -0.287935594
1.000000000 0.176415568
0.176415568 1.000000000
-0.019125318 -0.373689523
-0.007133152 -0.560526327

0.100309264
0.435367718
0.027987098
0.114661857
0.005220183
X7
0.04480188
0.21144421
0.11466186
-0.16416254
-0.01912532
-0.37368952
1.00000000
-0.18508592

1.00000000
0.03347975
-0.28793559
-0.16416254
0.48550006
X8
-0.013373101
-0.327655318
0.005220183
0.485500063
-0.007133152
-0.560526327
-0.185085916
1.000000000

COEFICIENTE DE ASIMETRA MUESTRAL DE x1


-0.01711117

COEFICIENTE DE CURTOSIS MUESTRAL DE x1


2.785947

Grficos
Los grficos son ayudas importantes en el anlisis de los datos.
Aunque es imposible graficar simultneamente los valores de
todas las variables en el anlisis y estudiar su configuracin,
los grficos de las variables individuales y de pares de
variables son muy informativos.

 Grficos para variables individuales:


Sirven para conocer las distribuciones marginales de los
datos para cada variable. Entre ellos se encuentran:

______________________________________________________Elkin Castao V. 17

Grficos

de

puntos:

recomendados

para

muestras

1.
5

1.
4

1.
3

1.
2

1.
1

1.
0

0.
9

0.
8

0.
7

pequeas.

X1

Grficos de cajas: recomendados para muestras moderadas


o grandes. Sean Q1 y Q3 los cuartiles inferior y superior de
la distribucin de una variable aleatoria, y sea IQR= Q3 - Q1
el rango intercuartil. El grfico de cajas es un grfico
esquemtico de la distribucin de la variable aleatoria, como
se ilustra a continuacin. Se compara con el caso de que la
distribucin terica sea una normal.

______________________________________________________Elkin Castao V. 18

1.
5

1.
4

1.
3

1.
2

1.
1

1.
0

0.
9

0.
8

0.
7

Para los datos de la variable X1 del ejemplo,

X1

Los datos que caen ms a la izquierda de Q1-1.5*IQR y ms


a la derecha de Q3+1.5*IQR son considerados datos atpicos
o inusuales.
Histogramas: recomendados para muestras moderadas o
grandes.
12
0.5
10

Proportion per Bar

0.4

0.3
6

0.2

X1

1.
5

1.
4

1.
3

1.
2

1.
1

0.0
1.
0

0
0.
9

0.1

0.
8

0.
7

Count

______________________________________________________Elkin Castao V. 19

 Grficos para cada par de variables:


Son utilizados para estudiar distribucin de los datos para 2
variables. Dan indicaciones sobre la orientacin de los datos
en el plano cartesiano y la asociacin que hay entre ellos.
Son llamados diagramas de dispersin.
Hay varias clases diagramas de dispersin, por ejemplo:
a) Simple
1.5
1.4
1.3

1.1
1.0
0.9
0.8

X2

16

15

14

13

12

11

10

0.7
6

X1

1.2

______________________________________________________Elkin Castao V. 20

b) Con marginales como diagramas de puntos


1.5
1.4
1.3

X1

1.2
1.1
1.0
0.9
0.8

16

15

14

13

12

11

10

0.7

X2

c) Con marginales como grficos de cajas


1.5
1.4
1.3

1.1
1.0
0.9
0.8

X2

16

15

14

13

12

11

10

0.7
6

X1

1.2

______________________________________________________Elkin Castao V. 21

El efecto de observaciones inusuales sobre la correlacin


muestral
Frecuentemente algunas observaciones de la muestra tienen un
efecto considerable en el clculo de la correlacin muestral.
Considere el grfico de dispersin para las variables X1 y X2.

El coeficiente de correlacin muestral es r12=0.643


Ahora considere el grfico de dispersin en el cual el tamao
del punto est relacionado con el cambio que tiene el
coeficiente de correlacin muestral cuando la observacin
correspondiente a ese punto es eliminada.

______________________________________________________Elkin Castao V. 22

Los resultados muestran que al eliminar la observacin


denominada consolid, el coeficiente de correlacin muestral
tiene un cambio mayor de 0.10.
El coeficiente calculado sin esta observacin es 0.836.
Entonces su eliminacin produce un cambio positivo de 0.193,
el cual corresponde a una variacin porcentual del 30%!

 Grficos para tres variables: Diagramas de dispersin


tridimensionales
Son utilizados para estudiar los aspectos tridimensionales de
los datos. Generalmente estos grficos permiten rotacin.

______________________________________________________Elkin Castao V. 23

El siguiente ejemplo presenta el diagrama de dispersin


tridimensional para X1, X2 y X3 con tres rotaciones.

300

X3

200

X11.1

1.2
1.3
1.4
1.5

16

14

15

12

X2

13

11

10

1.0

0.9
0.8
0.7

100

300

0.7
0.8
8

1.5

16

15

14

1.4

13

12

1.3

11

10

1.2

X2

X11.1

1.0

0.9

100

X3

200

1.0
1.2

1.5

16

15

14

1.4

13

12

1.3

11

10

X3

X2

X11.1

7
8

300
200
1006

0.9

0.8

0.7

______________________________________________________Elkin Castao V. 24

 Matrices de dispersin o mltiples diagramas de


dispersin:
Presentan conjuntamente todos los diagramas de dispersin de
los datos para cada par variables. Se pueden construir varias
clases de matrices de dispersin, dependiendo del contenido
en su diagonal. Por ejemplo:

______________________________________________________Elkin Castao V. 25

a) con diagramas de puntos en la diagonal


X2

X3

X4

X5

X1

X2

X3

X4

X5

X5

X5

X4

X4

X3

X3

X2

X2

X1

X1

X1

a) con grficos de cajas en la diagonal

______________________________________________________Elkin Castao V. 26

c) con histogramas en la diagonal

d) con histogramas suavizados (curvas Kernel) en la diagonal

______________________________________________________Elkin Castao V. 27

 Representaciones pictricas de datos multivariados:


Son imgenes que representan los valores de tres o ms
variables medidas para cada individuo, objeto o unidad
experimental. A diferencia de los grficos anteriores, no estn
diseadas para transmitir informacin numrica absoluta. En
general, su objetivo es ayudar a reconocer o observaciones
similares.
Cuando se usan estos grficos, se recomienda que todas las
variables estn medidas en la misma escala. Si no es as, se
deben emplear los datos estandarizados.

Grficos de estrellas:
Suponga que los datos consisten de observaciones sobre p 2
variables.

Se obtienen de la siguiente manera. En dos

dimensiones se construyen crculos de radio fijo con p rayos


igualmente espaciados emanando del centro del crculo. Las
longitudes de los rayos
variables.

representan los valores de las

______________________________________________________Elkin Castao V. 28

Arizona

Boston

Central

Common

Consolid

Florida

Hawaiian

Idaho

Kentucky

Madison

Nevada

NewEngla

Northern

Oklahoma

Pacific

Puget

SanDiego

Southern

Texas
X4

Wisconsi
X3
X2

X5
X1
United

Virginia

X6
X7

X9
X8

Curvas de Andrews:
Es un mtodo potente para identificar agrupamientos de
observaciones. Las curvas de Andrews son las componentes de
Fourier de los datos y el resultado para cada observacin es
una onda formada por funciones seno y coseno de sus
componentes. Se construyen de la siguiente forma:

______________________________________________________Elkin Castao V. 29

f x j (t ) =

x j1
2

+ x j 2 sen(t ) + x j 3cos (t ) + x j 4 sen(2t ) + x j 5cos (2t ) +

donde < t < .

Fourier Components

4
3
2
1
0
-1
-2
-180

-90

Degrees

90

180

______________________________________________________Elkin Castao V. 30

Caras de Chernoff:
Es otra forma efectiva de agrupar datos multivariados,
particularmente para un procesamiento de la memoria de largo
plazo. Fueron introducidas por Chernoff (1973), quien usa
varias caractersticas de la cara para representar los datos de las
variables. Algunos paquetes estadsticos permiten representar
hasta 20 variables (SYSTAT), mientras que R permite asignar
18 variables. Las caractersticas que SYSTAT permite asignar
son:
1 Curvatura de la boca
2 ngulo de la ceja
3 Amplitud de la nariz
4 Longitud de la nariz
5 Longitud de la boca
6 Altura del centro de la boca
7 Separacin de los ojos
8 Altura del centro de los ojos
9 Inclinacin de los ojos
10 Excentricidad de los ojos
11 Longitud media de los ojos
12 Posicin de las pupilas
13 Altura de la ceja
14 Longitud de la ceja
15 Altura de la cara
16 Excentricidad de la elipse superior de la cara
17 Excentricidad de la elipse inferior de la cara
18 Nivel de las orejas
19 Radio de las orejas
20 Longitud del cabello

______________________________________________________Elkin Castao V. 31

Arizona

Boston

Central

Common

Consolid

Florida

Hawaiian

Idaho

Kentucky

Madison

Nevada

NewEngla

Northern

Oklahoma

Pacific

Puget

SanDiego

Southern

Texas

Wisconsi

United

Virginia

Identificacin de casos similares (grupos)

Arizona

Boston

Central

Common

Consolid

Florida

Hawaiian

Idaho

Kentucky

Madison

Nevada

NewEngla

Northern

Oklahoma

Pacific

Puget

SanDiego

Southern

Texas

Wisconsi

United

Virginia

X10
8
7
6
5
4
3
2
1
0

______________________________________________________Elkin Castao V. 32

Caras Asimtricas: Flury y Riedwyl (1981) proponen una nueva


cara en la cual los parmetros del lado derecho de la cara pueden
variar independientemente de los parmetros del lado izquierdo.
Esta cara puede ser aplicada de la misma manera que las caras de
Chernoff y permite representar hasta 36 variables, en lugar de las
18 variables originales de Chernoff. Para dibujar estas caras se
puede emplear el programa de uso libre FACEPLOT.

Lecturas recomendadas:
Jacob, R. J. K. (1983). Investigating the space of Chernoff faces.
Recent advances in statistics: A festschrift in honor of Herman
Chernoffs sixtieth birthday. M. H. Rzvi, J.

______________________________________________________Elkin Castao V. 33

Wang, P. C., ed. (1978). Graphical representation of multivariate


data. New York: Academic Press.
Wilkinson, L (2007) Cognitive Science and Graphic Design,
SYSTAT 12 Graphics, SYSTAT Software, Inc.
Wilkinson, L. (1982). An experimental evaluation of multivariate
graphical point representations. Human Factors in Computer
Systems: Proceedings. Gaithersburg, Md. 202209.
Empleo del programa R
# lectura de los datos desde un archivo de texto
publ_util<-read.table("c:/unal/datos/j-wdata/t12-5.dat", header = TRUE)
# visualizacin de los datos ledos
publ_util
# asinacin de nombres a las variables: V1, V2, ....
attach(publ_util)
# grfico de puntos
stripchart(X1, method="stack")
# histograma
hist(X1)
# grfico de caja
boxplot(X1)
# matriz de dispersin
# pegado de las variables en la matriz X
X<-as.matrix(cbind(X1, X2, X3, X4, X5, X6, X7,X8))
pairs(X)
# grfico de estrellas
# estandarizacin de las variables
X1s=(X1-mean(X1))/sd(X1)
X2s=(X2-mean(X2))/sd(X2)
X3s=(X3-mean(X3))/sd(X3)
X4s=(X4-mean(X4))/sd(X4)
X5s=(X5-mean(X5))/sd(X5)
X6s=(X6-mean(X6))/sd(X6)
X7s=(X7-mean(X7))/sd(X7)
X8s=(X8-mean(X8))/sd(X8)

______________________________________________________Elkin Castao V. 34

# pegado de las variables estandarizadas en la matriz Xs


Xs<-as.matrix(cbind(X1s, X2s, X3s, X4s, X5s, X6s, X7s,X8s))
# los nombres de las observaciones son colocadas en el vector obs
obs=as.vector(X9)
stars(Xs, labels = obs, key.loc=c(10,1.8))
# invocar la librera aplpack para los grficos de caras
library(aplpack)
# grficos de caras
faces(Xs, labels = obs)

3. EL CONCEPTO DE DISTANCIA ESTADSTICA

Casi todas las tcnicas del anlisis multivariado estn


basadas en el concepto de distancia.
Distancia Euclidiana: considere el punto P=(x1, x2) en el
plano. La distancia Euclidiana del origen (0, 0) a P es

d (0, P) = x12 + x22 (Teorema de Pitgoras)

______________________________________________________Elkin Castao V. 35

 El conjunto de todos los puntos P cuya distancia


cuadrtica a O es la misma, satisface
x12 + x22 = c 2 , con c>o

El lugar geomtrico corresponde a la circunferencia.


 En general, si P=(x1, x2, , xp), su distancia euclidiana
al origen O es

d (0, P) = x12 + x22 + ... + x 2p

y el conjunto de todos los puntos P cuya distancia


cuadrtica a O es la misma, satisface
x12 + x22 + ... + x 2p = c 2 , con c>o

El lugar geomtrico de estos puntos corresponde a una


hiper-esfera.
La distancia euclidiana generalmente no es satisfactoria en
la mayora de las aplicaciones estadstica. El problema es
que cada coordenada contribuye igualmente en su clculo.
Esto supone:

______________________________________________________Elkin Castao V. 36

 Que todos los puntos pueden ocurrir igualmente


 Que no existen relaciones entre ellos.
Sin embargo, los datos generados por diferentes variables
aleatorias pueden tener diferente variabilidad y estar
relacionados.
Debemos desarrollar una distancia que tenga en cuenta estas
caractersticas.
Supongamos que tenemos n pares de medidas para dos
variables x1 y x2.
Caso 1: Las mediciones varan independientemente, pero la
variabilidad de x1 es mayor que la de x2.

______________________________________________________Elkin Castao V. 37

Una manera de proceder a calcular la distancia es


estandarizar las coordenadas, es decir, se obtienen

x1* =

x1
x
y x*2 = 2
s11
s22

Las nuevas coordenadas tienen la misma variabilidad y para


calcular la distancia se puede usar la distancia Euclidiana.
Entonces, la distancia estadstica de un punto P=( x1, x2) al
origen (0, 0) es

d (0, P) =

( ) ( )
x1*

+ x2*

x12 x22
+
s11 s22

El conjunto de todos los puntos P cuya distancia cuadrtica


a O es la misma, satisface

x12
x22
+
= c 2 con c>o
s 11 s 22

El lugar geomtrico corresponde a una elipse centrada en el


origen y cuyos ejes mayor y menor coinciden con los ejes de
coordenadas.

______________________________________________________Elkin Castao V. 38

La distancia anterior puede ser generalizada para calcular la


distancia de un punto cualquiera P=(x1, x2) a un punto fijo
Q=(y1, y2). Si las coordenadas varan independientemente
unas de otras, la distancia estadstica de P a Q esta dada por,

d ( P, Q ) ==

( x1 y1 )2 + ( x2 y2 )2
s11

s22

La extensin a ms de dos dimensiones es directa. Si P=(x1,


x2, , xp) y Q=(y1, y2, , yp). Si las coordenadas varan
independientemente unas de otras, la distancia estadstica de
P a Q fijo, est dada por

______________________________________________________Elkin Castao V. 39

d ( P, Q ) =

( x1 y1 )2 + ( x2 y2 )2 + + ( x p y p )
s11

s22

s pp

El lugar geomtrico corresponde a una hiperelipsoide


centrada en Q y cuyos ejes mayor y menor son paralelos a
los ejes de coordenadas.

Observaciones:
1. La distancia de P al origen O se obtiene haciendo y1=y2=
= yp= 0.
2. Si s11= s22= =spp, la frmula de la distancia Euclidiana es
apropiada.

Caso 2.

Las variabilidades de las mediciones sobre las

variables x1 y x2 son diferentes y estn correlacionadas.


Considere el siguiente grfico

______________________________________________________Elkin Castao V. 40

Se observa que si rotamos el sistema original de coordenadas a


travs del ngulo , mantenido los puntos fijos y denominando
los nuevos ejes como x1 y x2 , la dispersin en trminos de los
nuevos ejes es similar al caso 1. Esto sugiere, que para calcular
la distancia estadstica del punto P=( x1, x2 ) a origen O=(0, 0)
se puede usar
d (0, P ) =

x12 x22
+
s11 s22

donde las sii son varianzas muestrales de los datos x1 y x2 .


La relacin entre las coordenadas originales y las rotadas es

______________________________________________________Elkin Castao V. 41

x1 = x1 cos( ) + x2 sen ( )
x2 = x1sen( ) + x2 cos( )

Dadas estas relaciones, podemos expresar la distancia de P al


origen O en trminos de las coordenadas originales como,

d (0, P ) = a11x12 + a22 x22 + 2a12 x1x2

donde a11 ,

a22 y a12 son constantes tales que la distancia es

no negativa para todos los posibles valores de x1 y x2.


En general, la distancia estadstica de un punto P=(x1, x2) a un
punto fijo Q=(y1, y2), es

d (0, P ) = a11 ( x1 y1 ) 2 + a22 ( x2 y2 ) 2 + 2a12 ( x1 y1)( x2 y2 )

El conjunto de puntos P=(x1, x2) que tienen la misma distancia


cuadrtica al punto fijo Q=(y1, y2) satisfacen que
a11 ( x1 y1) 2 + a22 ( x2 y2 ) 2 + 2a12 ( x1 y1 )( x2 y2 ) =c2

El lugar geomtrico de estos puntos corresponde a una elipse


centrada en Q y cuyos ejes mayor y menor son paralelos a los
ejes rotados.

______________________________________________________Elkin Castao V. 42

La generalizacin de las frmulas a p dimensiones es directa.


Sea P=(x1, x2, , xp) un punto cuyas coordenadas representan
variables que estn correlacionadas y sujetas a diferente
variabilidad, y sea Q=(y1, y2, , yp) un punto. Entonces la
distancia estadstica de P a Q est dada por

a11( x1 y1) 2 + a22 ( x2 y2 ) 2 + + a22 ( x p y p ) 2


d (0, P) = +2a12 ( x1 y1 )( x2 y2 ) + 2a13 ( x1 y1 )( x3 y3 )
+ + 2a p 1, p ( x p 1 y p 1 )( x p y p )

donde las constantes aik son tales que las distancias son
siempre no negativas.

______________________________________________________Elkin Castao V. 43

El lugar geomtrico de todos los puntos P cuya distancia


cuadrtica a Q es la misma es una hiperelipsoide.

Observaciones:
1. Si las constantes aik son llevadas a una matriz simtrica de
pxp de la forma
a11

a12
A=

a1p

a12 ... a1p

a22 ... a2p

a2p ... app

Entonces la distancia estadstica de P a Q, se puede escribir


como,
d ( P, Q) = ( x y) ' A( x y )

donde

x1 y1
x y
2
2
x y=
.

x p y p

2. Para que la distancia estadstica sea no negativa, la matriz A


debe ser definida positiva.
3. Cuando A=S-1, la distancia estadstica definida como

______________________________________________________Elkin Castao V. 44

d ( P, Q ) = ( x y ) ' S 1 ( x y )

Es llamada la distancia muestral de Mahalanobis y juega un


papel central en el anlisis multivariado.
La necesidad de usar la distancia estadstica en lugar de la
Euclidiana se ilustra heursicamente a continuacin. El
siguiente grfico presenta un grupo (cluster) de observaciones
cuyo centro de gravedad (el vector de media muestrales) est
sealado por el punto Q.

La distancia Euclidiana del punto Q al punto P es mayor que la


distancia de Q a O. Sin embargo, P es ms parecido a los
puntos en el grupo que O. Si tomamos la distancia estadstica

______________________________________________________Elkin Castao V. 45

de Q a P, entonces Q estar ms cerca de P que de O, lo cual


parece razonable dada la naturaleza de grfico de dispersin.

CAPTULO 2.
VECTORES Y MATRICES ALEATORIAS

Vector aleatorio: es un vector cuyas componentes son


variables aleatorias.
Matriz aleatoria: es una matriz cuyas componentes son
variables aleatorias.
Notacin: Si X es una matriz de n x p cuyos elementos son
Xij, se denota como
X=[ Xij]
Valor esperado de una matriz aleatoria:
E ( X11 ), E ( X12 ),..., E ( X1 p )

(
),
(
),...,
(
)
E
X
E
X
E
X
21
22
2
p

E(X)=

E ( X n1), E ( X n 2 ),..., E ( X np )

donde, para cada elemento de la matriz

______________________________________________________Elkin Castao V. 46

R xij fij ( xij ) dxij para X ij continua


E(Xij)= xij pij ( xij )
para X ij discreta
todos
xij

Vectores de media
X1
X
Suponga que X= 2 es un vector aleatorio de px1.


X p

Entonces,
 Cada variable aleatoria Xi tiene su propia distribucin de
probabilidades marginal la cual permite estudiar su
comportamiento.
Media marginal de Xi:
R xi fi ( xi ) dxi para X i continua

i = E ( X i ) = xi pi ( xi ) para X i discreta
todos
xi

A i se le llama la media poblacional marginal de Xi.


Varianza marginal de Xi:

______________________________________________________Elkin Castao V. 47

R ( xi i ) 2 fi ( xi )dxi para X i continua

i2 = E ( X i i ) 2 = ( x ) 2 p ( x ) para X discreta
i
i i
i
todos i
x
i

A i2 se le llama la varianza poblacional marginal de Xi.


 El comportamiento conjunto de cada par de variables
aleatorias Xi y Xk est descrito por su funcin de
distribucin conjunta.
Una medida de asociacin lineal: la covarianza poblacional

ik = E ( X i i )( X k k )

donde
R R ( xi i )( xk k ) f ik ( xi , xk ) dxi dxk

ik = ( xi i )( xk k ) pik ( xi , xk )
todos
todos
xi x

para X i y X k continuas
para X i y X k discretas

A ik se le llama la covarianza poblacional de Xi y Xk.


Interpretacin
ik >0 indica una asociacin lineal positiva entre Xi y Xk.
ik <0 indica una asociacin lineal negativa entre Xi y Xk.
ik =0 indica que no hay una asociacin lineal entre Xi y Xk.

______________________________________________________Elkin Castao V. 48

Debido a que la varianza poblacional de Xi es la covarianza


poblacional entre Xi y Xi, a veces se denota i2 como ii .
Otra medida de asociacin lineal: la correlacin

ik =

ik
ii kk

Interpretacin:
ik =1 indica una asociacin lineal positiva perfecta entre Xi

y Xk.
0< ik <1 indica una asociacin lineal positiva imperfecta
entre Xi y Xk. Mientras ms cerca de 1 se encuentre, ms
fuerte es la relacin.
ik =-1 indica una asociacin lineal negativa perfecta entre

Xi y Xk.
-1< ik <0 indica una asociacin lineal negativa entre Xi y
Xk. Mientras ms cerca de -1 se encuentre, ms fuerte es la
relacin.
ik =0 indica que no hay una asociacin lineal entre Xi y Xk.

______________________________________________________Elkin Castao V. 49

 El comportamiento conjunto de las p variables aleatorias X1,


X2, , Xp, est descrita por la funcin de distribucin
conjunta o por su funcin de densidad de probabilidad
conjunta f(x1, x2, , xp), si todas las variables aleatorias son
continuas.
Las

variables

aleatorias

continuas

son

llamadas

mutuamente estadsticamente independientes si


f(x1, x2, , xp)= f1(x1) f2(x2) fn(xn)
Si Xi, Xk son estadsticamente independientes, entonces
Cov(Xi, Xk)=0. Lo contrario no es necesariamente cierto.
Vector de medias poblacional: El vector de p x 1,
1

2
= E( X ) =


p

es llamado el vector de medias poblacional.


La matriz de varianza y covarianza poblacional: La
matriz de p x p

______________________________________________________Elkin Castao V. 50

11, 12 ,, 1p

,
,
,
21
22
2p

= E ( X )( X )' =

1p , 2p ,, pp

Es llamada la matriz de varianza y covarianza (o de


covarianza) poblacional.
La matriz de correlacin poblacional: La matriz de p x p

1,

12 ,
=

1p ,

12 ,, 1p

1, , 2p

2p ,, 1

Es llamada la matriz de correlacin poblacional.


Relacin entre y :
Sea

V1/2=

Entonces

11
0

22 0


0 pp
0 0

______________________________________________________Elkin Castao V. 51

= V 1/ 2 V 1/ 2

= (V 1/ 2 )1(V 1/ 2 )1
Vector de Media y la matriz

de Covarianza de

Combinaciones Lineales
1. Una sola combinacin lineal de las variables del vector
aleatorio X. Sea
c1
c
2
c=


c p

y sea
Z1=c1X1+ c2X2++ cpXp= c '
Entonces,
Z1 = E (Z1 ) = c11 + c2 2 + ... + c p p = c '

Var(Z1)= ci2 ii + ci ck ik = c ' c


i =1

i =1 k =1

2. q combinaciones lineales de las variables del vector


aleatorio X. Sea

______________________________________________________Elkin Castao V. 52

Z1=c11X1+ c12X2++ c1pXp


Z2=c21X1+ c22X2++ c2pXp

Zq=cq1X1+ cq2X2++ cqpXp


o,
Z1 c11, c11, , c1p X1
Z c , c , , c X
2
2p 2
21 21
Z = =
= CX





Z q cq1, cq1, , cqp X p

Entonces,
Z = E (Z ) = C

Z = E ( Z Z )( Z Z )' = CVC '

Ejemplo. Suponga que X=[X1, X2] es un vector aleatorio con


vector

de


= 11 12 .
12 22

medias

'X = [1, 2 ] y

matriz

de

covarianza

Encuentre el vector de medias y la matriz de


X X

2
covarianza del vector Z = 1
.
X
+
X
1
2

X X

1 1 X1
= CX
1 X 2

2
Observe que Z = 1
= 1
X
+
X
1
2

______________________________________________________Elkin Castao V. 53

Entonces,
1 1 1 1 2
=
1 2 1 + 2

Z = E (Z ) = C X =
1

y,
1 1 11 12 1
Z = Cov( Z ) = C X C ' =

1 1 12 22 1

1
1

11 22
11 2 12 + 22

11 22
11 + 2 12 + 22

CAPTULO 3.
1. MUESTRAS ALEATORIAS

Una observacin multivariada consiste de las p mediciones


tomadas a una unidad experimental. Para la j-sima unidad
experimental,
x j1

x j2
X j = , j=1,2,..,n

x jp

es la j-sima observacin multivariada.

______________________________________________________Elkin Castao V. 54

Si se eligen n unidades experimentales, antes de observarlas


sus valores son aleatorios, y el conjunto completo de ellas
puede ser colocado en una matriz aleatoria X de n x p,

X11, X12 , , X1p X1'

'

X
,
X
,
,
X
11
12
1p
X2
=
X=

X n1, X n 2 , , X np X '
n

donde,
X j1

X j2
X j=
, j=1,2,..,n

X jp

es la j-sima observacin multivariada.


Muestra aleatoria: si los vectores X1, X2, , Xn, son
observaciones independientes de una misma distribucin
conjunta f(x)=f(x1, x2, , xp), entonces X1, X2, , Xn es
llamada una muestra aleatoria de tamao n de la poblacin
f(x).

Observaciones:

______________________________________________________Elkin Castao V. 55

1) Las mediciones de las p variables en una sola unidad


experimental

(o

correlacionadas.

ensayo),

Sin

embargo,

generalmente
las

estarn

mediciones

para

diferentes unidades deben ser independientes.


2) La independencia entre unidades experimentales puede
no cumplirse cuando las variables son observadas en el
tiempo. Por ejemplo, en un conjunto de precios de acciones
o de indicadores econmicos. La violacin del supuesto de
independencia puede tener un serio impacto sobre la calidad
de la inferencia estadstica.
Si X1, X2, , Xn es una muestra aleatoria de una
distribucin conjunta con vector de medias

y matriz de

covarianzas , entonces
a) E( X )=

es decir

es un estimador insesgado para .

b) Cov( X )= 1
n

c) E(Sn)= n 1 , es decir Sn no es un estimador insesgado


n

para .
d) S=

n
Sn
n 1

insesgado para .

1 n
( X j X )( X j X )
n 1 j =1

es un estimador

______________________________________________________Elkin Castao V. 56

2. VARIANZA GENERALIZADA

Para una sola variable, la varianza muestral generalmente se


usa para describir la variacin de las mediciones de la
variable.
Cuando se observan p variables, una manera de describir su
variacin es usar la matriz de covarianzas muestral, S.
S contiene p varianzas y p(p-1)/2 covarianzas, las cuales
describen la variabilidad de los datos de cada variable y la
asociacin lineal para los datos de cada par de variables.
Otra generalizacin de la varianza muestral es llamada la
Varianza Generalizada muestral definida como,
Varianza generalizada muestral=|S|
A diferencia de S, |S| es un solo nmero.
Interpretacin geomtrica:
Considere el vector que contiene los datos para la i-sima
variable

______________________________________________________Elkin Castao V. 57

y1i
y
yi = 2i


y ni

y el vector de desviaciones con respecto a la media


y1i x i
y x
i
d i = 2i

y ni x i

Para i=1,2, sean Ld1 y Ld2 sus longitudes.

El rea del trapezoide es |Ld1sen( )|Ld2


Dado que

Ldi= (x ji x i )2 = (n 1)sii , i=1,2


j=1

______________________________________________________Elkin Castao V. 58

y
r12 =

s12
s11 s 22

= cos( )

Entonces
(rea)2=(n-1)2|S|
o,
Varianza Generalizada muestral, |S|=(n-1)-2(rea)2
Por tanto, la VGM es proporcional al cuadrado del rea generada
por los vectores de desviaciones.
En general, para p vectores de desviaciones,
|S|=(n-1)-p(volumen)2
Es decir, para un conjunto fijo de datos, la VGM es proporcional
al cuadrado del volumen generado por los p vectores de
desviaciones.

Observaciones:
1) Para una muestra de tamao fijo, |S| aumenta cuando:
a) La longitud de cualquier di aumenta (o cuando sii
aumenta.

______________________________________________________Elkin Castao V. 59

b) Los vectores de desviaciones de longitud fija son


movidos hasta que formen ngulos rectos con los dems.
2) Para una muestra de tamao fijo |S| ser pequea cuando:
a)Uno de los sii son pequeos
b)uno de los vectores cae cerca del hiperplano formado por
los otros.
c) Se dan los dos casos anteriores.

La VGM tambin tiene interpretacin en el grfico de dispersin


p dimensional que representa los datos. Se puede probar que el
volumen de la hiper-elipsoide dada por
{x R p : (x x) 'S1 (x x) c 2}

______________________________________________________Elkin Castao V. 60

Es tal que
Volumen ({x R p : (x x) 'S1 (x x) c2}) = k p | S |1/ 2 cp
Es decir,
(Volumen(hiper-elipsoide))2 = cons tan te | S |
Por tanto, un volumen grande (datos muy dispersos) corresponde
a una VGM grande.
Observacin:
Aunque la VGM tiene interpretaciones intuitivas importantes,
sufre de debilidades.
Ejemplo. Interpretacin de la varianza generalizada
Suponga

se

tienen

datos

para

tres

vectores

aleatorios

bidimensionales tales que tienen el mismo vector de media


muestral x'=[1, 2] y sus matrices de covarianza muestrales son

5 4
S=

4 5

3 0
S =

0 3

5 4
5

y S=
4

Los diagramas de dispersin correspondientes son los siguientes:

______________________________________________________Elkin Castao V. 61

Estos grficos muestran patrones de correlacin muy diferentes.


Cada matriz de covarianza muestral contiene la informacin sobre
la variabilidad de las variables y la informacin requerida para
calcular el coeficiente de correlacin muestral correspondiente.
En este caso S captura la orientacin y el tamao del patrn de
dispersin.

______________________________________________________Elkin Castao V. 62

Sin embargo, la varianza generalizada muestral, |S| da el mismo


valor, |S|=9 para los tres casos y no proporciona informacin
sobre la orientacin del patrn de dispersin. Solamente nos
informa

que

los

tres

patrones

de

dispersin

tienen

aproximadamente la misma rea. Por tanto, la varianza


generalizada es ms fcil de interpretar cuando las muestras que
se comparan tienen aproximadamente la misma orientacin.
Se puede probar que S contiene la informacin sobre la
orientacin y el tamao del patrn de dispersin a travs de sus
valores propios y vectores propios:
La direccin de los vectores propios determinan la direcciones de
mayor variabilidad del patrn de dispersin de

los datos, y

valores propios proporcionan informacin sobre la variabilidad en


cada una de estas direcciones.
La siguiente grfica muestra, para cada patrn de dispersin, las
direcciones de mayor variabilidad y el tamao de ella.

______________________________________________________Elkin Castao V. 63

3. LA VGM DETERMINADA POR R.

La VGM, |S|, est afectada por las unidades de medicin de cada


variable.
Por ejemplo, suponga que una sii es grande o muy pequea.
Entonces, geomtricamente, el correspondiente vector de

______________________________________________________Elkin Castao V. 64

desviaciones di es muy largo o muy corto, y por tanto ser un


factor determinante en el clculo del volumen.
En consecuencia, algunas veces es til escalar todos los vectores
de desviaciones de manera que todos tengan a misma longitud.
Esto se puede hacer reemplazando las observaciones xjk por su
valor estandarizado (x jk -x k )/ s kk . La matriz de covarianza
muestral de las variables estandarizadas es R, que es la matriz de
correlacin muestral de las variables originales.
Se define,
Varianza Generalizada
muestral de las
=|R|

variablesestandarizadas

Puesto que los vectores estandarizados


(x1k -x k )/ s kk

(x j2 -x k )/ s kk

(x nk -x k )/ s kk

para k=1, 2, , p, tienen todos a misma longitud

n 1 , la

varianza generalizada muestral de las variables estandarizadas

______________________________________________________Elkin Castao V. 65

ser grande cuando estos vectores sean aproximadamente


perpendiculares y ser pequea cuando dos o ms vectores estn
casi en la misma direccin.

Como para el caso de S, el volumen generado por los vectores de


desviaciones de las variables estandarizadas est relacionado con
la varianza generalizada como,
Varianza Generalizada
muestral de las
= | R | = (n 1) p (volumen) 2

variablesestandarizadas

Las varianzas generalizadas |S| y |R| estn conectadas por medio


de la relacin
|S|= (s11s 22 ...s pp )|R|

Entonces,

______________________________________________________Elkin Castao V. 66

(n-1) p |S|=(n-1) p (s11s 22 ...s pp )|R|

Lo que implica que el cuadrado del volumen al cuadrado (n-1)p |S|


es proporcional al volumen al cuadrado (n-1)p |R| .
La constante de proporcionalidad es el producto de las varianzas,
la cual a su vez es proporcional al producto de las longitudes
cuadrticas de las (n-1)sii de las di.
4. OTRA GENERALIZACIN DE LA VARIANZA

La varianza total muestral se define como


varianza total muestral = s11+ s22 ++ spp
Geomtricamente, la varianza total muestral es la suma de los
cuadrados de las longitudes de p vectores de desviaciones,
dividido por n-1. Este criterio no tiene en cuenta la estructura de
correlacin de los vectores de desviaciones.

______________________________________________________Elkin Castao V. 67

CAPTULO 4.
LA DISTRIBUCIN NORMAL MULTIVARIADA
1. INTRODUCCIN

La generalizacin a varias dimensional de la densidad


normal univariada juega un papel fundamental en el anlisis
multivariado.
La importancia de la distribucin normal multivariada se
basa en su papel dual:
 Muchos de los fenmenos naturales del mundo real
pueden ser estudiados por medio de la distribucin
normal multivariada.
 Aunque el fenmeno estudiado no siga este modelo de
distribucin, las distribuciones de muchos de los
estadsticos usados en el anlisis multivariado tiene
una

distribucin

multivariada.

aproximadamente

normal

______________________________________________________Elkin Castao V. 68

2. LA DENSIDAD NORMAL MULTIVARIADA Y SUS


PROPIEDADES

Recuerde que la distribucin normal univariada con media


2 tiene una funcin de densidad de

y varianza

probabilidad dada por:

f ( x) =

1
2

1 x

e 2

< x<

Si X es una variable aleatoria que sigue esta distribucin, se


denota como X ~ N( , 2 ).

En la grfica, estn representadas las reas bajo la curva dentro


del los intervalos

2 . Estas reas son

probabilidades y en la normal
P( X + ) = 0.68

______________________________________________________Elkin Castao V. 69

P ( 2 X + 2 ) = 0.95

El trmino en el exponente
2

x
2 1

= ( x )( ) ( x )

Es la distancia cuadrtica de x a medida en unidades de


desviacin estndar. Esta cantidad puede ser generalizada para
un vector p-dimensional x de observaciones sobre p variables,
como

(x-)' -1(x-)
donde E(X)=

y Cov(X)= , con simtrica y definida


positiva. La expresin (x-)' -1 (x-) es el cuadrado de la

distancia generalizada de x a .

La distribucin normal multivariada puede ser obtenida


reemplazando la distancia univariada por la distancia
generalizada en la densidad de la normal univariada.

Cuando se hace este reemplazo es necesario cambiar la


constante (2 ) 1/ 2 ( 2 ) 1/ 2 de la normal univariada por una
constante ms general de forma tal que el volumen bajo la

______________________________________________________Elkin Castao V. 70

superficie de la normal multivariada sea 1. La nueva


constante es (2 ) p / 2 | |1/ 2 .

La funcin de densidad de probabilidad normal multivariada


para un vector aleatorio X es

f (x) =

donde

1
(2 ) p / 2 | |1/ 2

1 (x- )'1 (x- )


e 2

< xi < , i=1, 2, , p.

La distribucin normal multivariada se denota como


X ~ N( , ).

Ejemplo. La distribucin normal bivariada


Para p=2, la distribucin normal bivariada tiene vector de medias
1

y matriz de covarianza = 11 12 .

2
12 22

La matriz inversa de es

______________________________________________________Elkin Castao V. 71

1 =

22 12

2
11 22 12
12 11
1

Reemplazando en la densidad multivariada general y haciendo


operaciones, se obtiene que la densidad de la normal bivariada es

f ( x1, x2 ) =

1
2
2 11 22 (1 12
)

x 2 x
1
1 1 + 2 2

2(1 122 ) 11 22

x x
2 12 1 1 2 2


11
22

______________________________________________________Elkin Castao V. 72

Contornos de densidad de probabilidad constantes:

La densidad de la normal multivariada es constante sobre


(x-)' -1(x-) es

superficies donde la distancia cuadrtica

constante. Estos conjuntos de puntos son llamados contornos.


Contorno de densidad
probabilidad constante

{ x : (x )'

(x ) = c 2

Un contorno corresponde a la superficie de una elipsoide


centrada en . Los ejes estn en la direccin de los vectores
propios de y sus ejes son proporcionales a las races
cuadradas de sus vectores propios.
Si 1 2 ... p son los valores propios de y e1, e2, , ep,
son los correspondientes vectores propios, donde ei = i ei ,
entonces el contorno dado por

{ x : (x )'

(x ) = c 2

es

una elipsoide centrada en y cuyo eje mayor es c 1 e1 , el

segundo eje mayor es c 2 e2 , etc.

Ejemplo: Contornos de una normal bivariada


Considere la normal bivariada donde 11 = 22 . Los ejes de los
contornos estn dados por los valores y vectores propios de .

______________________________________________________Elkin Castao V. 73

 Los valores

propios se obtienen como solucin a la

ecuacin | I |= 0 , o

0=

11 12
2
= (11 )2 12
= ( 11 12 )( 11 + 12 )
12 11

Por tanto los valores propios son

1 = 11 + 12
2 = 11 12
 El primer vector propio se determina como solucin a
e1 = 1e1 , es decir,
11 12 e11
e11
=
(
+
)

11
12
e

12 11 21
e21

o,
11e11 + 12e21 = ( 11 + 12 )e11
12e11 + 11e21 = ( 11 + 12 )e21

Estas ecuaciones implican que

e11 = e21. Despus de

normalizacin, el primer par valor propio-vector propio es

______________________________________________________Elkin Castao V. 74

1 = 11 + 12

, e1 =

1
2

1
2

De manera similar se determina el segundo vector propio


como solucin a e2 = 2e1 , resultando el segundo par valor
propio-vector propio

2 = 11 12

, e2 =

1
2

1
2

 Si la covarianza 12 ( o la correlacin 12 ) es positiva:

1 = 11 + 12 es el mayor valor propio y su vector propio

asociado e1 =

1
2
cae sobre una recta de 45o a travs de
1
2

punto = 1 . El eje mayor est determinado por


2

c 11 + 12

1
2

1
2

______________________________________________________Elkin Castao V. 75

2 = 11 12 es el menor valor propio y su vector propio

asociado e2 =

1
2
cae sobre una recta perpendicular a la
1
2

recta de 45o a travs de punto = 1 . El eje menor est


2
determinado por

c 11 12

1
2

1
2

 Si la covarianza 12 ( o la correlacin 12 ) es negativa:

______________________________________________________Elkin Castao V. 76

2 = 11 12 es el mayor valor propio y su vector propio

asociado e2 =

1
2
cae sobre una recta perpendicular a la
1
2

recta de 45o a travs de punto = 1 . El eje mayor est


2
determinado por

c 11 12

1
2

1
2

1 = 11 + 12 es el menor valor propio y su vector propio

asociado e1 =

1
2
cae sobre una recta de 45o a travs de
1
2

punto = 1 . El eje menor est determinado por


2

c 11 + 12

1
2

1
2

______________________________________________________Elkin Castao V. 77

La densidad normal multivariada tiene un mximo valor


cuando la distancia cuadrtica (x-)' -1 (x-) es igual a cero, es
decir, cuando x= .

Por tanto el punto es el punto de

mxima densidad, o la moda, y tambin es la media.


Contornos para las distribuciones normales bivariadas graficadas

3. OTRAS PROPIEDADES DE LA DISTRIBUCIN NORMAL


MULTIVARIADA

1.

Si un vector aleatorio X ~ N( , ),

combinacin

lineal

de

las

entonces toda

variables

en

X,

a ' X = a1 X1 + a2 X 2 + ... + a p X p tiene una distribucin N( a ' , a ' a ).

2. Si a ' X tiene una distribucin N( a ' , a ' a ) para todo vector de


constantes a = a1, a2 ,..., a p , entonces X ~ N( , ).

______________________________________________________Elkin Castao V. 78

3. Si un vector aleatorio X ~ N( , ), entonces el vector de q


combinaciones lineales de X,
a11 X1 + a12 X 2 + + a1 p X p

a21 X1 + a22 X 2 + + a2 p X p

AX =

aq1 X1 + aq 2 X 2 + + aqp X p

tienen una distribucin N( A , A A ' ).

Ejemplo.
Suponga que X ~ N3( , )

y considere el vector de

combinaciones lineales

X1
X1 X 2 1 1 0
X X = 0 1 1 X 2 = AX

2
3
X3

Entonces AX ~ N2( A , A A ' ), donde

1
1 1 0 1 2
A =

2 =
0 1 1 2 3
3

______________________________________________________Elkin Castao V. 79

11 12 13 1 0
1 1 0
A A ' =
12 22 23 1 1

0 1 1
13 23 33 0 1

12 + 23 22 13
+ 22 212
A A ' = 11

12 + 23 22 13 22 + 33 2 23

4. Si un vector aleatorio X ~ Np( , ), entonces todos los


subconjuntos de variables de X tienen distribucin normal
multivariada.

Ejemplo.
Suponga que X ~ N5( , ). Encuentre la distribucin del
X

subvector 1 .
X2

X1

X 2 X
X
Sea X= X 3 = 1 , donde X1 = 1 .
X2
X2
X
4

X
5

Entonces, por el resultado anterior


X1 ~ N2 1 , 11 12
2 12 22

______________________________________________________Elkin Castao V. 80

5. Si X= 1 ~ N q + q
X2
1

1 11 12
,
, donde X1 es de q1x1,
2

21
22

X2 es de q2x1, 1 es el vector de medias de X1,

2 es el vector

de medias de X2, 11 es la matriz de covarianza de X1, 22 es la


matriz de covarianza de X2 y 12 es la matriz de covarianza entre
las variables X1 y X2, entonces X1 y X2 son independientes
estadsticamente si y slo si 12 =0.

Ejemplo.
4 1 0
Suponga que X ~ N3( , ), con = 1 3 0 .
0 0 2

Son X1 y X2 independientes? No porque 12 0 .


X

Son 1 y X3 independientes?
X2
X

Observe que la matriz de covarianza entre 1 y X3 es


X2

X1
13 0
,
X3
= =

23 0

cov

Por tanto, 1 y X3 son independientes.


X2

______________________________________________________Elkin Castao V. 81

Adems cada componente de 1 es independiente de X3.


X2

1 11 12
X1
~
N
q1 + q2

,
, donde X1 es de q1x1, X2
X2
2 21 22

6. Si X=

es de q2x1. Entonces la distribucin condicional de X1 dado X2 =


x2 es normal multivariada con vector de media
1
1.2 = 1 + 12 22
21

y matriz de covarianza
1
1.2 = 11 1222
21

Ejemplo.
Suponga que X ~ N2( , ). Encuentre la distribucin condicional
de X1 dado X2=x2.
Por resultado anterior, la distribucin condicional de

X1 / X2=x2 ~ N ( 1.2 , 1.2 )


donde
1
1.2 = 11 + 12 221 (x 2 2 ) = 11 + 12 22
( x2 2 )

______________________________________________________Elkin Castao V. 82

1
1.2 = 11 12 22
21

1
= 11 12 22
12

2
12
= 11
22

Observaciones.
i)

En la regresin multivariada, la media condicional


1.2 = E ( X1 / X 2 ) es llamada la curva de regresin.

1, q +1 1,q + 2 1, p

2, p
1 2, q +1 2, q + 2
.
Sea 12 22 =

q, q +1 q ,q + 2 q , p

Entonces la curva de regresin en la normal multivariada,


1.2 = E ( X1 / X 2 ) , se puede escribir como

E ( X1 / X q +1, X q + 2 ,, X p , )

E ( X 2 / X q +1, X q + 2 ,, X p , ) = + 1 (x )
E ( X1 / X 2 ) =
12 22 2
2
1

E ( X q / X q +1, X q + 2 ,, X p , )

1 + 1, q +1 ( xq +1 q +1) + 1,q + 2 ( xq + 2 q + 2 ) + + 1, p ( x p p )

2 + 2,q +1( xq +1 q +1 ) + 2,q + 2 ( xq + 2 q + 2 ) + + 2, p ( x p p )


=

q + q, q +1 ( xq +1 q +1) + q, q + 2 ( xq + 2 q + 2 ) + + q, p ( x p p )

______________________________________________________Elkin Castao V. 83

Es decir,
E ( X1 / X q +1, X q + 2 ,, X p , ) 01 + 1, q +1xq +1 + 1, q + 2 xq + 2 + + 1, p x p

E
(
X
/
X
,
X
,

,
X
,
)

x
+

x
+

x
2
q
+
1
q
+
2
p
02
2,
q
+
1
q
+
1
2,
q
+
2
q
+
2
2,
p
p

E ( X q / X q +1, X q + 2 ,, X p , ) 0 q + q , q +1xq +1 + q, q + 2 xq + 2 + + q , p x p

Esto implica que, cuando la distribucin conjunta de las


variables en una regresin (dependientes e independientes)
es normal multivariada, todas las curvas de regresin son
lineales.
1
ii) La matriz de covarianza condicional 1.2 = 11 1222
21

es constante pues no depende de los valores de las variables


condicionantes.

Por tanto, la curva de regresin es

homocedstica.
7. Si un vector aleatorio X ~ N( , ), entonces
(x-)' -1(x-) ~ 2p

______________________________________________________Elkin Castao V. 84

4. MUESTREO EN LA DISTRIBUCIN NORMAL MULTIVARIADA


Y ESTIMACIN DE MXIMA VEROSIMILITUD

Suponga que X1, X 2 ,..., X n , es una muestra aleatoria de una


poblacin N( , ).
Entonces, la funcin de densidad de probabilidad conjunta
de X1, X 2 ,..., X n es
1

( x j ) ' 1 ( x j )
1

f (x1, x 2 ,..., x n ) =
e 2

1/ 2
p/2
||
j =1 (2 )

f (x1, x 2 ,..., x n ) =

(2 )

1
np / 2

n/2
||

1 n

x ' 1 x j
2 j =1 j

Cuando se observan los valores de la muestra y son sustituidos la


funcin anterior, la ecuacin es considerada como una funcin de

y dadas las observaciones x1, x2, , xn y es llamada la

funcin de verosimilitud. Se denotar como L( , ) .

Una manera de obtener los estimadores para


seleccionarlos como aquellos que maximicen a

es

L( , ) . Este

procedimiento proporciona los estimadores mximo verosmiles


para y , dados por

______________________________________________________Elkin Castao V. 85

= X
1 n
n 1
= ( X j X )( X j X )' =
S
n j =1
n

Los valores observados de y son llamadas estimaciones

mximo verosmiles (EMV) de y .

Propiedades.
Los estimadores mximo verosmiles poseen la propiedad de

invarianza.

Sea el EMV para , y sea h( ) una funcin

continua de . Entonces el EMV para h( ) est dado por h() .


Es decir h
( ) = h() .
Por ejemplo, el EMV para la funcin ' es ' .
El EMV para ii

es

ii , donde

ii =

es el EMV para ii = Var ( X i )

1 n
2
( X ji X i )
n j =1

______________________________________________________Elkin Castao V. 86

5. DISTRIBUCIONES MUESTRALES DE X y S

Suponga que X1, X 2 ,..., X n , es una muestra aleatoria de una


poblacin Np( , ). Entonces,
1
n

1. X ~ Np( , ).

2. (n-1)S tiene una distribucin Wishart con n-1 grados de


libertad, la cual es una generalizacin de la distribucin chicuadrado.
3. X y S son independientes estadsticamente.

6. COMPORTAMIENTO DE X y S EN MUESTRAS GRANDES

La ley de los grandes nmeros.

Sean Y1, Y2, , Yn

observaciones independientes de una poblacin univariada con


media

E(Yi)= .

Entonces,

1n
Y = Y j
n =1

converge en

probabilidad a la verdadera media , a medida que n crece sin


cota. Es decir, que para todo > 0 ,
lim n P | Y |< = 1

______________________________________________________Elkin Castao V. 87

Empleando este resultado fcilmente se puede probar que, en


el caso multivariado,

 El vector X converge en probabilidad al vector


 S o convergen en probabilidad a .
La interpretacin prctica de estos resultados es que:

 No se requiere de normalidad multivariada para que se de la


convergencia. Solamente se necesita que exista el vector de
medias poblacional.

 Con alta probabilidad X

estar cerca al vector

y S

estar cerca a cuando el tamao muestral es grande.


Teorema Central del Lmite. Suponga que X1, X 2 ,..., X n , son
observaciones independientes de una poblacin con vector de
medias y matriz de covarianza . Entonces,

n ( X ) tiene aproximadamente una distribucin Np( 0, ).

o,
X tiene aproximadamente una distribucin Np( ,

1
)
n

______________________________________________________Elkin Castao V. 88

cuando n-p es grande.

 Observe la diferencia con el caso en el cual la muestra es


tomada de una poblacin Np( , ) donde

tiene

1
n

exactamente una distribucin Np( , ).

Suponga que X1, X 2 ,..., X n , son observaciones independientes


de una poblacin con vector de medias

matriz de

covarianza . Entonces,
n( X ) ' S 1 ( X ) tiene aproximadamente una distribucin 2p

cuando n-p es grande.

7.

VERIFICACIN

DEL

SUPUESTO

DE

NORMALIDAD

MULTIVARIADA

La mayora de las tcnicas del anlisis multivariado supone


que las observaciones proceden de una poblacin normal
multivariada.
Sin embargo, si la muestra es grande, y las tcnicas empleadas
solamente depende del comportamiento de X o de distancias

______________________________________________________Elkin Castao V. 89

relacionadas con

X de la forma n( X ) ' S 1 ( X ) ,

el

supuesto de normalidad es menos crucial, debido a los


resultados lmites antes vistos. Sin embargo, la calidad de la
inferencia obtenida por estos mtodos depende de qu tan
cercana est la verdadera poblacin de la distribucin normal
multivariada.
Por tanto es necesario desarrollar procedimientos que permitan
detectar desviaciones de la poblacin patrn con respecto a la
normal multivariada.
Basados en las propiedades de la distribucin normal
multivariada, sabemos que todas las combinaciones lineales de
las variables de vector son normales y que los contornos de la
distribucin normal multivariada son elipsoides. Por tanto, en
la verificacin de la normalidad multivariada se debera
responder a:

 Las marginales de las variables en el vector X parecen ser


normales?

 Algunas combinaciones lineales de las variables en X


parecen ser normales?

 Los diagramas de dispersin de los pares de variables de X


presentan una apariencia elptica?

______________________________________________________Elkin Castao V. 90

 Existen

observaciones

inusuales

que

deberan

ser

confirmadas?

Evaluacin de la normalidad univariada


Las ayudas grficas siempre importantes en el anlisis. Por
ejemplo:

 Para n pequeos se usan los diagramas de puntos.


 Para moderados y grandes se usan el grfico de cajas y los
histogramas
Estos

grficos

permiten

detectar asimetras,

es

decir

situaciones donde una cola es ms grande que la otra.


Si los grficos para Xi parecen razonablemente simtricos, se
procede a chequear el nmero de observaciones en ciertos
intervalos. La distribucin normal asigna probabilidad de 0.683
al intervalo

( i i , i + i ) y

de 0.954 al intervalo

( i 2 i , i + 2 i ) . Por tanto, para n grande se esperara que:

La proporcin p i1 de observaciones que caen en el intervalo


( xi sii , xi + sii ) est alrededor de 0.683.

______________________________________________________Elkin Castao V. 91

Similarmente, la proporcin p i 2 de observaciones que caen


en el intervalo ( xi 2 sii , xi + 2 sii ) est alrededor de 0.954.
Usando la aproximacin normal para las proporciones
muestrales,

es

decir,

que

para

grande

p (1 pik )

dist
N pik , ik
p ik
, k=1,2. Entonces si,
n

| p i1 0.683 |> 3

(0.683)(0.317) 1.396
=
n
n

| p i 2 0.954 |> 3

(0.954)(0.046) 0.628
=
n
n

o si,

Sera indicativo de alejamientos de la distribucin normal.


El grfico cuantil-cuantil o grfico Q-Q.

Son grficos

especiales que pueden se usados para evaluar la normalidad de


cada variable.

 En ellos se grafican los cuantiles muestrales contra los


cuantiles que se esperara observar si las observaciones
realmente provienen de una distribucin normal.

______________________________________________________Elkin Castao V. 92

 Los pasos para construir un grfico Q-Q son:


i)

Ordene las observaciones originales de menor a


mayor. Sean x(1), x(2), , x(n). Las probabilidades
correspondientes a ellos son

(1- )/n, (2- )/n, ,

(n- )/n.
2

ii)

Calcule los cuantiles de la normal estndar q(1), q(2),


, q(n), correspondientes a dichas probabilidades.

iii)

Grafique

los pares de observaciones

(q(1), x(1)),

(q(2),x(2)), , (q(n), x(n)).


Si los datos proceden de una distribucin normal, estos pares
estarn aproximadamente relacionados

por la relacin lineal

x(j) + q(j). Por tanto, cuando los puntos caen muy prximos a
una lnea recta, la normalidad es sostenible.

Ejemplo.
Considere una muestra de n=10 observaciones, las cuales fueron
ordenadas de menor a mayor en la siguiente tabla.

______________________________________________________Elkin Castao V. 93

Por ejemplo, el clculo del cuantil de la N(0,1), para una


probabilidad de 0.65 busca el cuantil que satisface
P[ Z q (7) ] = 0.65

Para esta distribucin, el cuantil es q(7)=0.385, puesto que

0.385
P[ Z 0.385] =

1 z2 / 2
e
dz =0.65
2

La construccin del grfico Q-Q se basa en el diagrama de


dispersin de los puntos (q(j), x(j)), j=1, 2, , 10.

______________________________________________________Elkin Castao V. 94

los cuales caen muy cerca de una recta, lo que conduce a no


rechazar que estos datos provengan de una distribucin normal.

Ejemplo.
El departamento de control de calidad de una empresa que
produce hornos micro-ondas requiere monitorear la cantidad de
radiacin emitida por ellos cuando tienen la puerta cerrada.
Aleatoriamente se eligieron n=42 hornos
cantidad.

y se observ dicha

______________________________________________________Elkin Castao V. 95

El grfico Q-Q para estos datos es

La apariencia del grfico indica que los datos no parecen provenir


de una distribucin normal. Los puntos sealados con un crculo

______________________________________________________Elkin Castao V. 96

son observaciones atpicas, pues estn muy lejos del resto de los
datos.

Observacin.
Para

esta

muestra,

varias

(observaciones empatadas).

observaciones

son

iguales

Cuando esto ocurre, a las

observaciones con valores iguales se les asigna un mismo cuantil,


el cual se obtiene usando el promedio de los cuantiles que ellas
hubieran tenido si hubieran sido ligeramente distintas.
La linealidad de un grfico Q-Q puede ser medida calculando
el coeficiente de correlacin para los puntos del grfico,

( x( j ) x )( q( j ) q )

j =1

rQ =
n

( x( j ) x )

j =1

( q( j ) q )

j =1

Basados en l, se puede construir una prueba potente de


normalidad (Filliben, 1975; Looney y Gulledge, 1985; Shapiro y
Wilk,

1965).

Formalmente, se rechaza la hiptesis de

normalidad a un nivel de significancia si rQ < rQ( ,n) donde


los valores crticos rQ( ,n) se encuentran en la siguiente tabla.

______________________________________________________Elkin Castao V. 97

Valores crticos para el coeficiente de correlacin


del grfico Q-Q para probar normalidad

Ejemplo.
Para el primer ejemplo donde n=10, el clculo del coeficiente de
correlacin entre los puntos (q(j), x(j)), j=1, 2, , 10, del grfico
Q-Q, es
rQ =

8.584
= 0.994
8.472 8.795

Para un nivel de significancia =0.10,

el valor crtico es

rQ (0.10, 10) = 0.9351 . Como rQ > rQ (0.10, 10) , no rechazamos la

hiptesis de normalidad.

______________________________________________________Elkin Castao V. 98

Observacin.
Para muestras grandes, las pruebas basadas en rQ y la de Shapiro
Wilk, una potente prueba de normalidad, son aproximadamente
las mismas.

Anlisis de combinaciones lineales de las variables en X


Considere los valores propios de S, 1 2 ... p y sus
correspondientes vectores propios

e 1 , e 2 , ..., e p .

Se sugiere

verificar normalidad para las combinaciones lineales

e 1' X j y e 'p X j

donde

e 1 y e p son

los vectores propios correspondientes al

mayor y menor valor propio de S, respectivamente.

Evaluacin de la Normalidad Bivariada


Si las observaciones fueran generadas por un distribucin normal
multivariada, todas las distribuciones bivariadas seran ser
normales y los contornos de densidad constante deberan se
elipses. Observe el siguiente diagrama de dispersin generado por
una muestra simulada de una normal bivariada.

______________________________________________________Elkin Castao V. 99

Adems, por resultado anterior, el conjunto de puntos bivariados

x tal que
(x-)' -1 (x-) 22 ( )
tendr un probabilidad .
Por ejemplo, si =0.5, para muestras grandes se esperara que
alrededor del 50% de las observaciones caigan dentro de la elipse
dada por

{ x : (x x)' S

(x x) 22 (0.5)

Si no es as, la normalidad es sospechosa.

______________________________________________________Elkin Castao V. 100

Ejemplo.
Considere los pares de datos para las variables x1 = ventas y
x2=ganancias para las 10 mayores corporaciones industriales de
E.U. Observe que este conjunto de datos no forman una muestra
aleatoria.

Para estos datos


63.309
x=
,
2927

10005.20 255.76
S=
x105

255.76 14.30

y
0.000184 0.003293
S 1 =
x105

0.128831
.003293

Para =0.5, de la distribucin chi-cuadrado en dos grados de


libertad, 22 (0.5) =1.39. Entonces, cualquier observacin x=(x1, x2)

______________________________________________________Elkin Castao V. 101

que satisface

x1 62.309
x 2927
2

'

0.000184 0.003293
5 x1 62.309
x10

1.39
0.128831
.003293
x2 2927

Debe estar sobre o dentro del contorno estimado del 50% de


probabilidad.
Para las 10 observaciones sus distancias generalizadas son 4.34,
1.20, 0.59, 0.83, 1.88, 1.01, 1.02, 5.33, 0.81 y 0.97. Si los datos
proceden de una distribucin normal, se esperara que
aproximadamente el 50% de las observaciones caiga dentro o
sobre el contorno estimado anterior, o dicho de otro modo, el 50%
de las distancias calculadas deberan ser menores o iguales que
1.39. Se observa que 7 de estas distancias son menores que 1.39,
lo que implica que la proporcin estimada es de 0.70. La gran
diferencia entre de esta proporcin con 0.50 proporciona
evidencia para rechazar normalidad bivariada en estos datos. Sin
embargo, la muestra es muy pequea para permitir obtener esta
conclusin.

______________________________________________________Elkin Castao V. 102

El procedimiento anterior es til, pero bastante burdo. Un


mtodo ms formal para evaluar la normalidad conjunta est
basado en las distancias cuadrticas generalizadas,
d 2j = (x j x) ' S 1(x j x) , j=1, 2, ,n

El siguiente procedimiento, el cual no est limitado al caso


divariado, y puede ser usado par p 2. Para n-p grande, las
distancias d 2j , j=1, 2, , n, deberan comportarse como una
variable chi-cuadrado. Aunque estas distancia no son
independientes, o exactamente chi-cuadrado, es til graficarlas

como si lo fueran. El grfico resultante es llamado grfico chicuadrado, y se construye de la siguiente manera:

i)

Ordene las distancias de menor a mayor como


2
2
d (1)
d (2)
d (2n) .

ii)

Grafique los pares (qc,p((j-1/2)/n), d 2j ), para j=1, 2, , n,


donde qc,p((j-1/2)/n) es el cuantil qc,p((j-1/2)/n) de la
distribucin chi-cuadrado con p grados de libertad.

Bajo normalidad, el grfico debera mostrar un patrn lineal a


travs del origen y con pendiente 1. Un patrn sistemticamente
curvo sugiere falta de normalidad.

______________________________________________________Elkin Castao V. 103

Ejemplo.
Grfico chi-cuadrado para el ejemplo anterior. Las distancias
ordenadas y los correspondientes percentiles chi-cuadrado
aparecen en la siguiente tabla.

A continuacin se presenta el grfico chi-cuadrado para esos


datos.

______________________________________________________Elkin Castao V. 104

Se observa que los puntos no caen en una lnea recta de pendiente


1.

Las distancias pequeas parecen demasiado grandes y las

distancias del medio parecen ser demasiado pequeas con


respecto a las distancias esperadas en una normal bivariada.
Debido a que la muestra es pequea no se puede obtener una
conclusin definitiva.
8. DETECCIN DE OBSERVACIONES INUSUALES O ATPICAS

La mayora de los conjuntos de datos contienen unas pocas


observaciones inusuales que no parecen pertenecer al patrn de
variabilidad seguido por las otras observaciones.
Estas observaciones son denominadas observaciones atpicas y
antes de proceder a identificarlas se debe enfatizar que no todas
las observaciones atpicas son nmeros equivocados. Ellas
pueden formar parte del grupo y pueden conducir a
comprender mejor el fenmeno que se est estudiando.
La deteccin de observaciones atpicas puede ser mejor
realizada visualmente, es decir por medio de grficos.

______________________________________________________Elkin Castao V. 105

 El caso de una variable: Se deben buscar observaciones que


estn lejos de las dems. Para visualizarlas podemos usar, por
ejemplo, diagramas de puntos (muestras pequeas) o grficos
de cajas esquemticas.

Ejemplo.
Considere el siguiente diagrama de puntos para una variable

El diagrama de puntos revela una sola observacin grande.

 El caso de dos variables: En el caso bivariado la situacin es


ms complicada.

Considere el siguiente diagrama de

dispersin con diagramas de puntos marginales, en el cal


parecen existir dos observaciones inusuales.

______________________________________________________Elkin Castao V. 106

El dato sealado con un crculo arriba a la derecha est lejos del


patrn de los datos. Su segunda coordenada es grande con
relacin al resto de mediciones para la variable x2, como lo
muestra el diagrama de puntos vertical.
El segundo dato atpico, tambin sealado con un crculo, est
lejos del patrn elptico del resto de puntos, pero separadamente
cada una de sus componentes tiene un valor tpico. Esta
observacin atpica no puede ser detectada por medio de
diagramas de puntos marginales.

______________________________________________________Elkin Castao V. 107

Para el caso bivariado el diagrama de dispersin proporciona la


informacin visual requerida para detectar datos atpicos. Sin
embargo, en altas dimensiones, los datos atpicos pueden no ser
detectados por grficos univariados o an diagramas de
dispersin.

En estas situaciones se recomienda usar grficos

multivariados vistos anteriormente, tales como las curvas de


Andrews, las grficas de caras y de estrellas. Estos grficos son
muy potentes para detectar casos atpicos multivariados.
Adems, en altas dimensiones un valor grande de
d 2j = (x j x) ' S 1(x j x) , j=1, 2, ,n,

sugerir una observacin inusual, aunque no la hallamos


visualizado grficamente.

Pasos para la deteccin de observaciones atpicas


1) Haga un diagrama de puntos o un grfico de cajas para cada
variable.
2) Haga un diagrama de dispersin para cada par de variables.

______________________________________________________Elkin Castao V. 108

3) Calcule los valores estandarizados z jk = ( x jk xk ) / skk , para


j=1, 2, , n y k=1, 2, , p. Examine estos nk valores
conjuntamente para detectar observaciones muy grandes o
muy pequeas.
4) Calcule las distancias estandarizadas d 2j = (x j x) ' S 1(x j x) ,
j=1, 2, ,n. Examine aquellas distancia inusualmente grandes.

Observaciones.
i)

En el paso 3, grande debe ser interpretado con respecto


al tamao de la muestra y al nmero de variables. Por
ejemplo, cuando n=100 y p=5, hay 500 valores. Puesto que,
para una normal estndar P[|Z|>3]=0.0026, entonces
esperaramos que 1 o 2 excedan el valor de 3 o sean
menores que -3, puesto nx P[|Z|>3]=500x0.0026=1.3.
Como una gua se puede usar 3.5 como un valor grande en
muestras moderadas.

ii)

En el paso 4., grande est medido por el percentil de la


distribucin chi-cuadrado con p grados de libertad. Por
ejemplo, si n=100, se debera esperar que 5 observaciones
excedan el percentil 0.05-superior de la distribucin chicuadrado. Un percentil ms extremo debe servir para

______________________________________________________Elkin Castao V. 109

determinar las observaciones que no se ajustan al patrn del


resto de datos.

Ejemplo.
La siguiente tabla presenta los datos para 4 variables que indican
la rigidez de tablas de madera. Tambin se presentan los datos
estandarizados y sus distancias generalizadas cuadrticas.

______________________________________________________Elkin Castao V. 110

La ltima columna revela que la observacin 16 es una


observacin atpica multivariada, puesto que 42 (0.005) = 14.86 . La
observacin 9 tambin tiene una gran distancia d 2j .
Estas dos observaciones son claramente diferentes de las dems
observaciones y le dan apariencia de curvo al patrn que exhibe
el correspondiente grfico chi-cuadrado

Una vez han sido removidas, el patrn que queda se ajusta a una
recta.
El siguiente grfico presenta la matriz de diagramas de dispersin
para estos datos.

______________________________________________________Elkin Castao V. 111

Los puntos slidos corresponden a las observaciones 9 y 16.


Aunque la observacin 16 cae siempre lejos en todos los
grficos, la observacin 9 se esconde en el diagrama de
dispersin de x3 contra x4, y casi se esconde en el de x1 contra x3.
8. TRANSFORMACIONES PARA ACERCAR A LA NORMALIDAD

Si la normalidad no es un supuesto viable, cul es el siguiente


paso a seguir?

______________________________________________________Elkin Castao V. 112

 Ignorar la no normalidad y proceder como si los datos fueron


normalmente distribuidos. Esta prctica no es recomendada,
puesto que, en muchos casos, conducira a conclusiones
incorrectas.

 Hacer que los datos no normales parezcan ms normales


haciendo transformaciones sobre los datos originales. A
continuacin se pueden realizar los anlisis basados en la teora
normal sobre los datos transformados.
Las transformaciones son solamente reexpresiones de los datos
en diferentes unidades. Por ejemplo, cuando un histograma de
observaciones positivas muestra una gran cola derecha, una
transformacin de ellos tomando el logaritmo o la raz
cuadrada generalmente mejora la simetra con respecto a la
media y aproxima la distribucin a la normalidad.
Las

transformaciones

pueden

ser

sugeridas

por

consideraciones tericas o por los datos mismos.

 Consideraciones tericas: Por ejemplo, los datos de conteos


pueden ser ms normales si se les toma la raz cuadrada.
Similarmente, para datos de proporciones la transformacin
logit y la transformacin de Fisher para coeficientes de

______________________________________________________Elkin Castao V. 113

correlacin,

proporcionan

cantidades

que

estn

aproximadamente normalmente distribuidas.


Escala original
1. Conteos, y

Escala transformada
y

1
2

p
)
1 p

2. Proporciones, p

logit( p )= log(

3. Correlaciones, r

La transf. de Fisher z(r)= log(

1
2

1+ r
)
1 r

Transformaciones sugeridas por los mismos datos: en algunos


casos la transformacin para mejorar la aproximacin a
normalidad no es obvia. En esta situacin es conveniente dejar
que los datos sugieran una transformacin.
Una familia de transformaciones til para este propsito es la
familia de transformaciones potenciales. Existe un mtodo
analtico conveniente para

escoger una

transformacin

potencial dentro de dicha familia.


Box y Cox (1964) consideran la familia de transformaciones
potenciales

______________________________________________________Elkin Castao V. 114

x ( )

x 1
, 0

=
ln( x), = 0

La cual es continua en para x>0.

Dadas las observaciones x1, x2, , xn, la solucin de Box y


Cox para escoger la transformacin adecuada, es aquella
que maximiza la expresin

n 1 n
l ( ) = ln x(j ) x ( )
2 n j =1

donde

x ( ) =

1 n ( )
xj ,
n j =1

) + ( 1) ln x
n

j =1

es la media aritmtica de las

observaciones transformadas.
La expresin l ( ) es, aparte de una constante, el logaritmo de
la funcin de verosimilitud de una normal, despus de haberla
maximizado con respecto a los parmetros de media y
varianza.
El proceso de maximizacin es fcil de realizar por medio de
un computador, seleccionando muchos diferentes valores para
y calculando el respectivo valor de l ( ) . Es til hacer un

______________________________________________________Elkin Castao V. 115

grfico de l ( ) versus para estudiar el comportamiento en


el valor de mximo .

Algunos autores, recomiendan un procedimiento equivalente


para encontrar , creando una nueva variable

y (j )

xj 1

1/ n 1

x j
j =1

, j=1, 2, , n

y calculando su varianza muestral. El mnimo de la varianza


ocurre en el mismo valor que maximiza l ( ) .

Ejemplo.
Para los n=42 datos de la radiacin de hornos micro-ondas con la
puerta cerrada, el grfico Q-Q indica que las observaciones se
desvan de lo que esperaramos si fueran normalmente
distribuidas. Puesto que todas las observaciones son positivas, se
puede utilizar una transformacin potencial de los datos con la
esperanza de acercarlos a la normalidad.
Los pares ( , l ( ) ), en el proceso de bsqueda se encuentran en la
siguiente tabla.

______________________________________________________Elkin Castao V. 116

El grfico de l ( ) contra , nos permite determinar el mximo


con ms precisin, el cual se alcanza en =0.28. Por
conveniencia elegimos =0.28=1/4.

Los datos son transformados como

______________________________________________________Elkin Castao V. 117

4)
x(1/
j

x1/j 4 1
(1/ 4)

, j=1, 2, , 42.

Para verificar si los datos transformados son ms normales, a


continuacin se presenta su grfico cuantil-cuantil.

Los pares de cuantiles caen muy cerca de una recta, lo que


4)
permite concluir que x(1/
es aproximadamente normal.
j

Transformacin de las Observaciones Multivariadas


Para las observaciones multivariadas se debe seleccionar una
transformacin para cada una de las variables.
1, 2 ,, p

Sean

las transformaciones potenciales para las p

variables. Las transformaciones pueden ser obtenidas:

______________________________________________________Elkin Castao V. 118

 Individualmente. Para cada una de las variables se escoge la


transformacin usando el procedimiento anterior. La jsima observacin transformada es

x (j)

donde

x ( 1 ) 1
j1

x (j22 ) 1

= 2

x ( p ) 1
jp

1, 2 ,, p son los valores que individualmente

maximizan a l ( k ) , k=1, 2, , p.
Este procedimiento es equivalente a hacer cada distribucin
aproximadamente normal. Aunque la normalidad marginal
de cada componente no es suficiente para garantizar que
todas la distribucin conjunta sea normal multivariada,
frecuentemente esta condicin es suficiente.

 Si no lo es, se pueden usar estos valores 1, 2 ,, p como


valores iniciales para obtener un conjunto de valores

______________________________________________________Elkin Castao V. 119

' = 1, 2 ,, p los cuales conjuntamente maximizan la

funcin

n
n
l 1, 2 ,, p = ln | S ( ) | + (1 1) ln x j1
2
j =1

j =1

j =1

+ (2 1) ln x j 2 + + ( p 1) ln x jp

Donde S ( ) es la matriz de covarianza muestral calculada


usando las observaciones multivariadas transformadas

x ()
j

l 1, 2 ,, p

x (j11 ) 1

1
( 2 )

x j2 1
= 2 , j=1, 2, , n

(p )
x jp 1

es (parte de la constante) la funcin de

verosimilitud de la normal multivariada despus de


maximizarla con respecto a y a .

La maximizacin de la funcin anterior l ( 1, 2 ,, p ) no es


solamente ms difcil que la maximizacin de las funciones

______________________________________________________Elkin Castao V. 120

individuales l ( k ) , sino que puede no proporcionar mejores


resultados (Hernndez y Johnson (1980).

Ejemplo.
Las mediciones de la radiacin tambin fueron recogidas para los
mismos n=42 hornos del ejemplo anterior, pero con las puertas
abiertas. El siguiente es el grfico Q-Q para los nuevos datos,
cuyo patrn curvo, se aleja de la normalidad.

La seleccin de una transformacin para normalizar los datos


produce un =0.30, la cual se aproxim a 0.25 por conveniencia.
El siguiente es el grfico Q-Q para los datos transformados.

______________________________________________________Elkin Castao V. 121

Se observa que los datos transformados estn ms cerca de la


normalidad que los datos sin transformar. Sin embargo, la
aproximacin no es tan buena como en el caso de los datos para
las puertas cerradas.
Consideremos ahora la distribucin conjunta de las dos variables
y determinemos simultneamente el par de potencias ( 1, 2 ) que
aproximan la distribucin a una normal bivariada.

La

maximizacin de l( 1, 2 ) produce el par de transformaciones


potenciales ( 1, 2 )=(0.16,

0.16), las cuales no difieren

sustancialmente de las obtenidas en forma univariada.

______________________________________________________Elkin Castao V. 122

Empleo del programa R


# lectura de los datos desde un archivo de texto
radiac<-read.table("c:/unal/datos/j-wdata/radiac_cerr_abier.dat", header = TRUE)
list(radiac)
attach(radiac)
# obtencin de los grficos Q-Q para evaluar normalidad univariada
par(mfrow=c(1,2))
qqnorm(cerrada); qqline(cerrada)
qqnorm(abierta); qqline(abierta)
#obtencin del grfico chi-cuadrado para evaluar normalidad bivariada
library(mvoutlier)
chisq.plot(radiac)
# obtencin de las transformaciones potenciales para cada variable individual
# llamar la librera car
library(car)
box.cox.powers(abierta)
box.cox.powers(cerrada)
# obtencin de las transformaciones potenciales simultneas
box.cox.powers(radiac)
# transformacin de los datos: se usan transformaciones de 0.25 para cada variable
cerr_t=cerrada^0.25
abie_t=abierta^0.25
# obtencin de los grficos Q-Q individuales para las dos variables transformadas
par(mfrow=c(1,2))
qqnorm(cerr_t); qqline(cerr_t)
qqnorm(abie_t); qqline(abie_t)

______________________________________________________Elkin Castao V. 123

CAPTULO 5.
ANLISIS DE COMPONENTES PRINCIPALES
1. INTRODUCCIN

El objetivo del anlisis de componentes principales es explicar la


estructura de la matriz de covarianza de un conjunto de variables
por medio de unas pocas combinaciones lineales de las variables
originales. Su propsito general es proporcionar una reduccin de
datos y facilitar la interpretacin.

 Aunque se necesitan las p componentes principales para


reproducir toda la variabilidad del sistema, generalmente la
mayor parte de esa variabilidad es explicada por un nmero
pequeo k de componentes principales. En estos casos las k
primeras componentes principales reemplazan las p variables
originales, logrando una reduccin del sistema original.

 Con frecuencia, el anlisis de componentes principales revela


relaciones de las que no se sospechaba inicialmente, y por
tanto este anlisis permite interpretaciones de los datos que no
podran ser derivadas directamente de las variables originales.

______________________________________________________Elkin Castao V. 124

2. COMPONENTES PRINCIPALES POBLACIONALES

Algebraicamente,

las

componentes

principales

son

combinaciones lineales especiales de las p variables aleatorias


X1, X2, , Xp de un vector p-dimensional X.
Geomtricamente, estas combinaciones lineales representan la
seleccin de un nuevo sistema de coordenadas que se obtiene
al rotar el sistema original donde X1, X2, , Xp son los ejes de
coordenadas.
Los nuevos ejes representan las direcciones ortogonales con
variabilidad mxima

y proporciona una descripcin ms

simple y ms parsimoniosa de la estructura de covarianza.


El desarrollo del procedimiento de componentes principales no
requiere del supuesto de la normalidad multivariada. Sin
embargo,

las

componentes

principales

derivadas

de

poblaciones normales multivariadas tienen interpretaciones


muy tiles en trminos de elipsoides de densidad constante.
Adems, en este caso se puede hacer inferencia basada en las
componentes principales muestrales.

______________________________________________________Elkin Castao V. 125

Suponga que
X1
X
X= 2


X p

es un vector aleatorio que tiene una matriz de covarianza con


valores propios 1 2 p 0 .
Considere las siguientes combinaciones lineales
Y1 = a1' X = a11 X1 + a12 X 2 + + a1 p X p
Y2 = a2' X = a21 X1 + a22 X 2 + + a2 p X p

Yp = a 'p X = a p1 X1 + a p 2 X 2 + + a pp X p

Entonces,
Var (Yi ) = ai'ai , para i=1, 2, , p
Cov(Yi , Yk ) = ai'ak , para i, k= i=1, 2, , p

Las componentes principales son aquellas combinaciones


lineales Y1, Y2, , Yp, que no estn correlacionadas y cuyas
varianzas son tan grandes como sea posible.

______________________________________________________Elkin Castao V. 126

La primera componente principal es la combinacin lineal con


varianza

mayor.

Var (Y1 ) = a1' a1 .

Es

decir

es

aquella

Puesto

que

dicha

que

varianza

maximiza
puede

ser

incrementada multiplicando a a1 por una constante, se debe


eliminar esta indeterminacin eligiendo el vector a1 de forma
que tenga longitud 1.
Se define:

Primera componente principal=la combinacin


Y1 = a1' X

que maximiza Var (Y1 ) = a1' a1 , sujeta a a1' a1 = 1

Segunda componente principal=la combinacin


Y2 = a2' X

lineal

lineal

que maximiza Var (Y2 ) = a2' a2 , sujeta a a2' a2 = 1

Cov(a1' X , a2' X ) = 0

i-sima componente principal=la combinacin lineal Yi = ai' X


que maximiza Var (Yi ) = ai'ai , sujeta a ai' ai = 1 y Cov(ai' X , ak' X ) = 0 ,
para k<i
Determinacin de las componentes principales. Sea la
matriz de covarianza asociada al vector aleatorio p-

______________________________________________________Elkin Castao V. 127

dimensional X. Suponga que


vectores propios

( 1, e1 ),

posee pares de valores-

( 2 , e2 ),

, ( p , e p ) donde

1 2 p 0 . Entonces la i-sima componente principal

est

dada

por

la

combinacin

lineal

Yi = ei' X = ei1 X1 + ei 2 X 2 + + eip X p , i=1, 2, , p, donde

Var (Yi ) = ei'ei = i

i=1, 2, , p

Cov(ei' X , ek' X ) = ei'ek = 0

 Si algunos

i k

son iguales, las elecciones de sus

correspondientes vectores propios, y por tanto las Yi, no son


nicas.
Suponga que es la matriz de covarianza asociada al vector
aleatorio p-dimensional X que posee pares de valores-vectores
propios ( 1, e1 ), ( 2 , e2 ), , ( p , e p ) donde 1 2 p 0 .
Sean

Yi = ei' X = ei1 X1 + ei 2 X 2 + + eip X p , i=1, 2, , p,

componentes principales. Entonces

i =1

i =1

Var ( X i ) = 11 + 22 + + pp = 1 + 2 + + p = Var (Yi )

las

______________________________________________________Elkin Castao V. 128

Observaciones:
1) Del resultado anterior
Varianza Total=11 + 22 + + pp = 1 + 2 + + p

Prop. de la varianza
total debido a la

=
, k=1, 2, , p.
2)
k-esima componente 1 + 2 + + p

principal

3) Si ms del 80% o 90% de la varianza total poblacional,


cunado p es grande, puede ser atribuido a la primera, a las dos
primeras o a las tres primeras componentes principales, entonces
estas componentes pueden reemplazar las variables originales sin
mucha prdida de informacin.
4) La k-sima componente del vector propio
ei = ei1 ,..., eik ,..., eip

Mide la importancia de la k-sima variable sobre la i-sima


componente
variables.

principal,

independientemente

de

las

dems

______________________________________________________Elkin Castao V. 129

5) Si Yi = ei' X = ei1 X1 + ei 2 X 2 + + eip X p , i=1, 2, , p son

las

componentes principales obtenidas de la matriz de covarianza


, entonces

Yi , X k =

eik i

kk

, i,k=1, 2, , p

es el coeficiente de correlacin entre la i-sima componente


principal y la variable Xk.

Ejemplo.

Obtencin

de

las

Componentes

Principales

Poblacionales
Suponga que tres variables aleatorias X1, X2 y X3 tienen matriz de
covarianza
1 2 0
= 2 5 0

0 0 2

Los pares de valores-vectores propios de son:


1 =5.83

0.383
e1 = 0.924

2 =2.00

0
e2 = 0

1

______________________________________________________Elkin Castao V. 130

3 =0.17

0.924
e3 = 0.383

Por tanto las componentes principales son:


Y1 = e1' X = 0.383X1-0.924X2
Y2 = e'2 X = X3
Y3 = e3' X = 0.924X1+0.383X2

 Debido a que X3

no est correlacionada con X1

ni X2,

entonces X3 es una de las componentes principales, pues su


informacin no es llevada al nuevo sistema por ninguna de las
otras componentes.

 La proporcin de la varianza total explicada por la primera


componente principal es
1
=5.83/8=0.73
1 + 2 + 3

Esto significa que el 73% de la varianza total es explicada por


la primera componente principal.

______________________________________________________Elkin Castao V. 131

 La proporcin de la varianza total explicada por las dos


primeras componentes principales es
1 + 2
=(5.83+ 2)/8=0.98
1 + 2 + 3

Esto significa que el 98% de la varianza total es explicada por


la primera componente principal.

e11 1

 Y , X =
1

11

Y1 , X 2 =

e21 1

22

=0.925
=-0.998

 En la primera componente principal, la variable X2 tiene la


mayor ponderacin y ella tambin tiene la mayor correlacin
con Y1.

 La correlacin de X1 con Y1 es casi tan grande, en magnitud,


como la de X2 con Y1, lo que indica que las dos variables son
casi igualmente importantes para la primera componente
principal.

 Los tamaos relativos de los coeficientes de X1 y X2 sugieren


que X2 contribuye ms a la determinacin de Y1 que X1.

______________________________________________________Elkin Castao V. 132

 Y , X = Y , X = 0 y Y , X =
2

2
2
=
=1
2
33

 Las dems correlaciones puede ser despreciadas puesto que la


tercera componente principal no es importante.

Componentes Principales Derivadas de una Normal

Multivariada
Suponga que X ~ Np( , ). Las componentes principales
Y1 = e1' X, Y2 = e'2 X, , Yp = e'p X
caen en la direccin de los ejes de la elipsoide de densidad
constante (x )' 1 (x ) = c 2 .

______________________________________________________Elkin Castao V. 133

Componentes principales usando variables estandarizadas


Las componentes principales tambin pueden ser obtenidas
usando las variables estandarizadas

Z1 =
Z2 =

X1 1

11
X 2 2

22

Zp =

X p p

pp

o, en notacin matricial,

Z = V 1/ 2

(X )

donde V 1/ 2 =diagonal ( 11 , 22 ,, pp definida antes.

En este caso, E(Z)=0 y Cov(Z)= (V 1/ 2 ) (V 1/ 2 ) =

 Las componentes principales se obtienen usando los


vectores propios de la matriz de correlacin

______________________________________________________Elkin Castao V. 134

 Todos los resultados anteriores son vlidos, con algunas


simplificaciones ya que Var(Zi)=1.

 En general, los pares valores-vectores propios derivados


de no son iguales a los de

 Obtencin de las componentes principales usando variables


estandarizadas.

La i-sima componente principal de las

variables estandarizadas
Z1
Z
2
Z =


Z p

con Cov(Z)=

, est dada por

Yi = ei' Z = ei' V 1/ 2

( X ) , i=1, 2, , p

Adems,
p

i =1

i =1

Var (Yi ) = Var ( Zi ) = p

y,
Yi , Z k = eik i , i, k=1, 2, , p

______________________________________________________Elkin Castao V. 135

En este caso, ( 1, e1 ), ( 2 , e2 ), , ( p , e p ) son los pares


valores-vectores propio de

, donde 1 2 p 0 .

Observacin:
Prop. de la varianza
total debido a la

= k , k=1, 2, , p.
k-esima componente p

principal

Ejemplo.
Considere un vector bivariado cuya matriz de covarianza es
1 4
=
. Entonces su matriz de correlacin es
4
100

1 0.4
.
0.4
1

a) Las componentes principales derivadas de .


Valores y vectores propios de .

1 =100.16

0.040
e1 =

0.999

2 =0.840

0.999
e2 =

0.040

Entonces la componentes principales basadas en son

______________________________________________________Elkin Castao V. 136

Y1 = e1' X = 0.040X1+0.999X2
Y2 = e'2 X = 0.999X1-0.040X2
Debido a que X2 tiene una gran varianza, ella domina
completamente la primera componente

principal.

componente explica una proporcin de


1
1 + 2

=100.16/101=0.992

de la varianza total.
b) Las componentes principales derivadas de
Valores y vectores propios de

1 =1.4

0.707
e1 =

0.707

2 =0.6

0.707
e2 =

0.707

Entonces la componentes principales basadas en son


Y1 = e1' Z = 0.707Z1+0.707Z2
Y2 = e'2 Z = 0.707Z1 -0.707Z2

Esta

______________________________________________________Elkin Castao V. 137

Cuando las variables

estn

estandarizadas, las

variables

contribuyen igualmente a la primera componente principal.


Adems, como
Y1 , Z1 = e11 1 = 0.707 1.4 = 0.837

Y1 , Z2 = e21 1 = 0.707 1.4 = 0.837

entonces las variables estandarizadas tienen la misma correlacin


con la primera componente principal.
La primera componente principal explica una proporcin de
1
p

=1.4/2=0.70

de la varianza total.

 Conclusin: Comparando los resultados en los dos casos, se


observa que la estandarizacin afecta bastante los resultados, y
que las componentes principales derivadas de son diferentes
de las derivadas de .
Cuando usar la estandarizacin?

______________________________________________________Elkin Castao V. 138

Cuando las variables estn medidas en escalas con rangos


muy diferentes.

Cuando las unidades de medida no son conmensurables.


Por ejemplo, si X1 es una variable aleatoria que representa las
ventas anuales en el rango $20000000 y $750000000, y X2 es
el cociente dado por (ingreso neto anual)/(Total de activos) que
cae entre 0.01 y 0.60, entonces la variacin total ser debida
casi exclusivamente a

X1 y esta variable tendr una gran

ponderacin en la primera componente principal, que sera la


nica importante.

Alternativamente si las variables son

estandarizadas, sus magnitudes sern del mismo orden y en


consecuencia X2 o (Z2) jugar un papel ms importante en la
construccin de las componentes principales.
3. COMPONENTES PRINCIPALES MUESTRALES

Suponga que x1, x2, , xn, representan una muestra aleatoria


de una poblacin multivariada con vector de medias y
matriz de covarianza . Sean x , S y R el vector de media
muestral, y las matrices de covarianza y correlacin muestral,
respectivamente.

______________________________________________________Elkin Castao V. 139

Las componentes principales muestrales estn definidas como


aquellas combinaciones lineales no correlacionadas con
mxima varianza que explican la mayor parte de la variacin
muestral . Especficamnte,

 Primera componente principal=la combinacin


y1 = a1' xj

que

lineal

maximiza la varianza muestral, sujeta a

a1' a1 = 1

 Segunda componente principal=la combinacin


y 2 = a2' xj

lineal

que maximiza la varianza muestral, sujeta a

a2' a2 = 1 y la covarianza muestral entre a1' xj y a2' xj es cero.

 i-sima componente principal=la combinacin

lineal

y i = ai' xj que maximiza la varianza muestral, sujeta a ai' ai = 1

y la covarianza muestral entre ai' xj y ak' xj es cero, para k<i


Determinacin de las componentes principales muestrales.
Sea S la matriz de covarianza muestral de los datos de un
vector aleatorio p-dimensional X. Suponga que S posee pares
de valores-vectores propios

( 1, e1 ),

( 2 , e2 ),

, ( p , e p )

______________________________________________________Elkin Castao V. 140

donde 1 2 p 0

y x es una observacin de las

variables X1, X2, , Xp. Entonces la i-sima componente


principal muestral est dada por la combinacin

lineal

y i = ei' x = ei1x1 + ei 2 x2 + + eip x p , i=1, 2, , p, donde

Varianza muestral ( y i ) = ei' Sei = i

i=1, 2, , p

Cova r ianza muestral ( yi , y k ) = 0

ik

Adems, la varianza total muestral

sii = 1 + 2 + + p

i =1

y
ryi ', xk =

eik i
skk

, i,k=1 ,2, , p

Observaciones:
1) No se har diferencia en la notacin para las componentes
principales derivadas de S o de R.
2) Las componentes principales derivadas de S no son iguales
a las derivadas de R.

______________________________________________________Elkin Castao V. 141

3) A veces las observaciones xj son centradas restando el


vector x .

Esto no afecta la matriz S y la isima

componente principal muestral es


yi = e i' (x-x) , i=1, 2, , p.

para cualquier observacin x.


4) Los valores de la i-sima componente principal son
y ji = e i' (x j -x) , j=1, 2, , n.

En este caso, la media muestral de la i-sima componente


principal es

y i =

1 '
1 n
1 n '
1 ' n
y ji = e i (x j -x) = e i (x j -x) = e i 0=0
n j =1
n j =1
n j =1
n

y su varianza muestral es i , es decir, no cambia.

Ejemplo.
Un censo proporcion informacin sobre las siguientes
variables socioeconmicas para 14 reas de una regin:
X1=Poblacin total (en miles)

______________________________________________________Elkin Castao V. 142

X2=Mediana de los aos de escolaridad


X3=Empleo total (en miles)
X4=Empleo en servicios de salud (en cientos)
X5=Mediana del valor de la casa (en diez miles)

Observe que los datos para reas censales adyacentes pueden


estar correlacionados y por lo tanto las observaciones pueden
no constituir una muestra aleatoria.
Estos datos producen
x =[4.32, 14.01, 1.95, 2.17, 2.45]

______________________________________________________Elkin Castao V. 143

4.308
1.683

S= 1.803

2.155
0.253

1.683
1.768

1.803
0.588

2.155 0.253
0.177 0.176

0.588 0.801 1.065 0.158

1.177 1.065 1.970 0.357


0.176 0.158 0.357 0.504

Se puede resumir la variacin muestral por medio de una o dos


componente principales?
Var

e1 (ry1 , xk )

e2 ( ry 2 , xk )

e3

e4

e5

X1

0.781(0.99)

-0.071(-.04)

0.004

0.542

-0.302

X2

0.306(0.61)

-0.764(-.76)

-0.162

-0.545

-0.010

X3

0.334(0.98)

0.083(0.12)

0.015

0.050

0.937

X4

0.426(0.80)

0.579(0.55)

0.220

-0.636

-0.173

X5

-0.054(-0.20) -0.262(-0.49) 0.962

-0.051

0.024

Var
( i )

6.931

1.786

0.390

0.230

0.014

93.2

97.4

99.9

100.0

Prop
Acu 74.1

 La primera componente principal explica el 74.1% de la


varianza total muestral.

 Las dos primeras componentes principales juntas explican el


93.2% de la varianza total muestral.

______________________________________________________Elkin Castao V. 144

 Por tanto, la variacin muestral puede ser resumida


adecuadamente por medio de las dos primeras componentes
principales.

 Dados los coeficientes de las componentes, la primera


componente principal parece ser esencialmente un promedio
ponderado de las primeras cuatro variables. La segunda
componente principal parece contrastar los servicios de
empleo en salud con un promedio ponderado de la mediana
de los aos de escolaridad y la mediana del valor de la casa.

 En la interpretacin de las componentes principales se deben


tener en cuenta los coeficientes eik de las componentes y las
correlaciones ry , x . Las correlaciones permiten analizar la
1

importancia de las variables aunque tengan diferentes


varianzas. Sin embargo, miden solamente la importancia de
una sola Xj sin tener en cuentas las otras variables presentes
en la componente.
4. EL NMERO DE COMPONENTES PRINCIPALES

Siempre est presente la pregunta de cuntas componentes


principales debemos retener. No existe una respuesta definitiva
a esta pregunta.

______________________________________________________Elkin Castao V. 145

Para responderla debemos considerar la cantidad de la varianza


total muestral explicada, los tamaos relativos de los valores
propios, y las interpretaciones de las componentes. Adems,
como se discutir ms adelante, una componente asociada a un
valor propio cercano a cero, y por tanto claramente no
importante,

puede

indicar una

dependencia

lineal no

sospechada en los datos.


Una ayuda visual til para determinar el nmero de
componentes es el grfico scree, el cual presenta un grfico de
i contra i, las magnitudes de los valores propios contra su

nmero.

Para

determinar

el

nmero

apropiado

de

componentes, buscamos un codo en el grfico. El nmero de


componentes que se toman es el determinado por aquel punto
para el cual es resto de los valores propios son relativamente
pequeos y aproximadamente del mismo tamao.

Ejemplo.
El grfico scree para el ejemplo anterior es

______________________________________________________Elkin Castao V. 146

El codo ocurre alrededor de i=3, es decir, los valores propios


despus de 2 son relativamente pequeos y aproximadamente
del mismo tamao. En este caso parece que dos (o quiz 3)
componentes principales resumen apropiadamente la varianza
total muestral.

Ejemplo.
En un estudio del tamao y la forma de las tortugas pintadas,
Jolicoeur y Mosimann (1963) midieron la longitud de la
caparazn (X1), su amplitud(X2) y su altura(X3). Los datos
sugirieron que el anlisis en trminos de los logaritmos de las
variables. (Jolicoeur, generalmente sugiere el empleo de los
logaritmos en los estudios de tamao y forma)

______________________________________________________Elkin Castao V. 147

El logaritmo natural de las dimensiones de las 24 tortugas machos


produce
x =[4.725, 4.478, 3.703]

y
11.072 8.019 8.160
S= 8.019 6.417 6.005
8160 6.005 6.773

El anlisis de componentes principales proporciona el siguiente


resumen.

______________________________________________________Elkin Castao V. 148

Var

e1 ( ry1 , xk )

e2

e3

ln(longitud)

0.683(0.99)

-0.159

-0.713

ln(amplitud)

0.510(0.97)

-0.594

0.622

ln(altura)

0.523(0.97)

0.788

0.324

Var ( i )

23.30 x 10-3 0.60 x 10-3 0.36 x 10-3

Prop acum.

96.1

98.5

100

El grfico scree es el siguiente

 La primera componente principal explica el 96.1% de la


varianza total muestral.

 La primera componente principal


y1 =0.683ln(longitud)+ 0.510ln(amplitud)+0.523ln(altura)

______________________________________________________Elkin Castao V. 149

0.683
y1 =ln[(longitud)
(amplitud)0.510 (altura)0.523]

tiene una interpretacin interesante, pues puede ser


considerada como el volumen de una caja con dimensiones
ajustadas. Por ejemplo, la altura ajustada es (altura)0.523, la
cual influye en la forma redondeada de la caparazn.
5. INTERPRETACIN DE LAS COMPONENTES PRINCIPALES
MUESTRALES

Las

componentes

principales

muestrales

tienen

varias

interpretaciones.

 Suponga que X ~ Np( , ). Entonces, las componentes


principales muestrales yi = ei' (x-x) , son realizaciones de las
componentes principales Yi = ei' (x- ) , las cuales tienen una
ditribucin Np(0, ), donde =diag( 1, 2 ,, p ) y ( i , ei )
son los pares valores-vectores propios de la matriz . Las
componentes principales muestrales son los ejes de las
hiper-elipsoides estimadas generadas por todos los puntos x
que satisfacen
( x x ) ' S 1 ( x x ) = c 2

______________________________________________________Elkin Castao V. 150

cuando S es definida positiva. En este caso, la hiptesis de


normalidad es til para hacer inferencias, como se ver ms
adelante.

 An si la normalidad es sospechosa, y el patrn de


dispersin se aleja algo del patrn elptico, se pueden extraer
los valores propios de S y obtener las componentes
principales muestrales.
Las componentes principales pueden ser consideradas como el
resultado de trasladar el origen del sistema de coordenadas
original a x y luego rotar el sistema de ejes de coordenadas
hasta que los nuevos ejes pasen a travs de las direcciones de
mxima varianza del patrn de dispersin.

 Interpretacin geomtrica: Suponga que p=2 y considere el


siguiente grfico que muestra una elipse de distancia
constante, centrada en x , con 1 > 2 .

______________________________________________________Elkin Castao V. 151

Las componentes principales estn bien determinadas: caen a


lo largo de los ejes de la elipse en direcciones perpendiculares
en las direcciones de mxima varianza.
Ahora considere la elipse centrada en x y con 1 = 2 .

En este caso, los ejes de la elipse (crculo) de distancia


constante no estn determinados de manera nica y caen en

______________________________________________________Elkin Castao V. 152

cualquier par de direcciones perpendiculares, incluyendo las


direcciones de los ejes del sistema original de coordenadas.
Cuando los contornos de la elipse de distancia constante son
aproximadamente circulares, o equivalentemente, los valores
propios de S son casi iguales, la variacin es homognea en
todas las direcciones. En este caso, no es posible representar
bien los datos en menos de p dimensiones.
Si los ltimos valores propios son muy pequeos, de forma tal
que la variacin en las direcciones de los correspondientes
vectores propios sea despreciable, las ltimas componentes
principales pueden ser ignoradas, y los datos pueden ser
adecuadamente aproximados en el espacio de las componentes
retenidas.

6. ESTANDARIZACIN DE LAS COMPONENTES PRINCIPALES


MUESTRALES

Las componentes principales muestrales no son, en general,


invariantes con respecto a cambios en escala.

______________________________________________________Elkin Castao V. 153

Si z1, z2, , zn, son las observaciones estandarizadas y su


matriz de covarianza es R, la i-sima componente principal
muestral est dada por la combinacin lineal
y i = ei'z = ei1z1 + ei 2 z2 + + eip z p , i=1, 2, , p

donde ( i , ei ) es el i-simo par valor-vector propio de la matriz


R con 1 2 p 0 . Adems,
Varianza muestral ( yi ) = i

i=1, 2, , p

Cova r ianza muestral ( yi , y k ) = 0

ik

va r ianza total muestral = sii = 1 + 2 + + p


i =1

ryi ', xk = eik i , i,k=1 ,2, , p

prop. dela varianza

total muestral(estandarizada)


explicada por la i-esima
= i , i=1, 2, , p

p
componente principal

muestral

Como regla general, se sugiere retener solamente aquellas


componentes principales cuyas varianzas i sean mayores que
la

unidad,

equivalentemente,

aquellas

componentes

______________________________________________________Elkin Castao V. 154

principales que, individualmente, expliquen al menos una


proporcin 1/p de la varianza total muestral.

Ejemplo.
Para el perodo de Enero de 1975 a Diciembre de 1976, se
determinaron los rendimientos semanales de las acciones de 5
compaas.

Las observaciones de estos 5 rendimientos parecen ser


independientes, pero entre ellos parecen estar correlacionados.
Estos datos producen

______________________________________________________Elkin Castao V. 155

x =[0.0054, 0.0048, 0.0057, 0.0063, 0.0037]

y
1.000
0.577

R= 0.509

0.387
0.462

0.577
1.000

0.509 0.387 0.462


0.599 0.389 0.322

0.599 1.000 0.436 0.426

0.389 0.436 1.000 0.523


0.322 0.426 0.523 1.000

 Valores y vectores propios de R.

1 =2.857

0.464
0.457

e1 = 0.470

0.421
0.421

3 =0.540

0.612
0.178

e 3 = 0.335

0.541
0.435

5 =0.343

0.451
0.676

e 5 = 0.400

0.176

0.385

2 =0.802

4 =0.452

0.240
0.509

e2 = 0.260

0.526
0.582

0.387
0.206

e 4 = 0.662

0.472
0.382

______________________________________________________Elkin Castao V. 156

 Las dos primeras componentes principales muestrales


estandarizadas son
y1 = e1' z = 0.464 z1 + 0.457 z2 + 0.470 z3 + 0.421z4 + 0.421z5

y 2 = e '2z = 0.240 z1 + 0.509 z2 + 0.260 z3 0.526 z4 0.582 z5

 Estas dos componentes explican el


1 + 2
2.857 + 0.809

x100%=
x100%=73%
p
5

de la varianza total muestral estandarizada.

 La

primera

componente

principal

es

una

suma

equiponderada o un ndice de las cinco acciones. Esta


componente podra llamarse componente de mercado.

 La segunda componente representa un contraste entre


acciones qumicas (Allied Chemical, du Pont y Union
Carbide) y las de petrleo (Exxon y Texaco). Esta
componente podra ser llamada componente de industria.

______________________________________________________Elkin Castao V. 157

 La mayora de la variacin muestral de los rendimientos de


estas acciones se debe a la actividad del mercado y a la no
correlacionada actividad industrial.

 Las componentes restantes no son fciles de interpretar y,


conjuntamente, representan la variacin que probablemente
es especfica a cada accin. De todas formas, estas
componentes no explican mucho de la varianza total
muestral.

 Este ejemplo presenta un caso donde parece ser razonable


retener una componente asociada con un valor propio menor
que la unidad.
7.

GRFICOS

DE

LAS

COMPONENTES

PRINCIPALES

MUESTRALES

Los grficos de las componentes principales pueden ayudar a:

 Verificar la hiptesis de normalidad: Dado que las


componentes principales son combinaciones lineales de las
variables

originales,

se

puede

esperar

que

sean

aproximadamente normales. Se recomienda verificar que


las primeras componentes

principales estn distribuidas

______________________________________________________Elkin Castao V. 158

normalmente cuando vayan a ser empleadas como insumos


en otros anlisis.

 Revelar

observaciones

componentes

sospechosas:

principales

pueden

Las

ayudar

ltimas
detectar

observaciones sospechosas.
Cada

observacin

combinacin

lineal

puede
de

ser
todos

expresada
los

como

vectores

una

propios

e1, e2 ,, e p como

x j = (x 'je1 )e1' +(x 'je 2 )e '2 +...+(x 'je p )e 'p


= y j1e1' + y j 2e 2' + + y jp e 'p

Esto significa que las magnitudes de las componentes


principales

determinan

como de

bien

las

primeras

componentes principales ajustan a las observaciones.


Es decir,

'
difiere de xj en la
y j1e1' + y j 2e '2 + + y j ,q 1e q-1

cantidad

'
y jq e 'q + y j ,q +1e q+1
+ + y j , p e 'p , cuya longitud al

cuadrado es

y 2j ,q + y 2j , q +1 + + y 2j , p .

Frecuentemente

observaciones sospechosas son tales que al menos una de las

______________________________________________________Elkin Castao V. 159

coordenadas

y j , q , y j ,q +1,, y j , p

que contribuye a esta

longitud cuadrtica es grande.

Ejemplo.
Para los datos de las tortugas pintadas, las tres componentes
principales son
y1 =0.683(x1-4.725)+ 0.510(x2-4.478)+0.523(x3-3.703)

y 2 =-0.159(x1-4.725)- 0.594(x2-4.478)+0.788(x3-3.703)
y 3 =-0.713(x1-4.725)+ 0.622(x2-4.478)+0.324(x3-3.703)

donde x1=ln(longitud), x2=ln(amplitud), x3=ln(altura).


El siguiente grfico muestra el grfico Q-Q para la segunda
componente principal.

______________________________________________________Elkin Castao V. 160

La observacin para la primera tortuga encerrada en un crculo,


cae lejos de las dems y parece sospechosa. Este punto debe ser
verificado si fue producido por error de registro, o la tortuga
puede tener anomalas estructurales. El siguiente es el diagrama
de dispersin para las dos primeras componentes principales, el
cual aparte del dato de la primera tortuga parece razonablemente
elptico. El anlisis de los grficos de las otras componentes
principales no indica desviaciones sustanciales de la normalidad.

El grfico biplot. Un biplot es un grfico de la informacin de


una matriz de n x p. En l estn representadas dos clases de
informacin contenidas en la matriz de datos. La informacin
de las filas, que corresponden a las unidades muestrales, y la de
las columnas que corresponden a las variables.

______________________________________________________Elkin Castao V. 161

 Cuando solamente hay dos variables, el diagrama de


dispersin

puede

ser

usado

para

representar

simultneamente la informacin sobre ambas, las unidades


muestrales y las variables.

 Este grfico permite visualizar la posicin de una unidad


muestral con respecto a otra, y la importancia relativa de
cada una de las dos variables en la posicin de la unidad
muestral.

 Cuando hay varias variables, se puede construir una matriz


de dispersin, pero no existe un solo grfico de las unidades
muestrales. Sin embargo, un grfico de dispersin de las
unidades muestrales se puede obtener graficando las dos
primeras componentes principales. La idea del biplot es
agregar informacin sobre las variables al grfico de las dos
componentes principales.

 El siguiente es el biplot para las empresas de servicio


pblico

______________________________________________________Elkin Castao V. 162

Se puede observar cmo se agrupan las compaas y cules


variables contribuyen a su posicin dentro de la representacin.
Por ejemplo, X4=factor de carga y X8=costo total de combustible
son las responsables de la agrupacin de la mayora de compaas
costeras al lado inferior derecho. Las variables X1=cociente de
cargo fijo y X2=tasa de retorno de capital juntan las compaas de
la Florida y Louisiana.

______________________________________________________Elkin Castao V. 163

8. INFERENCIAS PARA MUESTRAS GRANDES


En la prctica, las decisiones sobre la calidad

de la

aproximacin de las componentes principales debe ser


realizada sobre la base de los pares valores-vectores propios
de S o de R. Debido a la variacin muestral, estos pares
diferirn de sus contrapartes poblacionales.
Propiedades de i y ei en muestras grandes. Se pueden
obtener resultados para muestras grandes para i y ei cuando:

 La muestra aleatoria procede de una poblacin normal


multivariada.

 Los valores propios (desconocidos) de son distintos y


positivos, es decir 1 > 2 > > p > 0 . La nica excepcin es
el caso donde el nmero de valores propios iguales es
conocido.

 An cuando la hiptesis de normalidad sea violada, los


intervalos obtenidos bajo normalidad todava son capaces de
proporcionar alguna indicacin de la incertidumbre de i y
e i .

______________________________________________________Elkin Castao V. 164

Anderson (1963) y Girshick(1939) establecieron las siguientes


propiedades para la distribucin en muestra grandes de los
valores propios ' = [1, 2 ,, p ] y los vectores propios e i , i=1,
2, ,p.
1) Sea la matriz diagonal de los valores propios 1, 2 ,, p
de

n ( )

Entonces,

es aproximadamente

Np(0,2 2).
2)

n ( e i -ei ) es aproximadamente Np(0, Ei), donde

i
e e'
2 k i
k =1 (k i )
p

Ei = i

k i

3) Cada i est independientemente

distribuida de los

elementos de vector propio asociado e i .

 Por el resultado 1), los i estn independientemente


distribuidas aproximadamente como N( i , 2i2 / n ). Por tanto,
un intervalo aproximado de (1- )% de confianza para i
est dado por

______________________________________________________Elkin Castao V. 165

i
i
i
(1 + z ( / 2) 2 / n )
(1 z ( / 2) 2 / n )

donde z ( / 2) es el percentil ( / 2 )-superior de la N(0,1).

 El resultado 2 implica que para muestras grandes, los e i


estn normalmente distribuidos con respecto al verdadero
ei .

Los elementos de e i estn correlacionados, y sus

correlaciones dependen de que tan distantes estn los


valores propios 1, 2 ,, p , y del tamao muestral n. En la
prctica se reemplaza

Ei por E i la cual se obtiene

reemplazando los i por i y los ei por e i .

Ejemplo.
Considere el ejemplo de los rendimientos de las acciones.
Suponiendo que ellos proceden de una normal multivariada donde
es tal que sus valores propios 1 > 2 > > 5 > 0 . Puesto que

n=100 es grande, y el primer valor propio 1 =0.0036, el intervalo


aproximado del 95% de confianza para 1 es
0.0036
0.0036
1
(1 + 1.96 2 /100)
(1 1.96 2 /100)

o,

______________________________________________________Elkin Castao V. 166

0.0028 1 .0050

En general, los intervalos son amplios a la misma tasa que los i


sean grandes. Por tanto, se debe tener cuidado en eliminar o
retener componentes principales basados solamente en el examen
de las i .

Empleo del programa R


# lectura de los datos desde un archivo de texto
censo<-read.table("c:/unal/datos/j-wdata/censo.dat", header = TRUE)
list(censo)
attach(censo)
# obtencin de matriz de covarianza
covar=cov(censo)
covar
# obtencin de la componentes principales de la matriz de covarianza
summary(cp_censo <- princomp(censo, cor = FALSE))
loadings(cp_censo) # observe que las cantidades en blanco son pequeas pero no cero
plot(cp_censo)
# presenta el grfico scree
biplot(cp_censo)
cp_censo$score
# presenta los valores de las componentes principales
# obtencin de la componentes principales de la matriz de correlacin
summary(cp_censo_cor <- princomp(censo, cor = TRUE))
loadings(cp_censo_cor) #observe que las cantidades en blanco son pequeas pero no cero
plot(cp_censo_cor) # presenta el grfico scree
biplot(cp_censo_cor)
cp_censo_cor$scores # presenta los valores de las componentes principales

______________________________________________________Elkin Castao V. 167

CAPTULO 6.
ANLISIS DE FACTOR
1. INTRODUCCIN

El anlisis de factor ha provocado bastante controversia a


travs de su historia. Sus inicios modernos datan de comienzos
del siglo 20 con los

intentos de Karl Pearson, Charles

Spearman y otros por definir y medir la inteligencia. Debido a


su temprana asociacin con construcciones tales como la
inteligencia, el anlisis de factor fue nutrido y desarrollado
principalmente por cientficos interesados en la sicometra.
Las controversias sobre las interpretaciones sicolgicas en
varios

estudios

iniciales,

la

falta

de

facilidades

computacionales potentes, impidieron su desarrollo como un


mtodo estadstico.
La llegada de computadores de alta velocidad ha generado un
inters renovado en los aspectos tanto tericos como
computacionales del anlisis de factor. Como consecuencia de
los desarrollos recientes, la mayora de las tcnicas originales
han sido abandonadas y se han resuelto las controversias
iniciales. Sin embargo, todava es cierto que cada aplicacin de
la tcnica debe ser examinada sobre sus propios mritos para
determinar su xito.

______________________________________________________Elkin Castao V. 168

El propsito del Anlisis de Factor es describir, si es posible,


las relaciones de covarianza que existen en un grupo grande
variables en trminos de unas pocas, pero no observables,
variables aleatorias llamadas factores.
El Anlisis de Factor es motivado por el siguiente argumento.
Suponga que las variables pueden ser agrupadas por medio de
sus correlaciones. Es decir, suponga que las variables dentro de
un grupo estn altamente correlacionadas entre ellas mismas,
pero que tienen correlaciones pequeas con las variables de
otros grupos. Entonces es concebible pensar que cada grupo de
variables representa un solo trmino subyacente, o factor, que
es responsable de las correlaciones observadas dentro del
grupo.
Por ejemplo, las correlaciones dentro de un grupo de notas
sobre pruebas en historia, Francs, Ingls, matemticas y
msica recogidas por Spearman, sugieren un factor subyacente
de inteligencia que las explica.

______________________________________________________Elkin Castao V. 169

2. EL MODELO DE FACTOR ORTOGONAL


Sea X vector aleatorio observable de p componentes que tiene
media

y matriz de covarianza . El modelo de factor

ortogonal considera que X es linealmente dependiente de:

 Un grupo pequeo de variables aleatorias no observables F1,


F2, , Fm, llamadas factores comunes

 De p fuentes adicionales de variacin 1, 2 ,..., p , llamadas


errores, o factores especficos.

En particular el modelo de factor es:


X1 1 = l11F1 + l12 F2 + ... + l1m Fm + 1
X 2 2 = l21F1 + l22 F2 + ... + l2 m Fm + 2

X p p = l p1F1 + l p 2 F2 + ... + l pm Fm + p

o, en notacin matricial,
X = LF +

donde lij es la ponderacin de la i-sima variable sobre el jsimo factor.

______________________________________________________Elkin Castao V. 170

La matriz L es llamada la matriz de las ponderaciones de los


factores.
El i-simo factor especfico est asociado nicamente con la
i-sima respuesta Xi.
Las p desviaciones X i i , para i=1,2,..,p, son expresadas en
trminos de m+p variables aleatorias no observables.
Esta es la diferencia del modelo de factor con el modelo de
regresin multivariado, en el cual las variables explicativas o
independientes (las F) son observadas.
Supuestos
E(F)=0, Cov(F)=E(FF)=I
1 0 ... 0
0 ... 0
2

E( )=0, Cov( )=E( )= =


0 0 ... p

F y son independientes, por lo que


Cov(F, )=E( F)=0

______________________________________________________Elkin Castao V. 171

El modelo ortogonal de factores implica que

= LL '+

donde Cov(X, F)=E(X- )F=L

La estructura de covarianza para el modelo de factor

ortogonal
1) Cov(X)=LL+
Por lo que
2
Var(Xi)= li21 + li22 + ... + lim
+ i

Cov(Xi, Xk)= li1lk1 + li 2lk 2 + ... + limlkm


2) Cov(X, F)=L
Por lo que
Cov(Xi, Fj)= lij

 La porcin de la varianza de la i-sima variable explicada


por los m factores comunes es llamada conmunalidad, y
se denota por hi2 .

______________________________________________________Elkin Castao V. 172

 La porcin de la varianza de la i-sima variable debida al


factor especfico es llamada unicidad o varianza
especfica.

De los resultados anteriores,


2
Var(Xi)= li21 + li22 + ... + lim
+ i

o,
2
ii = li21 + li22 + ... + lim
+ i

o,
ii = hi2 + i

donde,
2
hi2 = li21 + li22 + ... + lim

Ejemplo. Verificacin de la relacin = LL '+ para dos factores


Considere la matriz de covarianza
19 30 2 12
30 57 5 23

=
2 5 38 47

12 23 47 68

Entonces puede ser reproducida como

______________________________________________________Elkin Castao V. 173

19 30 2 12 4 1
2
30 57 5 23 7 2 4 7 1 1

=
=
+
2 5 38 47 1 6 1 2 6 8 0

12 23 47 68 1 8
0

0 0 0
4 0 0

0 1 0

0 0 3

donde,
l11
l
L = 21
l31

l41

1 0
0
2
=
0 0

0 0

l12 4 1
l22 7 2

=
l32 1 6

l42 1 8

0 0 2
0 0 0
=
3 0 0

0 4 0

0 0 0
4 0 0

0 1 0

0 0 3

Por tanto, tiene una estructura producida por un modelo de


m=2 factores ortogonales.
La conmunalidad de X1 es
2
2
h12 = l11
+ l12
= 42 + 12 = 17

y la varianza de X1 puede ser descompuesta como

______________________________________________________Elkin Castao V. 174

2
2
11 = (l11
+ l12
) + 1 = h12 + 1 = 19

De manera similar se puede encontrar la descomposicin para las


otras variables.
El modelo de factor asume que los p+p(p-1)/2=p(p+1)/2
elementos de pueden ser reproducidos usando las mp
ponderaciones lij de los factores, y las p varianzas
especficas i .
Cuando m=p, se puede probar que cualquier matriz de
covarianza puede ser reproducida exactamente como LL,
de forma que la matriz =0.
Sin embargo, cuando m es pequeo con respecto a p, el
anlisis de factor es muy til. En este caso, el modelo de
factor proporciona una explicacin simple de la covariacin
en X con menos parmetros que los p(p+1)/2 parmetros de
.

Por ejemplo, si X contiene p=12 variables y un modelo de


factor con m=2 factores ortogonales es apropiado, entonces
los p(p+1)/2=78 elementos de pueden ser descritos en

______________________________________________________Elkin Castao V. 175

trminos de mp+p =36 parmetros lij y i del modelo de


factor.
Desafortunadamente, la mayora de las
covarianza no pueden ser factorizadas como

matrices d
= LL '+ ,

cuando el nmero de factores m es mucho ms pequeo que


p.

Ejemplo. No unicidad de una solucin propia


Suponga que p=3 y m=1 y que
1 0.9 0.7
= 0.9 1 0.4

0.7 0.4 1

Usando el modelo de factor ortogonal


X 1 1 = l11F1 + 1
X 2 2 = l21F1 + 2
X 3 3 = l31F1 + 3

La estructura de covarianza implica que = LL '+


De donde se obtiene

______________________________________________________Elkin Castao V. 176

2
1 = l11
+1

0.9 = l11l21

0.7 = l11l31

2
1 = l21
+ 2 0.4 = l21l31
2
1 = l31
+ 3

El par de ecuaciones
0.7 = l11l31
0.4 = l21l31

Implican que
0.4
l21 =
l11
0.7

Sustituyendo este resultado en la ecuacin


0.9 = l11l21

Se obtiene que
2
l11
= 1.575

o l11 = 1.255

Puesto que Var(F1)=1 por hiptesis del modelo, y Var(X1)=1,


entonces
l11 = Cov( X1, F1) = Corr ( X1, F1 )

______________________________________________________Elkin Castao V. 177

cuya magnitud no puede ser mayor que 1. Sin embargo, la


solucin no satisface esta restriccin.
Adems de la ecuacin
2
1 = l11
+ 1 o

2
1 = 1 l11
,

se obtiene que
1 = 1 1.575 = 0.575

la cual no es adecuada puesto que Var (1 ) = 1 .


Conclusin: Para este ejemplo con m=1, es posible obtener una
solucin numrica nica a la ecuacin = LL '+ . Sin embargo la
solucin no es consistente con la interpretacin estadstica de los
coeficientes, y por tanto no es una solucin propia.
Cuando m>1 siempre hay una ambigedad asociada al modelo
de factor.
Considere una matriz ortogonal T de m x m. Entonces,
TT=TT=I.

______________________________________________________Elkin Castao V. 178

Con esta matriz, el modelo de factor ortogonal puede ser escrito


como
X = LF + = LTT ' F + = L * F * +

donde,
L* = LT

F* = T ' F

y puesto que
E(F*)=0

y Cov(F*)=TCov(F)T=TT=I

es imposible distinguir entre las ponderaciones L y las


ponderaciones L* basados en las observaciones del vector X. Es
decir,

los factores L y L* tienen las mismas propiedades

estadsticas, y aunque en general, L es diferente de L* ellas


generan la misma matriz de covarianza , puesto que

= LL '+ = LTT ' L '+ = L * L * '+

Esta ambigedad es la base de la rotacin de factores, puesto


que las matrices ortogonales equivalen a la rotacin del sistema
de coordenadas para X.

______________________________________________________Elkin Castao V. 179

En conclusin, las ponderaciones L y L*=LT proporcionan la


misma representacin. Las conmunalidades, dadas por los
elementos de la diagonal de LL=( L*)(L*), no se afectan por
la eleccin de T.
El anlisis de factor:

 Se inicia imponiendo condiciones que permitan estimar de


manera nica a L y a

 A continuacin se rota la matriz de ponderaciones (se


multiplica por una matriz ortogonal), donde la rotacin est
determinada por algn criterio de fcil interpretacin.

 Una vez se hayan obtenido las ponderaciones y las varianzas


especficas, se identifican los factores y los valores estimados
para los factores mismos (llamados scores de los factores).
3. MTODOS DE ESTIMACIN

Sea X1, X2, ,Xn una muestra aleatoria de una distribucin


multivariada con vector de medias

y matriz de covarianza .

La matriz de covarianza muestral S es un estimador de

Si

los elementos fuera de la diagonal de S son pequeos, o los

______________________________________________________Elkin Castao V. 180

elementos de la matriz de correlaciones R son prcticamente


cero, las variables no estarn relacionadas linealmente y el
anlisis de factor no es til.
Si S parece desviarse significativamente de una matriz
diagonal, entonces, el modelo de factor puede ser probado y el
problema inicial es estimar las ponderaciones

lij

de los factores

y las varianzas especficas i .

El Mtodo de la Componente Principal. La descomposicin


espectral proporciona una factorizacin de la matriz de
covarianza

Suponga el par ( i , ei ) es el par valor-vector

propio de , donde 1 2 p .
Entonces

1
0
= PP= e1 e2 ... e p

'
0 0 0 e1

2 0 0 e2'


0 0 0 e'p

= 1e1e1' + 2 e2 e2' + + p e p e'p

______________________________________________________Elkin Castao V. 181

= 1 e1

1 e1'

2 e2'
2 e2 p e p


e'
p p

Este ajuste supone que la estructura de covarianza para el


modelo de anlisis de factor tiene tantos factores como
variables (m=p) y las varianzas especficas

El vector

j ej

i =0.

es la j-sima columna de la matriz de

ponderaciones. Es decir,
=LL

Fuera del factor de escala

+0=LL

, el vector de ponderaciones del

j-simo factor son los coeficientes de la j-sima componente


principal de la poblacin.

 Aunque la representacin de

por el anlisis de factor es

exacta, no es til, pues emplea tantos factores comunes


como variables y no permite variaciones en los factores
especficos .

 Se prefieren modelos que expliquen la estructura de la


covarianza en trminos de unos pocos factores comunes.

______________________________________________________Elkin Castao V. 182

 Cuando los ltimos p-m valores propios son pequeos, una


aproximacin

es

eliminar

m+1em+1em' +1 + m+ 2em+ 2em' + 2 + + p e p e'p

la

contribucin

de

en .

Eliminando esta contribucin,

1 e1

1 e1'

2 e2'
2 e2 m em
=LL

e'
m m

Esta representacin asume que los factores especficos son


de menor importancia y pueden eliminados en la
representacin de

 Si se incluyen los factores especficos en el modelo, sus


varianzas pueden ser asignadas como los elementos de la
diagonal de la matriz -LL.
En este caso, la aproximacin es

LL+

Donde el i-simo elemento en la diagonal de es

______________________________________________________Elkin Castao V. 183

i = ii lij2 , para i=1, 2,.., p.


j =1

Solucin de la Componente Principal para el Modelo de

Factor. El anlisis de factor de la componente principal para


la matriz de covarianza muestral S est especificada en
trminos de los pares valor-vector propio ( i , ei ), i=1, 2,.., p,
donde 1 2 p .
Sea m<p el nmero de factores comunes. Entonces, la matriz
estimada de ponderaciones de los factores est dada por

L = 1 e1

2 e2 m em

Las varianzas especficas estimadas estn dadas por los


elementos de la diagonal de la matriz S- L L , es decir,
1 0 ... 0
0 ... 0
m
2
donde = s

=
lij2 , para i=1, 2,.., p
i
ii

j =1

0 0 ... p

Las conmunalidades son estimadas como

______________________________________________________Elkin Castao V. 184

hi2 = li12 + li 22 + ... + lim2

Observaciones.
1) En la aplicacin del modelo de factor al conjunto de datos
multivariados x1, x2, , xn, se acostumbra centrar las
observaciones con respecto al vector de medias muestral x .
Las observaciones centradas,
x j1 x1

x j 2 x2

xj- x =
, j=1, 2, , n

x jp x p

tienen la misma matriz de covarianzas S que las


observaciones originales.
2) Cuando

las

unidades

conmensurables,

de

generalmente

observaciones estandarizadas

las
se

variables

no

son

trabaja

con

las

______________________________________________________Elkin Castao V. 185

x j1 x1

s11
x x
2
j2

zj= s22 , j=1, 2, , n

x jp x p

s pp

cuya matriz de covarianza es la matriz de correlacin


muestral R. Esto evita que variables con grandes varianzas
afecten indebidamente las ponderaciones de los factores.
3) En la solucin de componente principal, las ponderaciones
estimadas para un factor no cambian a medida que se
incrementa el nmero de factores.
4) Seleccin del nmero de factores. El nmero de factores
puede ser determinado por consideraciones a priori, tales
como la teora o el trabajo de los investigadores.

 Si no existen consideraciones a priori, la escogencia de m


puede estar basada en los valores propios estimados, en
forma similar a la de las componentes principales.
Considere la matriz residual

______________________________________________________Elkin Castao V. 186

'

S LL

resultante de la aproximacin de S por medio de la solucin


de la componente principal. Los elementos de la diagonal
son cero, y si los dems elementos tambin son pequeos, se
puede considerar subjetivamente que el modelo de m
factores es apropiado.

 Se puede probar que que si SC es Suma de cuadrados los


'
), entonces
elementos ( S LL

'
) 2 + 2 + + 2
SC( S LL
m +1
m+2
p

Esto significa que un valor pequeo para la suma de


cuadrados de los valores propios eliminados implica un
valor pequeo para la suma de cuadrados de los errores de
aproximacin.

 Idealmente, las contribuciones de los primeros pocos


factores a las varianzas muestrales deberan ser grandes. La
contribucin del primer factor comn a la varianza muestral
sii es li12 . La contribucin a la varianza total s11+ s22++
spp=traza(S) es

______________________________________________________Elkin Castao V. 187

l112 + l212 + ... + lp21 =

1e1

'

)(

1e1 = 1

En general,
j
Prop. de la

si se usa S

varianza total
s
+
s
+

+
s
pp

= 11 22
muestral debida
j


si se usa R
alfactor j

p

Este criterio se usa generalmente como una herramienta


heurstica para determinar el nmero apropiado de factores.
El nmero de factores es incrementado hasta que
unproporcin adecuada de la varianza total muestral es
apropiada.

 Una convencin frecuentemente empleada por los paquetes


de cmputo, es hacer m igual al nmero de valores propios
de R mayores que 1, si se usa la matriz R en el anlisis, o
igual al nmero de valores propios positivos, si se usa la
matriz S. El uso indiscriminado de estas reglas generales
podran no ser apropiado. Por ejemplo, si se usa la regla
para S, entonces m=p, puesto que se espera que todos los
valores propios de S sean positivos para grandes tamaos
muestrales. La mejor regla es la de retener pocos en lugar de

______________________________________________________Elkin Castao V. 188

muchos factores, suponiendo que esos factores proporcionen


una interpretacin adecuada de los datos y proporcionen una
ajuste satisfactorio para S o R.

Ejemplo. Datos de preferencia para los consumidores


En un estudio sobre la preferencia de los consumidores, a una
muestra aleatoria de consumidores se les pidi que evaluaran
varios atributos de un nuevo producto. Los atributos sleccionados
fueron:
X1=Gusto
X2= Buena compra por el dinero pagado
X3=Sabor
X4=Adecuado como pasaboca
X5=Proporciona gran energa
Sus respuestas, dadas sobre una escala semntica de 7 puntos,
fueron tabuladas y se construy la matriz de correlacin de los
atributos, la cual produjo.
1.00
0.02

R= 0.96

0.42
0.01

0.02 0.96 0.42 0.01


1.00 0.13 0.71 0.85

0.13 1.00 0.50 0.11

0.71 0.50 1.00 0.79


0.85 0.11 0.79 1.00

______________________________________________________Elkin Castao V. 189

 De la matriz anterior es claro que las variables 1 y 3 y las


variables 2 y 5 forman grupos. La variable 4 est ms
cerca al grupo (2,5) que al grupo (1,3).

 Dados estos resultados y el pequeo nmero de variables, se


esperara que las relaciones aparentes anteriores entre las
variables, sean explicadas en trminos de, a lo ms, dos o a
tres factores.

 Los dos primeros valores propios de R, 1 =2.85 y 2 =1.81,


son los nicos valores propios de R mayores que 1.

 Para m=2 factores, se acumula una proporcin de


1 + 2
p

2.85 + 1.81
= 0.93
5

de la varianza total muestral estandarizada.

 La siguiente tabla contiene las estimaciones de las


ponderaciones de los factores, las conmunalidades y
varianzas especficas.

______________________________________________________Elkin Castao V. 190

Ponderac. estimadas

Varianzas

Variable

F1

F2

Conmunalidades Especficas

X1

0.56

0.82

0.98

0.02

X2

0.78

-0.53

0.88

0.12

X3

0.65

0.75

0.98

0.02

X4

0.94

-0.11

0.89

0.11

X5

0.80

0.93

0.93

0.07

2.85

1.81

0.571

0.932

Valores
propios
Prop.
Acum

 Chequeo. Observe que la matriz


0.56 0.82
0.78 0.53

LL'
+
= 0.65 0.75 0.56 0.78 0.65 0.94 0.80

0.82 0.53 0.75 0.10 .054


0.94

0.10

0.80 0.54
0.02
0

+ 0

0
0

0
0
0.12 0
0
0
0

0
0

0
0

0.02 0
0

0
0.11 0
0
0
0.07

______________________________________________________Elkin Castao V. 191

1.00
0.10

= 0.97

0.44
0.00

0.10 0.97 0.44 0.00


1.00 0.11 0.79 0.91

0.11 1.00 0.53 0.11

0.79 0.53 1.00 0.81


0.91 0.11 0.81 1.00

reproduce aproximadamente la matriz de correlacin R.

 Por tanto, desde una base puramente descriptiva, el modelo


de dos factores anteriores ajusta bien los datos. Las
conmunalidades de 0.98, 0.88, 0.98, 0.89 y 0.93 indican que
los dos factores explican un gran porcentaje de la varianza
muestral de cada variable.

 La interpretacin de los factores est sujeta a buscar una


rotacin que simplifique la estructura.

Ejemplo. Datos de los rendimientos de las acciones


Considere los n=100 datos de los rendimientos semanales de p=5
acciones, dados anteriormente.

 En

ese

ejemplo

se

encontraron

las

dos

primeras

componentes principales de la matriz R. Tomando m=1 o


m=2, se puede obtener fcilmente soluciones al modelo de
factor ortogonal.

______________________________________________________Elkin Castao V. 192

 Para m=1, m=2, las siguiente tablas presentan las


estimaciones de las ponderaciones, varianzas especficas y
proporcin de la varianza total muestral explicada por cada
solucin.
Solucin para m=1
Ponderac. Estimadas

Varianzas

Variable

F1

Especficas

X1

0.783

0.39

X2

0.773

0.40

X3

0.794

0.37

X4

0.713

0.49

X5

0.712

0.49

Prop.
Acum

0.571
Solucin para m=2
Ponderac. Estimadas

Varianzas

Variable

F1

F2

Especficas

X1

0.783

-0.217

0.34

X2

0.773

-0.458

0.19

X3

0.794

-0.234

0.31

X4

0.713

0.472

0.27

X4

0.712

0.524

0.22

0.571

0.733

Prop.
Acum

______________________________________________________Elkin Castao V. 193

 Conmunalidades: por ejemplo, para m=2,


h12 = l112 + l122 = (0.783)2 + (0.217)2 = 0.66

 Chequeo. La matriz residual correspondiente a la solucin


m=2 es
0.127
0
0.127 0


= 0.164 0.122
R LL'

0.069 0.055
0.017 0.012

0.164 0.069 0.017


0.122
0.055 0.012
0.019 0.017
0
0.019
0.232
0
0.017 0.232

 La proporcin de la varianza total explicada por la solucin


m=2 es mucho mayor que la explicada por la solucin m=1.
produce nmeros que, son en
Sin embargo, para m=2, LL'

general, mayores que las correlaciones muestrales (observe


r45).

El primer factor representa las condiciones econmicas


generales del mercado y puede ser llamado como el factor
del mercado. Todas las acciones tienen ponderaciones altas

sobre este factor y son aproximadamente iguales.

______________________________________________________Elkin Castao V. 194

 El segundo factor, contrasta las acciones qumicas (con


ponderaciones grandes y negativas) con las del petrleo (con
ponderaciones grandes y positivas). Como este factor parece
diferenciar las acciones de las diferentes industrias, el
segundo factor puede ser llamado el factor industria.

Una Aproximacin Modificada La Solucin del Factor

Principal. El procedimiento ser descrito en trminos de R,


pero tambin es apropiado para S.
Si el modelo de factor

= LL '+
est correctamente especificado, los m factores comunes deberan
explicar los elementos fuera de la diagonal de , as como
tambin las porciones de conmunalidad de los elementos de la
diagonal,
ii = 1 = hi2 + i

Si la contribucin del factor especfico i se remueve de la


diagonal, o equivalentemente
ii = hi2

la matriz resultante es

______________________________________________________Elkin Castao V. 195

= LL '
Suponga que se encuentran disponibles valores iniciales i* para
los factores especficos. Entonces, reemplazando el i-simo
elemento de la diagonal de R por
hi*2 = 1 i*

se obtiene una matriz de correlacin muestral reducida


h1*2

r
Rr= 12

r1 p

r12 r1 p

*2
h2 r2 p

r2 p h*2

Ahora, aparte de la variacin muestral, todos los elementos de Rr,


deberan ser explicados por los m factores comunes. En particular,
Rr es factorizada como
Rr L*r L*r '
donde L*r = [lij* ] son las ponderaciones estimadas.
El mtodo del factor principal del anlisis de factor usa las
estimaciones

______________________________________________________Elkin Castao V. 196

L*r = 1* e1*

1* e2* m* em*

i* = 1 lij*2
j =1

donde ( i* , ei* ), i=1, 2, , m, son los pares mayores de valoresvectores propios de Rr.
La re- estimacin de las conmunalidades estn dadas por
*2
*2
hi*2 = li*2
1 + li 2 + ... + lim

La solucin del factor principal puede ser obtenida iterativamente,


usando las estimaciones anteriores como valores iniciales para la
prxima etapa.
En la solucin del factor principal, los valores propios estimados
1* , 2* ,, *p ayudan a terminar el nmero de factores a ser

retenidos.
Aparece una nueva complicacin y es que ahora algunos de los
valores propios pueden ser negativos debido al uso inicial de las
conmunalidades estimadas. Idealmente, el nmero de factores
comunes debera ser tomado igual al rango de la matriz
poblacional reducida.

Desafortunadamente, este rango no

______________________________________________________Elkin Castao V. 197

siempre est bien determinado usando Rr, y se necesitan juicios


adicionales.
Aunque hay muchas elecciones para los valores iniciales de las
varianzas especficas, la ms popular es i* = 1/ r ii , donde r ii es el
i-simo elemento de la diagonal de R-1.

Con este valor, la

conmunalidad estimada es
hi*2 = 1 i* = 1

1
r ii

Este valor es igual al cuadrado del coeficiente de correlacin


mltiple entre Xi y las dems p-1 variables. Esto significa que
hi*2 puede ser calculada aunque R no sea de rango completo.

En la factorizacin de S, para los valores iniciales de las varianzas


especficas se usa sii, los elementos de la diagonal de S-1. Para
otros valores iniciales ver Harmon (1967).
Aunque el mtodo de la componente principal para R puede ser
considerado como un mtodo de factor principal con estimaciones
iniciales de conmunalidad de la unidad, o varianzas especficas
iguales a cero, los dos mtodos son diferentes filosficamente y
geomtricamente.

En la prctica, si el nmero de variables es

grande y el nmero de factores es pequeo, los dos mtodos


producen ponderaciones comparables para los factores.

______________________________________________________Elkin Castao V. 198

El Mtodo de la Mxima Verosimilitud. Si los factores


comunes F y los factores especficos siguen una distribucin
normal multivariada,

entonces

se

pueden

obtener los

estimadores de mxima verosimilitud para las ponderaciones


de los factores comunes y para las varianzas especficas.
Cuando F y son conjuntamente normales, las observaciones
X j = LF j + j tambin tienen una distribucin normal y la

funcin de verosimilitud es

L( , ) =

1
tr 1

(2 ) np / 2 | | n / 2 e 2

L( , ) = (2 )

( n 1) p
2

x (2 )

p
2

||

||

( n 1)
2

1
2

j =1

(x j -x)(x j -x) '+ n (x- )(x- )'

1
tr 1

e 2

j =1

(x j -x)(x j -x) '

n
(x- ) -1 (x- ) '
e 2

La cual depende de L y a travs de = LL '+ . Este


modelo tampoco est bien definido debido a las mltiples
elecciones

para

por

medio

de

transformaciones

ortogonales. Para que L est bien definida, se impone la


restriccin de unicidad

______________________________________________________Elkin Castao V. 199

L -1L=
donde es una matriz diagonal.
Los estimadores mximo verosmiles L y deben ser
obtenidos por medio de maximizacin numrica de la
funcin de verosimilitud.
Solucin de Mxima Verosimilitud al Modelo de Factor. Sea

X1, X2, , Xn, es una muestra aleatoria de una N p ( , ) , donde


= LL '+ es la matriz de covarianza para el modelo de m

factores comunes. Los estimadores mximo verosmiles



y = X maximizan la funcin de verosimilitud anterior
L,
-1L sea una matriz diagonal.
sujeta a que L'

Los estimadores mximo verosmiles de las conmunalidades


son
2
hi2 = li12 + li22 + ... + lim
, para i=1, 2, , p

______________________________________________________Elkin Castao V. 200

Prop. de la

varianza total l 2 + l 2 + + l 2
pj

= 1j 2 j
muestral debida s11 + s22 + + s pp

alfactor j

Solucin de Mxima Verosimilitud al Modelo de Factor con

variables estandarizadas.
Si las variables estn estandarizadas como Z=V 1/ 2 ( X ) ,
entonces a matriz de covarianza de Z se puede representar por

= V 1/ 2V 1/ 2 = (V 1/ 2 L)(V 1/ 2 L)'+ V 1/ 2V 1/ 2
 Por tanto, tiene una representacin anloga al caso anterior,
donde la matriz de las ponderaciones es
LZ = V-1/2L
y la matriz de varianzas especficas es
= V 1/ 2 V 1/ 2

 Por la propiedad de invarianza de los estimadores mximo


verosmiles, el estimador mximo verosmil de

es

______________________________________________________Elkin Castao V. 201

= (V 1/ 2 L )(V 1/ 2 L ) '+ V 1/ 2 V 1/ 2
= LZ LZ' + Z
donde V 1/ 2 , L son los estimadores mximo verosmiles de
V-1/2 y L, respectivamente.

 Como consecuencia de la descomposicin LZ LZ' + Z , si el


anlisis de mxima verosimilitud pertenece a la matriz de
correlacin,
hi2 = li12 + li22 + + lim2 , i=1, 2, ,p

Son

los

estimadores

mximo

verosmiles

de

las

conmunalidades, donde los elementos lij son los elementos de


LZ .

 La importancia de los factores se evalan de acuerdo a


Prop. de la

varianza total l 2 + l 2 + + l 2
pj

= 1j 2 j
muestral debida
p

alfactor j

______________________________________________________Elkin Castao V. 202

Ejemplo.
Anlisis de los rendimientos de las acciones usando el mtodo de
mxima verosimilitud, suponiendo m=2.
La siguiente tabla contiene las estimaciones de las ponderaciones,
conmunalidades, varianzas especficas y proporciones de la
varianza total muestral explicada porcada factor, y los resultados
vistos antes para estas mismas cantidades, usando el mtodo de la
componente principal.

La matriz residual es

______________________________________________________Elkin Castao V. 203

 Los elementos de la matriz residual anterior son mucho


menores que los de la matriz residual del mtodo de la
componente principal. Sobre esta base, se prefiere la solucin
de mxima verosimilitud.

 La proporcin de la varianza total muestral explicada por el


mtodo de la componente principal es mayor que la obtenida
por

la solucin de mxima verosimilitud. Esto no es

sorprendente puesto que las ponderaciones obtenidas por ese


mtodo estn relacionadas con las componentes principales, las
cuales tienen, por construccin, una propiedad de varianza
ptima.

 Para la solucin de mxima verosimilitud, todas las variables


tienen grandes ponderaciones positivas sobre el primer factor
F1. Como en el caso del mtodo de la componente principal,
este factor es llamado el factor de mercado. Sin embargo, la
interpretacin del segundo factor no es clara como en el caso
de la solucin de la componente principal. Los signos de las
ponderaciones son consistentes con un contraste, o factor
industria, pero sus magnitudes son pequeas en algunos casos,
este factor podra ser identificado como una comparacin entre
Du Pont y Texaco.

______________________________________________________Elkin Castao V. 204

 Los patrones de las ponderaciones iniciales para la solucin de


mxima verosimilitud estn restringidas por la condicin de
unicidad de que L -1L= , donde es una matriz diagonal.
Por tanto, los patrones tiles de los factores no son revelados
hasta que los factores sean rotados.
Prueba para el Nmero de Factores. Si la poblacin es
normal, se puede construir una prueba sobre la especificacin
correcta del modelo.
Suponga que el modelo de m factores es correcto. En este caso
= LL '+ y probar si el modelo de m factores es adecuado es

equivalente a probar
H 0: pxp =Lpxm L'mxp + pxp

contra H1 : es cualquier otra matriz definida positiva

 Cuando no tiene una forma especial, es decir bajo H1, el


n 1
estimador de mxima verosimilitud de es =
S.
n

La funcin de verosimilitud maximizada es, aparte de la


constante)
| S n | n / 2 e np / 2

______________________________________________________Elkin Castao V. 205

 Cuando Ho es cierto, es decir bajo Ho: = LL '+ ,

el

'+
y el
estimador restringido tiene la forma = LL

mximo de la funcin de verosimilitud es


1 1 n

(x j -x)(x j -x) '


tr

j =1
n / 2 2

||
e

1
'+
) 1 S
n tr ( LL
n
n / 2 2

= | LL '+ |
e

 El estadstico del cociente de verosimilitud para la prueba


es

2ln = 2ln

max.Func.verosimilitud bajo H0
max.Func.verosimilitud bajo H1

| |
= n ln

| Sn |

 Bajo H0,

el estadstico

2ln tiene una distribucin

aproximadamente r2 , donde los grados de libertad

r=

1
( p m) 2 p m

______________________________________________________Elkin Castao V. 206

 Bartlett (1954) mostr que la aproximacin a la


distribucin chi-cuadrado del estadstico 2ln puede ser
mejorada reemplazando n por (n-1-(2p+4m+5)/6).

 Usando estos resultados el estadstico del cociente de


verosimilitud para probar Ho es

NF = (n 1 (2 p + 4m + 5) / 6)ln

'+
|
| LL
| Sn |

Bajo Ho, y cuando n es grande, NF tiene una distribucin


aproximadamente [(2 p m )
Regla de decisin:

p m] / 2

Para n grande y para un nivel de

significancia aproximado de tamao , rechace Ho si el


valor observado de NF es tal que
NF> [(2 p m )

donde

p m] / 2

( )

[(2 p m )2 p m ] / 2 ( ) es el percentil -superior de la

distribucin [(2 p m )

p m] / 2

______________________________________________________Elkin Castao V. 207

Ejemplo.
La solucin de mxima verosimilitud de los datos sobre los
rendimientos de las acciones,

sugiere, al observar la matriz

residual, que una solucin de dos factores puede ser adecuada. Se


quiere probar la hiptesis H0: = LL '+ con m=2 y un nivel de
significancia =0.05.
El estadstico de la prueba est basado en
'+
| | L L ' +
|
| | | LL
Z
=
= Z Z
| Sn |
| Sn |
|R|

Empleando los resultados obtenidos antes,

Usando la aproximacin de Bartlett,

NF = ( n 1 (2 p + 4m + 5) / 6) ln

'+
|
| LL
| Sn |

______________________________________________________Elkin Castao V. 208

=[100-1-(10+8+5)/6]ln(1.0065)=0.62
Puesto que los grados de libertad de la chi-cuadrado son

r=

1
2
( p m) 2 p m = (1/2)[(5-2) -5-2] = 1

el percentil 0.05-superior de una chi-cuadrado con 1 grado de


libertad es 12 (0.05) =3.84.
Como NF=0.62 < 3.84= 12 (0.05) , no podemos rechazar H0, y se
concluye que los datos no contradicen modelo de dos factores.
4. ROTACIN DE FACTORES

Como se mencion antes, todas la ponderaciones obtenidas a


partir de la solucin inicial de las ponderaciones por medio de
una transformacin ortogonal tienen la misma habilidad para
reproducir la matriz de covarianza (o de correlacin).
Del algebra, se sabe que toda transformacin ortogonal
corresponde a una rotacin rgida de los ejes de coordenadas.
Por esta razn, toda transformacin ortogonal de las
ponderaciones de los factores, que igualmente implica una

______________________________________________________Elkin Castao V. 209

rotacin ortogonal de los factores, es llamada una rotacin de


los factores.
Si L es la estimacin de matriz de ponderaciones de los
factores obtenida por cualquier mtodo, entonces
donde TT'=T'T=I
L* =LT,

es una matriz de p x m de las ponderaciones rotadas.


Adems, la matriz estimada de covarianza (correlacin)
permanece inalterada, puesto que,
'+
= LTT
' L '+
= L* L* '+

LL

Esto implica que la matriz residual,


=S -L*L*'-
no
Sn -LL'n

cambia.
Adems, las varianzas especficas i y hi2 las conmunalidades,
tambin permanecen iguales.
Puesto que la ponderaciones iniciales pueden no ser fcilmente
interpretables, es una prctica usual rotarlas hasta que se logre
una estructura ms simple.

______________________________________________________Elkin Castao V. 210

Idealmente, se pretende obtener un patrn de ponderaciones


tales que cada una de las variables tenga una alta ponderacin
en un solo factor y tenga ponderaciones pequenas o moderadas
sobre los dems factores. Sin embargo, esto no siempre es
posible obtener.

Ejemplo.
Lawley y Maxwell (1971) presentan la matriz de correlacin de
las notas en p=6 materias para n=220 estudiantes hombres.

La siguiente tabla presenta la solucin mximo verosmil para


m=2 de factores.

______________________________________________________Elkin Castao V. 211

 Todas las variables tienen ponderaciones positivas en el


primer factor. Lawley y Maxwell que este factor refleja la
respuesta global de los estudiantes a la instruccin, y podra
ser llamado el factor de inteligencia general.

 Para el segundo factor, la mitad de las ponderaciones son


positivas y la otra mitad negativas. Un factor con este patrn
de ponderaciones es llamado un factor bipolar (la
asignacin de polo positivo y negativo es arbitraria puesto
que los signos de las ponderaciones sobre el factor pueden
ser reversados sin que se afecte el anlisis.
La identificacin de este factor no es fcil, pero es tal que
los individuos que obtienen promedio altos en pruebas
verbales tambin obtiene promedio altos en los scores de

______________________________________________________Elkin Castao V. 212

este factor.

Individuos con promedios altos en pruebas

matemticas obtiene promedios bajos sobre este factor.


Este

factor podr

ser clasificado como un

factor

matemtica-no matemtica.

 El siguiente grfico presenta los pares de ponderaciones


( li1, li 2 ) sobre los dos factores.

Los puntos tienen los nmeros de las respectivas variables.


El grfico tambin presenta una rotacin en el sentido de las
agujas del reloj de los ejes de coordenadas usando un ngulo
20o.

______________________________________________________Elkin Castao V. 213

El ngulo fue escogido de forma tal que pasara por el punto


( l41, l42 ). Cuando se hace esta rotacin, observe todos los
puntos caen en el primer cuadrante (todas las ponderaciones
de los factores son positivas), y se revelan ms claramente
dos diferentes grupos de variables.

Las variables matemticas tienen altas ponderaciones


sobre F1* , pero sus ponderaciones sobre F2* son
despreciables. Este factor podra ser llamado factor de
habilidad matemtica.

Las variables verbales tienen altas ponderaciones en


F2*

y ponderaciones moderadas en el factor F1* . El

segundo factor podra ser llamado factor de habilidad


verbal.

El

factor

de

inteligencia

general

identificado

inicialmente, queda sumergido en los factores F1* y F2* .

 La

siguiente

tabla

presenta

las

estimaciones

de

ponderaciones y las conmunalidades para los factores


rotados con 20o.

______________________________________________________Elkin Castao V. 214

Las magnitudes de las ponderaciones rotadas refuerza las


interpretaciones sugeridas anteriormente.
Las estimaciones de las conmunalidades no cambian con la
rotacin,

puesto

que

' = LT
T ' L ' = L* L* ' .
LL

Las

conmunalidades son los elementos en la diagonal de estas


matrices.

 Johnson y Wichern (1998) sugieren una rotacin oblicua de


las coordenadas.

Un nuevo eje pasara a travs del grupo (1, 2, 3) y el


otro eje a travs del grupo (4, 5, 6).

______________________________________________________Elkin Castao V. 215

Para este ejemplo, la interpretacin de los factores


oblicuos sera muy parecida a la dada para los factores
ortogonales.
Kaiser (1958) sugiere una medida analtica de estructura
simple conocida como el criterio varimax. Sean lij* = lij* / hi los
coeficientes rotados y escalados usando las races cuadradas de
las conmunalidades. Entonces, el procedimiento de rotacin
varimax selecciona una transformacin T maximiza a
2

1 m p *4 p *2
V = lij lij / p
p j =1 i =1
i =1

Despus de que se determina la transformacin T, las


ponderaciones lij* son multiplicadas por hi , lo que preserva las
conmunalidades originales.
Aunque

parece

bastante

complicado,

tiene

una

interpretacin simple. En palabras V se puede describir como


m var ianza delos cuadrados delas
V es proporcional
i =1 ponderaciones escaladas del factor

______________________________________________________Elkin Castao V. 216

Maximizar a V equivale a dispersar los cuadrados de las


ponderaciones sobre cada factor tanto como sea posible. Por
tanto, se espera encontrar grupos con ponderaciones grandes y
otros con ponderaciones insignificantes, en cualquier columna
de la matriz de ponderaciones rotadas L* .

Ejemplo.
Considere los datos de mercadeo sobre las preferencias del
consumidor. La siguiente tabla presenta las estimaciones de las
ponderaciones, conmunalidades

y proporcin

explicada,

usando el mtodo de la componente principal. Tambin se


presentan las ponderaciones rotadas usando el procedimiento
varimax.

 Es claro que las variables

2, 4 y 5 definen un factor

(ponderaciones altas sobre el factor 1 y pequeas o

______________________________________________________Elkin Castao V. 217

despreciables en el factor 2). Este factor podra llamarse el


factor nutricional.

 Las variables 1 y 3 definen el factor 2 (ponderaciones altas


sobre el factor 2 y pequeas o despreciables en el factor 1).
Este factor podra llamarse el factor del gusto.

 El siguiente grfico presenta las ponderaciones de los


factores con respecto a los ejes de coordenadas originales y
a los ejes rotados.

 La rotacin de las ponderaciones es recomendada para el


caso de estimacin de mxima verosimilitud, puesto que las
ponderaciones originales estn sujetas a la restriccin de

______________________________________________________Elkin Castao V. 218

unicidad de que L ' 1L sea una matriz diagonal. Esta


condicin es conveniente computacionalmente, pero puede
producir ponderaciones que no sean fciles de interpretar.

Ejemplo.
Considere los datos sobre los rendimientos de las acciones de 5
compaas. Suponga un modelo con m=2 factores. La siguiente
tabla presenta las estimaciones de ponderaciones iniciales y
rotadas, as como las estimaciones de las varianzas especficas
y las proporciones de varianza total muestral explicada por los
factores.

______________________________________________________Elkin Castao V. 219

 Anteriormente, usando las ponderaciones no rotadas se


identificaron los dos factores como el factor de mercado y
el factor de industria.

 Las ponderaciones rotadas indican que las acciones


qumicas tienen ponderaciones altas sobre el primer factor,
mientras que las acciones petroleras tienen ponderaciones
altas sobre el segundo factor.

 Los dos factores rotados, diferencian las industrias. El factor


1 representa aquellas fuerzas nicas de la economa que
causan que las acciones qumicas se muevan juntas. El
factor 2 parece representar las condiciones econmicas que
afectan las acciones petroleras.

Rotaciones

Oblicuas.

Las

rotaciones

ortogonales

son

apropiadas para un modelo de factor en el cual se asume


independencia

entre

los

factores

comunes.

Muchos

investigadores en ciencias sociales consideran tanto rotaciones


oblicuas (no ortogonales) como ortogonales. Las primeras son
sugeridas despus de que se observan las ponderaciones y no
siguen un modelo postulado. Sin embargo, frecuentemente una
rotacin oblicua es una ayuda til en el anlisis de factor.

______________________________________________________Elkin Castao V. 220

Si consideramos los m factores como los ejes de coordenadas,


el punto con las m coordenadas li1, li 2 ,, lim

representa la

posicin de la i-sima variable en el espacio de los factores.


Suponiendo que las variables estn agrupadas en clusters que
no se traslapan, una rotacin ortogonal hacia una estructura
simple, corresponde a una rotacin rgida de los ejes de
coordenadas, tales que dichos ejes, despus de la rotacin,
pasan tan cerca como sea posible a los clusters.
Una rotacin oblicua hacia una estructura simple corresponde a
una rotacin no rgida del sistema de coordenadas tal que los
ejes rotados (ya no perpendiculares) pasan (cercanamente) a
travs de los clusters. Una rotacin oblicua busca expresar cada
variable en trminos de un nmero mnimo de factores,
preferiblemente un solo factor. Ver Lawley y Maxwell (1971),
Harmon (1967).
5. SCORES DE LOS FACTORES

En el anlisis de factor, el inters generalmente se centra en los


parmetros del modelo. Sin embargo, los valores estimados de
los factores comunes, llamados scores de los factores, tambin
pueden ser de utilidad.

Estas cantidades son usadas

______________________________________________________Elkin Castao V. 221

frecuentemente para propsitos de diagnstico del modelo y


como insumos para anlisis posteriores.
Los scores de los factores no son estimaciones de parmetros
desconocidos en el sentido usual.

En realidad, son

estimaciones de los valores para los vectores aleatorios no


observables de los factores Fj, j=1, 2, , m. Es decir,
f j = estimaciones de los valores fj tomados por Fj

A continuacin se presentarn dos aproximaciones, que tienen


dos elementos en comn:
1) Tratan las ponderaciones estimadas lj y las varianzas
especficas estimadas i , como si fueran las verdaderas.
2) Usan transformaciones lineales de los datos originales, ya
sea centrados o estandarizados. Generalmente, se usan las
ponderaciones

estimadas

rotadas

en

lugar

de

las

ponderaciones estimadas originales. Las frmulas dadas a


continuacin no cambian cuando las ponderaciones no
rotadas son sustituidas por las no rotadas.

______________________________________________________Elkin Castao V. 222

Mtodo de los Mnimos Cuadrados Ponderados. Suponga


que el vector , las ponderaciones de los factores L y las
varianzas especficas son conocidas en el modelo de factor
X px1 px1 = L pxm Fmx1 + px1

El modelo anterior puede ser considerado como un modelo de


regresin donde los factores especficos son considerados
como los errores. Como la Var( i )= i , i=1, 2, , p, Bartlett
(1937), sugiri usar mnimos cuadrados ponderados para
estimar los valores de los factores comunes.
La solucin es
f = (L' -1L)-1L' -1 (X- )

Usando las estimaciones L , y = x , como los verdaderos


valores, los scores para el j-simo factor son

-1L)
-1L'

-1 (x -x)
f j = (L'
j

Cuando L ,

son determinados por mxima verosimilitud,


-1L=

satisfacen la condicin de unicidad L'

______________________________________________________Elkin Castao V. 223

Scores de los factores obtenidos por Mnimos Cuadrados

Ponderados usando estimaciones de Mxima Verosimilitud.


De lo anterior:

-1L)
-1L'

-1 (x -x)
f j = (L'
j


-1 (x -x) , j=1, 2, , m
f j = -1L'
j

Si se usa la matriz de correlacin


-1L )-1L '
-1
f j = (L 'z
z z
z z zj

' -1
f j = -1
z L z z z j , , j=1, 2, , m

donde z j = D-1/2 (x j -x) y = L z L 'z + z


Los scores de los factores as generados, tienen media muestral
cero y covarianzas muestrales cero.

Observacin.
Si las ponderaciones de los factores son calculadas por medio del
mtodo de componente principal, se acostumbra generar los

______________________________________________________Elkin Castao V. 224

scores de los factores usando el procedimiento de mnimos


cuadrados ordinarios (no ponderados). Implcitamente se supone
que los i son iguales o aproximadamente iguales. Los scores de
los factores son
-1L'(x

f j = (L'L)
j -x)

o,
f j = (L 'z L z ) -1L 'z z j

Los scores de los factores as generados, tienen media muestral


cero y matriz de covarianza I.
Comparando con el anlisis de Componentes Principales, los
scores no son ms que las m componentes principales evaluadas
en xj.
El mtodo de la regresin. Considerando el modelo de factor
original X- =LF+ ,

inicialmente tratamos a la matriz de

ponderaciones L y a la matriz de varianza especfica como


se fueran conocidas.
Cuando los factores comunes F y los factores especficos (o
errores) tienen una distribucin conjunta normal multivariada
con vectores de media y matrices de covarianza dadas por

______________________________________________________Elkin Castao V. 225

E(F)=0, Cov(F)=E(FF)=I
1 0 ... 0
0 ... 0
2

E( )=0, Cov( )=E( )= =


0 0 ... p

Las combinaciones lineales X- =LF+ tienen una distribucin


Np(0, LL+ ).
Adems la distribucin conjunta de X- y F es Np+m(0, * ),
donde
=LL'+
*=
L'

L
I

y 0 es un vector de (m+p) x 1 ceros.


Usando estos resultados, la distribucin condicional de F|x es
normal multivariada con
E(F|x)=L 1 ( x- )=L(LL+ )( x- )
y matriz de covarianza
Cov((F|x)= I- L 1 L= I- L(LL+ )-1L

______________________________________________________Elkin Castao V. 226

L(LL+ )-1

Las cantidades

son los coeficientes de una

regresin multivariada de los factores sobre las variables. La


estimacin de estos coeficientes producen scores para los factores
que son anlogos a las estimaciones de las medias condicionales
en el anlisis de regresin multivariada.
Por tanto, dado cualquier vector de observaciones xj, tomando las
estimaciones mximo verosmiles L y como los verdaderos
valores de L y , el j-simo valor del vector de factores est dado
por
1 ( xj- x ) = L'
( L L'
+
)( xj- x ), j=1, 2, , n
f j = L'

Observaciones.
1) El clculo de f j se puede simplificar usando la siguiente
identidad matricial
( L L'
+
) = (I+ L'

-1 L )-1 L'

-1
L'

Esta identidad nos permite comparar los scores anteriores con los
generados por mnimos cuadrados ponderados.
Sea f jR los scores generados por el mtodo de la regresin y f jLS
los generados por mnimos cuadrados ponderados. Entonces,
usando la identidad anterior,

______________________________________________________Elkin Castao V. 227


-1 L )-1 (I+ L'

-1 L )-1 f R = (I+( L'

-1 L )-1) f R
f jLS =( L'
j
j


-1 L )-1= 1 . Por
Para los estimadores mximo verosmiles, ( L'

tanto, si los elementos de esta matriz diagonal son cercanos a


cero, el mtodo de la regresin y el de mnimos cuadrados
generalizados sern iguales.
2) En un intento por tratar de reducir los efectos de una (posible)
determinacin incorrecta del nmero de factores, algunos calculan
+
por S (la
los scores de los factores reemplazando = LL'

matriz de covarianza muestral original).


3)

Si se usan los factores rotados L* =LT


en lugar de las

ponderaciones originales, los scores de los factores

f j* estn

relacionados con f j por medio de


f j* = T f j

4) Una medida de conciliacin entre los dos diferentes


procedimientos para calcular los scores est dada por el
coeficiente de correlacin muestral entre los scores de un mismo

______________________________________________________Elkin Castao V. 228

factor. De los mtodos presentados, ninguno es uniformemente


superior.

Ejemplo.
Considere los datos sobre los rendimientos de las acciones de 5
compaas. Anteriormente, el mtodo de la componente principal
produjo las siguientes ponderaciones estimadas.
0.784 0.216
0.773 0.458

L = 0.795 0.234

0.712 0.473
0.712 0.524

0.746
0.889

= 0.766
L * = LT

0.258
0.226

0.323
0.128

0.316

0.815
0.854

 Para cada factor, tomando las mayores ponderaciones en L


y eliminando las ponderaciones ms pequeas, se crean las
siguientes combinaciones lineales
f1 = x1 + x2 + x3 + x4 + x5
f2 = x4 + x5 x2

Como un resumen de los factores. En la prctica estas


variables se estandarizan.

 Si en lugar de usar L , se usan las ponderaciones rotadas con


el criterio varimax, los scores de los factores seran

______________________________________________________Elkin Castao V. 229

f1 = x1 + x2 + x3

f2 = x4 + x5

 La identificacin de ponderaciones grandes y pequeas es


en

realidad

bastante

subjetiva.

Se

prefieren

las

combinaciones lineales que tengan sentido en el rea de


investigacin

Observaciones.
1) Aunque con frecuenta se supone normalidad multivariada
para las variables en un anlisis de factor, en realidad es
muy difcil justificar este supuesto cuando el nmero de
variables

es

muy

grande.

Algunas

veces,

las

transformaciones sobre las variables vistas anteriormente


pueden ayudar a aproximar a la normalidad.
2) Se deben examinar los grficos de los scores de los factores
antes de usarlos en otros anlisis. Los scores de los factores
pueden producir toda clase de formas no elpticas, que
pueden revelar valores atpicos y la desviacin de la no
normalidad.

______________________________________________________Elkin Castao V. 230

6. PERSPECTIVAS Y ESTRATEGIAS PARA EL ANLISIS DE


FACTOR

Hay muchas decisiones que hay que tomar en cualquier estudio de


anlisis de factor.

 Probablemente la ms importante tiene que ver con el


nmero de factores, m.
Aunque una prueba para muestras grandes de la adecuacin
del modelo est disponible para un valor m dado, esta es
adecuada solamente cuando los datos tienen distribucin
normal multivariada.
Adems la prueba casi seguramente rechazar el modelo
para m pequeo si el nmero de observaciones es grande.
Sin embargo, esta es la situacin en la que el anlisis de
factor proporciona una aproximacin til.
Frecuentemente, la eleccin final de m est basada en la
combinacin de:

La proporcin de la varianza total muestral explicada.


Conocimiento de la disciplina.

______________________________________________________Elkin Castao V. 231

La racionalidad de los resultados.


 La eleccin del mtodo de solucin y el tipo de rotacin es
una decisin menos crucial. En efecto, los anlisis de factor
ms satisfactorios son aquellos en los cuales se realizan
rotaciones con ms de un mtodo y todos los resultados
confirman sustancialmente la misma estructura de factores.
Aunque hasta el presente no existe una estrategia sencilla para
la solucin del anlisis de factor, Jonson y Wichern (1998)
sugieren la siguiente:

Realice un anlisis de factor usando el mtodo de la


componente principal. Este

mtodo es

particularmente

adecuado para un primer anlisis de los datos y no requiere que


R o S sean no singulares.

 Busque observaciones sospechosas inspeccionando los


grficos de los scores de los factores. Calcule tambin los
scores estandarizados para cada observacin, y calcule las
distancias

cuadrticas

generalizadas

para

normalidad y detectar observaciones sospechosas.

 Use la rotacin varimax.

evaluar

______________________________________________________Elkin Castao V. 232

Realice un anlisis de factor usando el mtodo de la mxima


verosimilitud, incluyendo la rotacin varimax.

Compare las soluciones obtenidas por los dos anlisis.

 Las ponderaciones se agrupan de la misma manera?


 Grafique los scores obtenidos por medio del mtodo de la
componente principal con los scores obtenidos por medio
del mtodo de mxima verosimilitud.

Repita los tres pasos anteriores para otros nmeros de


factores comunes m.

Los factores extra contribuyen al entendimiento e


interpretacin de los datos?

Para grandes conjuntos de datos, divdalos a la mitad y


realice un anlisis de factor sobre cada parte. Compare los
resultados de los dos anlisis y con el resultado obtenido
con los datos completos para verificar la estabilidad de la
solucin (los datos podran ser divididos aleatoriamente, o
colocando la primera mitad en un grupo, y la segunda mitad
en el otro).

______________________________________________________Elkin Castao V. 233

Ejemplo.
Considere las siguientes variables que indican las dimensiones de
algunos de los huesos de los pollos. Los n=276 datos fueron las
mediciones realizadas sobre:

Cabeza: X1 = longitud del crneo


X2 = amplitud del crneo
Pierna: X3 = longitud del fmur
X4 = longitud de la tibia
Ala:

X5 = longitud del hmero


X6 = longitud del cbito

La matriz de correlacin es

Se emplearon m=3 factores y se usaron los mtodos de la


componente principal y el mtodo de mxima verosimilitud en el
anlisis. En la siguiente tabla se presentan los resultados.

______________________________________________________Elkin Castao V. 234

 Despus de realizar la rotacin, los dos mtodos parecen dar


resultados algo diferentes.

En el mtodo de la componente principal, la


proporcin de varianza de la varianza total muestral
explicada

indica

que

el

tercer

factor

parece

significante. El primer factor parece ser el tamao del


cuerpo, dominando por las dimensiones de las alas y

______________________________________________________Elkin Castao V. 235

las piernas. El segundo y tercer factor, conjuntamente,


representan la dimensin del crneo, y podran ser
denominados, como las variables, longitud del crneo
y amplitud del crneo.

Las ponderaciones rotadas producidas por el mtodo


de mxima verosimilitud para el primer factor, son
consistentes con las generadas por el mtodo de la
componente principal, pero no para los factores 2 y 3.
Para el mtodo de mxima verosimilitud, el segundo
factor parece representar el tamao de la cabeza. L
significado del tercer factor no est claro, parece que
no se necesita.

 Otro soporte para retener tres o menos factores est dado por
la matriz residual obtenida por los estimaciones mximo
verosmiles:

______________________________________________________Elkin Castao V. 236

Todos los elementos en la matriz son muy pequeos. Para


el ejemplo, continuamos con este modelo con m=3.

 El siguiente grfico presenta los scores para los factores 1 y


2 producidas por el mtodo de la regresin

con las

estimaciones mximo verosmiles: ste grafico nos permite


detectar las observaciones que, por diferentes razones, no
son consistentes con las dems. Las observaciones atpicas
potenciales aparecen encerradas en crculos.

 Tambin es importante graficar los pares de los scores


factores usando los mtodos de la componente principal y
de mxima verosimilitud.

______________________________________________________Elkin Castao V. 237

Si las ponderaciones sobre un factor concuerdan, los


scores deberan agruparse estrechamente alrededor de
una recta de 45o que pasa por el origen.

Si no concuerdan, los scores de los factores producirn


patrones que se desvan de este patrn. En este caso,
generalmente ocurre que el nmero de factores es muy
grande, es decir, los ltimos factores no son significantes.

 Los siguientes grficos de dispersin presentan los pares de


scores para los tres factores usando

los mtodos de la

componente principal y de mxima verosimilitud.

______________________________________________________Elkin Castao V. 238

Observe que el grfico (c) se desva del patrn lineal,


sugiriendo que el ltimo factor no parece ser significante.

______________________________________________________Elkin Castao V. 239

 Los grficos de los pares de scores usando los dos mtodos


tambin es til para detectar observaciones atpicas.

Si los conjuntos de ponderaciones para un factor tienden


a concordar, las observaciones atpicas aparecern como
puntos en las vecindades de la recta de 45o, pero lejos del
origen y del grupo de las otras observaciones. El grfico
(b) anterior muestra que una de las 276 observaciones no
es consistente con las otras. Es un score inusualmente
grande para F2. Cuando esta observacin es removida, el
anlisis con los datos restantes muestra que las
ponderaciones no se alteran apreciablemente.

 Cuando el conjunto de datos es grande, se puede dividir


en dos grupos con el mismo nmero (aproximado) de
observaciones y realizar el anlisis en cada uno de ellos.
Para el ejemplo, los datos fueron divididos en dos
conjuntos con n1=137 y n2=139 observaciones.
matrices de correlacin resultantes son,

Las

______________________________________________________Elkin Castao V. 240

 La siguiente tabla presenta la solucin de la componente


principal para cada subconjunto y m=3.

Los resultados para los dos grupos son muy similares.

Los factores F2* y F3* se intercambian con respecto a


sus nombres, longitud del crneo y amplitud del crneo,
pero colectivamente parecen representar el tamao de la
cabeza.

______________________________________________________Elkin Castao V. 241

El primer factor F1* , de nuevo parece ser el tamao del


cuerpo, dominado por las dimensiones de las piernas y de
las alas. Estas son las mismas interpretaciones obtenidas
antes por el mtodo de la componente principal para los
datos completos.

La solucin es notablemente estable, y podemos tener


bastante confianza de que

las ponderaciones grandes

sean reales.

Para estos datos, seguramente es mejor un modelo de un


factor o de dos factores.
El anlisis de factor tiene un gran atractivo para las ciencias del
comportamiento y sociales. En estas reas, es natural considerar
las observaciones multivariadas sobre los procesos animales y
humanos como manifestaciones de atributos subyacentes no
observables. El anlisis de factor proporciona una manera de
explicar la variabilidad observada en el comportamiento, en
trminos de estos atributos.

______________________________________________________Elkin Castao V. 242

Empleo del programa R


# lectura de los datos desde un archivo de texto
stock<-read.table("c:/unal/datos/j-wdata/t8_3.txt", header = TRUE)
list(stock)
attach(stock )
# obtencin de matriz de correlacin
cormat=cor(stock)
cormat
# obtencin del anlisis de factores por el mtodo de la componente principal
# usando la matriz de correlacin
pcfactor<-function (xmat, factors=NULL, cor=TRUE) {
prc <- princomp ( covmat = xmat ,cor = cor )
eig <- prc$sdev^2
if (is.null(factors)) factors <- sum ( eig >= 1 )
loadings <- prc$loadings [ , 1:factors ]
coefficients <- loadings [ , 1:factors ] %*% diag ( prc$sdev[1:factors] )
rotated <- varimax ( coefficients ) $ loadings
fct.ss <- apply( rotated, 2 , function (x) sum (x^2) )
pct.ss <- fct.ss / sum (eig)
cum.ss <- cumsum ( pct.ss )
ss <- t ( cbind ( fct.ss , pct.ss, cum.ss ) )
return ( coefficients , rotated , ss )
}
factor_out <- pcfactor(cormat, 2, TRUE); factor_out
# obtencin del anlisis de factores por el mtodo de mxima verosimilitud
# usando la matriz de correlacin
mvfactor<-factanal(cormat, factors=2, rotation="none",
scores = c("regression"))
print(mvfactor, digits=2, cutoff=.3, sort=TRUE)
mvfactor<-factanal(stock, factors=2, rotation="varimax",
scores = c("regression"),)
print(mvfactor, digits=2, cutoff=.3, sort=TRUE)
load <- mvfactor$loadings

______________________________________________________Elkin Castao V. 243

plot(load,type="n") # plot factor 1 by 2


text(load,labels=names(stock),cex=.7) # add variable names

You might also like