Professional Documents
Culture Documents
Profesor
ELKIN CASTAO V.
Facultad de Ciencias, Universidad Nacional de Colombia,
Medelln
Facultad de Ciencias Econmicas, Universidad de
Antioquia
______________________________________________________Elkin Castao V.
CONTENIDO
Captulo 1. Aspectos Bsicos del Anlisis Multivariado
Captulo 2. Vectores y Matrices Aleatorias
Captulo 3. La Distribucin Normal Multivariada
Captulo 4. Anlisis de Componentes Principales
Captulo 5. Anlisis de Factor
______________________________________________________Elkin Castao V.
CAPTULO 1.
ASPECTOS BSICOS DEL ANLISIS MULTIVARIADO
1. INTRODUCCIN
______________________________________________________Elkin Castao V.
______________________________________________________Elkin Castao V.
______________________________________________________Elkin Castao V.
Objeto
1
2
var 1
x11
x 21
Var 2
x12
x 22
x j1
x j2
x n1
x n2
Var k
x1k
x2k
Var p
x1p
x2p
xjk
xnk
xjp
xnp
Arreglos matriciales
Los datos tambin pueden ser presentados usando arreglos
matriciales:
x11
x 21
X=
x j1
x
n1
x 22 x 2k x 2p
x j2 x jk x jp
x n2 x nk x np
Estadsticas descriptivas:
Los conjuntos de datos generalmente son voluminosos.
Esto es un serio obstculo para extraer informacin
relevante visualmente.
Mucha de la informacin contenida en X puede ser evaluada
por medio de medidas que describen cuantitativamente
______________________________________________________Elkin Castao V.
1 n
x ji
n j =1
si2 =
1 n
2
( x ji xi )
n j=
______________________________________________________Elkin Castao V.
si = + si2
sik =
1 n
( x ji xi )( x jk xk )
n j =1
Interpretacin:
sik>0 indica una asociacin lineal positiva entre los datos de
las variables
sik<0 indica una asociacin lineal negativa entre los datos de
las variables
sik=0 indica que no hay una asociacin lineal entre los datos
de las variables
Observacin: como la varianza muestral es la
covarianza muestral entre los datos de la i-sima
variable con ella misma, algunas veces se denotar
como sii
______________________________________________________Elkin Castao V.
sik
sii skk
Propiedades de rik:
1) | rik| 1
rik=1 indica que hay una asociacin lineal positiva y perfecta
entre los datos de las variables. Los datos caen sobre una
lnea recta de pendiente positiva.
0<rik<1 indica que hay una asociacin lineal positiva
imperfecta entre los datos de las variables. Los datos caen
alrededor de una lnea recta de pendiente positiva.
rik=-1 indica que hay una asociacin lineal negativa y
perfecta entre los datos de las variables. Los datos caen
sobre una lnea recta de pendiente negativa.
______________________________________________________Elkin Castao V. 10
x ji xi
sii
z jk =
x jk xk
skk
______________________________________________________Elkin Castao V. 11
(outliers).
Cuando
existen
datos
observaciones
n ( x ji xi )3
sk ( xi ) =
j =1
n
2
( x ji xi )
j =1
3/ 2
n ( x ji xi ) 4
k ( xi ) =
j =1
n
2
( x ji xi )
j =1
______________________________________________________Elkin Castao V. 12
s12
S=
s1p
las
correlaciones
muestrales:
La
matriz
de
______________________________________________________Elkin Castao V. 13
r12
R=
r1p
1 ... r2p
r2p ... 1
______________________________________________________Elkin Castao V. 14
medias<-mean(publ_util)
medias
# obtencin de la matriz de covarianza muestral
mat_cov<-cov(publ_util)
mat_cov
# obtencin de la matriz de correlacin muestral
mat_cor<-cor(publ_util)
mat_cor
# obtencin del coeficiente de asimetra muestral
skewness=function(x) {
m3=mean((x-mean(x))^3)
skew=m3/(sd(x)^3)
skew}
skewness(X1)
# obtencin del coeficiente de curtosis muestral
kurtosis=function(x) {
m4=mean((x-mean(x))^4)
kurt=m4/(sd(x)^4)
kurt}
kurtosis(X1)
X1
1.06
0.89
1.43
1.02
1.49
1.32
1.22
1.10
1.34
1.12
0.75
1.13
1.15
1.09
X2
9.2
10.3
15.4
11.2
8.8
13.5
12.2
9.2
13.0
12.4
7.5
10.9
12.7
12.0
X3
151
202
113
168
192
111
175
245
168
197
173
178
199
96
X4
X5
X6
X7
X8
54.4 1.6 9077 0.0 0.628
57.9 2.2 5088 25.3 1.555
53.0 3.4 9212 0.0 1.058
56.0 0.3 6423 34.3 0.700
51.2 1.0 3300 15.6 2.044
60.0 -2.2 11127 22.5 1.241
67.6 2.2 7642 0.0 1.652
57.0 3.3 13082 0.0 0.309
60.4 7.2 8406 0.0 0.862
53.0 2.7 6455 39.2 0.623
51.5 6.5 17441 0.0 0.768
62.0 3.7 6154 0.0 1.897
53.7 6.4 7179 50.2 0.527
49.8 1.4 9673 0.0 0.588
______________________________________________________Elkin Castao V. 15
15
16
17
18
19
20
21
22
MEDIAS MUESTRALES
X1
1.114091
X2
10.736364
X3
168.181818
X4
56.977273
X5
X6
3.240909 8914.045455
X7
12.000000
X8
1.102727
X8
-1.372165e-03
-4.088848e-01
1.195758e-01
1.204446e+00
-1.236926e-02
-1.106557e+03
-1.728324e+00
3.092451e-01
______________________________________________________Elkin Castao V. 16
X4
X5
X6
X7
X8
X1
X2
X3
X4
X5
X6
X7
X8
-0.08203019 -0.086341943
-0.25911109 -0.260111168
-0.15167116 -0.009617468
0.04480188 0.211444212
-0.01337310 -0.327655318
X5
X6
-0.259111089 -0.151671159
-0.260111168 -0.009617468
0.435367718 0.027987098
0.033479746 -0.287935594
1.000000000 0.176415568
0.176415568 1.000000000
-0.019125318 -0.373689523
-0.007133152 -0.560526327
0.100309264
0.435367718
0.027987098
0.114661857
0.005220183
X7
0.04480188
0.21144421
0.11466186
-0.16416254
-0.01912532
-0.37368952
1.00000000
-0.18508592
1.00000000
0.03347975
-0.28793559
-0.16416254
0.48550006
X8
-0.013373101
-0.327655318
0.005220183
0.485500063
-0.007133152
-0.560526327
-0.185085916
1.000000000
Grficos
Los grficos son ayudas importantes en el anlisis de los datos.
Aunque es imposible graficar simultneamente los valores de
todas las variables en el anlisis y estudiar su configuracin,
los grficos de las variables individuales y de pares de
variables son muy informativos.
______________________________________________________Elkin Castao V. 17
Grficos
de
puntos:
recomendados
para
muestras
1.
5
1.
4
1.
3
1.
2
1.
1
1.
0
0.
9
0.
8
0.
7
pequeas.
X1
______________________________________________________Elkin Castao V. 18
1.
5
1.
4
1.
3
1.
2
1.
1
1.
0
0.
9
0.
8
0.
7
X1
0.4
0.3
6
0.2
X1
1.
5
1.
4
1.
3
1.
2
1.
1
0.0
1.
0
0
0.
9
0.1
0.
8
0.
7
Count
______________________________________________________Elkin Castao V. 19
1.1
1.0
0.9
0.8
X2
16
15
14
13
12
11
10
0.7
6
X1
1.2
______________________________________________________Elkin Castao V. 20
X1
1.2
1.1
1.0
0.9
0.8
16
15
14
13
12
11
10
0.7
X2
1.1
1.0
0.9
0.8
X2
16
15
14
13
12
11
10
0.7
6
X1
1.2
______________________________________________________Elkin Castao V. 21
______________________________________________________Elkin Castao V. 22
______________________________________________________Elkin Castao V. 23
300
X3
200
X11.1
1.2
1.3
1.4
1.5
16
14
15
12
X2
13
11
10
1.0
0.9
0.8
0.7
100
300
0.7
0.8
8
1.5
16
15
14
1.4
13
12
1.3
11
10
1.2
X2
X11.1
1.0
0.9
100
X3
200
1.0
1.2
1.5
16
15
14
1.4
13
12
1.3
11
10
X3
X2
X11.1
7
8
300
200
1006
0.9
0.8
0.7
______________________________________________________Elkin Castao V. 24
______________________________________________________Elkin Castao V. 25
X3
X4
X5
X1
X2
X3
X4
X5
X5
X5
X4
X4
X3
X3
X2
X2
X1
X1
X1
______________________________________________________Elkin Castao V. 26
______________________________________________________Elkin Castao V. 27
Grficos de estrellas:
Suponga que los datos consisten de observaciones sobre p 2
variables.
______________________________________________________Elkin Castao V. 28
Arizona
Boston
Central
Common
Consolid
Florida
Hawaiian
Idaho
Kentucky
Madison
Nevada
NewEngla
Northern
Oklahoma
Pacific
Puget
SanDiego
Southern
Texas
X4
Wisconsi
X3
X2
X5
X1
United
Virginia
X6
X7
X9
X8
Curvas de Andrews:
Es un mtodo potente para identificar agrupamientos de
observaciones. Las curvas de Andrews son las componentes de
Fourier de los datos y el resultado para cada observacin es
una onda formada por funciones seno y coseno de sus
componentes. Se construyen de la siguiente forma:
______________________________________________________Elkin Castao V. 29
f x j (t ) =
x j1
2
Fourier Components
4
3
2
1
0
-1
-2
-180
-90
Degrees
90
180
______________________________________________________Elkin Castao V. 30
Caras de Chernoff:
Es otra forma efectiva de agrupar datos multivariados,
particularmente para un procesamiento de la memoria de largo
plazo. Fueron introducidas por Chernoff (1973), quien usa
varias caractersticas de la cara para representar los datos de las
variables. Algunos paquetes estadsticos permiten representar
hasta 20 variables (SYSTAT), mientras que R permite asignar
18 variables. Las caractersticas que SYSTAT permite asignar
son:
1 Curvatura de la boca
2 ngulo de la ceja
3 Amplitud de la nariz
4 Longitud de la nariz
5 Longitud de la boca
6 Altura del centro de la boca
7 Separacin de los ojos
8 Altura del centro de los ojos
9 Inclinacin de los ojos
10 Excentricidad de los ojos
11 Longitud media de los ojos
12 Posicin de las pupilas
13 Altura de la ceja
14 Longitud de la ceja
15 Altura de la cara
16 Excentricidad de la elipse superior de la cara
17 Excentricidad de la elipse inferior de la cara
18 Nivel de las orejas
19 Radio de las orejas
20 Longitud del cabello
______________________________________________________Elkin Castao V. 31
Arizona
Boston
Central
Common
Consolid
Florida
Hawaiian
Idaho
Kentucky
Madison
Nevada
NewEngla
Northern
Oklahoma
Pacific
Puget
SanDiego
Southern
Texas
Wisconsi
United
Virginia
Arizona
Boston
Central
Common
Consolid
Florida
Hawaiian
Idaho
Kentucky
Madison
Nevada
NewEngla
Northern
Oklahoma
Pacific
Puget
SanDiego
Southern
Texas
Wisconsi
United
Virginia
X10
8
7
6
5
4
3
2
1
0
______________________________________________________Elkin Castao V. 32
Lecturas recomendadas:
Jacob, R. J. K. (1983). Investigating the space of Chernoff faces.
Recent advances in statistics: A festschrift in honor of Herman
Chernoffs sixtieth birthday. M. H. Rzvi, J.
______________________________________________________Elkin Castao V. 33
______________________________________________________Elkin Castao V. 34
______________________________________________________Elkin Castao V. 35
______________________________________________________Elkin Castao V. 36
______________________________________________________Elkin Castao V. 37
x1* =
x1
x
y x*2 = 2
s11
s22
d (0, P) =
( ) ( )
x1*
+ x2*
x12 x22
+
s11 s22
x12
x22
+
= c 2 con c>o
s 11 s 22
______________________________________________________Elkin Castao V. 38
d ( P, Q ) ==
( x1 y1 )2 + ( x2 y2 )2
s11
s22
______________________________________________________Elkin Castao V. 39
d ( P, Q ) =
( x1 y1 )2 + ( x2 y2 )2 + + ( x p y p )
s11
s22
s pp
Observaciones:
1. La distancia de P al origen O se obtiene haciendo y1=y2=
= yp= 0.
2. Si s11= s22= =spp, la frmula de la distancia Euclidiana es
apropiada.
Caso 2.
______________________________________________________Elkin Castao V. 40
x12 x22
+
s11 s22
______________________________________________________Elkin Castao V. 41
x1 = x1 cos( ) + x2 sen ( )
x2 = x1sen( ) + x2 cos( )
donde a11 ,
______________________________________________________Elkin Castao V. 42
donde las constantes aik son tales que las distancias son
siempre no negativas.
______________________________________________________Elkin Castao V. 43
Observaciones:
1. Si las constantes aik son llevadas a una matriz simtrica de
pxp de la forma
a11
a12
A=
a1p
donde
x1 y1
x y
2
2
x y=
.
x p y p
______________________________________________________Elkin Castao V. 44
d ( P, Q ) = ( x y ) ' S 1 ( x y )
______________________________________________________Elkin Castao V. 45
CAPTULO 2.
VECTORES Y MATRICES ALEATORIAS
(
),
(
),...,
(
)
E
X
E
X
E
X
21
22
2
p
E(X)=
E ( X n1), E ( X n 2 ),..., E ( X np )
______________________________________________________Elkin Castao V. 46
Vectores de media
X1
X
Suponga que X= 2 es un vector aleatorio de px1.
X p
Entonces,
Cada variable aleatoria Xi tiene su propia distribucin de
probabilidades marginal la cual permite estudiar su
comportamiento.
Media marginal de Xi:
R xi fi ( xi ) dxi para X i continua
i = E ( X i ) = xi pi ( xi ) para X i discreta
todos
xi
______________________________________________________Elkin Castao V. 47
i2 = E ( X i i ) 2 = ( x ) 2 p ( x ) para X discreta
i
i i
i
todos i
x
i
ik = E ( X i i )( X k k )
donde
R R ( xi i )( xk k ) f ik ( xi , xk ) dxi dxk
ik = ( xi i )( xk k ) pik ( xi , xk )
todos
todos
xi x
para X i y X k continuas
para X i y X k discretas
______________________________________________________Elkin Castao V. 48
ik =
ik
ii kk
Interpretacin:
ik =1 indica una asociacin lineal positiva perfecta entre Xi
y Xk.
0< ik <1 indica una asociacin lineal positiva imperfecta
entre Xi y Xk. Mientras ms cerca de 1 se encuentre, ms
fuerte es la relacin.
ik =-1 indica una asociacin lineal negativa perfecta entre
Xi y Xk.
-1< ik <0 indica una asociacin lineal negativa entre Xi y
Xk. Mientras ms cerca de -1 se encuentre, ms fuerte es la
relacin.
ik =0 indica que no hay una asociacin lineal entre Xi y Xk.
______________________________________________________Elkin Castao V. 49
variables
aleatorias
continuas
son
llamadas
______________________________________________________Elkin Castao V. 50
11, 12 ,, 1p
,
,
,
21
22
2p
= E ( X )( X )' =
1p , 2p ,, pp
1,
12 ,
=
1p ,
12 ,, 1p
1, , 2p
2p ,, 1
V1/2=
Entonces
11
0
22 0
0 pp
0 0
______________________________________________________Elkin Castao V. 51
= V 1/ 2 V 1/ 2
= (V 1/ 2 )1(V 1/ 2 )1
Vector de Media y la matriz
de Covarianza de
Combinaciones Lineales
1. Una sola combinacin lineal de las variables del vector
aleatorio X. Sea
c1
c
2
c=
c p
y sea
Z1=c1X1+ c2X2++ cpXp= c '
Entonces,
Z1 = E (Z1 ) = c11 + c2 2 + ... + c p p = c '
i =1 k =1
______________________________________________________Elkin Castao V. 52
Entonces,
Z = E (Z ) = C
de
= 11 12 .
12 22
medias
'X = [1, 2 ] y
matriz
de
covarianza
2
covarianza del vector Z = 1
.
X
+
X
1
2
X X
1 1 X1
= CX
1 X 2
2
Observe que Z = 1
= 1
X
+
X
1
2
______________________________________________________Elkin Castao V. 53
Entonces,
1 1 1 1 2
=
1 2 1 + 2
Z = E (Z ) = C X =
1
y,
1 1 11 12 1
Z = Cov( Z ) = C X C ' =
1 1 12 22 1
1
1
11 22
11 2 12 + 22
11 22
11 + 2 12 + 22
CAPTULO 3.
1. MUESTRAS ALEATORIAS
______________________________________________________Elkin Castao V. 54
'
X
,
X
,
,
X
11
12
1p
X2
=
X=
X n1, X n 2 , , X np X '
n
donde,
X j1
X j2
X j=
, j=1,2,..,n
X jp
Observaciones:
______________________________________________________Elkin Castao V. 55
(o
correlacionadas.
ensayo),
Sin
embargo,
generalmente
las
estarn
mediciones
para
y matriz de
covarianzas , entonces
a) E( X )=
es decir
b) Cov( X )= 1
n
para .
d) S=
n
Sn
n 1
insesgado para .
1 n
( X j X )( X j X )
n 1 j =1
es un estimador
______________________________________________________Elkin Castao V. 56
2. VARIANZA GENERALIZADA
______________________________________________________Elkin Castao V. 57
y1i
y
yi = 2i
y ni
y ni x i
______________________________________________________Elkin Castao V. 58
y
r12 =
s12
s11 s 22
= cos( )
Entonces
(rea)2=(n-1)2|S|
o,
Varianza Generalizada muestral, |S|=(n-1)-2(rea)2
Por tanto, la VGM es proporcional al cuadrado del rea generada
por los vectores de desviaciones.
En general, para p vectores de desviaciones,
|S|=(n-1)-p(volumen)2
Es decir, para un conjunto fijo de datos, la VGM es proporcional
al cuadrado del volumen generado por los p vectores de
desviaciones.
Observaciones:
1) Para una muestra de tamao fijo, |S| aumenta cuando:
a) La longitud de cualquier di aumenta (o cuando sii
aumenta.
______________________________________________________Elkin Castao V. 59
______________________________________________________Elkin Castao V. 60
Es tal que
Volumen ({x R p : (x x) 'S1 (x x) c2}) = k p | S |1/ 2 cp
Es decir,
(Volumen(hiper-elipsoide))2 = cons tan te | S |
Por tanto, un volumen grande (datos muy dispersos) corresponde
a una VGM grande.
Observacin:
Aunque la VGM tiene interpretaciones intuitivas importantes,
sufre de debilidades.
Ejemplo. Interpretacin de la varianza generalizada
Suponga
se
tienen
datos
para
tres
vectores
aleatorios
5 4
S=
4 5
3 0
S =
0 3
5 4
5
y S=
4
______________________________________________________Elkin Castao V. 61
______________________________________________________Elkin Castao V. 62
que
los
tres
patrones
de
dispersin
tienen
los datos, y
______________________________________________________Elkin Castao V. 63
______________________________________________________Elkin Castao V. 64
variablesestandarizadas
(x j2 -x k )/ s kk
(x nk -x k )/ s kk
n 1 , la
______________________________________________________Elkin Castao V. 65
variablesestandarizadas
Entonces,
______________________________________________________Elkin Castao V. 66
______________________________________________________Elkin Castao V. 67
CAPTULO 4.
LA DISTRIBUCIN NORMAL MULTIVARIADA
1. INTRODUCCIN
distribucin
multivariada.
aproximadamente
normal
______________________________________________________Elkin Castao V. 68
y varianza
f ( x) =
1
2
1 x
e 2
< x<
probabilidades y en la normal
P( X + ) = 0.68
______________________________________________________Elkin Castao V. 69
P ( 2 X + 2 ) = 0.95
El trmino en el exponente
2
x
2 1
= ( x )( ) ( x )
(x-)' -1(x-)
donde E(X)=
distancia generalizada de x a .
______________________________________________________Elkin Castao V. 70
f (x) =
donde
1
(2 ) p / 2 | |1/ 2
2
12 22
La matriz inversa de es
______________________________________________________Elkin Castao V. 71
1 =
22 12
2
11 22 12
12 11
1
f ( x1, x2 ) =
1
2
2 11 22 (1 12
)
x 2 x
1
1 1 + 2 2
2(1 122 ) 11 22
x x
2 12 1 1 2 2
11
22
______________________________________________________Elkin Castao V. 72
{ x : (x )'
(x ) = c 2
{ x : (x )'
(x ) = c 2
es
______________________________________________________Elkin Castao V. 73
Los valores
ecuacin | I |= 0 , o
0=
11 12
2
= (11 )2 12
= ( 11 12 )( 11 + 12 )
12 11
1 = 11 + 12
2 = 11 12
El primer vector propio se determina como solucin a
e1 = 1e1 , es decir,
11 12 e11
e11
=
(
+
)
11
12
e
12 11 21
e21
o,
11e11 + 12e21 = ( 11 + 12 )e11
12e11 + 11e21 = ( 11 + 12 )e21
______________________________________________________Elkin Castao V. 74
1 = 11 + 12
, e1 =
1
2
1
2
2 = 11 12
, e2 =
1
2
1
2
asociado e1 =
1
2
cae sobre una recta de 45o a travs de
1
2
c 11 + 12
1
2
1
2
______________________________________________________Elkin Castao V. 75
asociado e2 =
1
2
cae sobre una recta perpendicular a la
1
2
c 11 12
1
2
1
2
______________________________________________________Elkin Castao V. 76
asociado e2 =
1
2
cae sobre una recta perpendicular a la
1
2
c 11 12
1
2
1
2
asociado e1 =
1
2
cae sobre una recta de 45o a travs de
1
2
c 11 + 12
1
2
1
2
______________________________________________________Elkin Castao V. 77
1.
Si un vector aleatorio X ~ N( , ),
combinacin
lineal
de
las
entonces toda
variables
en
X,
______________________________________________________Elkin Castao V. 78
a21 X1 + a22 X 2 + + a2 p X p
AX =
aq1 X1 + aq 2 X 2 + + aqp X p
Ejemplo.
Suponga que X ~ N3( , )
y considere el vector de
combinaciones lineales
X1
X1 X 2 1 1 0
X X = 0 1 1 X 2 = AX
2
3
X3
1
1 1 0 1 2
A =
2 =
0 1 1 2 3
3
______________________________________________________Elkin Castao V. 79
11 12 13 1 0
1 1 0
A A ' =
12 22 23 1 1
0 1 1
13 23 33 0 1
12 + 23 22 13
+ 22 212
A A ' = 11
12 + 23 22 13 22 + 33 2 23
Ejemplo.
Suponga que X ~ N5( , ). Encuentre la distribucin del
X
subvector 1 .
X2
X1
X 2 X
X
Sea X= X 3 = 1 , donde X1 = 1 .
X2
X2
X
4
X
5
X1 ~ N2 1 , 11 12
2 12 22
______________________________________________________Elkin Castao V. 80
5. Si X= 1 ~ N q + q
X2
1
1 11 12
,
, donde X1 es de q1x1,
2
21
22
2 es el vector
Ejemplo.
4 1 0
Suponga que X ~ N3( , ), con = 1 3 0 .
0 0 2
Son 1 y X3 independientes?
X2
X
X1
13 0
,
X3
= =
23 0
cov
______________________________________________________Elkin Castao V. 81
1 11 12
X1
~
N
q1 + q2
,
, donde X1 es de q1x1, X2
X2
2 21 22
6. Si X=
y matriz de covarianza
1
1.2 = 11 1222
21
Ejemplo.
Suponga que X ~ N2( , ). Encuentre la distribucin condicional
de X1 dado X2=x2.
Por resultado anterior, la distribucin condicional de
______________________________________________________Elkin Castao V. 82
1
1.2 = 11 12 22
21
1
= 11 12 22
12
2
12
= 11
22
Observaciones.
i)
1, q +1 1,q + 2 1, p
2, p
1 2, q +1 2, q + 2
.
Sea 12 22 =
q, q +1 q ,q + 2 q , p
E ( X1 / X q +1, X q + 2 ,, X p , )
E ( X 2 / X q +1, X q + 2 ,, X p , ) = + 1 (x )
E ( X1 / X 2 ) =
12 22 2
2
1
E ( X q / X q +1, X q + 2 ,, X p , )
1 + 1, q +1 ( xq +1 q +1) + 1,q + 2 ( xq + 2 q + 2 ) + + 1, p ( x p p )
q + q, q +1 ( xq +1 q +1) + q, q + 2 ( xq + 2 q + 2 ) + + q, p ( x p p )
______________________________________________________Elkin Castao V. 83
Es decir,
E ( X1 / X q +1, X q + 2 ,, X p , ) 01 + 1, q +1xq +1 + 1, q + 2 xq + 2 + + 1, p x p
E
(
X
/
X
,
X
,
,
X
,
)
x
+
x
+
x
2
q
+
1
q
+
2
p
02
2,
q
+
1
q
+
1
2,
q
+
2
q
+
2
2,
p
p
E ( X q / X q +1, X q + 2 ,, X p , ) 0 q + q , q +1xq +1 + q, q + 2 xq + 2 + + q , p x p
homocedstica.
7. Si un vector aleatorio X ~ N( , ), entonces
(x-)' -1(x-) ~ 2p
______________________________________________________Elkin Castao V. 84
( x j ) ' 1 ( x j )
1
f (x1, x 2 ,..., x n ) =
e 2
1/ 2
p/2
||
j =1 (2 )
f (x1, x 2 ,..., x n ) =
(2 )
1
np / 2
n/2
||
1 n
x ' 1 x j
2 j =1 j
es
L( , ) . Este
______________________________________________________Elkin Castao V. 85
= X
1 n
n 1
= ( X j X )( X j X )' =
S
n j =1
n
Propiedades.
Los estimadores mximo verosmiles poseen la propiedad de
invarianza.
es
ii , donde
ii =
1 n
2
( X ji X i )
n j =1
______________________________________________________Elkin Castao V. 86
5. DISTRIBUCIONES MUESTRALES DE X y S
1. X ~ Np( , ).
E(Yi)= .
Entonces,
1n
Y = Y j
n =1
converge en
______________________________________________________Elkin Castao V. 87
y S
o,
X tiene aproximadamente una distribucin Np( ,
1
)
n
______________________________________________________Elkin Castao V. 88
tiene
1
n
matriz de
covarianza . Entonces,
n( X ) ' S 1 ( X ) tiene aproximadamente una distribucin 2p
7.
VERIFICACIN
DEL
SUPUESTO
DE
NORMALIDAD
MULTIVARIADA
______________________________________________________Elkin Castao V. 89
relacionadas con
X de la forma n( X ) ' S 1 ( X ) ,
el
______________________________________________________Elkin Castao V. 90
Existen
observaciones
inusuales
que
deberan
ser
confirmadas?
grficos
permiten
detectar asimetras,
es
decir
( i i , i + i ) y
de 0.954 al intervalo
______________________________________________________Elkin Castao V. 91
es
decir,
que
para
grande
p (1 pik )
dist
N pik , ik
p ik
, k=1,2. Entonces si,
n
| p i1 0.683 |> 3
(0.683)(0.317) 1.396
=
n
n
| p i 2 0.954 |> 3
(0.954)(0.046) 0.628
=
n
n
o si,
Son grficos
______________________________________________________Elkin Castao V. 92
(n- )/n.
2
ii)
iii)
Grafique
(q(1), x(1)),
x(j) + q(j). Por tanto, cuando los puntos caen muy prximos a
una lnea recta, la normalidad es sostenible.
Ejemplo.
Considere una muestra de n=10 observaciones, las cuales fueron
ordenadas de menor a mayor en la siguiente tabla.
______________________________________________________Elkin Castao V. 93
0.385
P[ Z 0.385] =
1 z2 / 2
e
dz =0.65
2
______________________________________________________Elkin Castao V. 94
Ejemplo.
El departamento de control de calidad de una empresa que
produce hornos micro-ondas requiere monitorear la cantidad de
radiacin emitida por ellos cuando tienen la puerta cerrada.
Aleatoriamente se eligieron n=42 hornos
cantidad.
y se observ dicha
______________________________________________________Elkin Castao V. 95
______________________________________________________Elkin Castao V. 96
son observaciones atpicas, pues estn muy lejos del resto de los
datos.
Observacin.
Para
esta
muestra,
varias
(observaciones empatadas).
observaciones
son
iguales
( x( j ) x )( q( j ) q )
j =1
rQ =
n
( x( j ) x )
j =1
( q( j ) q )
j =1
1965).
______________________________________________________Elkin Castao V. 97
Ejemplo.
Para el primer ejemplo donde n=10, el clculo del coeficiente de
correlacin entre los puntos (q(j), x(j)), j=1, 2, , 10, del grfico
Q-Q, es
rQ =
8.584
= 0.994
8.472 8.795
el valor crtico es
hiptesis de normalidad.
______________________________________________________Elkin Castao V. 98
Observacin.
Para muestras grandes, las pruebas basadas en rQ y la de Shapiro
Wilk, una potente prueba de normalidad, son aproximadamente
las mismas.
e 1 , e 2 , ..., e p .
Se sugiere
e 1' X j y e 'p X j
donde
e 1 y e p son
______________________________________________________Elkin Castao V. 99
x tal que
(x-)' -1 (x-) 22 ( )
tendr un probabilidad .
Por ejemplo, si =0.5, para muestras grandes se esperara que
alrededor del 50% de las observaciones caigan dentro de la elipse
dada por
{ x : (x x)' S
(x x) 22 (0.5)
Ejemplo.
Considere los pares de datos para las variables x1 = ventas y
x2=ganancias para las 10 mayores corporaciones industriales de
E.U. Observe que este conjunto de datos no forman una muestra
aleatoria.
10005.20 255.76
S=
x105
255.76 14.30
y
0.000184 0.003293
S 1 =
x105
0.128831
.003293
que satisface
x1 62.309
x 2927
2
'
0.000184 0.003293
5 x1 62.309
x10
1.39
0.128831
.003293
x2 2927
como si lo fueran. El grfico resultante es llamado grfico chicuadrado, y se construye de la siguiente manera:
i)
ii)
Ejemplo.
Grfico chi-cuadrado para el ejemplo anterior. Las distancias
ordenadas y los correspondientes percentiles chi-cuadrado
aparecen en la siguiente tabla.
Ejemplo.
Considere el siguiente diagrama de puntos para una variable
Observaciones.
i)
ii)
Ejemplo.
La siguiente tabla presenta los datos para 4 variables que indican
la rigidez de tablas de madera. Tambin se presentan los datos
estandarizados y sus distancias generalizadas cuadrticas.
Una vez han sido removidas, el patrn que queda se ajusta a una
recta.
El siguiente grfico presenta la matriz de diagramas de dispersin
para estos datos.
transformaciones
pueden
ser
sugeridas
por
correlacin,
proporcionan
cantidades
que
estn
Escala transformada
y
1
2
p
)
1 p
2. Proporciones, p
logit( p )= log(
3. Correlaciones, r
1
2
1+ r
)
1 r
escoger una
transformacin
x ( )
x 1
, 0
=
ln( x), = 0
n 1 n
l ( ) = ln x(j ) x ( )
2 n j =1
donde
x ( ) =
1 n ( )
xj ,
n j =1
) + ( 1) ln x
n
j =1
observaciones transformadas.
La expresin l ( ) es, aparte de una constante, el logaritmo de
la funcin de verosimilitud de una normal, despus de haberla
maximizado con respecto a los parmetros de media y
varianza.
El proceso de maximizacin es fcil de realizar por medio de
un computador, seleccionando muchos diferentes valores para
y calculando el respectivo valor de l ( ) . Es til hacer un
y (j )
xj 1
1/ n 1
x j
j =1
, j=1, 2, , n
Ejemplo.
Para los n=42 datos de la radiacin de hornos micro-ondas con la
puerta cerrada, el grfico Q-Q indica que las observaciones se
desvan de lo que esperaramos si fueran normalmente
distribuidas. Puesto que todas las observaciones son positivas, se
puede utilizar una transformacin potencial de los datos con la
esperanza de acercarlos a la normalidad.
Los pares ( , l ( ) ), en el proceso de bsqueda se encuentran en la
siguiente tabla.
4)
x(1/
j
x1/j 4 1
(1/ 4)
, j=1, 2, , 42.
Sean
x (j)
donde
x ( 1 ) 1
j1
x (j22 ) 1
= 2
x ( p ) 1
jp
maximizan a l ( k ) , k=1, 2, , p.
Este procedimiento es equivalente a hacer cada distribucin
aproximadamente normal. Aunque la normalidad marginal
de cada componente no es suficiente para garantizar que
todas la distribucin conjunta sea normal multivariada,
frecuentemente esta condicin es suficiente.
funcin
n
n
l 1, 2 ,, p = ln | S ( ) | + (1 1) ln x j1
2
j =1
j =1
j =1
+ (2 1) ln x j 2 + + ( p 1) ln x jp
x ()
j
l 1, 2 ,, p
x (j11 ) 1
1
( 2 )
x j2 1
= 2 , j=1, 2, , n
(p )
x jp 1
Ejemplo.
Las mediciones de la radiacin tambin fueron recogidas para los
mismos n=42 hornos del ejemplo anterior, pero con las puertas
abiertas. El siguiente es el grfico Q-Q para los nuevos datos,
cuyo patrn curvo, se aleja de la normalidad.
La
CAPTULO 5.
ANLISIS DE COMPONENTES PRINCIPALES
1. INTRODUCCIN
Algebraicamente,
las
componentes
principales
son
las
componentes
principales
derivadas
de
Suponga que
X1
X
X= 2
X p
Yp = a 'p X = a p1 X1 + a p 2 X 2 + + a pp X p
Entonces,
Var (Yi ) = ai'ai , para i=1, 2, , p
Cov(Yi , Yk ) = ai'ak , para i, k= i=1, 2, , p
mayor.
Es
decir
es
aquella
Puesto
que
dicha
que
varianza
maximiza
puede
ser
lineal
lineal
Cov(a1' X , a2' X ) = 0
( 1, e1 ),
( 2 , e2 ),
, ( p , e p ) donde
est
dada
por
la
combinacin
lineal
i=1, 2, , p
Si algunos
i k
i =1
i =1
las
Observaciones:
1) Del resultado anterior
Varianza Total=11 + 22 + + pp = 1 + 2 + + p
Prop. de la varianza
total debido a la
=
, k=1, 2, , p.
2)
k-esima componente 1 + 2 + + p
principal
principal,
independientemente
de
las
dems
las
Yi , X k =
eik i
kk
, i,k=1, 2, , p
Ejemplo.
Obtencin
de
las
Componentes
Principales
Poblacionales
Suponga que tres variables aleatorias X1, X2 y X3 tienen matriz de
covarianza
1 2 0
= 2 5 0
0 0 2
0.383
e1 = 0.924
2 =2.00
0
e2 = 0
1
3 =0.17
0.924
e3 = 0.383
Debido a que X3
ni X2,
e11 1
Y , X =
1
11
Y1 , X 2 =
e21 1
22
=0.925
=-0.998
Y , X = Y , X = 0 y Y , X =
2
2
2
=
=1
2
33
Multivariada
Suponga que X ~ Np( , ). Las componentes principales
Y1 = e1' X, Y2 = e'2 X, , Yp = e'p X
caen en la direccin de los ejes de la elipsoide de densidad
constante (x )' 1 (x ) = c 2 .
Z1 =
Z2 =
X1 1
11
X 2 2
22
Zp =
X p p
pp
o, en notacin matricial,
Z = V 1/ 2
(X )
variables estandarizadas
Z1
Z
2
Z =
Z p
con Cov(Z)=
Yi = ei' Z = ei' V 1/ 2
( X ) , i=1, 2, , p
Adems,
p
i =1
i =1
y,
Yi , Z k = eik i , i, k=1, 2, , p
, donde 1 2 p 0 .
Observacin:
Prop. de la varianza
total debido a la
= k , k=1, 2, , p.
k-esima componente p
principal
Ejemplo.
Considere un vector bivariado cuya matriz de covarianza es
1 4
=
. Entonces su matriz de correlacin es
4
100
1 0.4
.
0.4
1
1 =100.16
0.040
e1 =
0.999
2 =0.840
0.999
e2 =
0.040
Y1 = e1' X = 0.040X1+0.999X2
Y2 = e'2 X = 0.999X1-0.040X2
Debido a que X2 tiene una gran varianza, ella domina
completamente la primera componente
principal.
=100.16/101=0.992
de la varianza total.
b) Las componentes principales derivadas de
Valores y vectores propios de
1 =1.4
0.707
e1 =
0.707
2 =0.6
0.707
e2 =
0.707
Esta
estn
estandarizadas, las
variables
=1.4/2=0.70
de la varianza total.
que
lineal
a1' a1 = 1
lineal
lineal
( 1, e1 ),
( 2 , e2 ),
, ( p , e p )
donde 1 2 p 0
lineal
i=1, 2, , p
ik
sii = 1 + 2 + + p
i =1
y
ryi ', xk =
eik i
skk
, i,k=1 ,2, , p
Observaciones:
1) No se har diferencia en la notacin para las componentes
principales derivadas de S o de R.
2) Las componentes principales derivadas de S no son iguales
a las derivadas de R.
y i =
1 '
1 n
1 n '
1 ' n
y ji = e i (x j -x) = e i (x j -x) = e i 0=0
n j =1
n j =1
n j =1
n
Ejemplo.
Un censo proporcion informacin sobre las siguientes
variables socioeconmicas para 14 reas de una regin:
X1=Poblacin total (en miles)
4.308
1.683
S= 1.803
2.155
0.253
1.683
1.768
1.803
0.588
2.155 0.253
0.177 0.176
e1 (ry1 , xk )
e2 ( ry 2 , xk )
e3
e4
e5
X1
0.781(0.99)
-0.071(-.04)
0.004
0.542
-0.302
X2
0.306(0.61)
-0.764(-.76)
-0.162
-0.545
-0.010
X3
0.334(0.98)
0.083(0.12)
0.015
0.050
0.937
X4
0.426(0.80)
0.579(0.55)
0.220
-0.636
-0.173
X5
-0.051
0.024
Var
( i )
6.931
1.786
0.390
0.230
0.014
93.2
97.4
99.9
100.0
Prop
Acu 74.1
puede
indicar una
dependencia
lineal no
nmero.
Para
determinar
el
nmero
apropiado
de
Ejemplo.
El grfico scree para el ejemplo anterior es
Ejemplo.
En un estudio del tamao y la forma de las tortugas pintadas,
Jolicoeur y Mosimann (1963) midieron la longitud de la
caparazn (X1), su amplitud(X2) y su altura(X3). Los datos
sugirieron que el anlisis en trminos de los logaritmos de las
variables. (Jolicoeur, generalmente sugiere el empleo de los
logaritmos en los estudios de tamao y forma)
y
11.072 8.019 8.160
S= 8.019 6.417 6.005
8160 6.005 6.773
Var
e1 ( ry1 , xk )
e2
e3
ln(longitud)
0.683(0.99)
-0.159
-0.713
ln(amplitud)
0.510(0.97)
-0.594
0.622
ln(altura)
0.523(0.97)
0.788
0.324
Var ( i )
Prop acum.
96.1
98.5
100
0.683
y1 =ln[(longitud)
(amplitud)0.510 (altura)0.523]
Las
componentes
principales
muestrales
tienen
varias
interpretaciones.
i=1, 2, , p
ik
total muestral(estandarizada)
explicada por la i-esima
= i , i=1, 2, , p
p
componente principal
muestral
unidad,
equivalentemente,
aquellas
componentes
Ejemplo.
Para el perodo de Enero de 1975 a Diciembre de 1976, se
determinaron los rendimientos semanales de las acciones de 5
compaas.
y
1.000
0.577
R= 0.509
0.387
0.462
0.577
1.000
1 =2.857
0.464
0.457
e1 = 0.470
0.421
0.421
3 =0.540
0.612
0.178
e 3 = 0.335
0.541
0.435
5 =0.343
0.451
0.676
e 5 = 0.400
0.176
0.385
2 =0.802
4 =0.452
0.240
0.509
e2 = 0.260
0.526
0.582
0.387
0.206
e 4 = 0.662
0.472
0.382
x100%=
x100%=73%
p
5
La
primera
componente
principal
es
una
suma
GRFICOS
DE
LAS
COMPONENTES
PRINCIPALES
MUESTRALES
originales,
se
puede
esperar
que
sean
Revelar
observaciones
componentes
sospechosas:
principales
pueden
Las
ayudar
ltimas
detectar
observaciones sospechosas.
Cada
observacin
combinacin
lineal
puede
de
ser
todos
expresada
los
como
vectores
una
propios
e1, e2 ,, e p como
determinan
como de
bien
las
primeras
'
difiere de xj en la
y j1e1' + y j 2e '2 + + y j ,q 1e q-1
cantidad
'
y jq e 'q + y j ,q +1e q+1
+ + y j , p e 'p , cuya longitud al
cuadrado es
y 2j ,q + y 2j , q +1 + + y 2j , p .
Frecuentemente
coordenadas
y j , q , y j ,q +1,, y j , p
Ejemplo.
Para los datos de las tortugas pintadas, las tres componentes
principales son
y1 =0.683(x1-4.725)+ 0.510(x2-4.478)+0.523(x3-3.703)
y 2 =-0.159(x1-4.725)- 0.594(x2-4.478)+0.788(x3-3.703)
y 3 =-0.713(x1-4.725)+ 0.622(x2-4.478)+0.324(x3-3.703)
puede
ser
usado
para
representar
de la
n ( )
Entonces,
es aproximadamente
Np(0,2 2).
2)
i
e e'
2 k i
k =1 (k i )
p
Ei = i
k i
distribuida de los
i
i
i
(1 + z ( / 2) 2 / n )
(1 z ( / 2) 2 / n )
Ejemplo.
Considere el ejemplo de los rendimientos de las acciones.
Suponiendo que ellos proceden de una normal multivariada donde
es tal que sus valores propios 1 > 2 > > 5 > 0 . Puesto que
o,
0.0028 1 .0050
CAPTULO 6.
ANLISIS DE FACTOR
1. INTRODUCCIN
estudios
iniciales,
la
falta
de
facilidades
X p p = l p1F1 + l p 2 F2 + ... + l pm Fm + p
o, en notacin matricial,
X = LF +
0 0 ... p
= LL '+
ortogonal
1) Cov(X)=LL+
Por lo que
2
Var(Xi)= li21 + li22 + ... + lim
+ i
o,
2
ii = li21 + li22 + ... + lim
+ i
o,
ii = hi2 + i
donde,
2
hi2 = li21 + li22 + ... + lim
=
2 5 38 47
12 23 47 68
19 30 2 12 4 1
2
30 57 5 23 7 2 4 7 1 1
=
=
+
2 5 38 47 1 6 1 2 6 8 0
12 23 47 68 1 8
0
0 0 0
4 0 0
0 1 0
0 0 3
donde,
l11
l
L = 21
l31
l41
1 0
0
2
=
0 0
0 0
l12 4 1
l22 7 2
=
l32 1 6
l42 1 8
0 0 2
0 0 0
=
3 0 0
0 4 0
0 0 0
4 0 0
0 1 0
0 0 3
2
2
11 = (l11
+ l12
) + 1 = h12 + 1 = 19
matrices d
= LL '+ ,
0.7 0.4 1
2
1 = l11
+1
0.9 = l11l21
0.7 = l11l31
2
1 = l21
+ 2 0.4 = l21l31
2
1 = l31
+ 3
El par de ecuaciones
0.7 = l11l31
0.4 = l21l31
Implican que
0.4
l21 =
l11
0.7
Se obtiene que
2
l11
= 1.575
o l11 = 1.255
2
1 = 1 l11
,
se obtiene que
1 = 1 1.575 = 0.575
donde,
L* = LT
F* = T ' F
y puesto que
E(F*)=0
y Cov(F*)=TCov(F)T=TT=I
y matriz de covarianza .
Si
lij
de los factores
propio de , donde 1 2 p .
Entonces
1
0
= PP= e1 e2 ... e p
'
0 0 0 e1
2 0 0 e2'
0 0 0 e'p
= 1 e1
1 e1'
2 e2'
2 e2 p e p
e'
p p
El vector
j ej
i =0.
ponderaciones. Es decir,
=LL
+0=LL
Aunque la representacin de
es
eliminar
la
contribucin
de
en .
1 e1
1 e1'
2 e2'
2 e2 m em
=LL
e'
m m
LL+
L = 1 e1
2 e2 m em
=
lij2 , para i=1, 2,.., p
i
ii
j =1
0 0 ... p
Observaciones.
1) En la aplicacin del modelo de factor al conjunto de datos
multivariados x1, x2, , xn, se acostumbra centrar las
observaciones con respecto al vector de medias muestral x .
Las observaciones centradas,
x j1 x1
x j 2 x2
xj- x =
, j=1, 2, , n
x jp x p
las
unidades
conmensurables,
de
generalmente
observaciones estandarizadas
las
se
variables
no
son
trabaja
con
las
x j1 x1
s11
x x
2
j2
x jp x p
s pp
'
S LL
'
) 2 + 2 + + 2
SC( S LL
m +1
m+2
p
1e1
'
)(
1e1 = 1
En general,
j
Prop. de la
si se usa S
varianza total
s
+
s
+
+
s
pp
= 11 22
muestral debida
j
si se usa R
alfactor j
p
R= 0.96
0.42
0.01
2.85 + 1.81
= 0.93
5
Ponderac. estimadas
Varianzas
Variable
F1
F2
Conmunalidades Especficas
X1
0.56
0.82
0.98
0.02
X2
0.78
-0.53
0.88
0.12
X3
0.65
0.75
0.98
0.02
X4
0.94
-0.11
0.89
0.11
X5
0.80
0.93
0.93
0.07
2.85
1.81
0.571
0.932
Valores
propios
Prop.
Acum
LL'
+
= 0.65 0.75 0.56 0.78 0.65 0.94 0.80
0.10
0.80 0.54
0.02
0
+ 0
0
0
0
0
0.12 0
0
0
0
0
0
0
0
0.02 0
0
0
0.11 0
0
0
0.07
1.00
0.10
= 0.97
0.44
0.00
En
ese
ejemplo
se
encontraron
las
dos
primeras
Varianzas
Variable
F1
Especficas
X1
0.783
0.39
X2
0.773
0.40
X3
0.794
0.37
X4
0.713
0.49
X5
0.712
0.49
Prop.
Acum
0.571
Solucin para m=2
Ponderac. Estimadas
Varianzas
Variable
F1
F2
Especficas
X1
0.783
-0.217
0.34
X2
0.773
-0.458
0.19
X3
0.794
-0.234
0.31
X4
0.713
0.472
0.27
X4
0.712
0.524
0.22
0.571
0.733
Prop.
Acum
= 0.164 0.122
R LL'
0.069 0.055
0.017 0.012
= LL '+
est correctamente especificado, los m factores comunes deberan
explicar los elementos fuera de la diagonal de , as como
tambin las porciones de conmunalidad de los elementos de la
diagonal,
ii = 1 = hi2 + i
la matriz resultante es
= LL '
Suponga que se encuentran disponibles valores iniciales i* para
los factores especficos. Entonces, reemplazando el i-simo
elemento de la diagonal de R por
hi*2 = 1 i*
r
Rr= 12
r1 p
r12 r1 p
*2
h2 r2 p
r2 p h*2
L*r = 1* e1*
1* e2* m* em*
i* = 1 lij*2
j =1
donde ( i* , ei* ), i=1, 2, , m, son los pares mayores de valoresvectores propios de Rr.
La re- estimacin de las conmunalidades estn dadas por
*2
*2
hi*2 = li*2
1 + li 2 + ... + lim
retenidos.
Aparece una nueva complicacin y es que ahora algunos de los
valores propios pueden ser negativos debido al uso inicial de las
conmunalidades estimadas. Idealmente, el nmero de factores
comunes debera ser tomado igual al rango de la matriz
poblacional reducida.
conmunalidad estimada es
hi*2 = 1 i* = 1
1
r ii
entonces
se
pueden
obtener los
funcin de verosimilitud es
L( , ) =
1
tr 1
(2 ) np / 2 | | n / 2 e 2
L( , ) = (2 )
( n 1) p
2
x (2 )
p
2
||
||
( n 1)
2
1
2
j =1
1
tr 1
e 2
j =1
n
(x- ) -1 (x- ) '
e 2
para
por
medio
de
transformaciones
L -1L=
donde es una matriz diagonal.
Los estimadores mximo verosmiles L y deben ser
obtenidos por medio de maximizacin numrica de la
funcin de verosimilitud.
Solucin de Mxima Verosimilitud al Modelo de Factor. Sea
Prop. de la
varianza total l 2 + l 2 + + l 2
pj
= 1j 2 j
muestral debida s11 + s22 + + s pp
alfactor j
variables estandarizadas.
Si las variables estn estandarizadas como Z=V 1/ 2 ( X ) ,
entonces a matriz de covarianza de Z se puede representar por
= V 1/ 2V 1/ 2 = (V 1/ 2 L)(V 1/ 2 L)'+ V 1/ 2V 1/ 2
Por tanto, tiene una representacin anloga al caso anterior,
donde la matriz de las ponderaciones es
LZ = V-1/2L
y la matriz de varianzas especficas es
= V 1/ 2 V 1/ 2
es
= (V 1/ 2 L )(V 1/ 2 L ) '+ V 1/ 2 V 1/ 2
= LZ LZ' + Z
donde V 1/ 2 , L son los estimadores mximo verosmiles de
V-1/2 y L, respectivamente.
Son
los
estimadores
mximo
verosmiles
de
las
varianza total l 2 + l 2 + + l 2
pj
= 1j 2 j
muestral debida
p
alfactor j
Ejemplo.
Anlisis de los rendimientos de las acciones usando el mtodo de
mxima verosimilitud, suponiendo m=2.
La siguiente tabla contiene las estimaciones de las ponderaciones,
conmunalidades, varianzas especficas y proporciones de la
varianza total muestral explicada porcada factor, y los resultados
vistos antes para estas mismas cantidades, usando el mtodo de la
componente principal.
La matriz residual es
equivalente a probar
H 0: pxp =Lpxm L'mxp + pxp
el
'+
y el
estimador restringido tiene la forma = LL
||
e
1
'+
) 1 S
n tr ( LL
n
n / 2 2
= | LL '+ |
e
2ln = 2ln
max.Func.verosimilitud bajo H0
max.Func.verosimilitud bajo H1
| |
= n ln
| Sn |
Bajo H0,
el estadstico
r=
1
( p m) 2 p m
NF = (n 1 (2 p + 4m + 5) / 6)ln
'+
|
| LL
| Sn |
p m] / 2
donde
p m] / 2
( )
distribucin [(2 p m )
p m] / 2
Ejemplo.
La solucin de mxima verosimilitud de los datos sobre los
rendimientos de las acciones,
NF = ( n 1 (2 p + 4m + 5) / 6) ln
'+
|
| LL
| Sn |
=[100-1-(10+8+5)/6]ln(1.0065)=0.62
Puesto que los grados de libertad de la chi-cuadrado son
r=
1
2
( p m) 2 p m = (1/2)[(5-2) -5-2] = 1
LL
=S -L*L*'-
no
Sn -LL'n
cambia.
Adems, las varianzas especficas i y hi2 las conmunalidades,
tambin permanecen iguales.
Puesto que la ponderaciones iniciales pueden no ser fcilmente
interpretables, es una prctica usual rotarlas hasta que se logre
una estructura ms simple.
Ejemplo.
Lawley y Maxwell (1971) presentan la matriz de correlacin de
las notas en p=6 materias para n=220 estudiantes hombres.
este factor.
factor podr
factor
matemtica-no matemtica.
El
factor
de
inteligencia
general
identificado
La
siguiente
tabla
presenta
las
estimaciones
de
puesto
que
' = LT
T ' L ' = L* L* ' .
LL
Las
1 m p *4 p *2
V = lij lij / p
p j =1 i =1
i =1
parece
bastante
complicado,
tiene
una
Ejemplo.
Considere los datos de mercadeo sobre las preferencias del
consumidor. La siguiente tabla presenta las estimaciones de las
ponderaciones, conmunalidades
y proporcin
explicada,
2, 4 y 5 definen un factor
Ejemplo.
Considere los datos sobre los rendimientos de las acciones de 5
compaas. Suponga un modelo con m=2 factores. La siguiente
tabla presenta las estimaciones de ponderaciones iniciales y
rotadas, as como las estimaciones de las varianzas especficas
y las proporciones de varianza total muestral explicada por los
factores.
Rotaciones
Oblicuas.
Las
rotaciones
ortogonales
son
entre
los
factores
comunes.
Muchos
representa la
En realidad, son
estimadas
rotadas
en
lugar
de
las
Cuando L ,
-1L=
satisfacen la condicin de unicidad L'
-1 (x -x) , j=1, 2, , m
f j = -1L'
j
' -1
f j = -1
z L z z z j , , j=1, 2, , m
Observacin.
Si las ponderaciones de los factores son calculadas por medio del
mtodo de componente principal, se acostumbra generar los
f j = (L'L)
j -x)
o,
f j = (L 'z L z ) -1L 'z z j
E(F)=0, Cov(F)=E(FF)=I
1 0 ... 0
0 ... 0
2
0 0 ... p
L
I
L(LL+ )-1
Las cantidades
Observaciones.
1) El clculo de f j se puede simplificar usando la siguiente
identidad matricial
( L L'
+
) = (I+ L'
-1 L )-1 L'
-1
L'
Esta identidad nos permite comparar los scores anteriores con los
generados por mnimos cuadrados ponderados.
Sea f jR los scores generados por el mtodo de la regresin y f jLS
los generados por mnimos cuadrados ponderados. Entonces,
usando la identidad anterior,
-1 L )-1 (I+ L'
-1 L )-1 f R = (I+( L'
-1 L )-1) f R
f jLS =( L'
j
j
-1 L )-1= 1 . Por
Para los estimadores mximo verosmiles, ( L'
f j* estn
Ejemplo.
Considere los datos sobre los rendimientos de las acciones de 5
compaas. Anteriormente, el mtodo de la componente principal
produjo las siguientes ponderaciones estimadas.
0.784 0.216
0.773 0.458
L = 0.795 0.234
0.712 0.473
0.712 0.524
0.746
0.889
= 0.766
L * = LT
0.258
0.226
0.323
0.128
0.316
0.815
0.854
f1 = x1 + x2 + x3
f2 = x4 + x5
realidad
bastante
subjetiva.
Se
prefieren
las
Observaciones.
1) Aunque con frecuenta se supone normalidad multivariada
para las variables en un anlisis de factor, en realidad es
muy difcil justificar este supuesto cuando el nmero de
variables
es
muy
grande.
Algunas
veces,
las
mtodo es
particularmente
cuadrticas
generalizadas
para
evaluar
Ejemplo.
Considere las siguientes variables que indican las dimensiones de
algunos de los huesos de los pollos. Los n=276 datos fueron las
mediciones realizadas sobre:
La matriz de correlacin es
indica
que
el
tercer
factor
parece
Otro soporte para retener tres o menos factores est dado por
la matriz residual obtenida por los estimaciones mximo
verosmiles:
con las
los mtodos de la
Las
sean reales.