You are on page 1of 17

122 ÁLGEBRA.

Angel Giménez Pastor


Capítulo 5

Diagonalización de Matrices

Sea V un K-espacio vectorial de dimensión finita, y f un endomorfismo1 de V . En el pre-


sente capítulo planteamos el problema de hallar una base de V respecto de la cual la matriz
asociada al endomorfismo (u operador) f sea “lo más sencilla posible". Así pues, entende-
mos que, una matriz es diagonalizable si podemos tomar como representante canónico una
matriz diagonal, esto es, una matriz cuyos elementos que no están en la diagonal son nulos.
Nuestro objetivo será, por una parte, obtener un resultado de caracterización de las matrices
diagonalizables y, por otra, obtener procedimientos que calculen el representante diagonal, y
su relación con la matriz de partida. A lo largo del capítulo realizaremos un estudio paralelo
de endomorfismos y matrices cuadradas, ya que ambos conceptos se identifican cuando la
dimensión del espacio vectorial involucrado es finita.

Entre las aplicaciones del proceso de diagonalización de una matriz cabe destacar el
cálculo de la potencia m-ésima de una matriz cuadrada A, que a su vez será de gran utilidad
en la obtención de la exponencial de la matriz A. La aplicación del cálculo Am y eA surge en
la resolución de ecuaciones en diferencias finitas y en sistemas de ecuaciones diferenciales
lineales de primer orden, respectivamente. El siguiente ejemplo sirve como botón de muestra
y motivación de un amplio abanico de problemas donde el uso de la diagonalización de
matrices conduce a la solución.

Ejemplo 5.1 (Rehabilitación de una estructura de hormigón) Una estructura de hormigón está deteriorada
en un 25 % debido a un proceso de corrosión. Se envuelve la estructura en una malla de titanio a la que se
aplica un microvoltaje que invierte el proceso químico de corrosión, logrando que mensualmente se recupere
el 40 % de la zona deteriorada, aunque se sigue deteriorando mensualmente un 20 % de la zona sana. ¿Cuál
será la situación a los 3 meses?¿Y a los 10 meses?¿Y al cabo de mucho tiempo?

Si consideramos tantos por uno, al cabo de un mes se ha recuperado 0,25 × 0,4 = 0,1 de
la zona deteriorada, pero la zona sana se ha reducido a 0,75 × 0,8 = 0,6. En total, la zona
sana al cabo de un mes será: 0,1 + 0,6 = 0,7. Si procedemos del mismo modo con la zona
deteriorada, resulta: 0,25 × 0,6 + 0,75 × 0,2 = 0,15 + 0,15 = 0,3. Podemos intentar resolver el
problema realizando este razonamiento reiteradamente y al cabo de tres meses las partes
deteriorada y sana de la estructura son 0.328 y 0.672. Pero este procedimiento es muy lento

1
Un endomorfismo en V también se conoce con el nombre de operador sobre el espacio vectorial V . Por esta
razón, en otros muchos textos este capítulo aparece con el nombre de “Teoría de operadores diagonalizables"

123
124 ÁLGEBRA. Angel Giménez Pastor

y prácticamente inviable para periodos de tiempo más largos. Es preciso utilizar otro método
más efectivo. Consideremos las siguiente variables:

Sea dm = tanto por uno deteriorado en el mes m.

Sea sm = tanto por uno sano en el mes m.

La situación sugiere una ecuación (llamada en diferencias finitas) de la forma:

dm = 0,6 × dm−1 + 0,2 × sm−1 ,


sm = 0,4 × dm−1 + 0,8 × sm−1 .

Matricialmente esta ecuación es:


! ! !
dm 0,6 0,2 dm−1
= · . (5.1)
sm 0,4 0,8 sm−1

Puesto que conocemos la condición inicial d0 = 0,25 y s0 = 0,75, podemos inferir el término
general de la ecuación (5.1):
! !m !
dm 0,6 0,2 0,25
= · .
sm 0,4 0,8 0,75
!
0,6 0,2
La matriz A = es llamada matriz de transición y cumple que la suma de
0,4 0,8
los elementos de cada columna es igual a la unidad y todos ellos son no negativos. Por
consiguiente, nuestro problema estará resuelto si somos capaces de calcular la potencia m-
ésima de la matriz de transición. Al final del capítulo encontraremos la solución de este
problema utilizando las técnicas de diagonalización de matrices aprendidas.

5.1. Matrices y endomorfismos diagonalizables

En primer lugar debemos introducir las definiciones y resultados básicos que necesitaremos
para alcanzar nuestro objetivo.

Definición 5.1 Dos matrices cuadradas A y B son matrices semejantes si existe


una matriz regular P tal que B = P −1 AP .

Definición 5.2 Una matriz A ∈ Kn×n se dice que es diagonalizable (sobre K) si


es semejante a una matriz diagonal. Esto es, existe una matriz regular P ∈ Kn×n tal
que D = P −1 AP , con D una matriz diagonal.
Capítulo 5.- Diagonalización de Matrices 125
! !
1 1 a b
Ejemplo 5.2 Consideramos la matriz A = . Veamos que no es diagonalizable. Si P = es
0 1 c d
una matriz invertible, entonces
! ! !
1 d −b 1 1 a b
P −1 AP =
ad − bc −c a 0 1 c d
!
1 ad + dc − bc d2
= .
ad − bc −c2 ad − bc − cd

La última matriz debería ser diagonal, lo que implicaría que c = d = 0, lo que es una contradición con que
P sea invertible. Entonces A no es diagonalizable.

El procedimiento que hemos empleado en el ejemplo anterior para averiguar si una matriz
es diagonalizable puede servir para matrices de orden 2, pero para matrices de orden superior
este procedimiento directo no podría llevarse a cabo, o sería muy engorroso. Esto motiva la
necesidad de introducir nuevas técnicas que nos permitan, de forma más eficiente, estudiar la
diagonalizabilidad de una matriz A. Para tal fin, debemos relacionar matrices diagonalizables
con endomorfismos.

Dadas las bases B = {v1 , v2 , . . . , vn } y B̄ = {v̄1 , v̄2 , . . . , v̄n }. Consideremos A y B las matrices
asociadas al endomorfismo f respecto de las bases B y B̄, esto es, A = [f ]B B̄
B y B = [f ]B̄ .
Entonces:

f
(V, B) (V, B)
A

1V P P −1 1V

B
(V, B̄) (V, B̄)
f

Por tanto, se verifica que B = P −1 AP , siendo P una matriz cambio de base y, por tanto,
regular.

Concluimos que dos matrices están asociadas a f respecto de distintas bases si, y solo
si, son semejantes. Esta observación conduce al siguiente resultado.

Proposición 5.3 Sea f un endomorfismo en V . Entonces son equivalentes:

(i) f admite una base B̄ tal que la matriz asociada a f respecto de B̄ es una matriz
diagonal.

(ii) La matriz asociada f respecto de cualquier base B es diagonalizable.


126 ÁLGEBRA. Angel Giménez Pastor

Definición 5.4 Si se cumplen las condiciones equivalentes del teorema anterior


diremos que el endomorfismo f es diagonalizable sobre K.

Así pues, determinar si una matriz es diagonalizable es equivalente a estudiar si un endo-


morfismo es diagonalizable, como era de esperar.

5.2. Valores y vectores propios

El procedimiento habitual utilizado para determinar la diagonalizabilidad de un endomor-


fismo (o de una matriz cuadrada) se sustenta en el estudio de los valores y vectores propios
de un endomorfismo (o de una matriz cuadrada), que pasamos a definir a continuación.

Definición 5.5 Sea f : V −→ V un endomorfismo. Diremos que λ ∈ K es un valor


propio (autovalor) de f si existe v ∈ V − {0} tal que

f (v) = λ · v

En este caso el vector v se le llama vector propio (autovector) de f asociado al


valor propio λ. El espectro de f es el conjunto de sus valores propios:

σ(f ) = {λ ∈ K : λ es valor propio de f } .

Proposición 5.6 Un endomorfismo f ∈ EndK (V ) es diagonalizable si, y solo si,


existe una base del espacio vectorial V formada por vectores propios.

Por tanto, tratemos de estudiar la estructura de los vectores propios asociados a un valor
propio.

Proposición 5.7 Sea f un endomorfismo y λ ∈ σ(f ). Definimos el conjunto:

Vλ = {v ∈ V : f (v) = λv} .

Se tiene que Vλ es un subespacio vectorial de V verificando f (Vλ ) ⊂ Vλ . El espacio Vλ


se denomina subespacio propio asociado a λ.
Capítulo 5.- Diagonalización de Matrices 127

Observación 5.8 El subespacio propio asociado a un valor propio λ puede ser visto como

Vλ = Ker(f − λ1V ),

donde 1V es la aplicación identidad en V .

5.2.1. Procedimiento para calcular valores y vectores propios

Mostremos un método práctico para calcular los valores propios utilizando coordenadas
respecto de una cierta base. Sea f un endomorfismo, B una base de V y A la matriz asociada
a f en la base B. Si λ es valor propio de f , entonces f (v) = λv; ecuación que en coordenadas
es equivalente a la ecuación matricial

[f (v)]B = [λv]B ⇔ A · [v]B = [λv]B = λ · [v]B .

Si denotamos X = [v]B obtenemos la ecuación

AX = λX ⇐⇒ (A − λI)X = 0.

Obsérvese que esto es un sistema de ecuaciones homogéneo el cual posee soluciones no


triviales si, y solo si, det(A − λI) = 0.

Definición 5.9 Sea A una matriz cuadrada de orden n sobre un cuerpo K. Se define
el polinomio característico de A como el polinomio de grado n con coeficientes
en K dado por
PA (λ) = det(A − λI).

Ejemplo 5.3 Calculemos el polinomio característico de la matriz


 
1 2 1
A = 0 1 0  .
 

0 4 3
Por definición,
 
1−λ 2 1
PA (λ) = det(A − λI) = det  0 1−λ 0 
 

0 4 3−λ
= −(λ − 1)2 (λ − 3).

Por tanto los valores propios son λ1 = 1 (con multiplicidad 2) y λ2 = 3.

Proposición 5.10 λ es un valor propio de un endomorfismo f si, y solo si, λ es


raíz del polinomio característico.
128 ÁLGEBRA. Angel Giménez Pastor

Definición 5.11 Sea λ un valor propio de un endomorfismo f . La multiplicidad


de λ con raíz del polinomio característico se denomina multiplicidad algebraica.
La dimensión del subespacio propio Vλ asociado a λ se denomina multiplicidad
geométrica.

En lo que sigue, la multiplicidad algebraica la denotaremos por m, y la multiplicidad


geométrica por d.

Observación 5.12

La multiplicidad geométrica de cualquier valor propio λ es siempre mayor o igual que 1.

Para calcular la multiplicidad geométrica de un valor propio λ es útil la fórmula:

d = n − rg(f − λ1V ),

que la hemos obtenido como consecuencia de

n = dim(Ker(f − λ1V )) + rg(f − λ1V ).

Ejercicio 5.1 Calcular las multiplicidades algebraica y geométrica de los valores propios
del Ejemplo 5.3.

Ejemplo 5.4 Calculemos las multiplicidades algebraica y geométrica de los valores propios del endomorfismo
f : R3 → R3 definido por
f (x, y, z) = (x + 2y, −x + 3y + z, y + z).

Para calcular los valores propios consideremos la matriz asociada a f respecto de una base cualquiera; por
ejemplo la canónica:  
1 2 0
A = −1 3 1 .
 

0 1 1
Los valores propios son las raíces del polinomio característico:
 
1−λ 2 0
PA (λ) = det  −1 3 − λ 1  = −(λ − 1)(λ − 2)2 ,
 

0 1 1−λ

entonces, λ1 = 1(m1 = 1) y λ2 = 2(m2 = 2). Las multiplicidades geométricas son:


 
0 2 0
d1 = n − rg(A − I) = 3 − rg −1 2 1 = 1,
 

0 1 0
 
−1 2 0
d2 = n − rg(A − 2I) = 3 − rg −1 1 1  = 1.
 

0 1 −1
Capítulo 5.- Diagonalización de Matrices 129

Ejemplo 5.5 Calculemos la multiplicidades algebraica y geométrica de los valores propios de la matriz
 
5 0 −4
A = 0 3 0 .
 

2 0 −1

Los valores propios son las raíces del polinomio característico:


 
5−λ 0 −4
PA (λ) = det  0 3−λ 0  = −(λ − 1)(λ − 3)2 ,
 

2 0 −1 − λ

entonces, λ1 = 1(m1 = 1) y λ2 = 3(m2 = 2). Las multiplicidades geométricas son:


 
4 0 −4
d1 = n − rg(A − I) = 3 − rg 0 2 0  = 1,
 

2 0 −2
 
2 0 −4
d2 = n − rg(A − 3I) = 3 − rg 0 0 0  = 2.
 

2 0 −4

Ejemplo 5.6 Calculemos la multiplicidades algebraica y geométrica de los valores propios de la matriz
 
1 0 0
A= 1 2 1 .
 

−1 −1 0

Los valores propios son las raíces del polinomio característico:


 
1−λ 0 0
PA (λ) = det  1 2 − λ 1  = −(λ − 1)3 ,
 

−1 −1 −λ

entonces, λ1 = 1(m1 = 3). La multiplicidad geométrica es:


 
0 0 0
d1 = n − rg(A − I) = 3 − rg  1 1 1  = 2.
 

−1 −1 −1

Ejemplo 5.7 Analicemos ahora los valores propios de la siguiente matriz real:
 
1 0 0
A = 0 1 1 .
 

0 −1 1

Los valores propios son las raíces del polinomio característico:


 
1−λ 0 0
PA (λ) = det  0 1−λ 1  = −(λ − 1)(λ2 − 2λ + 2),
 

0 −1 1 − λ
130 ÁLGEBRA. Angel Giménez Pastor

entonces, el único valor propio real es λ1 = 1(m1 = 1). La multiplicidad geométrica es:
 
0 0 0
d1 = n − rg(A − I) = 3 − rg 0 0 1 = 1.
 

0 −1 0

Si en lugar de considerar A como una matriz real, la consideramos como una matriz compleja, entonces hay
dos valores propios complejos más: λ2 = 1 + i(m2 = 1) y λ3 = 1 − i(m3 = 1). Calculemos sus multiplicidades
geométricas.
 
−i 0 0
d2 = n − rg(A − (1 + i)I) = 3 − rg  0 −i 1  = 1,
 

0 −1 −i
 
i 0 0
d3 = n − rg(A − (1 − i)I) = 3 − rg 0 i 1 = 1.
 

0 −1 i

Proposición 5.13 Sean λ1 , . . . , λp valores propios distintos dos a dos de un endo-


morfismo f en V . Entonces Vλ1 , . . . , Vλp están en suma directa, esto es:

Vλ1 ⊕ · · · ⊕ Vλp .

Además, la multiplicidad algebraica de un valor propio λ es siempre mayor o igual


que su multiplicidad geométrica, esto es, di ≤ mi para todo 1 ≤ i ≤ p.

Teorema 5.14 Un endomorfismo f es diagonalizable si, y solo si, su polinomio


característico Pf (λ) verifica las siguientes propiedades:

(a) Pf (λ) = (λ1 − λ)m1 · · · (λp − λ)mp , donde λ1 , . . . , λp ∈ K son escalares distintos.

(b) La multiplicidad algebraica mi de λi coincide con su multiplicidad geométrica di


para todo 1 ≤ i ≤ p.

La demostración de este teorema se basa en el hecho de que podemos descomponer V


como suma directa de los subespacios propios, esto es,

V = Vλ1 ⊕ · · · ⊕ Vλp ,

y por tanto podemos construir una base B̄ de vectores propios. Por tanto, la matriz asociada
a f respecto de B̄ es diagonal y la matriz de paso P es aquella cuyas columnas son las
coordenadas de la base B̄ respecto de la base original (que suele ser la canónica).

Ejercicio 5.2 Para las matrices de los ejemplos anteriores que resulten diagonalizables,
hallar la matriz P de paso verificando P −1 AP = D, donde D es la matriz diagonal formada
por los valores propios de A repetidos tantas veces como indique su multiplicidad algebraica.
Capítulo 5.- Diagonalización de Matrices 131

Observación 5.15 La propiedad (a) del Teorema 5.14 es equivalente a decir que el polino-
mio descompone completamente sobre el cuerpo K que consideramos. Debemos, por tanto,
resaltar la importancia de precisar el cuerpo sobre el que trabajamos para no confundirse.
Concretamente, si trabajamos sobre el cuerpo R, es bien conocido que no todo polinomio
sobre R descompone en R, puesto que pueden haber raíces complejas. En ese caso el en-
domorfismo no es diagonalizable sobre el cuerpo R. Pero puede que sí sea diagonalizable
sobre C si verifica, además, la condición (b). En virtud de lo dicho, cuando trabajamos con
matrices reales conviene matizar si estamos estudiando la diagonalizabilidad sobre R o sobre
C.

Corolario 5.16 Si f ∈ EndK (V ) (o una matriz A ∈ Kn×n ) verifica que su poli-


nomio característico descompone completamente en K, y sus raíces tienen todas
multiplicidad 1, entonces f (ó A) es diagonalizable.

5.2.2. Procedimiento para estudiar si un endomorfismo f (o una matriz A)


es diagonalizable

Dado un endomorfismo f , estudiar su diagonalización es equivalente a estudiar la diago-


nalización de la matriz asociada a una cualquiera de sus bases (que para facilitar los cálculos
es conveniente trabajar respecto de la canónica). Dada una matriz cuadrada A sobre un cuer-
po K, podemos considerar f : Kn×1 → Kn×1 el endomorfismo dado por f (X) = AX, entonces
estudiar la diagonalización de A es equivalente a estudiar la diagonalización del endomorfis-
mo f . Así pues, podemos trabajar indistintamente con un endomorfismo o con una matriz.
De acuerdo con la teoría estudiada hasta ahora debemos seguir los siguientes pasos para
examinar la diagonalizabilidad:

1. En primer lugar calculamos el polinomio característico:

Pf (λ) = PA (λ) = |A − λI|,

Si Pf (λ) no descompone completamente en K, en virtud del Teorema 5.14 f (ó A)


no es diagonalizable.
Si Pf (λ) descompone completamente, esto es,

|A − λI| = (λ1 − λ)m1 · · · (λp − λ)mp , m1 + . . . + mp = n,

entonces pasamos al punto siguiente.

2. Calculamos las multiplicidades geométricas di de todos los valores propios λi con 1 ≤


i ≤ p; tenemos dos posibilidades:

Si di = dim(Vλi ) < mi para algún i, entonces no es diagonalizable.


Si di = dim(Vλi ) = mi para todo 1 ≤ i ≤ p, entonces f (ó A) si es diagonalizable.
132 ÁLGEBRA. Angel Giménez Pastor

3. Finalmente, si hay diagonalizabilidad, podemos obtener la matriz de paso P , cuyas


columnas vienen dadas por las coordenadas (respecto de la base de partida) de una
base de vectores propios en V . Para hallar dicha base, debemos encontrar bases Bi de
cada subespacio Vλi , y unirlas todas. Entonces deberá verificarse:

   
D1 0 ··· 0 λi 0 · · · 0
0 D2 · · · 0  0 λi · · · 0 
   
−1 mi ×mi
 
P AP = D =  .. .. .. .. Di = 
 .. .. .. ∈K
..  .

. . . . . . . .
 
 
0 0 · · · Dp 0 0 · · · λi

Ejercicio Básico 5.3 Decidir si las siguientes matrices son o no diagonalizables sobre R,
y en su caso, hallar una matriz P tal que P −1 AP = D.

 
0 1 0
(a)  0 0 1 
 

1 −3 3

 
3 −8 8
(b)  −4 7 −8 
 

−4 8 −9

 
3 1 1
(c)  −2 2 1 
 

1 0 2

 
0 0 0 1
 
 0 0 1 0 
(d)  

 0 1 0 0 

1 0 0 0

5.3. Diagonalización de matrices hermíticas

Las matrices que aparecen en la mayoría de aplicaciones suelen tener alguna particularidad
que facilita el cálculo de valores y vectores propios. Entre ellas, una de las más significativas
son las matrices simétricas, que incluyen las matrices definidas positivas. Establezcamos el
siguiente resultado relevante sobre valores propios y diagonalizabilidad de matrices simétri-
cas.
Capítulo 5.- Diagonalización de Matrices 133

Proposición 5.17 Sea A una matriz simétrica real. Entonces:

(a) Los valores propios de A son todos reales.

(b) A es diagonalizable sobre R.

Demostración. (a) Sea λ = a + bi es un valor propio de A. Entonces

B = (A − (a + bi)I)(A − (a − bi)I) = (A − aI)2 + b2 I

es una matriz real y no regular, puesto que (A − (a + bi)I) no lo es. Sea X ∈ Rn×1 un vector
columna no nulo. Teniendo en cuenta que A es simétrica, de un sencillo cálculo obtenemos

X T BX = Y T Y + b2 X T X,

donde Y = (A − aI)X. En particular, como B es no regular, podemos tomar X satisfaciendo


BX = 0, lo que implica que Y T Y + b2 X T X = 0, de donde concluimos por tanto que b = 0. λ es
así real. 

5.3.1. Diagonalización de una matriz simétrica real

Hemos mostrado que si A es una matriz simétrica real, entonces es siempre diagonalizable.
En ese caso, existe una base B = {v1 , . . . , vn } de Rn formada por vectores propios de A, y la
matriz P de paso es aquella cuyas columnas están formadas por las coordenadas de los
vectores propios de A. Un breve cálculo justifica la identidad
 
hv1 , v1 i hv1 , v2 i · · · hv1 , vn i
 hv2 , v1 i hv2 , v3 i · · · hv2 , vn i 
 
T
P P = .
 .. .. ..  ,
 .. . . . 
hvn , v1 i hvn , v2 i · · · hvn , vn i

donde h, i se refiere al producto escalar usual en Rn . Deducimos que P T P es la matriz de


Gram del producto escalar usual respecto a la base B de vectores propios. Observemos que
P T P = I si, y solo si, B es una base ortonormal de Rn formada por vectores propios de A.

Definición 5.18 Una matriz cuadrada P se denomina ortogonal si verifica P T P = I


o, equivalentemente, si P T = P −1 .

Así pues, una matriz P es ortogonal si, y solo si, sus columnas forman una base ortonormal
respecto al producto escalar usual. Nuestra meta ahora será encontrar bases ortonormales
de vectores propios de matrices simétricas.
134 ÁLGEBRA. Angel Giménez Pastor

Proposición 5.19 Vectores propios asociados a valores propios distintos de una


matriz simétrica real son mutuamente ortogonales.

Como consecuencia de la Proposición 5.19 los subespacios propios de A son ortogonales


entre sí. Podemos tomar una base ortonormal de cada uno de los subespacios propios de
A y, uniéndolas todas, obtendríamos una base ortonormal de vectores propios. Como sabe-
mos estos vectores propios dispuestos en columnas determinan la matriz P . Puesto que las
columnas de P forman una base ortonormal (respecto al producto escalar usual), se verifica

P T P = I,

y por tanto P T = P −1 . Esto implica que

D = P −1 AP = P T AP.

En definitiva, hemos probado que toda matriz simétrica admite una matriz ortogonal
verificando que D = P −1 AP es diagonal. Esta propiedad se la describe diciendo que A es
ortogonalmente diagonalizable, y aún podemos decir más; esta propiedad caracteriza a
las matrices simétricas.

Teorema 5.20 (Teorema Espectral) Sea A una matriz cuadrada real, entonces
son equivalentes:

(i) A es simétrica.

(ii) A es ortogonalmente diagonalizable.

Por tanto, las únicas matrices ortogonalmente diagonalizables son las matrices simétricas.

Ejemplo 5.8 Consideremos la matriz


 
1 1 1
A = 1 1 1  .
 

1 1 1

Vamos a hallar una matriz ortogonal P satisfaciendo que P T AP es una matriz diagonal. En primer lugar
hallamos el polinomio característico de A:
 
1−λ 1 1
PA (λ) = det  1 1−λ 1  = λ2 (3 − λ).
 

1 1 1−λ

Los subespacios propios son:

Vλ=0 = h{(1, −1, 0), (1, 0, −1)}i , Vλ=3 = h{(1, 1, 1)}i .


Capítulo 5.- Diagonalización de Matrices 135

Ortonormalizamos (por el método de Gram-Schmidt) cada subespacio propio por separado y obtenemos:
   
1 1 1
Vλ=0 = √ (1, −1, 0), √ (1, 1, −2) , Vλ=3 = √ (1, 1, 1) ,
2 6 3
y, en consecuencia, a matriz de paso P es
 
√1 √1 √1
 21 6 3
P = − √ √1 √1  .
 2 6 3
0 − √26 √1
3

Por otra parte, la matriz A es también congruente a la matriz diagonal formada por los valores propios de
A, de donde deducimos que A es semidefinida positiva.

Ejercicio 5.4 Diagonalizar ortogonalmente las siguientes matrices simétricas:


   
! ! 1 −1 0 4 −1 −2
2 −2 −2 3
, , −1 2 −1 , −1 4 −1 .
   
−2 3 3 6
0 −1 1 −2 −1 4

5.3.2. Diagonalización de una matriz hermítica

Podemos enunciar resultados análogos en el campo complejo, cambiando la palabra si-


métrica por la de hermítica.

Definición 5.21 Diremos que una matriz compleja H ∈ Cn×n es una matriz
hermítica si es igual a su traspuesta conjugada, que se denotará por H ∗ , esto
es, H = H ∗ .
Una matriz compleja U ∈ Cn×n se dice unitaria si verifica U ∗ U = U U ∗ = In .

Las matrices hermíticas son una generalización de las matrices simétricas al campo com-
plejo, y verifican que todos sus valores propios son reales. Las matrices unitarias son una
generalización de las matrices ortogonales. En este caso obtenemos una generalización del
teorema espectral al campo complejo.

Teorema 5.22 Sea H una matriz cuadrada compleja, entonces son equivalentes:

(i) H es hermítica.

(ii) H es unitariamente diagonalizable.


136 ÁLGEBRA. Angel Giménez Pastor

Aquí entendemos que una matriz H ∈ Cn×n es unitariamente diagonalizable si existe


una matriz U ∈ Cn×n unitaria verificando

U ∗ HU = U −1 HU = D,

donde D es una matriz diagonal real.


Ejercicio 5.5 Diagonalizar unitariamente la matriz:
 
2 −2i 0
H = 2i 1 1 + i .
 

0 1−i 2

5.4. Descomposición en valores singulares

Cuando tenemos una matriz real cualquiera podemos encontrar una descomposición si-
milar a la de las matrices simétricas que viene dada por el siguiente resultado.
Proposición 5.23 (SVD de una matriz) Sea A ∈ Rm×n tal que rg(A) = r. Entonces existen
matrices ortogonales U ∈ Rm×m y V ∈ Rn×n verificando:
 
! σ1 ··· 0
T D 0 . .. .. 
A = U ΣV , Σ = , D =  ..
 . .,
0 0
0 ··· σr

con σ1 ≥ σ2 ≥ · · · ≥ σr > 0 y donde σi2 son los valores propios distintos del cero de AT A. Esta
descomposión se denomina descomposición en valores singulares de una matriz.

5.4.1. Procedimiento para calcular la descomposición en valores singulares

Proposición 5.24 Sea A ∈ Rm×n


r una matriz cualquiera de rango r. Entonces:

(a) Las matrices AT A y AAT son matrices simétricas de rango r.

(b) Los valores propios de AT A y AAT son positivos. Más aún, son los mismos y con
las mismas multiplicidades algebraicas salvo quizás para el valor propio λ = 0.

(c) Sea λ 6= 0 (por tanto λ > 0) valor propio de AT A y X un vector propio asociado
a λ. Entonces Y = √1λ AX es vector propio de AAT asociado al valor propio λ.

1. Calculamos los valores propios λ1 , λ2 , . . . , λn de la matriz AT A ∈ Rn×n


r , siendo λ1 , . . . , λr
positivos y ordenados de mayor a menor, y λr+1 = · · · = λn = 0. Entonces
p
σi = λi , i = 1, . . . , r.
Capítulo 5.- Diagonalización de Matrices 137

2. Como AT A es diagonalizable entonces construimos la matriz


 
V = X1 · · · Xr Xr+1 · · · Xn

tal que X1 , . . . , Xn forma una base ortonormal de vectores propios de AT A. Además los
vectores Xr+1 , . . . , Xn son vectores propios asociados al valor propio λ = 0.

3. Para i = 1, . . . , r consideramos Yi = σ1i AXi , y consideramos una base ortonormal {Yr+1 , . . . , Ym }


del núcleo de AAT . Entonces:
 
U = Y1 · · · Yr Yr+1 · · · Ym .

5.5. Aplicaciones: Potencia m-ésima de una matriz cuadrada

Sea A una matriz cuadrada diagonalizable sobre K (R ó C). Entonces sabemos que admite
una matriz P sobre verificando A = P DP −1 donde P es una matriz regular. Entonces

Am = (P DP −1 )m = P Dm P −1 .

Para cerrar el capítulo, resolvamos el problema que se planteó en el Ejemplo 5.1. Recuér-
dese que el problema se redujo a calcular la potencia m-ésima de la matriz de transición
! ! !
0, 6 0, 2 3/5 1/5 1 3 1
A= = = .
0, 4 0, 8 2/5 4/5 5 2 4
!
3 1
Para facilitar los cálculos denotaremos B = , entonces,
2 4
!m
m 1 1 3 1
A = m Bm = m .
5 5 2 4

El polinomio característico de B es

3 − λ 1
PB (λ) = = (λ − 5)(λ − 2),

2 4 − λ

luego hay dos valores propios diferentes λ1 = 5 y λ2 = 2. Si hallamos los vectores propios
asociados a cada valor propio se obtiene fácilmente la matriz P de paso y su inversa,
! !
1 1 −1 1 1 1
P = , P = .
2 −1 3 2 −1

Haciendo uso de las técnicas aprendidas en esta sección calculamos la potencia m-ésima de
B, ! ! ! !
1 1 5 m 0 1 1 5 m + 2m+1 5m − 2m
1 1
B m = P Dm P −1 = = ,
3 2 −1 0 2m 2 −1 3 2 · 5m − 2m+1 2 · 5m + 2m
por tanto, !
2m+1 2m
m 1 1+ 5m 1− 5m
A = 2m+1 2m
.
3 2− 5m 2+ 5m
138 ÁLGEBRA. Angel Giménez Pastor

Teniendo en cuenta la identidad


! ! ! !
2m+1 2m
dm d0 1 1+ 5m 1− 5m 1/4
= Am = 2m+1 2m
,
sm s0 3 2− 5m 2+ 5m 3/4

obtenemos:
2m+1 2m
    
1 1 3
dm = 1+ + 1− ,
3 4 5m 4 5m
2m+1 2m
    
1 1 3
sm = 2− + 2+ .
3 4 5m 4 5m

Calculando el límite cuando m tiende a infinito podemos predecir lo que ocurre en el futuro:
1 2
lı́m dm = , lı́m sm = .
m→∞ 3 m→∞ 3
Así pues, mediante este procedimiento recuperamos, a lo más, dos tercios de la estructura
de hormigón. Nótese que para alcanzar esta conclusión solamente hubiera bastado hacer el
cálculo en una de las dos zonas (o bien la deteriorada, o bien en la sana), puesto que el
porcentaje en la otra es deducible.

Ejercicio 5.6 Hallar el término general de la sucesión de Fibonacci xn+2 = xn+1 + xn , con
x0 = 0 y x1 = 1.

You might also like