You are on page 1of 74

ALGEBRA LINEAL II

Dr. Vctor Manuel Bautista Ancona


Diciembre 2011
ndice general
Prefacio pg. v
Introduccin 1
1. Transformaciones lineales y matrices 8
1.1. Transformaciones lineales inyectivas y suprayectivas 8
1.2. Isomorsmos y transformaciones inversas 11
1.3. La matriz de cambio de base 15
1.4. La matriz asociada a una transformacin lineal 19
1.5. Matrices asociadas con suma y producto por escalar de transfor-
maciones lineales 21
1.6. Matriz asociada a la composicin de transformaciones lineales 21
1.7. El isomorsmo entre el espacio vectorial de las matrices y el
espacio vectorial de las transformaciones lineales 22
1.8. Equivalencia y semejanza entre matrices asociadas a la misma
transformacin lineal 23
Ejercicios 24
2. Teoria Espectral 28
2.1. Polinomios de matrices y de operadores lineales 28
2.2. Valores propios y vectores propios 29
2.2.1. Otra aproximacin: puntos jos y dilatacin de vectores 29
2.2.2. Algunos hechos utiles sobre raices de polinomios 30
2.2.3. Deniciones bsicas 31
2.3. Polinomio caracterstico 33
2.4. Una caracterizacin de matrices diagonalizables 35
2.4.1. Suma directa de subespacios 35
2.4.2. El complemento de Schur 36
2.4.3. Espacios de autovectores y diagonalizacin 37
2.5. Triangulacin de operadores lineales 40
2.6. El Teorema de Cayley-Hamilton 41
2.6.1. Polinomios con coecientes matriciales 41
2.6.2. El Teorema del Mapeo Espectral 43
2.7. El polinomio mnimo 45
2.7.1. El polinomio mnimo de una matriz 45
2.7.2. El polinomio mnimo de un vector 47
iv ndice general
2.7.3. Cmo hallar el polinomio minimal de un vector 48
2.7.4. Un criterio de diagonalizacin usando el polinomio mnimo 49
Ejercicios 51
3. Espacios con producto interno 55
3.1. Producto Interno 55
3.1.1. Denicin y Ejemplos 55
3.1.2. Norma de un vector 57
3.1.3. Distancia entre vectores 59
3.1.4. ngulo entre dos vectores 60
3.1.5. Matriz de Gram de un producto interno en una base de
vectores 60
3.2. Ortogonalidad 62
3.2.1. Conjuntos ortogonales y ortonormales 62
3.3. El proceso de ortogonalizacin de Gram-Schmidt 65
3.4. Complemento ortogonal 68
Prefacio
El lgebra Lineal es una herramienta bsica para casi todas las ramas de la matem-
tica as como para disciplinas anes tales como la fsica, la ingeniera y la computacin,
entre otras.
Estas notas, basadas en la materia lgebra Lineal II destinada a alumnos de la
Licenciaturas en: actuara, enseanza de las matemticas y matemticas de la Facultad
de Matemticas de la Universidad Autma de Yucatn, pretenden, entre tantos buenos
textos de lgebra lineal existentes, ser slo una introduccin bsica al tema que se ajusta
a los contenidos curriculares del curso y, al mismo tiempo, una gua de estudios para
los alumnos.
Las notas presuponen conocimientos previos de lgebra lineal: solucin y anlisis de
sistemas de ecuaciones lineales; clculo y propiedades de determinantes; deniciones,
propiedades y los resultados ms importantes de espacios vectoriales; y kernel, imagen,
rango y nulidad de transformaciones lineales.
Al inicio de estas notas, hacemos un breve resumen de algunos resultados, deniciones
y propiedades de los espacios vectoriales y las transformaciones lineales..
Si el lector tiene algn comentario, correccin, sugerencias, etc., por favor envale un
correo electrnico al autor.

Copyright: Victor Bautista Ancona, 2011-2012.


Licencia: Creative Commons Attribution-Share Alike 3.0 License
Correo electrnico: vbautista@uady.mx.

Este material est parcialmente nanciado por el Consejo Nacional de Ciencia y Tec-
nologa.
Introduccin
Se presenta un breve resumen y algunos resultados nuevos los cuales son los requisitos
mnimos para continuar la lectura del captulo siguiente.
Espacios Vectoriales
Denicin 0.1 Sea K un campo. Un espacio vectorial sobre K (o un K-espacio), es
una tupla (V, +, ) tal que:
1.. + : V V V es una funcin llamada suma.
2.. v +u = u +v para todos v, u V .
3.. (v +u) +w = v + (u +w) para todos v, u, w V .
4.. Existe un nico vector 0 V tal que v + 0 = v para todo v V .
5.. Para todo v V existe un nico vector v, tal que v + (v) = 0.
6.. : KV V es una funcin llamada la multiplicacin escalar.
7.. a (v +u) = (a v) + (a u) para todo a K, v, u V .
8.. (a +b) v = (a v) + (b v) para todo a, b K, v V .
9.. (ab) v = a (b v)para todo a, b K, v V .
10.. (1
K
) v = v para todo v V .
Los elementos de un espacio vectorial son llamados vectores. Usualmente escribimos kv
en lugar de k v.
Ejemplo 0.2 Sea K un campo.
1.. Z
1
= 0 es un K-espacio va f 0 = 0 para toda k K.
2.. Sea n N. Entonces K
n
es un K-espacio via k (a
1
, . . . , a
n
) = (ka
1
, . . . , k
a
n) para
toda k, a
1
, . . . , a
n
K.
3.. El anillo K[x] de polinomios con coecientes en K es un K-espacio via
k (a
0
+a
1
x + +a
n
x
n
) = (ka
0
) + (ka
1
)x + + (ka
n
)x
n
para toda k, a
1
. . . . , a
n
K.
Denicin 0.3 Sea K un campo y V un K-espacio. Sea / = (v
1
, . . . , v
n
) V
n
una
lista de vectores en V .
2 Introduccin
1.. / es llamado K-linealmente independiente si
a
1
v
1
+a
2
v
2
+ +a
n
v
n
= 0
V
para algunas a
1
, a
2
, . . . , a
n
K implica que a
1
= a
2
= = a
n
= 0
K
.
2.. Sea (a
1
, a
2
, . . . , a
n
) K
n
. Entonces a
1
v
1
+ a
2
v
2
+ + a
n
v
n
es llamada una K-
combinacin lineal de /.
gen
K
(/) = / = a
1
v
1
+a
2
v
2
+ +a
n
v
n
[ (a
1
, . . . , a
n
) K
n

es llamado el K-espacio generado por /. As que gen


K
(/) consiste de todas las K-
combinaciones lineales de /. Consideremos 0
V
una combinacin lineal de la lista
vaca ( ) y as gen
K
( ) = 0
V
.
3.. Decimos que / genera V , si V = gen
K
(/), esto es, cada vector en V es una combi-
nacin lineal de /.
4.. Decimos que / es una base de V si / es linealmente independiente y genera V .
5.. Decimos que / es linealmente dependiente si no es linealmente independiente, esto
es, si existen k
1
, . . . , k
n
K, no todos cero tales que
k
1
v
1
+k
2
v
2
+ +k
n
v
n
= 0
V
.
Ejemplo 0.4 1.. Hagamos e
i
= (0
K,
. . . , 0
K
, 1
K
, 0
K
, . . . , 0
K
) K
n
donde el 1
K
est en
la posicin i. Entonces (e
1
, e
2
, . . . , e
n
) es una base para K
n
, llamada la base cannica
(o estndar) de K
n
.
2..
_
1
K
, x, x
2
, . . . , x
n
_
es una base para K
n
[x], donde K
n
[x] es el conjunto de todos los
polinomios con coecientes en K de grado a lo ms n.
3.. La lista vaca ( ) es una base para Z
1
.
Lema 0.5 Sea K un campo, V un K-espacio vectorial y / = (v
1
, . . . , v
n
) una lista
de vectores en V . Entonces / es una base de V si y solamente si cada v V existen
k
1
, . . . , k
n
K nicos tales que
v =
n

i=1
k
i
v
i
.
Demostracin () Suponga que / es una base. Entonces / genera a V , y para cada
v V existen k
1
, . . . , k
n
K con
v =
n

i=1
k
i
v
i
.
Supongamos que existen tambin l
1
, . . . , l
n
K con
v =
n

i=1
l
i
v
i
.
Entonces
v =
n

i=1
(k
i
l
i
)v
i
=
n

i=1
k
i
v
i

n

i=1
l
i
v
i
= v v = 0
V
.
Dado que / es linealmente independientes concluimos que k
i
l
i
= 0
K
y de aqu k
i
= l
i
para toda 1 i n. As que los k

i
s son nicos.
Introduccin 3
() Suponga que cada v V es una nica combinacin lineal de /. Entonces
claramente / genera V . Sea k
1
, . . . , k
n
K con
v =
n

i=1
k
i
v
i
= 0
V
.
Dado que tambin tenemos
v =
n

i=1
0
K
v
i
= 0
V
de la hiptesis de unicidad obtenemos k
1
= = k
n
= 0
K
. De aqu, / es linealmente
independiente y de aqu, una base para V .
Lema 0.6 Sea K un campo y V un K-espacio. Sea / = (v
1
, . . . , v
n
) una lista de
vectores en V . Supongamos que existe 1 i n tales que v
i
es combinacin lineal de
(v
1
, . . . , v
i1
, v
i+1
, . . . , v
n
). Entonces / es linealmente dependiente.
Demostracin Por hiptesis,
v
i
= k
1
v
1
+ +k
i1
v
i1
+k
i+1
v
i+1
+ +k
n
v
n
para algunas k
j
K. De aqu
k
1
v
1
+ +k
i1
v
i1
+ (1
K
)v
i
+k
i+1
v
i+1
+ +k
n
v
n
= 0
V
y / es linealmente dependiente.
Denicin 0.7 Un espacio vectorial V sobre un campo K se dice que es nitamente
dimensional si V tiene una base nita. El tamao (nmero de elementos) de cualquier
base es la dimensin de V sobre K y se denota dim
K
V .
Lema 0.8 Sea K un campo, V un K-espacio y / = (v
1
, v
2
, . . . , v
n
) una lista nita de
vectores en V . Entonces las siguientes armaciones son equivalentes:
1.. / es una base para V .
2.. / es una lista generadora minimal, esto es, / genera a V pero para toda 1 i n,
(v
1
, . . . , v
i1
, v
i+1
, . . . , v
n
)
no genera a V .
3.. / es una lista linealmente independiente maximal, esto es, / es linealmente inde-
pendiente, pero para toda v V , (v
1
, v
2
, . . . , v
n
, v) es linealmente dependiente.
Demostracin (a) (b) Dado que / es base, genera a V . Dado que / es lineal-
mente independiente, el Lema 0.6 implica que v
i
no pertenece al espacio generado de
(v
1
, . . . , v
i1
, v
i+1
, . . . , v
n
) y de aqu, (v
1
, . . . , v
i1
, v
i+1
, . . . , v
n
) no genera a V .
(a) (c) Sea v V . Dado que / genera a V , v es una combinacin lineal de / y
de aqu, por el Lema 0.6 (v
1
, v
2
, . . . , v
n
, v) es linealmente dependiente.
(b) (a) Por hiptesis, / genera a V as que nicamente necesitamos mostrar que
/ es linealmente independiente. Supongamos que no. Entonces

n
i=1
k
i
v
i
= 0
V
para
4 Introduccin
algunos k
1
, k
2
. . . , k
n
K, no todos 0
K
. Sin prdida de generalidad, asumamos que
k
1
,= 0
K
. De aqu,
v
1
= k
1
1
_
n

i=2
k
i
v
i
_
.
Sea v V . Entonces v =

n
i=1
a
i
v
i
para algunas a
i
K y de aqu
v = a
1
_
k
1
1
_
n

i=2
k
i
v
i
__
+
n

i=2
a
i
v
i
=
n

i=2
_
a
i
k
1
1
a
i
_
v
i
.
De aqu, (v
2
, . . . , v
n
) generan a V , una contradiccin.
(b) (c) Por hiptesis, / es linealmente independiente, as que solamente tenemos
que probar que / genera a V . Sea v V . Por hiptesis, (v
1
, v
2
, . . . , v
n
, v) es linealmente
dependiente y de aqu
_
n

i=1
a
i
v
i
_
+av = 0
V
para algunos a
1
, . . . , a
n
, a K no todos cero. Si a = 0
K
, entonces dado que / es
linelamente independiente, a
i
= 0
K
para toda 1 i n, una contradiccin. Por lo
tanto, a ,= 0
K
y
v =
n

i=1
_
a
1
a
i
_
v
i
.
De aqu, / genera a V .
Transformaciones Lineales
Denicin 0.9 Sea K un campo y V, W dos K-espacios. Una transformacin K-lineal
de V a W es una funcin
f : V W
tal que
f (u +v) = f (u) +f (v) para todo u, v V .
f (kv) = kf (v) para todo k K y v V .
Estas dos condiciones juntas son equivalentes a la siguiente nica condicin
f (k
1
u +k
2
v) = k
1
f (u) +k
2
f (v) para todo k
1
, k
2
K u, v V .
Si V = W entonces la transformacin lineal recibe el nombre de operador K-lineal.
Para una transformacin K-lineal f : V W, siempre tenemos que f(0
V
) = 0
W
.
El siguiente ejemplo introduce un tipo importante de transformacin lineal asociada
a una matriz.
Introduccin 5
Ejemplo 0.10 Si A M
mn
(K) es una matriz de mn. Dena f
A
: K
n
K
m
por
la regla
f
A
(x) = Ax.
Entonces para s, t K y u, v K
n
,
f
A
(su +tv) = A(su +tv) = sAu +tAv = sf
A
(u) +tf
A
(v) .
De aqu, f
A
es lineal. Y llamamos a f
A
la transformacin lineal inducido por A.
Observe que los vectores de la base cannica e
1
, . . . , e
n
(vistos como vectores columna)
satisfacen
f
A
(e
j
) = j sima columna de A,
de aqu,
A = (f
A
(e
1
) [ f
A
(e
2
) [ [ f
A
(e
n
)) = [Ae
1
, Ae
2
, . . . , Ae
n
] .
Ahora, fcilmente se sigue que f
A
(e
1
) , f
A
(e
2
) , . . . , f
A
(e
n
) generan Im f
A
dado que
cada elemento del ltimo es una combinacin lineal de f
A
(e
1
) , f
A
(e
2
) , . . . , f
A
(e
n
).
Teorema 0.11 Sea f : V W y g : U V dos transformacin lineales entre los
K-espacios vectorial U, V, W. Entonces la composicin f g : U W es tambin una
transformacin lineal.
Demostracin Para s, t K y u
1
, u
2
U tenemos que mostrar que
(f g) (su
1
+tu
2
) = s (f g) (u
1
) +t (f g) (u
2
) .
Usando el hecho que f y g son lineales tenemos
(f g) (su
1
+tu
2
) = f (g (su
1
+tu
2
))
= f (sg (u
1
) +tg (u
2
))
= sf (g (u
1
)) +tf (g (u
2
))
= s (f g) (u
1
) +t (f g) (u
2
) .
Sean V y W dos K-espacios vectoriales. El conjunto de todas las transformaciones
lineales f : V W ser denotado por Hom
K
(V, W) (en la literatura, tambin es
denotado por L(V, W)).
Teorema 0.12 Hom
K
(V, W) es un K-espacio vectorial con las operaciones denidas
de la siguiente manera:
+ : Hom
K
(V, W) Hom
K
(V, W) Hom
K
(V, W)
(f, g) f +g
donde f +g Hom
K
(V, W) es tal que f +g : V W, (f +g) (v) f (v) +g (v) para
v V . Y
: KL(V, W) Hom
K
(V, W)
(s, f) sf
donde sf Hom
K
(V, W) es tal que sf : V W, (sf) (v) = sf (v).
6 Introduccin
Demostracin f +g abre sumas: sean v, u V . Tenemos que
(f +g)(v +u) = f(v +u) +g(v +u)
= [f(v) +f(u)] + [g(v) +g(u)]
= f(v) +g(v) +f(u) +g(u)
= (f +g)(v) + (f +g)(u).
f +g saca escalares:
(f +g)(av) = f(av) +g(av) = af(v) +ag(v)
= a[f(v) +g(v)] = a[(f +g)(v)];
por lo tanto, f + g es una transformacin lineal. Hagamos lo mismo con sf. sf abre
sumas: sean v, u V . Tenemos que:
(sf)(v +u) = s[f(v +u)] = s[f(v) +f(u)]
= sf(v) +sf(u) = (sf)(v) + (sf)(u).
sf saca escalares:
(sf)(bv) = s[f(bv)] = s[bf(v)] = [sb]f(v)
= [bs]f(v) = b[sf(v)] = b[(sf)(v)];
por lo tanto, sf es una transformacin lineal. Finalmente, el hecho de que con estas
operaciones de suma y multiplicacin por escalares Hom
K
(V, W) sea un K-espacio vec-
torial, se sigue de que las propiedades necesarias para Hom
K
(V, W) se heredan de V y
W. Por ejemplo, f +g = g +f porque f(v) +g(v) = g(v) +f(v).
Denicin 0.13 Sea f : V W una transformacin lineal. Entonces
El kernel (o ncleo o espacio nulo) de f es el subconjunto de V :
ker (f) = v V [ f (v) = 0
La imagen de f es el subconjunto de W :
Im(f) = w W [ existe v V, w = f (v)
= f (v) [ v V .
Teorema 0.14 Sea f : V W una transformacin lineal. Entonces
1.. ker(f)
K
V,
2.. Im(f)
K
W.
Demostracin (1) Sean s
1
, s
2
Ky v
1
, v
2
ker(f). Debemos mostrar que s
1
v
1
+s
2
v
2

ker(f), es decir, que f (s
1
v
1
+s
2
v
2
) = 0. Dado que f es una transformacin lineal y
f (v
1
) = f (v
2
) = 0, tenemos
f (s
1
v
1
+s
2
v
2
) = s
1
f (v
1
) +s
2
f (v
2
)
= s
1
0 +s
2
0
= 0,
de aqu, s
1
v
1
+s
2
v
2
ker(f). De aqu, ker(f) es un subespacio de V .
(2) Ejercicio.
Introduccin 7
Denicin 0.15 Sea f : V W una transformacin lineal. Entonces el rango de f
es
rango (f) = dim Im(f) ,
y la nulidad de f es
nulidad (f) = dim ker (f) .
Teorema 0.16 (El teorema del rango-nulidad) Sea f : V W una transformacin
lineal con V de dimensin nita. Entonces
dim V = rango (f) + nulidad (f) .
Demostracin Escojamos una base del ker(f), digamos u
1
, . . . , u
k
. Note que nulidad(f) =
k. Extendemos la base del ker(f) a una base de V , digamos, u
1
, . . . , u
k
, u
k+1
, . . . , u
n

donde n = dim V. Ahora, para s


1
, . . . , s
n
K,
f (s
1
u
1
+s
2
u
2
+ +s
n
u
n
) = s
1
f (u
1
) +s
2
f (u
2
) + +s
n
f (u
n
)
= s
1
0 + +s
k
0 +s
k+1
f (u
k+1
) + +s
n
f (u
n
)
= s
k+1
f (u
k+1
) + +s
n
f (u
n
)
Esto muestra que Im(f) es generado por los vectores f (u
k+1
) , . . . , f (u
n
). De hecho,
esta ltima expresion es nicamente cero cuando s
1
u
1
+s
2
u
2
+ +s
n
u
n
ker(f) lo cual
pasa si s
k+1
= = s
n
= 0. De aqu, los vectores f (u
k+1
) , . . . , f (u
n
) son linealmente
independientes y de aqu, forman una base para Im(f). De aqu, rango(f) = n k y el
resultado se sigue.
1
Transformaciones lineales y matrices
1.1 Transformaciones lineales inyectivas y suprayectivas
Recordemos la denicin de funciones inyectivas y suprayectivas.
Denicin 1.1 Una funcin f : X Y es:
inyectiva (o una inyeccin o uno-a-uno) si para x
1
, x
2
X,
f (x
1
) = f (x
2
) implica que x
1
= x
2
,
suprayectiva (o una suprayeccin o sobre) si para cada y Y existe una x X para
la cual y = f (x).
Para transformaciones lineales, podemos decidir de una mejor manera cuando una
transformacin es inyectiva o suprayectiva.
Teorema 1.2 Sea f : V W una transformacin lineal.
1.. f es inyectiva si y solamente si ker f = 0.
2.. f es suprayectiva si y solamente si Im f = W.
Demostracin 1.. Note que f (0) = 0. De aqu, si f es inyectiva entonces f (v) = 0
implica que v = 0, es decir, ker f = 0.
Recprocamente, supongamos que ker f = 0, v
1
, v
2
V y f (v
1
) = f (v
2
). Dado
que f es lineal,
f (v
1
v
2
) = f (v
1
+ (1) v
2
)
= f (v
1
) + (1) f (v
2
)
= f (v
1
) f (v
2
)
= 0
de aqu, f (v
1
v
2
) = 0 y de aqu, v
1
v
2
= 0, i.e. v
1
= v
2
. Esto muestra que f es
inyectiva.
2.. Es inmediato de la denicin de suprayectividad.
Usando Teorema 1.2, podemos reescribir el Teorema del rango-nulidad.
Teorema 1.3 Sea f : V W una transformacin lineal.
1.1 Transformaciones lineales inyectivas y suprayectivas 9
1.. f es inyectiva si y solamente si nulidad(f) = 0.
2.. f es suprayectiva si y solamente si rango (f) = dim W.
Ejercicio 1.4 Demostrar el Teorema 1.3.
Corolario 1.5 Sea f : V W una transformacin lineal con V y W espacios
vectoriales sobre K de dimensin nita. Entonces:
1.. si f es una inyectiva, entonces dim
K
V dim
K
W;
2.. si f es suprayectiva, entonces dim
K
V dim
K
W.
Demostracin Usamos el Teorema de la dimensin y el Teorema 1.2.
1.. Dado que Im f es un subespacio de W, tenemos dim Im f dim W, de aqu, si f
es inyectiva,
dim V = rango (f) dim W.
2.. Si f es suprayectiva tenemos
dim V > rango (f) = dim W.
Ms an,
Corolario 1.6 Sea dim V = dim W = n. Entonces, una transformacin lineal f :
V W es inyectiva si y solamente si es suprayectiva.
Demostracin f es inyectiva si y slo si nulidad(f) = 0 si y solamente si n = rango (f)
si y solamente si Im f = W si y solamente si f es suprayectiva.
La propiedad ms importante de una transformacin lineal T : V W es que T est
completamente determinada por su efecto sobre una base para V . El siguiente ejemplo
demuestra lo que esto signica:
Ejemplo 1.7 Suponga que T es una transformacin lineal de R
2
a R
2
[X] tal que
T
_
1
1
_
= 2 3X +X
2
y T
_
2
3
_
= 1 X
2
.
Halle T
_
1
2
_
y T
_
a
b
_
.
Solucin. Observe que =
__
1
1
_
,
_
1
2
__
es una base. (Porqu?). Entonces
_
a
b
_
= (3a 2b)
_
1
1
_
+ (b a)
_
2
3
_
,
10 Transformaciones lineales y matrices
de modo que
T
_
a
b
_
= T
_
(3a 2b)
_
1
1
_
+ (b a)
_
2
3
__
= (3a 2b)T
_
1
1
_
+ (b a)T
_
2
3
_
= (3a 2b)(2 3x +x
2
) + (b a)(1 x
2
)
= (5a 3b) + (9a + 6b)X + (4a 3b)X
2
.
La demostracin del teorema general es bastante directa (de hecho, el argumento se
us en la prueba del Teorema 0.16):
Teorema 1.8 Sea f : V W una transformacin lineal y sea S = v
1
, . . . , v
n
un
conjunto generador para V . Entonces f(S) = f(v
1
), . . . , f(v
n
) genera a Im f.
Demostracin Sea w Im f. Por denicin, existe v V tal que f(v) = w. Dado que
S genera a V , existen escalares
1
, . . . ,
n
tales que
v =
1
v
1
+ +
n
v
n
Al aplicar f y usando su linealidad, obtenemos
w = f(v) = f (
1
v
1
+ +
n
v
n
) =
1
f(v
1
) + +
n
f(v
n
).
Esto concluye la prueba.
Ahora mostramos que las transformaciones lineales inyectivas conservan independen-
cia lineal.
Corolario 1.9 Sea f : V W una transformacin lineal inyectiva. Si S =
v
1
, . . . , v
k
es un conjunto linealmente independiente en V , entonces
f (S) = f (v
1
) , . . . , f (v
k
)
es un conjunto linealmente independiente en W.
Demostracin Sean
1
, . . . ,
k
escalares tales que

1
f (v
1
) + +
k
f (v
k
) = 0.
Entonces, de la linealidad de f tenemos
f (
1
v
1
+ +fv
k
) = 0
De aqu,
1
v
1
+ +fv
k
ker f, y por la inyectividad de f se sigue que
1
v
1
+ +
fv
k
= 0. Ya que v
1
, . . . , v
k
es un conjunto linealmente independiente, c
i
= 0 para
toda i. Por lo tanto, f (S) es linealmente independiente.
Corolario 1.10 Sea dim V = dim W = n. Entonces una transformacin lineal in-
yectiva f : V W mapea una base para V en una base para W. En otras palabras, si
S = v
1
, . . . , v
n
es una base para V , entonces f (S) = f (v
1
) , . . . , f (v
n
) es una base
para W.
1.2 Isomorsmos y transformaciones inversas 11
Demostracin Si S = v
1
, . . . , v
n
es es linealmente independiente en V , por el Co-
rolario 1.9, f (S) = f (v
1
) , . . . , f (v
n
) es linealmente independiente en W. Solo resta
probar que f (S) genera a W. Ya que f es inyectiva, entonces f es suprayectiva y del
Teorema 1.8 se sigue el resultado.
1.2 Isomorsmos y transformaciones inversas
Recordemos la siguiente denicin de funciones en general:
Denicin 1.11 Una funcin f : X Y es biyectiva (o una biyeccin o una corres-
pondecia uno-a-uno) si es inyectiva y suprayectiva.
y el siguiente teorema:
Proposicin 1.12 La funcin f : X Y es una biyeccin si y solamente si existe
una funcin inversa Y X la cual es la nica funcin h : Y X que satisface
h f = Id
X
, f h = Id
Y
.
Si tal inversa existe es usual denotarla por f
1
: Y X, y entonces tenemos
f
1
f = Id
X
, f f
1
= Id
Y
.
Entonces
Teorema 1.13 Let f : V W una transformacin lineal biyectiva. Entonces la
funcin inversa f
1
: W V es una transformacin lineal.
Demostracin Sean k
1
, k
2
K y w
1
, w
2
W. Tenemos que mostrar que
f
1
(k
1
w
1
+k
2
w
2
) = k
1
f
1
(w
1
) +k
2
f
1
(w
2
).
Los siguientes clculos hacen eso:
f
_
f
1
(k
1
w
1
+k
2
w
2
) k
1
f
1
(w
1
) k
2
f
1
(w
2
)
_
= f f
1
(k
1
w
1
+k
2
w
2
) f
_
k
1
f
1
(w
1
) k
2
f
1
(w
2
)
_
= Id
W
(k
1
w
1
+k
2
w
2
) f
_
k
1
f
1
(w
1
) k
2
f
1
(w
2
)
_
= (k
1
w
1
+k
2
w
2
)
_
k
1
f f
1
(w
1
) k
2
f f
1
(w
2
)
_
= (k
1
w
1
+k
2
w
2
) (k
1
Id
W
(w
1
) k
2
Id
W
(w
2
))
= (k
1
w
1
+k
2
w
2
) (k
1
w
1
+k
2
w
2
)
= 0.
Dado que f es inyectiva esto signica que
f
1
(k
1
w
1
+k
2
w
2
) k
1
f
1
(w
1
) k
2
f
1
(w
2
) = 0.
obteniendo la frmula deseada.
Denicin 1.14 Una transformacin lineal f : V W la cual es una funcin biyec-
tiva es llamado un isomorsmo de V a W, y decimos que los espacios vectoriales son
isomorfos.
12 Transformaciones lineales y matrices
Note que para un isomorsmo f : V W, la inversa f
1
: W V es tambin un
isomorsmo.
Teorema 1.15 Sea f : V W una transformacin lineal. Entonces f es biyectiva si
y solamente si ker f = 0 y rango f = dim V .
Demostracin Se sigue del Teorema 1.3.
Corolario 1.16 Sea f : V W una transformacin lineal con V y W espacios
vectoriales sobre K de dimensin nita. Entonces si f es una biyeccin, entonces dim
K
V = dim
K
W.
Demostracin Se sigue del Corolario 1.5.
Ejemplo 1.17 Sea K un campo. Para n 1, considere el espacio vectorial M
n
(K).
Dena la funcin traza tr : M
n
(K) K por
tr ([a
i,j
]) =
n

r=1
a
r,r
= a
1,1
+a
2,2
+ +a
n,n
.
Muestra que tr es una transformacin lineal y halla bases para su kernel y su imagen.
Solucin: Para [a
i,j
], [b
i,j
] M
n
(K) y k
1
, k
2
K tenemos
tr (k
1
[a
i,j
] +k
2
[b
i,j
]) = tr ([k
1
a
i,j
+k
2
b
i,j
])
=
n

r=1
(k
1
a
r,r
+k
2
b
r,r
)
=
n

r=1
k
1
a
r,r
+
n

r=1
k
2
b
r,r
= k
1
n

r=1
a
r,r
+k
2
n

r=1
b
r,r
= k
1
tr ([a
i,j
]) +k
2
tr ([b
i,j
]) ,
de aqu, tr es una transformacin lineal.
Note que dim
K
M
n
(K) = n
2
y que la dim
K
K = 1. Tambin, para k K,
tr
_
_
_
k 0 0
.
.
.
.
.
.
.
.
.
0 0 0
_
_
_ = k.
Esto muestra que Im tr = K, i.e., tr es suprayectiva e Im tr = K tiene como base 1.
Por el Teorema del rango-nulidad,
nulidad tr = dim
K
ker tr = n
2
1.
Ahora las matrices E
rs
(r, s = 1, . . . , n1, r ,= s) y E
rr
E
(r+1)(r+1)
(r = 1, . . . , n1)
viven en el ker tr y son linealmente independientes. Ellas son
n(n 1) + (n 1) = (n + 1)(n 1) = n
2
1.
y de aqu, forman una base del ker tr.
1.2 Isomorsmos y transformaciones inversas 13
Ejercicio 1.18 Sea K un campo y sean m, n 1. Considere la funcin transpuesta
()
T
: M
mn
(K) M
nm
(K)
denida por
[a
i,j
]
T
= [a
j,i
].
Muestra que ()
T
es una transformacin lineal la cual es un isomorsmo. Cul es la
inversa?
Ejercicio 1.19 Sean m, n 1. Considere la funcin Hermitiana conjugada
()

: M
mn
(C) M
nm
(C)
denida por
[a
i,j
]

= [a
j,i
].
Muestra que si M
mn
(C) y M
nm
(C) son vistos como espacios vectoriales reales, en-
tonces ()

es una transformacin lineal la cual es un isomorsmo.


Ejercicio 1.20 Para todas las matrices complejas P M
lm
(C) y Q M
mn
(C),
(PQ)

= Q

.
Denicin 1.21 Una matriz compleja B M
n
(C) es llamada
Hermitiana si B

= B,
Anti-hermitiana si B

= B.
Trabajemos un poco con las bases y los vectores de coordenadas.
Lema 1.22 Sean V y W dos espacios vectoriales de dimensin nita sobre K, y sea
S = v
1
, v
2
, . . . , v
n
una base para V . Supongamos que f : V W es una transforma-
cin lineal. Entonces
1.. si f(v
1
), f(v
2
), . . . , f(v
n
) son linealmente independientes en W, entonces f es una
inyeccin.
2.. si f(v
1
), . . . , f(v
n
) genera a W, entonces f es suprayectiva.
3.. si f(v
1
), . . . , f(v
n
) forma una base para W, entonces f es biyectiva.
Demostracin 1.. La ecuacin
f (s
1
v
1
+ +s
n
v
n
) = 0
es equivalente a
s
1
f(v
1
) + +s
n
f(v
n
) = 0
y as, si los vectores f(v
1
), . . . , f(v
n
) son lineamente independentes, entonces esta
ecuacin tiene solucin nica s
1
= = s
n
= 0. Esto muestra que Ker f = 0 y
por el Teorema 1.2 tenemos que f es inyectiva.
2.. Im f W contiene a cada vector de la forma
f(t
1
v
1
+ +t
n
v
n
) = t
1
f(v
1
) + +t
n
f(v
n
)
con t
1
, . . . , t
n
K. Si los vectores f(v
1
), . . . , f(v
n
) generan W, esto muestra que
W Im f y de aqu f es suprayectiva.
14 Transformaciones lineales y matrices
3.. Se sigue al combinar (1..) y (2..)
Recuerde que
Teorema 1.23 Sea S = v
1
, . . . , v
n
una base para el espacio vectorial V . Sea W
un segundo espacio vectorial y sea T = w
1
, . . . , w
n
una sucecin de vectors en W.
Entonces existe una nica transformacin lineal f : V W satisfaciendo
f(v
i
) = w
i
para i = 1, . . . , n.
Ejercicio 1.24 Demuestre de memoria el Teorema 1.23.
Una til consecuencia de este resultado es el siguiente.
Teorema 1.25 Supongamos que el espacio vectorial V es una suma directa V =
V
1
V
2
de dos subespacios y sea f
1
: V
1
W y f
2
: V
2
W dos transformaciones
lineales. Entonces existe una nica transformacin lineal f : V W extendiendo f
1
, f
2
,
es decir, satisfaciendo
f(u) = f
1
(u) si u V
1
;
= f
2
(u) si u V
2
.
Demostracin Use bases de V
1
y V
2
para former una base de V , ahora aplique el
Teorema 1.23.
Aqu otro resultado til.
Teorema 1.26 Sean V y W dos espacios vectorial de dimensin nite sobre K con
n = dim
K
V y m = dim
K
W. Suponga que S = v
1
, . . . , v
n
y T = w
1
, . . . , w
m
son
bases para V y W respectivamente. Entonces existe una nica transformacin lineal
f : V W con las siguientes propiedades:
1.. Si n m entonces
f(v
j
) = w
j
para j = 1, . . . , n.
2.. Si n > m entonces
f(v
j
) = w
j
cuando j = 1, . . . , m y f(v
j
) = 0 si j > m.
Ms an, f satisface:
3.. si n m entonces f es inyectiva;
4.. si n > m entonces f es suprayectiva;
5.. si m = n entonces f es un isomorsmo.
Demostracin 1.. Comenzamos con la sucesin w
1
, . . . , w
n
, podemos aplicar el Teore-
ma 1.23 para mostrar que existe una nica transformacin lineal f : V W con las
propiedades establecidas.
2.. Comenzamos con la sucesin w
1
, . . . , w
m
, 0, . . . , 0 de longitud n, podemos aplicar el
Teorema 1.23 para mostrar que existe una nica transformacin lineal f : V W
con las propiedades establecidas.
1.3 La matriz de cambio de base 15
3.. , 4.., 5.. se sigue del Lema 1.22.
El resultado siguiente provee una manera conveniente de decidir si dos espacios vec-
torial son isomorfos: simplemente mostrando que ellos poseen la misma dimensin.
Teorema 1.27 Sean V y W espacios vectorial de dimensin nita sobre el campo K.
Entonces existe un isomorsmo V W si y slo si dim
K
V = dim
K
W.
Demostracin Si existe un isomorsmo f : V W, entonces dim
K
V = dim
K
W por
el Corolario 1.16. Para el recproco, si dim
K
V = dim
K
W entonces por el Teorema 1.26
(5..) existe un isomorsmo V W.
1.3 La matriz de cambio de base
Dadas dos bases de un mismo K-espacio vectorial V de dimensin nita, cada ele-
mento de V tiene asociados dos vectores de coordenadas (generalmente distintos), uno
en cada una de las bases. Con la ayuda de cierta matriz, llamada de cambio de base, se
pueden obtener las coordenadas de un vector con respecto a una base de V a partir de
las coordenadas del vector en otra base.
Ejemplo 1.28 Considere el espacio R
2
y las siguientes dos bases:
=
_
u
1
=
_
1
2
_
, u
2
=
_
2
1
__
y
=
_
v
1
=
_
1
0
_
, v
2
=
_
1
1
__
.
Halle [x]

dado que [x]

=
_
1
3
_
.
Solucin: Ya que x = u
1
+ 3u
2
, escribimos u
1
y u
2
en trminos de v
1
y v
2
y obtenemos
las coordenadas de x con respecto a :
u
1
= 3v
1
+ 2v
2
,
u
2
= 3v
1
v
2
.
De donde, haciendo las sustituciones y reduciendo los trminos comunes, tenemos
x = u
1
+ 3u
2
= (3v
1
+ 2v
2
) + 3(3v
1
v
2
) = 6v
1
v
2
.
Por lo tanto,
[x]

=
_
6
1
_
.
Observemos los clculos hechos en el Ejemplo 1.28 desde una perspectiva diferente:
Ya que x = u
1
+ 3u
2
se tiene:
[x]

= [u
1
+ 3u
2
]

= [u
1
]

+ 3[u
2
]

= ([u
1
]

, [u
2
]

)
_
1
3
_
16 Transformaciones lineales y matrices
donde ([u
1
]

, [u
2
]

) es una matriz cuyas columnas estn formadas por los vectores [u


1
]

y [u
2
]

, es decir,
([u
1
]

, [u
2
]

) =
_
3 3
2 1
_
.
Esta matriz es llamada matriz de cambio de base y en el Teorema 1.30 se demuestra
que siempre existe y que adems es invertible.
Ejercicio 1.29 Considere el espacio R
2
[X] con las siguientes dos bases: = 1, X, X
2
y = 1 +X, X +X
2
, 1 +X
2
. Halla una matriz cambio de base.
Teorema 1.30 Sea V un K-espacio vectorial de dimensin n, y sean
1
= v
1
, . . . , v
n

y
2
= w
1
, . . . , w
n
bases ordenadas de V . Sea A la matriz de n n cuya columna
i-sima es el vector coordenada de w
i
con respecto a la base
1
.
V
K
n
K
n

[]

[]

A
Entonces A es invertible, y para todo v V tenemos que
[v]

1
= A[v]

2
.
A la matriz A se le llama la matriz de cambio de base de
2
a
1
.
Demostracin Sea v un vector arbitrario en V . Sea X = (x
1
, . . . , x
n
) el vector de
coordenadas de v con respecto a la base ordenada
2
. Queremos demostrar que AX es
el vector de coordenadas de v con respecto a la base
1
. Es un ejercicio mostrar que
[v]

1
= [x
1
w
1
+x
2
w
2
+ +x
n
w
n
]

1
= x
1
[w
1
]

1
+x
2
[w
2
]

1
+ +x
n
[w
n
]

1
.
La ltima expresin es justamente el producto AX desglosado por columnas.
Procedamos a demostrar que la matriz A es invertible. Armamos que el sistema
homogneo AX = 0 tiene una solucin nica (la trivial). En efecto, si X es solucin
de dicho sistema, el vector v cuyo vector de coordenadas con respecto a la base
2
es
X cumple que [v]

1
= AX = 0. Es un Ejercicio mostrar que v debe ser el vector cero,
por lo que X tambin es el vector columna cero. Se sigue que la matriz A debe ser
invertible.
El Teorema 1.30 muestra que la matriz A cumple con las propiedades descritas al
comienzo de la seccin. Ahora, escribimos una denicin formal.
Denicin 1.31 Sea V un K -espacio vectorial de dimensin n, y sean
1
= v
1
, . . . , v
n
y
2
= w
1
, . . . , w
n
bases de V . Para cada 1 j n,sean
ij
K(1 i n) tales que
v
j
=

n
i=1

ij
w
i
. Se llama matriz de cambio de base de
1
a
2
, y se denota por
C(
1
,
2
) K
nn
, a la matriz denida por
(C(
1
,
2
))
i,j
=
ij
para cada 1 i, j n.
1.3 La matriz de cambio de base 17
Ejemplo 1.32 Sea V = R
3
. Consideremos las bases
1
= E = (1, 0, 0), (0, 1, 0), (0, 0, 1)
y
2
= (1, 1, 1), (1, 1, 0), (1, 0, 0). Para construir la matriz C(
1
,
2
) R
33
, comen-
zamos por escribir los elementos de
1
como combinacin lineal de los de vectores de

2
:
(1, 0, 0) = 0(1, 1, 1) + 0(1, 1, 0) + 1(1, 0, 0),
(0, 1, 0) = 0(1, 1, 1) + 1(1, 1, 0) + (1)(1, 0, 0)
(0, 0, 1) = 1(1, 1, 1) + (1)(1, 1, 0) + 0(1, 0, 0)
Entonces, la matriz de cambio de base es:
C(
1
,
2
) =
_
_
0 0 1
0 1 1
1 1 0
_
_
Una pregunta que surge es la de la unicidad de la matriz de cambio de base: dadas
dos bases
1
y
2
, la matriz C(
1
,
2
) que hemos denido transforma coordenadas en
la base
1
en coordenadas en la base
2
. Existir alguna otra matriz en K
nn
con esta
misma propiedad? El resultado que probamos a continuacin nos asegura que no.
Proposicin 1.33 Sean A, B K
nn
. Si Ax = Bx para todo x K
n
, entonces
A = B.
Demostracin Sea E = e
1
, . . . , e
n
la base cannica de K
n
. Por hiptesis, Ae
j
= Be
j
para cada 1 j n. Pero
(Ae
j
)
i
=
n

h=1
A
i,h
(e
j
)
h
= A
i,j
y (Be
j
)
i
=
n

h=1
B
i,h
(e
j
)
h
= B
i,j
para cada 1 i n, de donde A
i,j
= B
i,j
para todo 1 i, j n. Luego, A = B.
Del Teorema 1.30 y la Proposicin 1.33 se desprende:
Observacin 1.34 Dadas dos bases
1
y
2
de un espacio vectorial V de dimensin
n, la matriz C(
1
,
2
) es la nica matriz en K
nn
que verica C(
1
,
2
)[x]

1
= [x]

2
para todo x V . Esta observacin nos dice que si una matriz A verica A[x]

1
= [x]

2
para todo x V , entonces necesariamente A = C(
1
,
2
).
Utilizando la Observacin 1.34, es fcil probar las igualdades que enunciamos a con-
tinuacin.
Corolario 1.35 Sea V un K-espacio vectorial de dimensin nita, y sean
1
,
2
y
3
bases de V . Entonces:
V
[]

1
.
[]

[]

K
n
C(
1
,
2
)

C(
1
,
3
)

K
n
C(
2
,
3
)

K
n
18 Transformaciones lineales y matrices
C(
1
,
3
) = C(
2
,
3
)C(
1
,
2
).
V
[]

1
.
[]

K
n
C(
1
,
2
)

K
n
C(
2
,
1
)
.
C(
2
,
1
) = C(
1
,
2
)
1
.
Ejercicio 1.36 Demostrar el Corolario 1.35.
Para terminar, probaremos algunos resultados que relacionan matrices inversibles con
cambios de base.
Proposicin 1.37 Sea A GL(n, K). Existen bases
1
,
2
de K
n
tales que A =
C(
1
,
2
).
Demostracin Supongamos que A
i,j
= a
ij
para cada 1 i n, 1 j n. Sea

2
= E = e
1
, . . . , e
n
, la base cannica de K , y sea
1
=

n
i=1
a
i1
e
i
, . . . ,

n
i=1
a
in
e
i
.
Veamos que
1
es una base de K
n
, para lo cual basta ver que
1
es un conjunto lineal-
mente independiente (Porqu?). Supongamos que

n
j=1

j
(

n
i=1
a
ij
e
i
) = 0. Entonces
0 =
n

j=1
_
n

i=1

j
a
ij
e
i
_
=
n

i=1
_
_
n

j=1

j
a
ij
e
i
_
_
=
n

i=1
_
_
n

j=1

j
a
ij
_
_
e
i
,
de donde

n
j=1

j
a
ij
= 0 para cada 1 i n, o equivalentemente,
A
_
_
_

1
.
.
.

n
_
_
_ = 0
Como A es invertible, esto implica que
1
= =
n
= 0. Luego
1
es linealmente
independiente y, en consecuencia, una base de K
nn
.
Es claro que C(
1
, E) = A.
Proposicin 1.38 Sea A GL(n, K) y sea una base de K
n
. Entonces:
1.. Existe una base
1
de K
n
tal que A = C(
1
, ).
2.. Existe una base
2
de K
n
tal que A = C(,
2
).
Demostracin 1.. Se prueba en forma anloga a la Proposicin 1.37, reemplazando la
base cannica E por la base dada.
2.. Por la parte (1..), dadas A
1
GL(n, K) y la base de K
n
, existe una base
2
de
K
n
tal que A
1
= C(
2
, ). En consecuencia, A = C(
2
, )
1
= C(,
2
).
1.4 La matriz asociada a una transformacin lineal 19
1.4 La matriz asociada a una transformacin lineal
Uno de los primeros ejemplos de transformaciones lineales que hemos visto son aqu-
llas de la forma f : K
n
K
m
, f(x) = Ax con A K
mn
(cuando quede claro por el
contexto, suprimiremos el signo de t, escribiendo Ax en lugar de (Ax
t
)
t
).
En esta seccin veremos que toda transformacin lineal entre espacios vectoriales de
dimensin nita puede representarse de esta manera. Para esto, utilizaremos de manera
fundamental el hecho de que jada una base de un K-espacio vectorial V de dimensin
nita n, se tiene un isomorsmo entre V y K
n
tomando coordenadas en dicha base.
En esta seccin todos los espacios vectoriales considerados sern de dimensin nita.
Si V y W son K-espacios vectoriales de dimensin n y m respectivamente, una trans-
formacin lineal f : V W queda unvocamente determinada por los n vectores de
W que son los valores de f en una base cualquiera de V (digamos ) . Adems, jada
una base de W (digamos ), estos n vectores quedan determinados por medio de sus
vectores de coordenadas en K
m
. El siguiente diagrama resume la situacin:
V
f

[]

W
[]

K
n
[]
1

[]

f[]
1

K
m
Sabemos que []

f []
1

es una transformacin lineal de K


n
a K
m
por lo tanto, debe
ser una transformacin lineal del tipo T
A
para alguna matriz A. Pero, cual es sta?
Primero, observe que la matriz A que buscamos, debe tener la siguiente propiedad:
A[v]

= [f(v)]

Ahora, si = v
1
, . . . , v
n
es una base para V , entonces
[v
i
]

=
_
_
_
_
_
_
_
_
0
.
.
.
1
.
.
.
0
_
_
_
_
_
_
_
_
= e
i
.
De modo que,
[e
i
]
1

= v
i
.
Por lo tanto,
_
[]

f []
1

_
(e
i
) = ([]

f) (v
i
)
= ([]

) (f(v
i
))
= [f(v
i
)]

.
En resumen, tenemos el siguiente teorema:
20 Transformaciones lineales y matrices
Teorema 1.39 Sean V y W dos espacios vectoriales de dimensin nita sobre K;
y dos bases de V y W respectivamente, con = v
1
, . . . , v
n
. Si f : V W es una
transformacin lineal, entonces la matriz A de mn denida por
A = ([f(v
1
)]

, . . . , [f(v
n
)]

)
satisface
A[v]

= [f(v)]

para toda v V .
Demostracin Sea x V y sea [x]

= (x
1
, . . . , x
n
), es decir, x =

n
i=1
x
i
v
i
. Para cada
1 i n, sea C
i
la i-sima columna de A. Por denicin, C
i
= [f(v
i
)]

. Entonces
A[x]

= x
1
C
1
+ +x
n
C
n
= x
1
[f(v
1
)]

+ +x
n
[f(v
n
)]

=
_
n

i=1
x
i
f(v
i
)
_

= [f(x)]

.
Del Teorema 1.39 tenemos la siguiente denicin:
Denicin 1.40 Sean V y W dos K-espacios vectoriales de dimensin nita. Sean

1
= v
1
, . . . , v
n
una base de V y
2
= w
1
, . . . , w
m
una base de W. Sea f : V W
una transformacin lineal. Supongamos que f(v
j
) =

i=1

j
w
j
(1 j n). Se llama
matriz de f en las bases
1
,
2
, y se denota [f]

1
2
, a la matriz en K
mn
denida por
([f]

1
2
)
i,j
=
ij
para cada 1 i m, 1 j n.
V
f

[]

W
[]

K
n
[f]

K
m
Si f : V V y
1
=
2
= , denotaremos [f]

= [f]

.
Ejemplo 1.41 Sea f : R
3
R
2
, dada por f (x
1
, x
2
, x
3
) = (x
1
+ 2x
2
x
3
, x
1
+ 3x
2
),
y sean
1
y
2
las bases cannicas de R
3
y R
2
respectivamente. Se tiene que
f(1, 0, 0) = (1, 1), f(0, 1, 0) = (2, 3), f(0, 0, 1) = (1, 0).
Entonces
[f]

2
=
_
1 2 1
1 3 0
_
.
Observacin 1.42 Si consideramos la transformacin lineal asociada a una matriz
A K
nm
, f
A
: K
m
K
n
denida por f
A
(x) = Ax, entonces, a partir de la Denicin
1.40, la matriz de f
A
en las bases cannicas E y E

de K
m
y K
n
respectivamente resulta
ser [f
A
]
EE
= A.
1.5 Matrices asociadas con suma y producto por escalar de transformaciones lineales 21
Observacin 1.43 Sea V un K-espacio vectorial de dimensin n, y sean
1
y
2
bases de V . Entonces [id
V
]

2
= C(
1
,
2
), la matriz de cambio de base de
1
a
2
.
(ver Denicin 1.31). Mediante el uso de las matrices introducidas en la Denicin 1.40
y de vectores de coordenadas, toda transformacin lineal puede representarse como la
multiplicacin por una matriz ja.
1.5 Matrices asociadas con suma y producto por escalar de
transformaciones lineales
Recuerde que Hom
K
(V, W) = f : V W [ f es una transformacin lineal es un
espacio vectorial sobre K.
El siguiente resultado nos d luz sobre el comportamiento de las matrices asociadas
cuando consideramos elementos de Hom
K
y su estructura algebraica.
Proposicin 1.44 Sean V y W dos K-espacios vectoriales de dimensin nita, con
dim V = n y dim W = m. Sean y

bases de V y W respectivamente. Sean f, g


Hom
K
(V, W). Entonces:
1.. [f +g]

= [f]

+ [g]

.
2.. [f]

= [f]

para K.
Demostracin 1.. Observemos que la j-sima columna de la matriz [f +g]

es:
[(f +g)(v
j
)]

= [f(v
j
) +g(v
j
)]

= [f(v
j
)]

+ [g(v
j
)]

,
es decir, la suma de las j-simas columnas de [f]

y [g]

. Luego [f + g]

=
[f]

+ [g]

.
2.. Es completamente anlogo a (1..).
Ejercicio 1.45 Concluye la prueba de la Proposicin 1.44.
1.6 Matriz asociada a la composicin de transformaciones
lineales
La composicin de dos transformaciones lineales se traduce como la multiplicacin de
sus matrices.
Proposicin 1.46 Sean V, W y U tres K-espacios vectoriales de dimensin nita.
Sean
1
,
2
y
3
bases de V, W y U respectivamente. Sean f : V W y g : W U
22 Transformaciones lineales y matrices
transformaciones lineales.
V
gf

[]

W
g

[]

U
[]

K
n
[gf]

[f]

K
m
[g]

K
r
Entonces
[g f]

3
= [g]

3
[f]

2
.
Demostracin Sean n =dim V , m =dim W y r =dim U. Entonces [g]

3
K
rm
y
[f]

2
K
mn
, con lo que [g]

3
[f]

2
K
rn
. Adems [g f]

3
K
rn
. As que
ambas matrices son del mismo tamao. Para cada x V se tiene que
[g]

3
[f]

2
[x]

1
= [g]

3
[f(x)]

2
= [g (f(x))]

3
= [(g f)(x)]

3
= [g f]

3
[x]

1
Luego, [g]

3
[f]

2
= [g f]

3
(Porque?).
Corolario 1.47 Sean V y W dos K-espacios vectoriales de dimensin nita, y sean

1
y
2
bases de V y W respectivamente. Sea f : V W un isomorsmo.
V
f

[]

W
[]

f
1

K
n
[f]

K
m
[f]
1

Entonces [f
1
]

1
= ([f]

2
)
1
.
Ejercicio 1.48 Demuestra el Corolario 1.47.
1.7 El isomorsmo entre el espacio vectorial de las matrices y el
espacio vectorial de las transformaciones lineales
Fijados dos K-espacios vectoriales V y W, tiene sentido considerar el conjunto de
todas las transformaciones lineales de V en W. En el caso en que ambos V y W son
K-espacios vectoriales de dimensin nita, dim V = n y dim W = m, este K-espacio
vectorial resulta ser isomorfo a K
nm
.
1.8 Equivalencia y semejanza entre matrices asociadas a la misma transformacin lineal 23
Proposicin 1.49 Sean V y W dos K-espacios vectoriales de dimensin nita, con
dim V = n y dim W = m. Sean y

bases de V y W respectivamente. Entonces la


funcin T : Hom
K
(V, W) K
mn
denida por T(f) = [f]

es un isomorsmo.
Demostracin Supongamos que B = v
1
, . . . , v
n
y

= w
1
, . . . , w
m
. Observe que
la Proposicin 1.44 nos dice que T es una transformacin lineal (Porqu?).
Para mostrar que T es un isomorsmo, sea f Hom
K
(V, W) tal que T(f) = 0, es
decir, [f]

= 0. Entonces, Im(f) = 0, de donde f = 0, lo cual nos dice que T es


inyectiva. Ahora, sea A K
mn
. Consideramos f
A
: V W denida por [f
A
(x)]

=
_
A[x]
t

_
t
para cada x V . Se tiene que f
A
Hom
K
(V, W) y T(f
A
) = [f
A
]

= A y T
es sobre. Ahora se sigue el resultado.
Se sigue de la Proposicin 1.49 que:
Corolario 1.50 Sean V y W dos K-espacios vectoriales de dimensin nita, con
dim
K
V = n y dim
K
W = m. Entonces, dim
K
(Hom
K
(V, W)) = mn.
Ejercicio 1.51 Demostrar el Corolario 1.50.
1.8 Equivalencia y semejanza entre matrices asociadas a la
misma transformacin lineal
En esta seccin estudiamos la relacin que hay entre las matrices que representan a
una misma transformacin lineal.
Denamos en K
mn
una relacin de equivalencia denominada equivalencia de
matrices. Decimos que A es equivalente a B, denotado A B, si existen matrices
invertibles P y Q de mm y n n, respectivamente, tales que:
A = PBQ.
Ejercicio 1.52 Demostrar que es una relacin de equivalencia.
Se denota por K
mn
/ el conjunto de todas las clases de equivalencia bajo esta
relacin.
Conclumos esta seccin mostrando cmo se puede obtener a partir de la matriz de una
transformacin lineal f : V W en un par de bases
1
y
2
de V y W respectivamente,
la matriz de la misma transformacin lineal en cualquier otro par de bases

1
y

2
de
dichos espacios.
Proposicin 1.53 Sean V y W dos K-espacios vectoriales de dimensin nita. Sean

1
,

1
bases de V y
2
,

2
bases de W.
V
C(

1
,
1
)

[f]

W
V
f

[]

[]

W
[]

[]

V
[f]

W
C(
2
,

2
)

24 Transformaciones lineales y matrices


Entonces
[f]

2
= C(
2
,

2
)[f]

2
C(

1
,
1
).
Demostracin Se tiene que f = id
W
f id
V
. Aplicando dos veces el resultado dado
en la Proposicin 1.46 y el hecho que la matriz de la transformacin lineal identidad en
un par de bases coincide con la matriz de cambio de base entre las mismas, se obtiene
[f]

2
= [id
W
f id
V
]

2
= [id
W
f]

2
[id
V
]

1
= [id
W
]

2
[f]

2
[id
V
]

1
= C(
2
,

2
)[f]

2
C(

1
,
1
).
que es lo que se quera probar.
Observe que la Proposicin 1.53 nos dice que [f]

2
[f]

2
Ejercicios
1.1 Responda las siguientes preguntas y justique su respuesta.
a). Existir algn monomorsmo f : R
3
R
2
?
b). Existir algn epimorsmo f : R
2
R
3
?
1.2 Sea K un campo y sea T : K K
n
una funcin lineal. Demuestre que T = 0 o T
es inyectiva.
1.3 La transformacin lineal f : C
4
C
3
dada por:
f
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
=
_
_
2x
1
+x
2
+x
3
x
1
+ 3x
2
+x
3
x
4
3x
1
+x
2
+ 2x
3
2x
4
_
_
no es inyectiva. Halle x, y C
4
tales que f(x) = f(y) con x ,= y.
1.4 La transformacin lineal f : C
4
C
3
dada por:
g
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
=
_
_
2x
1
+x
2
+ 3x
3
4x
4
x
1
+ 3x
2
+ 4x
3
+ 3x
4
x
1
+ 2x
2
+x
3
+ 7x
4
_
_
no es suprayectiva. Halle w C
3
tal que no existe u C
4
tal que g(u) = w.
1.5 Sea T : R
2
[X] R
4
[X] dada por T(p(X)) = X
2
p(X). Halla una base de Im T.
Es T suprayectiva?
1.6 Sea f : V W una transformacin lineal entre dos espacios vectoriales de dimen-
sin nita.
a). Demuestre que si dim V < dim W, entonces f no puede ser suprayectiva.
b). Demuestre que si dim V > dim W, entonces f no puede ser inyectiva.
1.7 Sea V un K-espacio vectorial y sea f : V V una transformacin lineal. Se dice
que f es nilpotente si s N tal que f
s
= 0.
Ejercicios 25
a). Probar que si f es nilpotente, entonces f no es ni monomorsmo ni epimorsmo.
b). Si V es de dimensin n probar que f es nilpotente si y solamente si f
n
= 0.
(Sugerencia: considerar si las inclusiones Ker (f
i
) Ker (f
i+1
) son estrictas o
no).
c). Sea = v
1
, . . . v
n
una base de V . Se dene la transformacin lineal f : V V
de la siguiente forma:
f(v
i
) =
_
v
i+1
si 1 i n 1
0 si i = n
Probar que f
n
= 0 y f
n1
,= 0.
d). Si V = R
n
, para cada i, 2 i n, construir una transformacin lineal nilpo-
tente f : R
n
R
n
tal que f
i
= 0 y f
i1
= 0.
1.8 Para cada T
i
: R
2
R
2
, diga si es o no un isomorsmo:
a). T
1
(x, y) = (x, 0).
b). T
2
(x, y) = (0, y).
c). T
3
(x, y) = (y, 0).
d). T
4
(x, y) = (y, x).
1.9 Determina si los siguientes enunciados son verdadero o falso. (Justique su res-
puesta exhibiendo una prueba o dando un contraejemplo.)
a). Sean T, F : V W transformaciones lineales. Si T + F es un isomorsmo,
entonces T y F son isomorsmos.
b). Sea T : V W una transformacin lineal, y sea a un escalar no nulo. Si aT es
un isomorsmo, entonces T es un isomorsmo.
c). Sean T : V W y F : W Z transformaciones lineales. Si la composicin
F T es un isomorsmo, entonces T y U son isomorsmos.
d). Sean T : V W y F : W Z funciones. Si la composicin F T es un
isomorsmo, y T es un isomorsmo, entonces F es un isomorsmo.
e). Sean T : V W y F : W Z funciones. Si la composicin F T es un
isomorsmo, y F es un isomorsmo, entonces T es un isomorsmo.
1.10 Suponga que U y V son espacios isomorfos. Demuestra que existen innitos iso-
morsmos entre U y V .
1.11 Determine si la transformacin lineal S : R
3
[X] M
22
(R) dada por
S(a +bX +cX
2
+dX
3
) =
_
a + 4b +c + 2d 4a b + 6c d
a + 5b 2c + 2d a + 2c + 5d
_
es:
a). inyectiva.
b). suprayectiva.
c). biyectiva.
1.12 Muestre que Hom
K
(V, W) es isomorfo a Hom
K
_
K
dimV
, K
dimW
_
. Puedes dar el
isomorsmo de manera explcita?
1.13 Halla lo siguiente:
a). Hom
K
(0 , W) donde W es cualquier espacio vectorial de dimensin nita.
b). Hom
K
(V, 0) donde V es cualquier espacio vectorial de dimensin nita.
26 Transformaciones lineales y matrices
1.14 Sea T : R
2
R
2
la funcin lineal dada por T
_
x
y
_
=
_
y
x
_
. Demuestre que
la transformacin lineal T c1
R
2 es un isomorsmo para todo nmero real c.
1.15 Sean P =
_
2 1
7 4
_
y la base cannica de R
2
. Halle una base

de R
2
de
tal manera que P sea la matriz cambio de base de la base a la base

.
1.16 Sea T : R
22
R
22
el operador lineal dado por T (A) = BA AB, donde
B =
_
1 1
1 1
_
. Determine [T]

, donde es la base cannica de R


22
.
1.17 Sean =
__
1
1
_
,
_
1
1
__
y

= 1, 1 +t bases de R
2
y R[t]
2
, respectiva-
mente. Sea T : R
2
R[t]
2
una funcin lineal tal que [T]

=
_
3 4
2 3
_
.
a). Determine una funcin lineal F : R[t]
2
R
2
tal que [F]

=
_
3 4
2 3
_
1
.
b). Verique que F es la inversa de la funcin T.
1.18 Sean
1
= v
1
, v
2
, v
3
una base de R
3
y
2
= w
1
, w
2
, w
3
, w
4
una base de R
4
.
Sea f : R
3
R
4
la transformacin lineal tal que
[f]

2
=
_
_
_
_
1 2 1
1 1 1
2 1 4
3 2 5
_
_
_
_
.
a). Hallar f(3v
1
+ 2v
2
v
3
). Cules son sus coordenadas en la base
2
?
b). Hallar una base de ker(f) y una base de Im(f).
c). Describir el conjunto f
1
(w
1
3w
3
w
4
).
1.19a). Sea tr : Hom
K
(V, V ) K el mapeo denido por tr(f) = tr
_
[f]

_
. Probar que
tr(f) no depende de la base elegida. A tr(f) se llama la traza de f.
b). Probar que tr : Hom
K
(V, V ) K es una transformacin lineal.
1.20 Sean = v
1
, v
2
, v
3
, U = v
1
+v
3
, v
1
+ 2v
2
+v
3
, v
2
+v
3
y U

= w
1
, w
2
, w
3

bases de R
3
, y sea E la base cannica de R
3
, es decir, E = e
1
, e
2
, e
3
. Sea
f : R
3
R
3
la transformacin lineal tal que
[f]
E
=
_
_
1 1 3
2 1 1
3 2 1
_
_
y [f]
UU

=
_
_
1 1 0
0 1 1
0 0 1
_
_
.
Determinar U

.
Denicin 1.54 Sean A y B dos matrices de nn con entradas en un campo K.
Decimos que A y B son semejantes (o conjugadas) si existe una matriz invertible
P tal que B = PAP
1
.
1.21 Sean K = R y V el espacio vectorial de los polinomios en R de grado menor o
igual a 3. Sea T : V V dada por T(p(x)) = p

(x) (la derivada del polinomio


p (x)). Demuestre que
_
1, x, x
2
, x
3
_
forman una base de V , y calcule la matriz de
T con respecto a esta base.
Ejercicios 27
1.22 Sea T : R
2
R
2
dada por T (x, y) = (2x, 3x 7y). Sean la base cannica de
R
2
, y la base (1, 1) , (2, 0) . Calcule [T]

y [T]

. Encuentre una matriz A tal


que A
1
[T]

A = [T]

.
1.23 Demuestre que la relacin ser semejantes es una relacin de equivalencia en el
conjunto de matrices de n n con entradas en un campo K.
Denicin 1.55 Sea V un K-espacio vectorial. Un funcional lineal en V es una
transformacin lineal de V en el campo K. El espacio dual de V , denotado V

, es
el conjunto de todos los funcionales lineales en V .
Ejemplo 1.56 Sea V = R
2
. Un funcional lineal en V es la funcin T : R
2
R
dada por T (x, y) = 2x 5y.
Denicin 1.57 Sea V un K-espacio vectorial de dimensin nita, y sea =
v
1
, . . . , v
n
una base de V . La base dual de , denotada

, es la sucesin

1
, . . . ,

n
donde

i
es el funcional lineal en V dado por

i
(
1
v
1
+ +v
n
) =
i
.
Ejemplo 1.58 Sea V = R
2
, y sea la base cannica. Entonces

1
(x, y) = x y

2
(x, y) = y.
1.24 Sea V = R
2
, y sea E la base cannica. Sea T (x, y) = 5x 6y. Escriba a T como
combinacin lineal de la base dual de E.
1.25 Sea V un K-espacio vectorial de dimensin nita, y sea = v
1
, . . . , v
n
una base
de V . Entonces la base dual de es una base de V

.
1.26 Sea V un K-espacio vectorial de dimensin nita. El doble dual de V , denotado
V

, es el dual de V

.
a). Para cada v V , sea e
v
: V

K dada por e
v
(T) = T (v). Demuestre que
e
v
V

.
b). Sea E : V V

dada por E(v) = e


v
. Demuestre que E es un isomorsmo,
llamado el isomorsmo natural entre V y su doble dual.
2
Teoria Espectral
Una matriz A K
nn
se dice diagonalizable si existe una matriz C GL(n, K) tal
que CAC
1
es una matriz diagonal.
En otras palabras, una matriz diagonalizable es una matriz que es semejante a una
matriz diagonal. La nocin correspondiente para transformaciones lineales es la siguien-
te:
Denicin 2.1 Sea V un K-espacio vectorial de dimensin nita, y sea f : V V
una transformacin lineal. Se dice que f es diagonalizable o diagonal si existe una base
de V tal que [f]

es diagonal.
Teniendo en cuenta que la semejanza de matrices es una relacin de equivalencia
deducimos que: Sea V un K-espacio vectorial de dimensin nita y sea f : V V una
transformacin lineal. Entonces f es diagonalizable si y slo si [f]

es diagonalizable
para toda base de V .
En esta seccin consideramos el problema de determinar si una matriz es semejante
a una matriz diagonal. Y ms generalmente, determinar si una transformacin lineal es
diagonalizable o no.
2.1 Polinomios de matrices y de operadores lineales
Ejemplo 2.2 Si A M
n
(R) y P(x) = 3x
2
+5x+ 7, entonces P(A) se dene como
3A
2
+ 5A+ + 7I
n
.
Denicin 2.3 Sea A M
n
(K
n
) una matriz cuadrada y sea P un polinomio con
coecientes pertenecientes a K:
P(x) =
d

k=0
c
k
x
k
= c
0
+c
1
x +c
2
x
2
+ +c
d
x
d
con c
0
, c
1
, c
2
, . . . , c
d
K. Entonces P(A) es la matriz denida mediante la frmula:
P(A) =
d

k=0
c
k
A
k
= c
0
I
n
+c
1
A+c
2
A
2
+ +c
d
A
d
Los polinomios de matrices hacen un gran papel en la teora espectral de transfor-
maciones lineales o de operadores lineales. En particular, polinomios de matrices se
2.2 Valores propios y vectores propios 29
pueden usar para calcular la funcin exponencial exp(A) de una matriz cuadrada A,
que es importante para ecuaciones diferenciales.
Ejemplo 2.4 Sean P(x) = x
2
7x + 10, y
A =
_
3 1
7 0
_
.
Calculemos la matriz P(A) en tres maneras diferentes.
1.. A
2
7A+ 10I,
2.. (A7I)A+ 10I,
3.. (A2I)(A5I).
Solucin:
P(A) =
_
9 4
28 3
_
.
Ejercicio 2.5 Sean P(x) = x
2
8x + 12 y
A =
_
_
3 5 7
1 4 8
3 1 2
_
_
Halle P(A).
2.2 Valores propios y vectores propios
2.2.1 Otra aproximacin: puntos jos y dilatacin de vectores
Sea K un campo y A K
nn
una matrix cuadrada. Sabemos sue exist una transfor-
macin lineal asocial a la matrix A, denotada por f
A
: F
n
F
n
dada por f
A
(x) = Ax.
De manera natural, podemos preguntarnos cuales vectores son jados por f
A
, es decir,
cuales vectores satisfacen la ecuacin f
A
(x) = x.
Por supuesto, 0 siempre es jado as que podemos hacernos la misma pregunta con
el requerimiento extra de que x sea distinto de cero. Usualmente, no hay tales vectores,
pero una situacin ligeramente m general puede ocurrir si A dilata algunos vectores
distintos de cero, es decir, f
A
(x) = x para alguna K. Esto es lo mismo que pedir
que f
A
envie todos los vectores en alguna linea atravs del origen atravs de esa linea.
Por supuesto, tal linea es un subespecie 1-dimensional de K
n
.
Ejemplo 2.6 Sea K = R y considere la matriz de 2 2 A =
_
2 1
0 3
_
.
1.. Muestra que la transformacin lineal f
A
: R
2
R
2
no ja cualquier vector distinto
de cero.
2.. Muestra que A dilata todos los vectores del eje x por un factor 2.
3.. Halla todos los vectores no cero los cuales dilata f
A
por un factor 3.
Solucin.
30 Teoria Espectral
1.. Suponga sue un vector x R
2
sarisface que Ax = x, entonces tambin satisface la
ecuacin homognea
(I
2
A)x = 0, es decir,
_
2 1
0 3
_
x = 0.
Pero la nica solucin de esto es x = 0.
2.. Tenemos
_
2 1
0 3
__
x
0
_
=
_
2x
0
_
= 2
_
x
0
_
,
as que los vectores del eje x son dilatados bajo f
A
por un factor 2.
3.. Suponga que Ax = 3x, entonces
(3I
2
A)x = 0, es decir,
_
1 1
0 0
_
x = 0.
El conjunto de todas las soluciones de esto es la linea L = (t, t) [ t R.
2.2.2 Algunos hechos utiles sobre raices de polinomios
Recuerde sue cada polinomio sobre los complejos (sue contienen a los reales) p(t)
C[t] de grado positivo n admite una factorizacin en polinomios lineales
p(t) = c(t
1
) (t
n
),
donde c ,= 0 y las races
k
son nicos salvo el orden en el cual aparecen. Es til escribir
c(t
1
)
r
1
(t
m
)
r
m
,
donde
1
, . . . ,
m
son las races complejas distintas de p(t). Entonces r
k
1 es llamada
la multiplicidad algebraica de las ra
k
. Esta factorizacin es inca salvo el orden en
el cual aparecen las raices.
Cuando p(t) es un polinomio real, es decir, p(t) R[t], las raices complejas son de
dos tipos: races reales y races no reales las cuales aparecen en parejas de conjugados.
De aqu, para tal polinomio real tenemos
p(t) = c(t
1
) (t
r
)(t
1
)(t
1
) (t
s
)(t
s
),
donde
1
, . . . ,
r
son las races reales (posiblemente con repeticin) y
1
,
1
, . . . ,
s
,
s
son las races no reales las cuales ocurren en parejas de complejos conjugados. Para un
nmero complejo no real ,
(t )(t ) = t
2
( + )t + = t
2
(2 Re )t+ [ [
2
,
donde Re es la parte real de y [ [ es el mdulo de .
Proposicin 2.7 Sea p(t) = t
n
+ a
n1
t
n1
+ + a
1
t + a
0
C[t] es un polinomio
mnico complejo el cual se factoriza completamente como
p(t) = (t
1
)(t
2
) (t
n
),
2.2 Valores propios y vectores propios 31
donde
1
, . . . ,
n
son races complejas, ocurriendo con multiplicidad. Las siguientes
frmulas se aplican para la suma y el producto de esas races:
n

i=1

i
=
1
+ +
n
= a
n1
,
n

i=1

i
=
1

n
= (1)
n
a
0
.
Ejemplo 2.8 Sea p(t) un polinomio complejo de grad 3. Suponga que p(t) = t
3

6t
2
+at 6, donde a C, y tambin que 1 es una raz de p(t). Halla las otras races de
p(t).
Solucin. Supongamos que las otras races son y . Entonces por la Proposicin 2.7,
+ + 1 = (6), es decir, = 5 ;
tambin,
(1)()() = (1)
3
(6), es decir, = 6.
De aqu encontramos que
(5 ) = 6, es decir,
2
5 + 6 = 0.
Las races de este polinomio son 2, 3, de donde obtenemos que las races de p(t) son
1, 2, 3.
2.2.3 Deniciones bsicas
Sea V un K-espacio vectorial de dimensin n y sea f : V V una transformacin
lineal diagonalizable. Luego, existe una base = v
1
, . . . , v
n
de V tal que [f]

es
diagonal:
[f]

=
_
_
_
_
_
_

1
0 0
0
2

.
.
.
.
.
.
.
.
.
.
.
.
0
0 0 0
n
_
_
_
_
_
_
Entonces, para cada 1 i n, f(v
i
) =
i
v
i
.
Recprocamente, si para una base = v
1
, . . . , v
n
de V y
1
, . . . ,
n
K se cumple
que f(v
i
) =
i
v
i
para cada 1 i n, la matriz [f]

es diagonal y, en consecuencia, f
es diagonalizable.
Esto nos lleva a la siguiente denicin:
Denicin 2.9 Sea V un K-espacio vectorial, y sea f : V V una transformacin
lineal. Se dice que v V , v ,= 0, es un autovector de f si existe K tal que f(v) = v.
El elemento K se llama un autovalor de f.
Ejercicio 2.10 Sea V un K-espacio vectorial, y sea f : V V una transformacin
lineal y sea un autovalor de f. Entonces el subespacio ker (I f) se llama subespacio
propio correspondiente al autovalor . Muestre que ste, efectivamente es un subespacio
de V .
32 Teoria Espectral
Denicin 2.11 Sea V un K-espacio vectorial de dimensin nita, y sea f : V V
una transformacin lineal. El espectro de f denotado por Spec(f) se dene como el
conjunto de todos los K tales que I f no es invertible:
Spec(f) := K [ I f no es invertible .
Observe que Spec(f) coincide con el conjunto de los valores propios de f.
Usando estas deniciones, el razonamiento anterior se puede reescribir de esta forma:
Proposicin 2.12 Sea V un K-espacio vectorial de dimensin n y sea f : V V
una transformacin lineal. Entonces f es diagonalizable si y solamente si existe una
base de V formada por autovectores de f.
La mismas nociones se pueden denir para matrices: Dada A K
nn
, se le puede
asociar una transformacin lineal f
A
: K
n
K
n
denida por f
A
(x) = Ax. Notese
que [f
A
]
E
= A, donde E es la base cannica de K
n
. Entonces v K
n
, v ,= 0, es un
autovector de f
A
de autovalor si y solamente si Av = v.
Denicin 2.13 Sea A K
nn
. Se dice que v K
n
, v ,= 0, es un autovector de A si
existe K tal que Av = v. El elemento K que verica la condicin anterior se
llama un autovalor de A.
Podemos dar tambin un resultado anlogo a la Proposicin 2.12 para matrices:
Proposicin 2.14 Sea A K
nn
. Entonces A es diagonalizable si y solamente si
existe una base de K
n
formada por autovectores de A.
Ejemplo 2.15 Decidir si A =
_
2 3
2 1
_
es diagonalizable.
Solucin. En virtud de la proposicin 2.14, basta buscar los autovectores de A, es decir,
los vectores x = (x
1
, x
2
) R
2
tales que (x
1
, x
2
) ,= (0, 0) y A
_
x
1
x
2
_
=
_
x
1
x
2
_
para algn
R. Para esto, buscaremos en primer trmino los elementos R para los cuales el
sistema Ax = x tiene solucin no trivial (autovalores de A) y despus, para cada uno
de los valores hallados, los vectores (x
1
, x
2
) R
2
que son soluciones del sistema lineal
correspondiente. Observemos que
Ax = x (I
2
A)x = 0
_
2 3
2 1
__
x
1
x
2
_
=
_
0
0
_
Este sistema homogneo tiene solucin no trivial si y solamente si el determinante de
su matriz asociada es 0, o sea, si y solamente si
2
3 4 = 0. Luego, los autovalores
de A son = 1 y = 4.
Busquemos ahora los autovectores correspondientes a cada autovalor: Para = 1,
queda el sistema
_
3 3
2 2
__
x
1
x
2
_
=
_
0
0
_
cuyo conjunto de soluciones es (1, 1). Luego el conjunto de los autovectores asociados
2.3 Polinomio caracterstico 33
a = 1 es (1, 1) (0, 0). Para = 4, el sistema es
_
2 3
2 3
__
x
1
x
2
_
=
_
0
0
_
cuyo conjunto de soluciones es (3, 2). Luego el conjunto de los autovectores asociados
a = 4 es (3, 2) (0, 0). En consecuencia, A es diagonalizable, puesto que =
(1, 1), (3, 2) es una base de R
2
formada por autovectores de A. Ms an, si C =
C(E, ) se tiene que
CAC
1
=
_
1 0
0 4
_
Ejercicio 2.16 Decidir si A =
_
_
3 0 0
1 3 0
0 0 3
_
_
es diagonalizable en R
33
.
2.3 Polinomio caracterstico
Como vimos en la seccin anterior, un mtodo para determinar si una matriz es
diagonalizable consiste en buscar sus autovalores y luego ver si se puede armar una
base de autovectores.
Sea A K
nn
y sea K. Se tiene que:
es un autovalor de A x K
n
0 tal que Ax = x.
El sistema Ax = x tiene solucin no trivial.
El sistema ( I
n
A)x = 0 tiene solucin no trivial.
det( I
n
A) = 0.
Denicin 2.17 Sea A K
nn
. Se llama polinomio caracterstico de A, y se denota

A
, al polinomio
A
= det(X I
n
A) K[X].
Si A K
nn
,
A
resulta ser un polinomio mnico (Un polinomio mnico tiene como
su coeciente lider el 1, es decir, el coeciente del monomio de grado mayor es 1) de
grado n (notemos que en la matriz XI
n
A, slo aparece n veces X y que el signo del
trmino (X a
11
) (X a
nn
) en el determinante es 1). Por lo anterior, tenemos:
Proposicin 2.18 Sea A K
nn
y sea K. Entonces es autovalor de A si y
slo si es raz del polinomio caracterstico de A.
Ejemplo 2.19 Decidir si A =
_
0 1
1 0
_
es diagonalizable en Q
22
, R
22
y C
22
.
Solucin. Los autovalores de A son las races del polinomio:

A
= det
_
X 1
1 X
_
= X
2
+ 1.
Como este polinomio no tiene races en Q ni en R, resulta que A no es diagonalizable
en Q
22
ni en R
22
. Considerada como matriz en C
22
, los autovalores de A son i
y i, y los autovectores asociados son (1, i) (0, 0) y (1, i) (0, 0). Como
34 Teoria Espectral
= (1, i), (1, i) es una base de C
2
formada por autovectores de A, entonces A es
diagonalizable en C
22
.
Queremos denir el polinomio caracterstico asociado a un endomorsmo de un espa-
cio vectorial de dimensin nita. Para eso, veremos que dos matrices semejantes tienen
el mismo polinomio caracterstico.
Proposicin 2.20 Sea A K
nn
y sea C GL(n, K). Entonces

CAC
1 =
A
.
Demostracin Se tiene que

CAC
1 = det (X I
n
CAC
1
)
= det (CX I
n
.C
1
CAC
1
)
= det (C(X I
n
A)C
1
)
= det (X I
n
A)
=
A
.
Denicin 2.21 Sea V un K-espacio vectorial de dimensin nita, y sea f : V V
una transformacin lineal. Se dene el polinomio caracterstico de f como
f
=
[f]

,
donde es una base cualquiera de V .
Como en el caso de matrices, se tiene que: Sea V un K-espacio vectorial de dimensin
nita. Sea f : V V una transformacin lineal y sea K. Entonces es autovalor
de f si y slo si es raz de
f
.
Ejercicio 2.22 Calcule los autovalores de las matrices A y B = A
T
A, donde
A =
_


_
Ejercicio 2.23 Sea A R
nn
una matriz de probabilidad, esto es, A
i,j
0 para todos
i, j 1, . . . , n y la suma de las entradas de cada columna es 1. Demuestre que 1 es
un autovalor de A.
SUGERENCIA: Adivina un autovector de A.
Ejercicio 2.24 Sea A K
nn
. Demuestre que

A
T =
A
.
Ejercicio 2.25 Sea A K
nn
. Demuestre que Spec(A
T
) = Spec(A).
Ejercicio 2.26 Sean A, B K
nn
tales que I
n
AB es invertible. Demuestre que
I
n
BA tambin es invertible, y
(I
n
BA)
1
= I +B(I AB)
1
A.
Ejercicio 2.27 Sean A, B K
nn
. Demuestre que Spec(AB) = Spec(BA).
SUGERENCIA: Considerar por separado los casos = 0 y ,= 0. En el caso ,== 0
usar el resultado del ejercicio anterior sobre la invertibilidad de I
n
AB y I
n
BA.
2.4 Una caracterizacin de matrices diagonalizables 35
2.4 Una caracterizacin de matrices diagonalizables
2.4.1 Suma directa de subespacios
Para lo que sigue, vamos a necesitar generalizar la nocin de suma directa de dos
subespacios de un K-espacio vectorial al caso de cualquier cantidad nita de subespacios.
Denicin 2.28 Sea V un K-espacio vectorial y sean S
1
, S
2
, . . . , S
r
subespacios de
V . Se dene la suma de S
1
, S
2
, . . . , S
r
como
W = S
1
+S
2
+ +S
r
= s
1
+ +s
r
[ s
i
S
i
, 1 i r.
Ejercicio 2.29 Con la notacin de la Dencin 2.28, demuestra que W es un subes-
pacio de V .
Denicin 2.30 Sea V un K-espacio vectorial y sean S
1
, S
2
, . . . , S
r
subespacios de V .
Se dice que S
1
, S
2
, . . . , S
r
estn en suma directa si, para cada w W = S
1
+S
2
+ +S
r
existen nicos s
i
S
i
, 1 i r, tales que w = s
1
+ + s
r
. En este caso se dice que
W es la suma directa de los subespacios S
1
, S
2
, . . . , S
r
, y se denota como:
W = S
1
S
2
S
r
=
r

i=1
S
i
.
Vamos a dar una denicin equivalente de la suma directa de varios subespacios:
Proposicin 2.31 Sea V un K-espacio vectorial y sean S
1
, S
2
, . . . , S
r
subespacios de
V . Son equivalentes:
1.. W =

r
i=1
S
i
2.. W = S
1
+S
2
+ +S
r
y para cada 1 j r, se tiene que
S
j
(S
1
+ +S
j1
+S
j+1
+S
r
) = 0.
Demostracin (1..) (2..) Sea 1 j r. Sea x S
j
(S
1
+ +S
j1
+S
j+1
+S
r
).
Entonces
x = 0 + + 0 +x + 0 + + 0,
x = s
1
+ +s
j1
+ 0 +s
j+1
+ +s
r
.
Por la unicidad de la escritura en la suma directa, se sigue que x = 0.
(2..) (1..) Por hiptesis, existen s
1
, . . . , s
r
con s
i
S
i
para 1 i r tales que
w =

r
i=1
s
i
. Supongamos que w =

r
i=1
s
i
=

r
i=1
s

i
con s
i
, s

i
S
i
para cada
1 i r. Entonces, para cada 1 j r, se tiene que
s
j
s

j
=
r

i=1
i=j
(s

i
s
i
).
Como s
j
s

j
S
j
y

r
i=1
i=j
(s

i
s
i
) es una suma donde cada s

i
s
i
S
i
, de la hiptesis
se deduce que s
j
s

j
= 0. Luego, s
j
= s

j
.
Como en la suma directa de dos subespacios, en este caso tambin es posible obtener
una base del espacio suma uniendo bases de cada uno de los sumandos.
36 Teoria Espectral
Proposicin 2.32 Sea V un K-espacio vectorial y sean S
1
, S
2
, . . . , S
r
subespacios de
V . Para cada 1 i r, sea
i
una base de S
i
. Son equivalentes:
1.. W =

r
i=1
S
i
2.. =
1

2

r
es una base de W.
2.4.2 El complemento de Schur
Con frecuencia es conveniente considerar que una matriz est compuesta de algunas
submatrices ms pequenias. Al introducir rectas verticales y horizontales en una matriz,
se le puede partir en bloques. Hay una forma natural de partir matrices, en particular
aquellas que surgen en ciertas aplicaciones. Por ejemplo, considere la matriz:
_
_
_
_
_
_
1 0 0 2 1
0 1 0 1 3
0 0 1 4 0
0 0 0 1 7
0 0 0 7 2
_
_
_
_
_
_
Parece natural partir A como
_
_
_
_
_
_
_
1 0 0 2 1
0 1 0 1 3
0 0 1 4 0
0 0 0 1 7
0 0 0 7 2
_
_
_
_
_
_
_
=
_
I
3
B
0
2,3
C
_
donde I
3
es la matriz identidad de 3 3, B es una matriz de 3 2, 0
2,3
es la matriz
cero de 2 3 y C es una matriz de 2 2. De esta forma, podemos ver a A como una
matriz de 2 2 cuyas entradas son ellas mismas matrices.
Cuando se multiplican matrices, con frecuencia, se gana una ventaja al verlas como
matrices participadas. Esto frecuentemente no slo revela las estructuras subyacentes,
sino que usualmente acelera los clculos, en especial cuando las matrices son grandes y
tienen muchos bloques de ceros. Es evidente que la multiplicacin de matrices partici-
padas es igual que la multiplicacin ordinaria de matrices. Para vericar esto, comience
considerando algunos casos de matrices participadas. Cada una da origen a una forma
diferente de ver el producto de dos matrices.
Para el caso del clculo de determinantes, en la situacin general, no tenemos mucha
ganancia si particionamos la matriz. De hecho, en general, podramos pensar que si
A =
_
P Q
R S
_
donde P, Q, R, S son todas cuadradas, entonces
det A = ( det P)( det S) ( det Q)( det S).
Sin embargo, tenemos algunos resultados particulares si A se puede particionar y
2.4 Una caracterizacin de matrices diagonalizables 37
dejarla en su forma forma triangular (superior) en bloques. Esto es,
A =
_
P Q
0 S
_
donde P y Q son matrices cuadradas. La determinante satisface:
Proposicin 2.33 Si A est en su forma triangular (superior) en bloques, es decir,
A =
_
P Q
0 S
_
.
Entonces
det A = ( det P)( det S).
Como dijimos antes, resultados generales que involucren el clculo de la determinan-
te de matrices participadas no existen. Sin embargo, el complemento de Schur nos
permite hallar un resultado casi general:
Teorema 2.34 Si A es una matriz particionada de la forma
A =
_
P Q
R S
_
donde P, Q, R, S son todas matrices cuadradas y P es inversible. Entonces:
det A = ( det P)( det S RP
1
Q).
La matriz S RP
1
Q se llama el complemento de Schur de P en A.
2.4.3 Espacios de autovectores y diagonalizacin
Dado un autovalor de una matriz A K
nn
, el conjunto de los autovectores de
autovalor no es un subespacio de K
n
, puesto que, por denicin, 0 no es un autovector
de A. Sin embargo, podemos considerar el siguiente subespacio que consiste en agregar
el vector 0 a ese conjunto:
Denicin 2.35 Sea A K
nn
y sea un autovalor de A. Se dene
E

= v K
n
[ Av = v = v K
n
[ (I
n
A)v = 0.
Observamos que E

es un subespacio de K
n
, puesto que es el conjunto de soluciones
de un sistema lineal homogneo.
Proposicin 2.36 Sea A K
nn
y sean
1
, ,
r
autovalores distintos de A. En-
tonces E

1
, , E

r
estn en suma directa.
Demostracin Lo probaremos por induccin en la cantidad r de autovalores conside-
rados.
Para r = 2: Sean
1
y
2
autovalores distintos de A. Si v E

1
E

2
, se tiene que
Av =
1
v y Av =
2
v, de donde (
1

2
)v = 0. Como
1

2
= 0, resulta que v = 0.
Issai Schur (1875-1941) naci en Bielorrusia pero pas la mayor parte de su vida en Alemania. Es
conocido principalmente por su trabajo fundamental acerca de la teora de representaciones de
grupos, pero tambin trabaj en teora de nmeros, anlisis y otras reas.
38 Teoria Espectral
Luego, E

1
E

2
= 0 y la suma es directa.
Supongamos ahora que el resultado vale para el caso de r autovalores distintos, y sean

1
, ,
r
,
r+1
autovalores distintos de A. Debemos probar que para cada 1 i r+1,
E

r+1
j=1
j=i
E

j
= 0. Sin prdida de generalidad, supongamos que i = r + 1.
Sea v E

r+1

_

r
j=1
E

j
_
. Entonces, existen v
j
E

j
(1 j r) tales que
v = v
1
+ +v
r
. Multiplicando esta igualdad por la matriz A, tenemos

r+1
v =
1
v
1
+ +
r
v
r
,
pero si la multiplicamos por
r+1
, se tiene

r+1
v =
r+1
v
1
+ +
r+1
v
r
.
Restando miembro a miembro,
0 = (
1

r+1
)v
1
+ + (
r

r+1
)v
r
.
Como por hiptesis inductiva, los subespacios E

j
(1 j r) estn en suma directa,
el vector cero se escribe de forma nica como suma de ceros. Luego, (
j

r+1
)v
j
= 0
para cada1 j r y, por lo tanto, v
j
= 0 para cada 1 j r,con lo cual v = 0.
Ya vimos que todo autovalor de una matriz A es raz de su polinomio caracte-
rstico. Ahora veremos que siempre existe una relacin entre la dimensin de E

y la
multiplicidad de como raz de
A
.
Denicin 2.37 Sea A K
nn
y un autovalor de A. La mulltiplicidad algebraica
de se dene como la multiplicidad de la raz del polinomio caracterstico
A
, esto
es, como
mx k 1, , n [ (x )
k
divide a
A
.
Denicin 2.38 Sea A K
nn
y un autovalor de A. La mulltiplicidad geomtrica
de se dene como la dimensin de E

.
Existe una relacin entre la multiplicidad algebraica y la multiplicidad geomtrica de
un autovalor.
Proposicin 2.39 Sea A K
nn
y un autovalor de A. Entonces la multiplicidad
geomtrica de es menor o igual a la multiplicidad algebraica de .
Demostracin Sea r la multiplicidad algebraica de y s la multiplicacidad geomtrica
de . Denamos f
A
: K
n
K
n
la transformacin lineal denida por f
A
(x) = Ax. Ya
que s = dim(E

), sea v
1
, , v
s
una base de E

. Escojamos v
s+1
, , v
n
K
n
tales
que = v
1
, , v
s
, v
s+1
, , v
n
es una base de K
n
. Se tiene que
[f
A
]

=
_
_
_
_
_
_
_
_
_
_
ss
..
0 0
0 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
N
0 M
_
_
_
_
_
_
_
_
_
_
2.4 Una caracterizacin de matrices diagonalizables 39
de donde, por la Proposicin 2.33, tenemos

f
A
= det
_
_
_
_
_
_
_
_
_
_
ss
..
X 0 0
0 X 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 X
N
0 XI
ns
M
_
_
_
_
_
_
_
_
_
_
= (X )
s
det (XI
ns
M)
= (X )
s
Q(X)
Por hiptesis,
A
= (X )
r
P(X) con P(X) K[X] tal que P() ,= 0. Entonces
(X )
s
Q(X) =
f
A
=
A
= (X )
r
P(X) con P() ,= 0,
de donde s r, es decir, la multiplicidad geomtrica de es menor o igual a la multi-
plicidad algebraica de .
Ejercicio 2.40 Sea A K
nn
y un autovalor de A de multiplicidad algebraica
igual a 1. Entonces su multiplicidad geomtrica tambin es igual a 1.
Ejercicio 2.41 Calcular los valores propios y sus multiplicidades algebraica y geom-
trica de cada una de las siguientes matrices:
_
_
7 1 0
0 7 1
0 0 7
_
_
,
_
_
7 1 0
0 7 0
0 0 7
_
_
,
_
_
7 0 0
0 7 0
0 0 7
_
_
,
_
_
_
_
4 0 0 0
0 6 1 0
0 0 6 1
0 0 0 6
_
_
_
_
,
_
_
_
_
4 0 0 0
0 6 1 0
0 0 6 0
0 0 0 6
_
_
_
_
,
_
_
_
_
4 1 0 0
0 4 0 0
0 0 6 1
0 0 0 6
_
_
_
_
.
El siguiente teorema establece condiciones necesarias y sucientes sobre los subespa-
cios E

asociados a los autovalores de una matriz para que sta sea diagonalizable.
Teorema 2.42 Sea A K
nn
y sean
1
, . . . ,
r
todos los autovalores de A en K, con

i
,=
j
si i ,= j. Son equivalentes:
1.. A es diagonalizable en K
nn
.
2..

r
i=1
E

i
= K
n
.
3..
A
= (X
1
)
a
1
(X
r
)
a
r
y a
i
=dim E

i
para cada 1 i r.
Demostracin (1..) (2..) Si A es diagonalizable en K
nn
, existe una base =
v
1
, . . . , v
n
de K
n
formada por autovectores de A. Para cada v
j
, existe i, con
1 i r, tal que v
j
es autovector de A de autovalor
i
(porque 1, . . . ,
r
son todos
los autovalores de A), es decir v
j
E

i
para algn 1 i r, lo que implica que
v
j

r
i=1
E

i
. En consecuencia, K
n
= v
1
, . . . , v
n
=

r
i=1
E

i
.
(2..) (3..) Sea a
i
la multiplicidad algebraica de
i
, por la Proposicin 2.39, para
40 Teoria Espectral
cada 1 i r, dim E

i
a
i
. Si K
n
=

r
i=1
E

i
se tiene que
n = dim K
n
=
r

i=1
dim E

i

r

i=1
a
i
gr(
A
) = n.
Luego, en la cadena anterior, son todas igualdades. En particular:
La igualdad

r
i=1
a
i
= gr(
A
) implica que
A
se puede factorizar como producto de
polinomios de grado 1 en K[X]:

A
= (X
1
)
a
1
(X
r
)
a
r
.
Como dim E

i
a
i
para cada 1 i r, de la igualdad

r
i=1
dim E

i
=

r
i=1
a
i
se
deduce que dim E

i
= a
i
para cada 1 i r.
(3..) (1..) Para cada 1 i r sea
i
una base de E

i
. Por la Proposicin 2.32,
=
r
i=1

i
es una base de

r
i=1
E

i
K
n
. Ahora,
[ B [=
r

i=1
[
i
[=
r

i=1
dim E

i
=
r

i=1
a
i
= gr(
A
)
de donde dim (

r
i=1
E

i
) = dim K
n
. Luego

r
i=1
E

i
= K
n
y entonces es una base
(formada por autovectores de A) de K
n
. En consecuencia, A es diagonalizable.
Ejemplo 2.43 Decidir si
A =
_
_
_
_
1 0 0 1
1 1 0 1
0 0 1 1
0 0 0 2
_
_
_
_
R
44
es diagonalizable.
Solucin: Calculemos
A
= (X 1)
3
(X 2). Para el autovalor 1 se tiene que
E
1
= x R
4
[ (I
4
A)x = 0 = (0, 1, 0, 0), (0, 0, 1, 0),
de donde dim E
1
= 2 < 3 =la multiplicidad algebraica de 1. El teorema anterior implica
que A es no diagonalizable.
2.5 Triangulacin de operadores lineales
Se ha demostrado ya que una condicin necesaria y suciente para que una matriz
(o un operador lineal) sea diagonalizable es que se pueda encontrar una base formada
por vectores propios. Sin embargo, esto no siempre es posible, y en este caso, lo que se
hace es tratar de triangular la matriz.
Denicin 2.44 Sea V un espacio vectorial de dimensin nita sobre un campo K.
Diremos que un operador lineal T sobre V es triangulable si existe una base para V
tal que la matriz de T en la base es triangular. Una matriz A es triangulable si T
A
es
triangulable.
2.6 El Teorema de Cayley-Hamilton 41
Teorema 2.45 Una matriz A K
nn
es triangulable si y solamente si existe una
matriz invertible P tal que PAP
1
es una matriz triangular.
Demostracin Primero, supongamos que A K
nn
es triangulable, es decir, T
A
:
K
n
K
n
es triangulable. Entonces, existe una base de K
n
tal que [T
A
]

es triangular.
Sea E la base cannica de K
n
. Entonces existe una matriz invertible P tal que [T
A
]

=
P[T
A
]
E
P
1
. Pero [T
A
]
E
= A. Luego, [T
A
]

= PAP
1
es triangular.
Ahora, supongamos que existe una matriz invertible P tal que PAP
1
= S es una
matriz triangular. Entonces, [T
A
]
E
= A y de aqu P[T
A
]
E
P

1 = S. Luego, S y [T
A
]
E
son matrices semejantes y por lo tanto, existe una base de K
n
tal que S = [T
A
]

. As,
T
A
es triangulable y en consecuencia, A lo es.
En el siguiente captulo, una vez que veamos el proceso de ortogonalizacin de Gram-
Schmidth, mostraremos cmo hacer una triangulacin usando la descomposicin de
Schur.
2.6 El Teorema de Cayley-Hamilton
2.6.1 Polinomios con coecientes matriciales
Denicin 2.46 Sean P
0
, . . . , P
m
K
nn
. Entonces la expresin
P() := P
0
+P
1
+P
2

2
+ +P
m

m
,
se llama polinomio con coecientes matriciales. Si A K
nn
, entonces se pone
P
der
(A) = P
0
+P
1
A+P
2
A
2
+ +P
m
A
m
,
P
izq
(A) = P
0
+AP
1
+A
2
P
2
+ +A
m
P
m
.
En vez de P
der
(A) escribimos simplemente P(A).
Trabajando con polinomios con coecientes matriciales, hay que tener mucho cuidado.
Mostremos un ejemplo de polinomios P, Q con coecientes matriciales tales que
(PQ)(A) ,= P(A)Q(A).
Sean
P() =
_
1 0
0 1
_
, Q() =
_
0 1
0 0
_
, A =
_
0 0
1 0
_
.
Entonces
(PQ)() =
_
0 1
0 0
_
, (PQ)(A) =
_
1 0
0 0
_
, P(A)Q(A) =
_
0 0
0 1
_
.
Lema 2.47 Sean P y Q polinomios con coecientes matriciales:
P() =
m

i=0
P
i

i
, Q() =
s

j=0
Q
j

j
,
donde P
i
, Q
j
K
nn
, y sea A K
nn
una matriz que conmuta con todos los coecientes
del polinomio Q:
Q
j
A = AQ
j
42 Teoria Espectral
para toda j 0, . . . , s. Entonces
(PQ)(A) = P(A)Q(A).
Demostracin Recordamos la denicin del producto de polinomios:
(PQ)() =
m+s

k=0
_
_

i+j=k
P
i
Q
j
_
_

k
.
De aqu,
(PQ)(A) =
m+s

k=0
_
_

i+j=k
P
i
Q
j
_
_
A
k
.
Por otro lado,
P(A)Q(A) =
_
m

i=0
P
i
/
i
_
_
_
s

j=0
Q
j
/
j
_
_
=

0im
0jn
P
i
A
i
Q
j
A
j
.
Juntando los sumandos en grupos con i + j = k podemos escribir el resultado de la
siguiente manera:
P(A)Q(A) =
m+s

k=0
_
_

i+j=k
P
i
A
i
Q
j
A
j
_
_
.
Ahora usamos la condicin que A conmuta con Q
j
:
P
i
A
i
Q
j
A
j
= P
i
Q
j
A
i+j
.
De all obtenemos que:
P(A)Q(A) =
m+s

k=0
_
_

i+j=k
P
i
Q
j
A
k
_
_
= (PQ)(A).
Teorema 2.48 (Cayley-Hamilton) Sea A K
n
. Entonces

A
(A) = 0,
donde
A
() = det(I A) es el polinomio caracterstico de A.
Demostracin Sabemos que para toda matriz cuadrada B se tiene
adj(B)B = det(B)I,
donde adj(B) es la matriz adjunta clsica de B o sea la matriz de cofactores conjugada.
Apliquemos este resultado a la matriz I A:
adj(I A) (I A) = det(I A) I =
A
() I.
La expresin adj(IA) se puede tratar como un polinomio con coecientes matriciales.
2.6 El Teorema de Cayley-Hamilton 43
Aplicamos el Lema 2.47 con P() = adj(I A) y Q() = I A. Notemos que los
coecientes de Q son I y A, y estas matrices conmutan con A. Entonces

A
(A) = P(A)Q(A) = P(A) (I AA) = 0.
Corolario 2.49 Sea V un espacio vectorial sobre K, dim(V ) = n < + y sea T
Hom(V, V ). Entonces
T
(T) = 0.
2.6.2 El Teorema del Mapeo Espectral
Recordemos que en un espacio vectorial V de dimensin nita, para una T Hom(V, V ),
podemos denir la determinante de T como
det(T) = det ([T]

)
donde es cualquier base de V .
Proposicin 2.50 Sea V un espacio vectorial sobre K de dimensin nita, sean
T
1
, T
2
, . . . , T
m
Hom(V, V ). Hagamos T = T
1
T
2
T
m
. Entonces T es invertible
si y solamente si T
j
es invertible para toda j 1, 2, . . . , m.
Demostracin Por la frmula del determinante del producto,
det(T) = det(T
1
)det(T
2
) det(T
m
)
Ahora, recuerde que T es invertible si y solamente si det(T) es distinto de cero. El
producto es distinto de cero si y solamente si cada uno de los mltiplos es distinto de
cero. Esto completa la demostracin.
Antes de dar el resultado importante de esta subseccin consideremos un ejemplo que
ilustra ste resultado en el caso de matrices diagonales.
Ejemplo 2.51 Sea
A = diag(4, 1, 2) =
_
_
4 0 0
0 1 0
0 0 2
_
_
y consideremos p(X) = X
2
X + 3. Entonces
p(A) = A
2
A+ 3I =
_
_
15 0 0
0 5 0
0 0 5
_
_
= diag(15, 5, 5) = diag(p(4), p(1), p(2)).
Comparamos los espectros de A y p(A):
Spec(A) = 4, 1, 2, Spec(p(A)) = 15, 5 = p(4), p(1), p(2).
El espectro de p(A) coincide con el conjunto de los valores del polinomio p(X) en el
espectro de A. Vamos a demostrar esta armacin en el caso general.
44 Teoria Espectral
Teorema 2.52 (del mapeo espectral) Sea V un espacio vectorial complejo de dimen-
sin nita, sean T Hom(V, V ) y p(X) un polinomio con coecientes complejos. En-
tonces:
Spec(p(T)) = p(Spec(T)),
donde p(Spec(T)) = C [ Spec(T) tal que = p().
Demostracin El caso cuando p(X) es una constante es trivial (y se deja como ejer-
cicio). Consideremos el caso cuando deg(p(X)) 1. Primero, supongamos que
p(Spec(T)) y demostremos que Spec(p(T)). La condicin p(Spec(T)) signica
que = p() para algn Spec(T). El polinomio p(Z) tiene como raz a y por
lo tanto, (Z ) [ (p(Z) ). Esto es, existe un polinomio q(Z) tal que
p(Z) = (Z )q(Z).
De aqu,
p(T) I = (T I)q(T).
La transformacin T I es lineal y no invertible. Aplicando la Proposicin 2.50,
p(T) I no es invertible. Esto es, Spec(p(T)).
Para probar el recproco, vamos a suponer que / p(Spec(T)) y demostraremos que
/ Spec(p(T)). Consideremos el polinomio p(Z) . Por el Teorema Fundamental del
lgebra, dicho polinomio se puede factorizar en factores lineales:
p(Z) = c
0
(Z
1
)(Z
2
) (Z
d
),
donde d = deg(p(Z)) y c
0
es el coeciente lder de p(Z). Al evaluar obtenemos que
p(
j
) = para toda j 1, 2, . . . , m. Demostraremos que
1
,
2
, . . . ,
d
/ Spec(T).
En efecto, si suponemos que
j
Spec(T) para algn j 1, 2, . . . , d, entonces =
p(
j
) p(Spec(T)) que contradice a la hiptesis. As que
1
,
2
, . . . ,
d
/ Spec(T).
Entonces
I p(T) = c
0
(T
1
I)(T
2
I) (T
d
I).
Todos los factores del lado derecho son invertibles, por eso I p(T) tambin lo es. Lo
ltimo signica que / Spec(p(T)).
Observe que la primera parte de la demostracin del Teorema del maleo espectral
no usa la hiptesis que el espacio vectorial sea complejo. Por lo tanto, en el caso de
cualquier campo, siempre es vlida la contencin:
Spec(p(T)) p(Spec(T)),
Vamos a construir un ejemplo real para mostrar esto. Consideremos la transformacin
lineal T : R
2
R
2
cuya matriz en la base cannica E es:
[T]
E
=
_
0 1
1 0
_
.
El polinomio caracterstico de T es
2
+ 1, y de aqu, Spec(T) = . Sea p(X) = 0, el
polinomio cero. Entonces p(T) = 0, la transformacin lineal cero y Spec(p(T)) = 0.
En este caso,
Spec(p(T)) = 0 = p(Spec(T)).
2.7 El polinomio mnimo 45
Ejercicio 2.53 Verique si se cumple o no el Teorema del mapeo espectral para el
polinomio f(X) = X
2
y la matriz
A =
_
_
7 0 0
0 0 1
0 1 0
_
_
.
2.7 El polinomio mnimo
En lo que sigue, a cada matriz le asociaremos un polinomio. Este polinomio, entre
otras propiedades, nos dar un nuevo criterio para decidir si la matriz es diagonalizable.
2.7.1 El polinomio mnimo de una matriz
Dada una matriz A K
nn
nos interesa considerar polinomios p K[X] que anulen
a A, es decir, tales que p(A) = 0. El siguiente resultado asegura que para cualquier
matriz existe un polinomio no nulo con esta propiedad.
Lema 2.54 Sea A K
nn
. Existe un polinomio p K[X], p ,= 0, tal que p(A) = 0.
Demostracin Consideremos el conjunto I
n
, A, A
2
, . . . , A
n
2
K
nn
. Este conjunto
es linealmente dependiente, puesto que tiene n
2
+1 elementos y dim(K
nn
) = n
2
. Luego,
existen a
0
, a
1
, . . . , a
n
2 K no todos nulos, tales que

n
2
i=0
a
i
A
i
= 0. Sea p K[X] el
polinomio p =

n
2
i=0
a
i
X
i
. Entonces p = 0 y p(A) = 0.
Para cada matriz, distinguimos un polinomio particular entre todos los polinomios
que la anulan: el de grado mnimo y mnico. Veamos que para toda matriz existe un
polinomio con estas propiedades y que es nico:
Existencia. Sea H = deg(p) [ p K[X], p ,= 0, p(A) = 0 N. Por el Lema 2.54,
H ,= . Luego, H tiene un elemento mnimo r. Entonces existe un polinomio q ,= 0
de grado r tal que q(A) = 0 y q es mnico (si no lo fuera, bastara con dividir por su
coeciente lder).
Unicidad. Supongamos que existe un polinomio q

K[X] mnico, q

,= q, tal que
deg(q

) = r y q

(A) = 0. Entonces (q

q)(A) = 0 y deg(q

q) < r, puesto que q y


q

son ambos mnicos, lo que contradice que r es el mnimo de H.


Denicin 2.55 Sea A K
nn
. Llamaremos polinomio mnimo de A, y lo notaremos
m
A
, al polinomio mnico de grado mnimo que anula a A.
Ejemplo 2.56 Sea A
_
1 0
1 1
_
. Calcular m
A
.
Solucin. Puesto que I
2
, A es linealmente independiente, no existe p R[X] tal que
deg(p) = 1 y p(A) = 0. Buscamos entonces p = X
2
+ aX + b que anule a A, para lo
46 Teoria Espectral
cual estudiamos la independecia lineal de I
2
, A, A
2
.
A
2
+aA+bI
2
= 0
_
1 0
2 1
_
+a
_
1 0
1 1
_
+b
_
1 0
0 1
_
= 0
1 a +b = 0 y 2 +a = 0
a = 2, b = 1.
Luego, m
A
= X
2
+ 2X + 1. (Observe que, en este caso, m
A
coincide con
A
.)
Dada una matriz A K
nn
, el conjunto de todos los polinomios que anulan a A
puede caracterizarse a partir de su polinomio minimal m
A
.
Proposicin 2.57 Sea A K
nn
y sea p K[X]. Entonces p(A) = 0 si y solamente
si m
A
divide a p.
Demostracin Si m
A
[ p, existe q K[X] tal que p = m
A
q. Luego
p(A) = (m
A
q)(A) = m
A
(A)q(A) = 0 q(A) = 0.
Recprocamente, por el algoritmo de la divisin en K[X], existen polinomios q, r K[X]
tales que p = m
A
q +r con r = 0 o deg(r) < deg(m
A
). Se tiene que
0 = p(A) = m
A
(A)q(A) +r(A) = 0 q(A) +r(A) = r(A).
Como m
A
es de grado mnimo entre los polinomios que anulan a A, no puede ser
deg(r) < deg(m
A
) y, por lo tanto, r = 0.
Como sucede en el caso del polinomio caracterstico, vemos que dos matrices seme-
jantes tienen el mismo polinomio mnimo.
Lema 2.58 Sean A, B K
nn
, A B. Entonces p(A) p(B) para todo p K[X].
En particular, p(A) = 0 si y solamente si p(B) = 0.
Demostracin Sea p K[X], p =

r
i=0
a
i
X
i
. Si A B, existe C GL(n, K) tal que
A = CBC
1
, y entonces
p(A) = p(CBC
1
) =
r

i=0
a
i
(CBC
1
)
i
=
r

i=0
a
i
CB
i
C
1
= C
_
r

i=0
a
i
B
i
_
C
1
= C p(B) C
1
.
Luego, p(A) p(B).
Proposicin 2.59 Sean A, B K
nn
, A B. Entonces m
A
= m
B
.
Demostracin Por el lema 2.58 y la Proposicin 2.57,
m
A
(A) = 0 m
A
(B) = 0 m
B
[ m
A
m
B
(B) = 0 m
B
(A) = 0 m
A
[ m
B
Puesto que m
A
y m
B
son ambos mnichos, resulta que m
A
= m
B
.
2.7 El polinomio mnimo 47
Este resultado implica que si T : V V es una transformacin lineal denida en
un K-espacio vectorial V de dimensin nita, y consideramos la matriz de T en dos
bases de V distintas, los polinomios mnimos de estas dos matrices coinciden. Esto nos
permite dar la siguiente denicin de polinomio mnimo para transformaciones lineales:
Denicin 2.60 Sea V un espacio vectorial sobre K de dimensin nita, y sea una
base de V . Sea T : V V una transformacin lineal. Se dene el polinomio minimal
de T como m
T
= m
[T]

.
El siguiente resultado muestra que las races del polinomio mnimo de una matriz son
sus autovalores.
Proposicin 2.61 Sea A K
nn
, y sea m
A
el polinomio mnimo de A. Sea K.
Entonces es autovalor de A si y solamente si es raz de m
A
.
Demostracin Sea un autovalor de A. Por el algoritmo de divisin en K[X] existen
q K[X] y r K tales que m
A
= q(X ) +r. Entonces
0 = m
A
(A) = q(A)(A I
n
) +r I
n
.
Como es autovalor de A, existe v K
n
, v ,= 0, tal que Av = v. Se tiene que
0 = q(A) (AI
n
) v +r v = q(A) (Av v) +r v = q(A) 0 +r v = r v,
es decir, r v = 0. Como v ,= 0, debe ser r = 0. En consecuencia, m
A
= q (X ),
y entonces es raz de m
A
. Recprocamente, sea K una raz de m
A
. Entonces
m
A
= (X ) q y, por lo tanto, 0 = m
A
(A) = (A I
n
) q(A). Observamos que
q(A) ,= 0, puesto que deg(q) = deg(m
A
) 1. En consecuencia, existe w K
n
tal que
q(A) w ,= 0. Sea v = q(A) w. Entonces
(AI
n
) v = (AI
n
) q(A) w = 0 w = 0,
de donde es un autovalor de A.
2.7.2 El polinomio mnimo de un vector
Sea A K
nn
y sea v K
n
. Dado p K[X], denimos p(v) = p(A)v. Diremos que
p anula a v si p(v) = 0.
Observe que si A K
nn
y m
A
es el polinomio mnimo de A. Entonces, para cada
v K
n
, se tiene que
m
A
(v) = m
A
(A) v = 0 v = 0.
Luego, para cada v K
n
existe un polinomio mnico que anula a v.
Denicin 2.62 Sea A K
nn
y sea v K
n
. El polinomio mnimo de v, que
denotaremos m
v
, es el polinomio mnico de grado mnimo que anula a v.
La existencia y unicidad de un polinomio que cumple las condiciones de la denicin
se prueban en forma anloga a lo hecho para el polinomio mnimo de una matriz.
Ejemplo 2.63 Sea A K
nn
y sea v K
n
un autovector de A de autovalor .
Entonces m
v
= X .
48 Teoria Espectral
Ejemplo 2.64 Sea A =
_
1 0
1 1
_
R
22
, y sea e
1
= (1, 0). Calculamos m
e
1
:
Comenzamos buscando un polinomio mnico p = X + b R[X] de grado 1 tal que
p(e
1
) = 0: Observamos que
p(e
1
) = 0 (A+bI
2
)e1 = 0 Ae
1
+be
1
= 0 (1, 1) + (b, 0) = (0, 0),
pero esto no vale para ningn valor de b R. Luego, deg(m
e
1
) 2. Buscamos entonces
un polinomio p R[X] mnico de grado 2: p = X
2
+aX +b. En este caso
p(e
1
) = 0 (A
2
+aA+bI2) e
1
= 0
(A
2
e
1
+aAe
1
+be
1
= 0
(1, 2) +a(1, 1) +b(1, 0) = (0, 0)
1 a +b = 0 y 2 +a = 0
a = 2, b = 1.
Luego, el polinomio mnimo de e
1
es p = X
2
+ 2X + 1.
2.7.3 Cmo hallar el polinomio minimal de un vector
Sea A K
nn
y sea v K
n
. Si m
v
= X
m
+a
m1
X
m1
+ +a
2
X
2
+a
1
X +a
0
es
el polinomio mnimo de v, entonces
A
m
v +a
m1
A
m1
v + +a
2
A
2
v +a
1
Av +a
0
v = 0.
Adems, como m
v
es de grado mnimo entre los polinomios que satisfacen p(v) = 0,
se tiene que v, Av, . . . , A
m1
v es un conjunto linealmente independiente. Luego, para
hallar el polinomio mnimo de v, un primer paso consiste en buscar el mnimo m N
tal que v, Av, . . . , A
m
v es linealmente dependiente. Si A
m
v = a
0
v a
1
Av
a
m1
A
m1
v, entonces m
v
= X
m
+a
m1
X
m1
+ +a
1
X +a
0
.
Al igual que para el polinomio mnimo de una matriz, jada una matriz A, todo
polinomio que anula a un vector dado resulta ser mltiplo de su polinomio mnimo.
Proposicin 2.65 Sean A K
nn
, v K
n
y p K[X]. Entonces p(v) = 0 si y
solamente si m
v
divide a p. En particular, m
v
divide a m
A
.
Demostracin Dado p K[X] se tiene que p = m
v
q + r con q, r K[X], r = 0 o
deg(r) < deg(m
v
). En consecuencia,
p(v) = p(A) v = m
v
(A) q(A) v +r(A) v = q(A). 0 +r(v) = r(v),
de donde p(v) = 0 si y solamente si r(v) = 0. Como m
v
es de grado mnimo entre los
polinomios que anulan a v, resulta que r(v) = 0 si y solamente si r = 0, es decir, si y
solamente si m
v
[ p.
La siguiente proposicin muestra cmo calcular el polinomio mnimo de una matriz
A K
nn
a partir de los polinomios mnimos de los vectores de una base de K
n
.
Proposicin 2.66 Sea A K
nn
y sea = v
1
, . . . , v
n
una base de K
n
. Entonces
m
A
= mcmm
v
i
[ i = 1, . . . , n donde mcm denota el mnimo comn mltiplo.
2.7 El polinomio mnimo 49
Demostracin Sea p = mcmm
v
i
[ i = 1, . . . , n. Por la Proposicin 2.65, m
v
i
[ m
A
para cada 1 i n. Luego, p [ m
A
. Por otro lado, como m
v
i
[ p para cada 1 i n,
se tiene que p(A) v
i
= 0 para cada 1 i n. Sea v K
n
y sean
1
, . . . ,
n
K tales
que v =

n
i=1

i
v
i
. Entonces
p(A) v = p(A)
_
n

i=1

i
v
i
_
=
n

i=1

i
p(A) v
i
= 0.
En consecuencia, se tiene que p(A) K
nn
satisface p(A) v = 0 para toda v K
n
y,
por lo tanto, p(A) = 0. Luego, m
A
[ p. Como m
A
y p son dos polinomios mnicos que
se dividen mutuamente, m
A
= p .
Ejemplo 2.67 Calculemos m
A
para A =
_
_
1 0 0
1 1 0
0 0 2
_
_
. Primero, consideremos E =
e
1
, e
2
, e
3
la base cannica de R
3
. Por la Proposicin 2.66, m
A
= mcmm
e
1
, m
e
2
, m
e
3
.
Busquemos entonces los polinomios mnimos de cada uno de los vectores de la base E:
m
e
1
: Vemos que e
1
, Ae
1
= e
1
, e
1
+e
2
es un conjunto linealmente independiente,
pero e
1
, Ae
1
, A
2
e
1
= e
1
, e
1
+e
2
, e
1
+2e
2
no lo es. Adems, 0 = (e
1
+2e
2
)2(e
1
+
e
2
) +e
1
= A
2
e
1
2Ae
1
+e
1
, de donde m
e
1
= X
2
2X + 1 = (X?1)
2
.
m
e
2
: Como Ae
2
= e
2
, entonces m
e
2
= X 1.
m
e
3
: Como Ae
3
= 2e
3
, entonces m
e
3
= X 2.
Luego,
m
A
= mcm(X 1)
2
, X 1, X 2 = (X 1)
2
(X 2).
2.7.4 Un criterio de diagonalizacin usando el polinomio mnimo
En primer lugar, notemos lo siguiente: si A K
nn
y
A
K[X] es el polinomio
caracterstico de A. Entonces, si
A
se factoriza linealmente en K[X] y tiene todas
sus races simples (es decir, todas sus races son de multiplicidad 1), entonces A es
diagonalizable. En efecto, si
A
= (X?
1
) (X?
n
), con
i
,=
j
para cada i ,= j, A
tiene n autovalores distintos. Adems, para cada 1 i n, existe v
i
K
n
autovector de
A de autovalor
i
. Puesto que E

1
, , E

n
estn en suma directa, v
1
, . . . , v
n
resulta
una base de K
n
formada por autovectores de A, y por lo tanto, A es diagonalizable.
La recproca de este resultado no es cierta, es decir,
A
puede tener races mltiples y,
de todas formas, A ser diagonalizable. Basta considerar, por ejemplo, la matriz A = I
n
.
Sin embargo, es posible dar una condicin necesaria y suciente para la diagonaliza-
cin, considerando la factorizacin del polinomio mnimo de la matriz.
Proposicin 2.68 Sea A K
nn
. Entonces A es diagonalizable en K
nn
si y sola-
mente si m
A
tiene todas sus races en K y son simples.
Demostracin Supongamos que A es diagonalizable. Sean
1
, ,
r
los autovalores
de A, con
i
,=
j
si i ,= j y sea v
1
, , v
n
una base de autovectores de A. Si m
v
50 Teoria Espectral
denota el polinomio mnimo del vector v para la matriz A, se tiene que:
m
A
= mcmm
v
1
, . . . , m
v
n

= mcmX
1
, . . . , X
1
, . . . , X
r
, . . . , X
r

= (X
1
)(X
2
) (X
r
).
En consecuencia, m
A
tiene todas las races en K y son simples.
Recprocamente, supongamos que m
A
= (X
1
)(X
2
) (X
r
) con
i
,=
j
si i ,= j. Entonces
1
, ,
r
son todos los autovalores de A en K. Veamos que K
n
=

r
i=1
E

i
, donde E

i
= x K
n
[ Ax =
i
x. Sea v K
n
0. Consideremos el
subespacio
S = v, Av, A
2
v, . . . , A
m
v, . . . K
n
.
Supongamos que v, Av, . . . , A
k
v es un conjunto linealmente independiente, pero v, Av, . . . , A
k
v, A
k+1
v
es linealmente dependiente. Luego A
j
v v, Av, . . . , A
k
v para todo j N y
S
=
v, Av, A
2
v, . . . , A
k
v resulta ser una base de S. Adems, deg(m
v
) = k + 1, o sea, m
v
es de la forma
m
v
= X
k+1
+a
k
X
k
+ +a
1
X +a
0
.
Por la construccin de S, si x S resulta que A
x
S. Sea T
A
: S S la transformacin
lineal denida por T
A
(x) = Ax. Se tiene que
[T
A
]

S
=
_
_
_
_
_
_
_
_
_
0 0 0 a
0
1 0
.
.
. a
1
0 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0 a
k1
0 0 1 a
k
_
_
_
_
_
_
_
_
_
Observamos que
T
A
= det(XI
k+1
[T
A

S
) = X
k+1
+ a
k
X
k
+ + a
1
X + a
0
= m
v
.
Puesto que m
v
[ m
A
y, por hiptesis, m
A
tiene todas sus races en K y son simples,
resulta que
T
A
= m
v
tiene todas sus races en K, son simples y son algunos de los
autovalores de A. Concluimos que T
A
es diagonalizable sobre S. Adems, si
T
A
=
(X
i
1
) . . . (X
i
k+1
), como v S, existen v
i
1
, . . . , v
i
k+1
autovectores de T
A
(donde
v
i
j
es un autovector de autovalor
i
j
) tales que v = v
i
1
+ + v
i
k+1
. Pero si v
i
j
es
un autovector de T
A
de autovalor
i
j
, entonces es un autovector de A con el mismo
autovalor. En consecuencia v
r
i=1
E

i
. Como v K
n
era arbitrario, resulta que
K
n
=
r
i=1
E

i
y A es diagonalizable.
A continuacin presentamos un ejemplo en el que mostramos cmo puede aplicarse
este resultado para determinar si una matriz es diagonalizable.
Ejemplo 2.69 Sea A C
nn
tal que A
k
= I
n
para algn k N. Entonces A es
diagonalizable.
Solucin. Por hiptesis, A
k
I
n
= 0, con lo que el polinomio X
k
1 anula a A. En
consecuencia, m
A
[ X
k
1. Como X
k
1 tiene todas sus races en C y son simples,
entonces m
A
tambin. Luego, A es diagonalizable.
Ejercicios 51
Ejemplo 2.70 (continuacin del Ejemplo 2.69) Notar que si A R
nn
satisface
A
k
= I
n
, A no es necesariamente diagonalizable sobre R. Por ejemplo, A =
_
_
0 0 1
1 0 0
0 1 0
_
_
cumple que A
3
= I
3
, pero A no es diagonalizable, puesto que m
A
= (X1)(X
2
+X+1),
que no tiene todas sus races en R.
Ejercicios
2.1 Analizar la validez de las siguientes armaciones:
a). Si A R
nn
inversible, entonces 0 no es autovalor de A.
b). Si A R
nn
es inversible y x es un autovector de A, entonces x es un autovector
de A
1
.
c). Si A R
nn
con n impar, entonces A admite un autovalor real.
2.2 Hallar los autovalores de las siguientes matrices:
a).
_
_
_
_
_
_
_
1 1 1 1
1 1 1 1
1 1 1 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 1 1 1
_
_
_
_
_
_
_
R
nn
b).
_
_
_
_
_
_
_
_
_
2 1 2 1 2 1
1 2 1 2 1 2
2 1 2 1 2 1
1 2 1 2 1 2
2 1 2 1 2 1
1 2 1 2 1 2
_
_
_
_
_
_
_
_
_
R
66
2.3 Suponga que es un autovalor de la matriz A con autovector correspondiente x.
Entonces si k es un entero positivo, demuestre que
k
es un autovalor de la matriz
A
k
con autovector correspondiente x.
2.4 Calcular el polinomio caracterstico, los autovalores y los autovectores de la matriz
A en cada uno de los siguientes casos (a R):
(Analizar por separado los casos K = R y K = C)
a).
_
1 3
3 1
_
.
b).
_
_
0 2 1
2 0 3
1 3 0
_
_
.
c).
_
_
a 1 1
1 a 1
1 1 a
_
_
.
d).
_
_
1 0 0
a 1 0
0 a 1
_
_
.
52 Teoria Espectral
2.5 Sea f : R
3
R
3
la transformacin lineal denida por:
f(x, y, z) = (x 2y + 2z, y, x 3y 4z).
a). Encontrar una base de R
3
tal que [f]

sea diagonal.
b). Calcular
_
_
1 2 2
0 1 0
1 3 4
_
_
n
para toda n N.
SUGERENCIA: Si A, B K
nn
y C GL(n, K) son matrices tales que A =
CBC
1
entonces A
k
= CB
k
C
1
para todo k N.
c). Existe una matriz P R
33
tal que P
2
=
_
_
1 2 2
0 1 0
1 3 4
_
_
.
2.6 Considere la matriz
C =
_
_
_
_
1 0 1 1
0 1 1 1
1 1 1 0
1 1 0 1
_
_
_
_
.
a). Muestre que Spec(C) = 3, 1, 1.
b). Suponga que A es una matrix cuadrada y es un autovalor de A. Sea q(X) un
polinomio en la variable X. Entonces q() es un autovalor de la matriz q(A) is
an eigenvalue of A.
c). Usando C construya una matriz D de 4 4 tal que Spec(D) = 4, 0, 2.
SUGERENCIA: Interpole un polinomio que envie un espectro a otro y aplique
(b).
2.7 Verdadero o Falso: (Justique su respuesta)
a). Cada operador lineal en un espacio vectorial de dimensin n tiene n autovalores
distintos.
b). Si una matriz tiene un autovector, entonces tiene un nmero innito de auto-
valores.
c). Existe una matriz cuadrada real sin autovalores reales.
d). Existe una matriz cuadrada sin autovalores complejos.
e). Matrices similares tienen los mismos autovalores.
f ). Matrices similares tienen los mismos autovalores.
g). La suma de dos autovectores de una matriz A es siempre un autovector.
h). La suma de dos autovectores de una matriz A correspondendientes al mismo
autovalor es siempre un autovector.
i ). Sea A una matriz de n n. Si A es diagonalizable, tambin lo es A
T
.
2.8 Sabemos que el polinomio caracterstico de una matriz cuadrada de n n tiene
grado n. Pruebe que el coeciente de X
n
en el polinomio caracterstico es (1)
n
.
2.9 Suponga que A es una matriz cuadrada. Demuestre que el trmino constante de

A
es igual a la determinante de A.
2.10 Suponga que A es una matriz cuadrada. Probar que un vector no puede ser un
autovector de A para dos diferentes autovalores.
Ejercicios 53
Denicin 2.71 Recuerde que la adjunta de una matriz A es la matriz A

=
(

A)
T
. Suponga que U es una matriz cuadrada de nn tal que U

U = I
n
. Entonces
decimos que U es una matriz unitaria.
2.11 Suponga que U es una matriz unitaria con autovalor . Probar que tiene mdulo
1, es decir [ [= 1. Esto dice que todos los autovalores de una matriz unitaria
viven en el circulo del plano complejo.
2.12 Sea A =
_
a b
0 c
_
K
22
. Determinar todos los a, b, c K para los cuales A es
diagonalizable.
2.13 Probar que toda matriz A C
22
es diagonalizable o bien es semejante a una
matriz del tipo
_
0
1
_
.
2.14 Se sabe que la matriz A R
22
tiene a (1, 1) como autovector de autovalor

2
y, adems,
A
Q[X]. Decidir si A es diagonalizable en R
22
.
2.15 Sea A una matriz de 5 5 con 3 autovalores (sin contar mulltiplicidades). Su-
ponga que sabemos que un espacio propio tiene dimensin 3. Puedes decir si A es
diagonalizable?
2.16 Sea V un espacio vectorial sobre C y sea P Hom(V, V ) tal que P
2
= P. De-
muestre que
Spec(P) 0, 1.
2.17 Sea V un espacio vectorial sobre C y sea P Hom(V, V ) tal que P
2
= P, P ,= 0,
P ,= I. Demuestre que
Spec(P) = 0, 1.
2.18 Sea V un espacio vectorial sobre C y sea T Hom(V, V ) tal que T
2
= I. Demuestre
que
Spec(T) 1, 1.
2.19 Sea V un espacio vectorial sobre C y sea T Hom(V, V ) tal que T
m
= 0 para
algn m 1, 2, . . .. Demuestre que
Spec(T) = 0.
2.20 En matemticas, la sucesin de Fibonacci (a veces mal llamada serie de Fibo-
nacci) es la siguiente sucesin innita de nmeros naturales:
0, 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233, 377, 610, 987, 1597, 2584, 4181,
6765, 10946, 17711, ...
La sucesin inicia con 0 y 1, y a partir de ah cada elemento es la suma de los
dos anteriores.
A cada elemento de esta sucesin se le llama nmero de Fibonacci. Esta sucesin
fue descrita en Europa por Leonardo de Pisa, matemtico italiano del siglo XIII
tambin conocido como Fibonacci. Tiene numerosas aplicaciones en ciencias de la
computacin, matemticas y teora de juegos. Tambin aparece en conguraciones
biolgicas, como por ejemplo en las ramas de los rboles, en la disposicin de las
hojas en el tallo, en la ora de la alcachofa y en el arreglo de un cono.
54 Teoria Espectral
La sucecin de Fibonacci puede ser descrita de manera recursiva por
a
0
= 0, a
1
= 1, , a
2
= 1, . . . , a
n+1
= a
n
+a
n1
, n 1
En el siguiente ejercicio ilustraremos una aplicacin de los autovalores y la
diagonalizacin para determinar una expressn cerrada para un trmino arbitrario
de esta sucecin.
a). Verica que para cualquier n 1, la frmula recursiva de Fibonacci establece
que
_
a
n
a
n+1
_
=
_
0 1
1 1
__
a
n1
a
n
_
b). Demuestre que
_
a
n
a
n+1
_
=
_
0 1
1 1
_
n
_
a
0
a
1
_
c). Muestre que A =
_
0 1
1 1
_
tiene como autovalores =
1+

5
2
y =
1

5
2
que
satisfacen + = 1, = 1, 1 + =
2
, 1 + =
2
y =

5. Muestra
que los autovectores son:
_
1

_
y
_
1

_
d). Halla una matriz S invertible tal que A = SDS
1
con D diagonal. Halla A
n
usando esta relacin.
e). Demuestra que
_
a
n
a
n+1
_
=
1

_

n

n+1

n+1
_
f ). Concluye que
a
n
=
1
2
n

5
_
(1 +

5)
n
(1

5)
n
_
3
Espacios con producto interno
En este captulo, se generalizarn las nociones geomtricas de distancia y perpendi-
cularidad, conocidas en R
2
y en R
3
, a otros espacios vectoriales. En este captulo, slo
se considerarn espacios vectoriales sobre R o sobre C.
3.1 Producto Interno
Algunas nociones geomtricas en R
2
y en R
3
pueden denirse a partir del produc-
to escalar. La denicin que sigue es una generalizacin del producto escalar a otros
espacios vectoriales.
3.1.1 Denicin y Ejemplos
Denicin 3.1 Sea V un espacio vectorial sobre R (respectivamente C). Un producto
interno sobre V es una funcin Phi : V V R (respectivamente C) que cumple:
1.. Para cada R (respectivamente C), y v, w, z V
(v +w, z) = (v, z) + (w, z)
(v, z) = (v, z)
2.. (v, w) = (w, v) v, w V . (Note que esta condicin implica que para cada v V
, (v, v) = (v, v), es decir que (v, v) R.)
3.. (v, v) > 0 si v ,= 0.
Si es un producto interno, escribiremos (v, w) = v, w.
Denicin 3.2 A un espacio vectorial real (respectivamente complejo) provisto de
un producto interno se lo llama un espacio eucldeo (respectivamente espacio unitario).
De las condiciones (1..) y (2..) de la denicin de producto interno se deduce que
si : V V R (respectivamente C) es un producto interno, para cada R
(respectivamente C), y v, w, z V se tiene que:
(v, w +z) = (v, w) + (v, z),
(v, w) = (v, w).
56 Espacios con producto interno
Ejercicio 3.3 Demuestre la frmula
_
m

j=1

j
u
j
,
n

k=1

k
w
k
_
=
m

j=1
n

k=1

k
u
j
, w
k
.
Ejemplo 3.4 Se puede comprobar que las funciones denidas a continuacin son
productos internos sobre los espacios vectoriales correspondientes:
Producto interno cannico en R
n
:
((x
1
, . . . , x
n
), (y
1
, . . . , y
n
)) = x
1
y
1
+ +x
n
y
n
.
Producto interno cannico en C
n
:
((x
1
, . . . , x
n
), (y
1
, . . . , y
n
)) = x
1
y
1
+ +x
n
y
n
.
Dada B C
mn
, denotamos por B

C
nm
a la matriz transpuesta conjugada de
B, es decir, a la matriz denida por (B

)
ij
=

B
ji
. Se dene : C
mn
C
mn
C
como
(A, B) = tr(A B

).
Si a < b R y C[a, b] = f : [a, b] R [f es continua, se dene : C[a, b]C[a, b]
R como
(f, g) =
_
a
b
f(x)g(x)dx.
Ejemplo 3.5 Sean u = (2 +3i, 5 +2i, 3 +i) y v = (1 +2i, 4 +5i, 5i). Hallar u, v
usando el producto cannico en C
2
.
Solucin. Tenemos
u, v = (2 + 3i)(1 + 2i) + (5 + 2i)(4 + 5i) + (3 +i)(0 + 5i)
= (2 + 3i)(1 2i) + (5 + 2i)(4 5i) + (3 +i)(0 5i)
= (8 i) + (10 33i) + (5 + 15i)
= 3 19i.
Ejercicio 3.6 Muestre que en R
2
el siguiente
x, y = x
1
y
1
+x
1
y
2
+x
2
y
1
+ 5x
2
y
2
.
es un producto interno.
Como deja evidente los Ejemplos 3.4 y 3.6, dado un espacio vectorial V es posible
denir distintos productos internos sobre V . En el ejemplo siguiente veremos una familia
de productos internos en R
2
.
Ejemplo 3.7 Sea : R
2
R
2
R denida por
((x
1
, x
2
), (y
1
, y
2
)) = x
1
y
1
x
1
y
2
x
2
y
1
+x
2
y
2
.
Hallar todos los valores de R para los cuales es un producto interno.
Solucin. Es inmediato vericar que, para cualquier R se cumplen las condiciones
3.1 Producto Interno 57
(1..) y (2..) de la denicin de producto interno. Veamos para qu valores de se cumple
la condicin (3..). Se tiene que
(f, g) = x
2
1
2x
1
x
2
+x
2
2
= x
2
1
2x
1
x
2
+x
2
2
+ ( 1)x
2
2
= (x
1
x
2
)
2
+ ( 1)x
2
2
De esta igualdad se deduce que (v, v) > 0 v ,= 0 > 1.
En consecuencia, es un producto interno si y solamente si > 1.
Ejercicio 3.8 Demuestre que la funcin Pol
n
(C) Pol
n
(C) C denida por:
P(t), Q(t) =
n

k=0
a
k

b
k
,
donde P(t) =

n
k=0
a
k
t
k
y Q(t) =

n
k=0
b
k
t
k
es un producto interno en Pol
n
(C).
3.1.2 Norma de un vector
La nocin que sigue generaliza la de longitud de un vector en R
2
o R
3
.
Denicin 3.9 Sea (V, , ) un espacio vectorial sobre R (respectivamente C) con
producto interno y sea v V. Se dene la norma de v asociada a , (y se denota |v|)
como
|v| =
_
v, v.
Proposicin 3.10 Sea (V, , ) un espacio vectorial con producto interno.
1.. Para cada v V , |v| 0, y |v| = 0 si y solamente si v = 0.
2.. Sean R (respectivamente C) y v V . Entonces |v| = [[ |v|.
3.. (Desigualdad de Cauchy-Schwartz.) Si v, w V , entonces
[v, w[ |v| |w|.
4.. (Desigualdad del tringulo.) Si v, w V , entonces
|v +w| |v| +|w|.
Demostracin 1.. Se sigue inmediatamente de la denicin de norma.
2.. Se sigue inmediatamente de la denicin de norma.
3.. Si w = 0, no hay nada que hacer. Supongamos entonces que w ,= 0. Se tiene que
0
_
v
v, w
|w|
2
w, v
v, w
|w|
2
w
_
=
_
v, v
v, w
|w|
2
w
_

v, w
|w|
2
_
w, v
v, w
|w|
2
w
_
= v, v
v, w
|w|
2
v, w
v, w
|w|
2
w, v +
v, w
|w|
2
v, w
|w|
2
w, w
= |v|
2

[v, w[
2
|w|
2
.
58 Espacios con producto interno
Esto implica que [v, w[
2
|v|
2
|w|
2
, de donde se obtiene la desigualdad buscada.
4.. En primer lugar, observamos que
|v +w|
2
= v +w, v +w
= v, v +v, w +v, w +w, w
= |v|
2
+ 2 Rev, w +|w|
2
.
Entonces, teniendo en cuenta que Rev, w [v, w y aplicando la desigualdad de
Cauchy-Schwartz, resulta que
|v +w|
2
|v|
2
+ 2[v, w[ +|w|
2
|v|
2
+ 2|v||w| +|w|
2
= (|v| +|w|)
2
,
de donde se deduce que |v +w| |v| +|w|.
Ejercicio 3.11 Demuestre que [x, y[
2
= x, x y, y si y solamente si x, y son
linealmente dependientes.
La desigualdad de Cauchy-Schwartz vista en ciertos espacios vectoriales con producto
interno nos permite obtener distintas propiedades:
Ejercicio 3.12 Sean f, g C[a, b]. Entonces

_
b
a
f(x)g(x)dx

_
_
b
a
f
2
(x)dx
_1
2
_
_
b
a
g
2
(x)dx
_1
2
.
Ejercicio 3.13 Demuestre que la norma asociada a un producto interno satisface la
siguiente propiedad conocida como la identidad de paralelogramo:
|x +y|
2
+|x y|
2
= 2(|x|
2
+|y|
2
).
para toda x, y V .
En general, se puede denir una norma en un espacio vectorial V sobre R o C como
una funcin | | : V R que cumpla las condiciones (1..), (2..) y (4..) de la proposicin
3.10. En ese caso decimos que (V, | |) es un espacio normado. Una norma cualquiera
en este sentido puede no provenir de un producto interno (es decir, puede no haber
ningun producto interno tal que la norma asociada sea | |). Un ejemplo de esto es la
norma innito en R
n
, denida por |(x
1
, . . . , x
n
)|

= mx[x
1
[, . . . , [x
n
[.
Dada una norma, se puede decidir si proviene o no de un producto interno, ya que
ste se puede recuperar a partir de su norma asociada:
Proposicin 3.14 (Identidades de polarizacin) 1.. Sea (V, , ) un R-espacio vec-
torial con producto interno. Entonces para cada v, w V se tiene:
v, w =
1
4
|v +w|
2

1
4
|v w|
2
.
3.1 Producto Interno 59
2.. Sea (V, , ) un C-espacio vectorial con producto interno. Entonces para cada v, w
V se tiene:
v, w =
1
4
|v +w|
2

1
4
|v w|
2
+
i
4
|v +iw|
2

i
4
|v iw|
2
.
Demostracin 1.. Si V es un R-espacio vectorial, entonces |v +w|
2
= |v|
2
+2v, w +
|w|
2
y |v w|
2
= |v|
2
2v, w +|w|
2
. Entonces
1
4
|v +w|
2

1
4
|v w|
2
=
1
2
v, w
_
1
2
_
v, w = v, w.
2.. Anlogamente, si V es un C-espacio vectorial, entonces
1
4
|v +w|
2

1
4
|v w|
2
= Rev, w
Por otro lado, |v + iw|
2
= |v|
2
+ 2 Rev, iw +|iw|
2
= |v|
2
+ 2 Imv, w +|w|
2
y, similarmente, |v?iw|
2
= |v|
2
2 Imv, w +|w|
2
, lo que implica que
i
4
|v +iw|
2

i
4
|v iw|
2
= i Imv, w.
La identidad del enunciado se obtiene haciendo v, w = Rev, w +i Imv, w.
Una norma cualquiera estar asociada a un producto interno si y solamente si la
funcin que se obtiene mediante estas identidades resulta un producto interno. En lo
que sigue, slo se considerarn normas asociadas a productos internos.
3.1.3 Distancia entre vectores
A partir de la denicin de norma de un vector, podemos denir la nocin de distancia
entre dos vectores.
Denicin 3.15 Sea V un R- (o C-) espacio vectorial con producto interno , . Se
dene d : V V R como d(v, w) = |v w|.
Utilizando las propiedades de la norma se puede vericar que la funcin d satisface
las siguientes propiedades:
1.. d(v, w) 0 v, w V.
2.. d(v, w) = 0 v = w.
3.. d(v, w) = d(w, v) v, w V.
4.. d(v, z) d(v, w) +d(w, z) v, w, z V.
Dados vectores v, w V se dice que d(v, w) es la distancia (o mtrica) entre v y w.
Dado un conjunto no vaco cualquiera X, puede denirse una distancia en X como
cualquier funcin d : X X R que cumpla las cuatro propiedades anteriores. En ese
caso decimos que (V, d) es un espacio mtrico. Una distancia cualquiera en este sentido
puede no provenir de ninguna norma. En lo que sigue, slo trabajaremos con distancias
asociadas a normas asociadas a productos internos.
60 Espacios con producto interno
Observacin 3.16 En resumen, un espacio vectorial real o complejo con un producto
interno , se puede considerar como un espacio normado con la norma
|x| :=
_
x, x
y como un espacio mtrico con la mtrica
d(x, y) := |x y| =
_
x y, x y.
La norma se puede expresar a travs de la mtrica mediante la frmula
|x| = d(x, 0),
y el producto interno se puede expresar a travs de la norma mediante la identidad de
polarizacion.
3.1.4 ngulo entre dos vectores
Sea (V, , ) un espacio eucldeo. La desigualdad de Cauchy-Schwartz establece que
para todo par de vectores v, w V se tiene que v, w[ |v| |w|. Si v, w ,= 0, resulta
entonces que
1
v, w
|v| |w|
1.
Esto nos permite introducir la siguiente nocin de ngulo entre dos vectores:
Denicin 3.17 Sea (V, , ) un espacio eucldeo y sean v, w V no nulos. Se
dene el ngulo entre v y w como el nico nmero real = (v, w) [0, ] tal que
cos() =
v,w
vw
.
Observamos que si es el ngulo entre v y w, entonces
|v +w|
2
= v +w, v +w = |v|
2
+ 2v, w +|w|
2
= |v|
2
+ 2 cos()|v| |w| +|w|
2
,
que es la frmula conocida como teorema del coseno.
Ejercicio 3.18 En el espacio R
n
con el producto interno cannico consideremos dos
vectores: u = e
1
= (1, 0, . . . , 0) es un lado del cubo unitario, v = (1, 1, . . . , 1) es la
diagonal de este cubo. Calcule el ngulo entre (u, v). Calcule el lmite de (u, v)
cuando n .
3.1.5 Matriz de Gram de un producto interno en una base de
vectores
Si V es un espacio vectorial de dimensin nita con un producto interno , , jada
una base de V , vamos a construir una matriz asociada al producto interno y a dicha
base.
Denicin 3.19 Sea V un R-(respectivamente C-) espacio vectorial de dimensin
nita, sea , un producto interno sobre V y sea = v
1
, . . . , v
n
una base de V. Se
3.1 Producto Interno 61
dene la matriz de Gram del producto interno , en la base = v
1
, v
2
, . . . , v
n
como
la matriz
G() = G(v
1
, . . . , v
n
)
i,j
= v
i
, v
j
.
Ejemplo 3.20 En el espacio Pol
2
(R) con el producto interno
f(t), g(t) =
1
2
_
1
1
f(t)g(t)dt
y la base cannica 1, t, t
2
. Calculear la matriz de Gram.
Solucin. Primero, calculamos todos los productos internos:
1, 1 = 1, 1, x = 0, 1, x
2
=
1
3
,
x, 1 = 0, x, x =
1
3
, x, x
2
= 0,
x
2
, 1 =
1
3
, x
2
, x = 0, x
2
, x
2
=
1
5
,
De aqu:
G(1, x, x
2
) =
_
_
1 0
1
3
0
1
3
0
1
3
0
1
5
_
_
Ejercicio 3.21 En el caso real, la matriz de Gram es simtrica:
G(v
1
, . . . , v
n
)
T
= G(v
1
, . . . , v
n
).
Ejercicio 3.22 En el caso complejo, la matriz de Gram es hermitiana, es decir,
G(v
1
, . . . , v
n
)
T
= G(v
1
, . . . , v
n
).
Proposicin 3.23 Sea V un R-(o C-) espacio vectorial de dimensin nita y sea ,
un producto interno sobre V . Sea una base de V . Entonces, para cada v, w V , se
tiene que
v, w = [v]

G()[w]
T

.
Demostracin Sea = v
1
, . . . , v
n
. Supongamos que v =

n
i=1

i
v
i
y w =

n
i=1

i
v
i
.
Entonces
v, w =
_
n

i=1

i
v
i
,
n

j=1

j
v
j
_
=
n

i=1

i
_
v
i
,
n

j=1

j
v
j
_
=
n

i=1

i
_
_
n

j=1

j
v
i
, v
j

_
_
.
Por otro lado, teniendo en cuenta que [v]

= (
1
, . . . ,
n
) y [w]

= (
1
, . . . ,
n
), resulta
que
v, w = [v]

G()[w]
T

=
n

i=1

i
_
G()[w]
T

_
i,j
=
n

i=1

i
_
_
n

j=1
v
i
, v
j

j
_
_
.
Luego v, w = [v]

G()[w]
T

.
62 Espacios con producto interno
3.2 Ortogonalidad
En esta seccin generalizaremos la nocin conocida de perpendicularidad en R
2
y
algunas propiedades que se basan en esta nocin, a espacios vectoriales con producto
interno arbitrarios.
3.2.1 Conjuntos ortogonales y ortonormales
Denicin 3.24 Sea (V, , ) un espacio vectorial con producto interno. Dos vectores
v, w V se dicen ortogonales (o perpendiculares) si v, w = 0 y lo denotamos por v w.
Es siguiente ejercicio muestra que la ortogonalidad de dos vectores es una relacin
binaria simtrica. Es una relacin de equivalencia?
Ejercicio 3.25 Sean x, y V tales que x y. Muestre que y x.
Observacin 3.26 (Teorema de Pitgoras) Si v, w V son vectores ortogonales,
entonces |v +w|
2
= |v|
2
+|w|
2
.
Denicin 3.27 Sea v V y sea X V . Decimos que v es ortogonal al conjunto X
y escribimos v X si v es ortogonal a cualquier vector del conjunto X, es decir,
v X x X, v x.
Ejercicio 3.28 Sea V un espacio vectorial con producto interno. Muestre que 0 V.
Ejercicio 3.29 Cul vector es ortogonal a si mismo?. Es decir, halle todos los vectores
u V que cumplen con la propiedad u u.
Ejercicio 3.30 Sea u V tal que u V .Demuestre que u = 0.
Resumiendo los resultados de los Ejercicios 3.28 y 3.30 obtenemos:
Proposicin 3.31 (Criterio de la ortogonalidad de un vector a todo el espacio) Sea
V un espacio vectorial con producto interno y u V . Entonces
u V u = 0.
Ejercicio 3.32 Sea X V con V un espacio producto interno y sea v V . Entonces
las siguientes condiciones son equivalentes:
v X v X.
Denicin 3.33 Sea (V, , ) un espacio vectorial con producto interno. Un vector
v V se dice unitario (o normalizado) si |v| = 1. Si v V 0, entonces el vector
v
v
est normalizado.
Denicin 3.34 Sea (V, , ) un espacio vectorial con producto interno. Se dice que
v
1
, . . . , v
r
V es un conjunto ortogonal si v
i
, v
j
= 0 para toda i ,= j. El conjunto
se dice ortonormal si es ortogonal y adems |v
i
| = 1 para cada 1 i r.
Ejemplo 3.35 En R
n
(o C
n
) con el producto interno cannico, la base cannica es
un conjunto ortonormal:
e
i
, e
j
= 0 si i ,= j.
3.2 Ortogonalidad 63
|e
i
|
2
= e
i
, e
i
= 1 para cada 1 i n.
Ejemplo 3.36 En R
2
con el producto interno cannico, el conjunto (1, 1), (1, 1)
es un conjunto ortogonal, pues (1, 1), (1, 1) = 0. Este conjunto no es ortonormal,
ya que |(1, 1)| =

2 ,= 1 y |(1, 1)| =

2 ,= 1. A partir de este conjunto podemos


hallar uno que es ortonormal dividiendo cada uno de ellos entre su norma, es decir,
normalizamos. Entonces el conjunto
__
1

2
,
1

2
_
,
_
1

2
,
1

2
__
es ortonormal.
Ejemplo 3.37 Los siguientes vectores a
1
, a
2
, a
3
forman un sistema ortogonal en R
4
:
a
1
= (1, 1, 1, 1), a
2
= (1, 1, 1, 1), a
3
= (2, 1, 2, 1).
Calculemos los productos internos:
a
1
, a
1
= 4, a
1
, a
2
= 0, a
1
, a
3
= 0,
a
2
, a
1
= 4, a
2
, a
2
= 0, a
1
, a
3
= 0,
a
3
, a
1
= 4, a
3
, a
2
= 0, a
3
, a
3
= 10,
Normalizando los vectores a
1
, a
2
, a
3
obtenemos un conjunto ortonormal:
a
1
= (
1

2
,
1

2
,
1

2
,
1

2
), a
2
= (
1

2
,
1

2
,
1

2
,
1

2
), a
3
= (
2

10
,
1

10
,
2

10
,
1

10
).
Ejercicio 3.38 Muestre que el siguiente conjunto de vectores en R
4
es ortogonal y
normalcelo:
a
1
= (1, 2, 3, 1), a
2
= (1, 3, 2, 1), a
3
= (8, 3, 1, 1).
Ejercicio 3.39 En el espacio vectorial complejo C([, ], C) con el producto interno:
f(x), g(x) =
_

f(x)g(x)dx
consideremos las funciones
e
k
(x) = e
ikx
= cos(kx) +i sen(kx).
Muestre que el sistema (e
k
)
kZ
es ortonormal.
Ejercicio 3.40 (El Teorema de Pitgoras generalizado) Sea a
1
, . . . , a
m
un conjunto
ortogonal en el espacio producto interno V . Demuestre que
_
_
_
_
_
m

k=1
a
k
_
_
_
_
_
2
=
m

k=1
|a
k
|
2
.
Si (V, , ) es un espacio vectorial con producto interno, la matriz de Gram asociada
a , en una base ortogonal (u ortonormal) de V es particularmente simple:
Observacin 3.41 Si (V, , ) es un espacio vectorial de dimensin n con producto
interno, entonces = v
1
, . . . , v
n
es una base de V ortogonal para , si y solamente
si
G(v
1
, . . . , v
n
) =
_
_
_
_
_
v
1
, v
1
0 0
0 v
2
, v
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 v
n
, v
n

_
_
_
_
_
64 Espacios con producto interno
En particular, es una base ortonormal de V si y solamente si
G(v
1
, . . . , v
n
) =
_
_
_
_
_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_
_
_
_
_
= I
n
.
Si se tiene una base ortogonal de un subespacio, las coordenadas en esta base de cual-
quier vector del subespacio pueden encontrarse fcilmente usando el producto interno:
Proposicin 3.42 Sea (V, , ) un espacio vectorial con producto interno. Sea v
1
, . . . , v
r

V un conjunto ortogonal tal que v
i
,= 0 para cada 1 i r y sea v una combinacin
lineal de los vectores v
1
, . . . , v
r
:
v =
r

j=1

j
v
j
.
Entonces

j
=
v, v
j

|v
j
|
2
.
Demostracin Para cada 1 j r, calcule directamente el producto interno v, v
j
.
Corolario 3.43 Sea (V, , ) un espacio vectorial con producto interno. Sea v
1
, . . . , v
r

V un conjunto ortonormal y sea v una combinacin lineal de los vectores v
1
, . . . , v
r
:
v =
r

j=1

j
v
j
.
Entonces

j
= v, v
j
.
Ejercicio 3.44 Escriba una prueba del Corolario 3.43.
Teorema 3.45 Sea (V, , ) un espacio vectorial con producto interno. Sea v
1
, . . . , v
r

V un conjunto ortogonal de V con v
i
,= 0 para cada 1 i r. Entonces v
1
, . . . , v
r
V
es un conjunto linealmente independiente.
Demostracin Supongamos que
r

j=1

j
v
j
= 0.
Aplicamos la Proposicin 3.43 con v = 0, para cada 1 j r:

j
=
0, v
j

|v
j
|
2
= 0.
Corolario 3.46 Sea (V, , ) un espacio vectorial con producto interno. Sea v
1
, . . . , v
r

V un conjunto ortonormal de V. Entonces v
1
, . . . , v
r
V es un conjunto linealmente
independiente.
3.3 El proceso de ortogonalizacin de Gram-Schmidt 65
Ejercicio 3.47 Escriba una prueba del Corolario 3.46.
Ejercicio 3.48 Sea (V, , ) un espacio vectorial con producto interno y v
1
, . . . , v
r

V un conjunto ortonormal de V . Demuestre que:
1.. Sean v y w una combinacin lineal de los vectores v
1
, . . . , v
r
, entonces:
v, w =
r

i=1
v, v
i
w, v
i

2.. Sea v una combinacin lineal de los vectores v


1
, . . . , v
r
, entonces:
|v| =
_
r

i=1
[v, v
i
[
2
_1
2
3.3 El proceso de ortogonalizacin de Gram-Schmidt
En lo que sigue, intentaremos encontrar bases ortonormales en un espacio vectorial
de dimensin nita con producto interno. Comenzaremos haciendo esto en un ejemplo.
Ejemplo 3.49 Se considera en R
2
el producto interno denido por

(x
1
, x
2
), (y
1
, y
2
)
_
= x
1
y
1
x
1
y
2
x
2
y
1
+x
2
y
2
con > 1. Hallar una base de R
2
ortogonal para este producto interno.
Solucin. Elegimos un vector en R
2
, por ejemplo, (1, 0). Buscamos un vector ortogonal
a ste para el producto interno dado, es decir, un vector (y
1
, y
2
) R
2
tal que
0 =

(1, 0), (y
1
, y
2
)
_
= y
1
y
2
,
por ejemplo, (y
1
, y
2
) = (1, 1). Entonces (1, 0), (1, 1) es una base ortogonal de R
2
.
Ejercicio 3.50 Ortonormaliza la base hallada en el Ejemplo 3.49.
La proposicin siguiente asegura que todo espacio vectorial de dimensin nita con
producto interno tiene una base ortogonal. Ms an, su demostracin da un procedi-
miento recursivo, conocido como el mtodo de ortogonalizacin de Gram-Schmidt, que
permite obtener una base ortogonal del espacio a partir de una base cualquiera del
mismo.
Teorema 3.51 (Mtodo de ortogonalizacin de Gram-Schmidt) Sea (V, , ) un es-
pacio vectorial con producto interno y sea v
1
, . . . , v
n
una base de V . Existe un base
ortogonal = z
1
, . . . , z
n
de V tal que
(v
1
, . . . , v
k
) = (z
1
, . . . , z
k
).
para cada 1 k n.
Demostracin Construiremos los vectores de la base recursivamente:
Tomamos z
1
= v
1
, que satisface (z
1
) = (v
1
).
66 Espacios con producto interno
Buscamos z
2
V con z
2
, z
1
= 0 y tal que (z
1
, z
2
) = (v
1
, v
2
). Esta segunda
condicin se cumple si y solamente si z
2
es de la forma z
2
= av
1
+ bv
2
con b ,= 0.
Podemos suponer entonces que b = 1, es decir, z
2
= v
2
+ av
1
y buscar a de manera
que se cumpla la primera condicin:
0 = z
2
, z
1
= v
2
+av
1
, v
1
= v
2
, v
1
+av
1
, v
1
,
lo que implica que
a =
v
2
, v
1

|v
1
|
2
.
Luego, el vector
z
2
= v
2

v
2
, v
1

|v
1
|
2
v
1
= v
2

v
2
, v
1

|v
1
|
2
z
1
satisface las condiciones requeridas.
Supongamos construidos z
1
, . . . , z
r
V tales que
1.. z
i
, z
j
= 0 si i ,= j.
2.. (z
1
, . . . , z
k
) = (v
1
, . . . , v
k
) para toda 1 k r.
Consideramos el vector
z
r+1
= v
r+1

r

i=1
v
r+1
, z
i

|z
i
|
2
z
i
. (3.1)
Se tiene que
1.. (z
1
, . . . , z
r
, z
r+1
) = (z
1
, . . . , z
r
, v
r+1
) = (v
1
, . . . , v
r
, v
r+1
),
2.. para cada j r:
z
r+1
, z
j
=
_
v
r+1

r

i=1
v
r+1
, z
i

|z
i
|
2
z
i
, z
j
_
= v
r+1
, z
j

r

i=1
v
r+1
, z
i

|z
i
|
2
z
i
, z
j

= v
r+1
, z
j

v
r+1
, z
j

|z
j
|
2
z
j
, z
j

= 0.
Luego, z
r+1
satisface las condiciones requeridas.
De esta manera, al concluir el n-simo paso se obtiene una base ortogonal z
1
, . . . , z
n

de V que adems satisface (z


1
, . . . , z
k
) = (v
1
, . . . , v
k
) para cada 1 k n.
Corolario 3.52 Sea (V, , ) un espacio vectorial con producto interno y sea v
1
, . . . , v
n

una base de V . Existe un base ortonormal = w


1
, . . . , w
n
de V tal que
(v
1
, . . . , v
k
) = (w
1
, . . . , w
k
).
para cada 1 k n.
Ejercicio 3.53 Redacte una prueba del Corolario 3.52.
3.3 El proceso de ortogonalizacin de Gram-Schmidt 67
Corolario 3.54 Sea (V, , ) un espacio vectorial de dimensin nita con producto
interno, y sea S un subespacio de V , S ,= 0. Entonces existe una base ortonormal
de V que contiene una base ortonormal de S.
Demostracin Sea s
1
, . . . , s
r
una base de S. Existen v
r+1
, . . . , v
n
V tales que
= s
1
, . . . , s
r
, v
r+1
, . . . , v
n
es una base de V . Aplicando el proceso de Gram-Schmidt
a se obtiene una base ortonormal

= w
1
, . . . , w
r
, w
r+1
, . . . , w
n
de V que satisface
(w
1
, . . . , w
r
) = (s
1
, . . . , s
r
) = S.
En consecuencia, w
1
, . . . , w
r
es una base ortonormal de S incluida en la base orto-
normal

de V .
Ejemplo 3.55 Aplique la ortogonalizacin de Gram-Schmidt al siguiente conjunto de
vectores v
1
, v
2
, v
3
:
v
1
= (4, 2, 1, 2), v
2
= (6, 3, 4, 8), v
3
= (5, 5, 3, 4).
Usando la matriz de Gram compruebe que el sistema de vectores z
1
, z
2
, z
3
que se
obtiene al nal es ortogonal.
Solucin.
Comenzamos tomando z
1
como el primer vector de la base: z
1
= (4, 2, 1, 2).
Construimos ahora z
2
aplicando la frmula (3.1) para r = 1:
z
2
= v
2

v
2
, z
1

|z
1
|
2
z
1
= (6, 3, 4, 8)
(6, 3, 4, 8), (4, 2, 1, 2)
|(4, 2, 1, 2)|
2
(4, 2, 1, 2)
= (6, 3, 4, 8) + 2(4, 2, 1, 2)
= (2, 1, 2, 4).
Finalmente, hallamos z
3
aplicando nuevalmente la frmula (3.1) para r = 2:
z
3
= v
3

v
3
, z
1

z
1

2
z
1

v
3
, z
2

z
2

2
z
2
= (5, 5, 3, 4)
(5, 5, 3, 4), (4, 2, 1, 2)
(4, 2, 1, 2)
2
(4, 2, 1, 2)
(5, 5, 3, 4), (2, 1, 2, 4)
(2, 1, 2, 4)
2
(2, 1, 2, 4)
= (5, 5, 3, 4) (1)(4, 2, 1, 2) (1)(2, 1, 2, 4)
= (1, 2, 4, 2).
La comprobacin:
G(z
1
, z
2
, z
3
) =
_
_
4 2 1 2
2 1 2 4
1 2 4 2
_
_
_
_
_
_
4 2 1
2 1 2
1 2 4
2 4 2
_
_
_
_
=
_
_
25 0 0
0 25 0
0 0 25
_
_
.
Ejercicio 3.56 Ortogonalizar el siguiente conjunto de vectores en R
4
:
v
1
= (2, 4, 5, 2), v
2
= (6, 5, 1, 6), v
3
= (10, 13, 4, 3).
Ejercicio 3.57 Ortonormalizar el siguiente conjunto de vectores en R
4
:
v
1
= (5, 1, 1, 3), v
2
= (9, 3, 3, 7), v
3
= (7, 1, 1, 1), v
4
= (5, 5, 1, 5).
68 Espacios con producto interno
Ejemplo 3.58 Dada la base = (1, 0, i), (1, 1, 2+i), (0, 0, 1) de C
3
, ortonormalizarla
usando el mtodo de Gram-Schmidt.
Solucin. Denotaremos por v
1
= (1, 0, i), v
2
= (1, 1, 2 +i) y v
3
= (0, 0, 1).
Comenzamos tomando z
1
como el primer vector de la base: z
1
= (1, 0, i).
Construimos ahora z
2
aplicando la frmula (3.1) para r = 1:
z
2
= v
2

v
2
, z
1

|z
1
|
2
z
1
= (1, 1, 2 +i)
(1, 1, 2 +i), (1, 0, i)
|(1, 0, i)|
2
(1, 0, i)
= (1, 1, 2 +i) (1 i)(1, 0, i)
= (i, 1, 1).
Finalmente, hallamos z
3
aplicando nuevamente la frmula (3.1) para r = 2:
z
3
= v
3

v
3
, z
1

|z
1
|
2
z
1

v
3
, z
2

|z
2
|
2
z
2
= (0, 0, 1)
(0, 0, 1), (1, 0, i)
|(1, 0, i)|
2
(1, 0, i)
(0, 0, 1), (i, 1, 1)
|(i, 1, 1)|
2
(i, 1, 1)
= (0, 0, 1) +
i
2
(1, 0, i)
1
3
(i, 1, 1)
= (
i
6
,
1
3
,
1
6
).
El conjunto z
1
, z
2
, z
3
es una base ortogonal de C
3
. Dividiendo cada vector por su
norma, obtenemos
w
1
=
z
1
|z
1
|
=
1

2
(1, 0, i) =
_
1

2
, 0,
i

2
_
.
w
2
=
z
2
|z
2
|
=
1

3
(i, 1, 1) =
_
i

3
,
1

3
,
1

3
_
.
w
3
=
z
3
|z
3
|
=

6
_
i
6
,
1
3
,
1
6
_
=
_

6i
6
,

6
3
,

6
6
_
.
tales que w
1
, w
2
, w
3
es una base ortonormal de C
3
que cumple (v
1
) = (w
1
) y
(v
1
, v
2
) = (w
1
, w
2
).
3.4 Complemento ortogonal

You might also like