You are on page 1of 75

Apuntes de algebra lineal

Eduardo Liz Marz

an
Junio de 2011.

Indice General
1 Introduccion: estructura de cuerpo y n umeros complejos 5
1.1 Operaciones internas y estructura de cuerpo. . . . . . . . . . . . . . . . . . . . . 5
1.2 N umeros complejos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2 Matrices y determinantes 9
2.1 Introduccion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 Denicion y tipos de matrices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3 Operaciones con matrices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.4 Propiedades de la trasposicion de matrices. . . . . . . . . . . . . . . . . . . . . . 14
2.5 Traza de una matriz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.6 Matrices elementales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.7 Forma escalonada y rango de una matriz. . . . . . . . . . . . . . . . . . . . . . . 17
2.8 Calculo de la inversa. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.9 Determinantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3 Sistemas de ecuaciones lineales 23
3.1 Introduccion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2 Expresion matricial. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.3 Existencia de soluciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.4 Conjuntos de soluciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.5 Matrices cuadradas y uso de la factorizacion LU. . . . . . . . . . . . . . . . . . . 27
4 Espacios vectoriales y aplicaciones lineales 33
4.1 Introduccion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.2 Espacios y subespacios vectoriales. . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.3 Independencia lineal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.4 Bases y dimension. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.5 Cambio de base en R
n
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.6 Denicion de aplicacion lineal y propiedades. . . . . . . . . . . . . . . . . . . . . 40
4.7 N ucleo e imagen de una aplicacion lineal. . . . . . . . . . . . . . . . . . . . . . . 41
5 Diagonalizacion y funciones de matrices 43
5.1 Introduccion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
5.2 Autovalores y autovectores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3
5.3 Matrices diagonalizables. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.4 Teorema de Cayley-Hamilton. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.5 Funciones de matrices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
6 Espacios eucldeos 53
6.1 Introduccion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
6.2 Espacios vectoriales con producto escalar. . . . . . . . . . . . . . . . . . . . . . . 53
6.3 Ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
6.4 Proyeccion ortogonal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
6.5 Diagonalizacion ortogonal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
6.6 Formas cuadraticas sobre R
n
. Clasicacion. . . . . . . . . . . . . . . . . . . . . . 61
6.7 Mnimos cuadrados. Ajuste. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
6.8 Descomposicion en valores singulares. . . . . . . . . . . . . . . . . . . . . . . . . 69
Referencias 75
Captulo 1
Introduccion: estructura de cuerpo y
n umeros complejos
1.1 Operaciones internas y estructura de cuerpo.
Una operacion interna en un conjunto A es una correspondencia que asigna a cada par de
elementos a, b A un elemento c = a b A.
Consideraremos dos tipos de operaciones internas, que denotaremos por suma (+) y pro-
ducto (). Si A es un conjunto con una o dos operaciones internas, A puede tener distintas
estructuras seg un las propiedades que veriquen estas operaciones. Consideraremos las siguien-
tes propiedades:
1. Propiedad asociativa: (a b) c = a (b c) , a, b, c A. Esta propiedad permite operar
mas de dos elementos. En este caso escribiremos simplemente a b c.
2. Elemento neutro: Se dice que (A, ) tiene elemento neutro si existe e A tal que a e =
e a = a , a A. En la suma, el elemento neutro se llama cero (0) y en el producto se
llama uno (1). El elemento neutro, si existe, es unico.
3. Elemento simetrico: Se dice que a A tiene elemento simetrico si existe a

A tal que
a a

= a

a = e. En el caso de la suma, el elemento simetrico se llama elemento opuesto


y se denota por a (a + (a) = (a) +a = 0). En el caso del producto, se llama inverso
y se denota por a
1
(a a
1
= a
1
a = 1).
4. Propiedad conmutativa: a b = b a , a, b A. Si una operacion producto verica la
propiedad conmutativa entonces el elemento inverso se denota por 1/a.
5. Propiedad distributiva. Si A tiene denida una suma y un producto, se dice que el producto
es distributivo con respecto a la suma si
a (b +c) = a b +a c
(a +b) c = a c +b c ,
para todo a, b, c A.
5
6 1. Introduccion: estructura de cuerpo y n umeros complejos
Se dice que un conjunto con una operacion interna (A, ) es un grupo conmutativo si verica
las propiedades asociativa y conmutativa, tiene elemento neutro y todo elemento tiene simetrico.
Dos ejemplos de grupos conmutativos son (R, +), (C, +), (R 0, ) y (C 0, ).
Observacion. Si B es un subconjunto de A, se denota A B = x A/ x , B. En particular,
si a A, A a = x A/ x ,= a.
Se dice que un conjunto con dos operaciones internas (A, +, ) es un cuerpo conmutativo
si (A, +) y (A0, ) son grupos conmutativos y se verica la propiedad distributiva del produc-
to respecto a la suma. Los conjuntos de n umeros reales y n umeros complejos (R, +, ), (C, +, )
son cuerpos conmutativos.
1.2 N umeros complejos.
Un n umero complejo es un par de n umeros reales z = (a, b). El n umero real a se llama parte
real de z y b se llama parte imaginaria.
Si denotamos 1 = (1, 0), i = (0, 1), se escribe z = (a, b) = a(1, 0) + b(0, 1) = a + bi (Forma
binomica). El n umero complejo i = (0, 1) se llama unidad imaginaria. As, denotaremos el
conjunto de los n umeros complejos como C = a +bi : a, b R.
Los n umeros complejos se representan en un plano bidimensional. El eje horizontal se llama
eje realy el eje vertical se llama eje imaginario.
Operaciones en C
Suma. Sean z
1
= a
1
+ b
1
i, z
2
= a
2
+ b
2
i dos n umeros complejos. Se dene z
1
+ z
2
=
(a
1
+a
2
) + (b
1
+b
2
)i.
Producto. El producto de n umeros complejos se realiza en forma binomica, teniendo en
cuenta que i
2
= 1, es decir, (a
1
+b
1
i)(a
2
+b
2
i) = (a
1
a
2
b
1
b
2
) + (a
1
b
2
+b
1
a
2
)i.
Con estas dos operaciones, (C, +, ) tiene estructura de cuerpo conmutativo: El elemento neutro
de la suma es 0 = 0 + 0i, y el elemento opuesto de z = a +bi es z = a bi.
El elemento neutro del producto es 1 = 1 +0i. Todo elemento distinto de cero tiene inverso
para el producto. Para denir el inverso se suele usar el conjugado, que se dene del siguiente
modo: si z = a +bi C, se dene su conjugado como z = a bi. Observese que z z = a
2
+b
2
y
por tanto
z
1
=
1
z
=
a bi
a
2
+b
2
,
que esta bien denido para z ,= 0.
Modulo y argumento
Sea z = a + bi C. Se dene el modulo de z como el n umero real [z[ = +

a
2
+b
2
.
Observese que [z[ 0 , z C y [z[ = 0 z = 0. Ademas, z z = [z[
2
, y z
1
= z/[z[
2
, z ,= 0.
El modulo de z representa su distancia al origen en el plano complejo. Se dene el argumento
de z = a + bi como el angulo (, ] que verica [z[ cos() = a y [z[sen() = b. De este
1.2. N umeros complejos. 7
modo, z = [z[(cos() + sen()i), que es la llamada forma trigonometrica de z. El argumento
representa el angulo que forma el vector (a, b) en el plano complejo con el eje real.
Utilizando las formulas trigonometricas para el seno y el coseno de la suma, se obtiene que si
z
1
= [z
1
[(cos(
1
) +sen(
1
)i) y z
2
= [z
2
[(cos(
2
) +sen(
2
)i) son dos n umeros complejos entonces
z
1
z
2
= [z
1
[[z
2
[(cos(
1
+
2
) + sen(
1
+
2
)i),
es decir el modulo del producto es el producto de los modulos y el argumento del produc-
to es la suma de los argumentos. De este modo, se obtiene inmediatamente que si z =
[z[(cos() + sen()i) entonces z
n
= [z[
n
(cos(n) + sen(n)i), n N.
Forma exponencial
Si b R, se dene e
bi
= cos(b) + sen(b)i. De este modo, se extiende la funcion exponencial
real a C manteniendo sus propiedades principales; en particular, si z = a + bi entonces e
z
=
e
a+bi
= e
a
e
bi
= e
a
(cos(b) + sen(b)i).
Teniendo en cuenta esto, si z = [z[(cos() + sen()i), tambien se puede representar en la
forma z = [z[e
i
, que se llama forma exponencial de z.
Ejemplo: 1 +i =

2(cos(/4) +i sen(/4)) =

2 e

4
i
.
8 1. Introduccion: estructura de cuerpo y n umeros complejos
Captulo 2
Matrices y determinantes
2.1 Introduccion.
En este captulo se introducen los conceptos basicos de la teora de matrices, con especial atencion
a las operaciones elementales, que seran de mucha utilidad a lo largo del curso. Sus primeras
aplicaciones (incluidas en este tema) son el calculo del rango, la matriz inversa y el determinante.
2.2 Denicion y tipos de matrices.
Iniciaremos esta seccion deniendo lo que entenderemos por una matriz.
Denicion 2.1 Se llama matriz real de p las y n columnas a cualquier agrupacion de la forma
A =
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
p1
a
p2
a
pn
_
_
_
_
_
,
donde a
ij
R para todo i = 1, 2, . . . , p, j = 1, 2, . . . , n.
Tambien diremos que A es una matriz de tama no p n o de orden p n.
Denotaremos por /
pn
(R) el conjunto de todas las matrices de p las y n columnas con
elementos en R. En notacion reducida, escribiremos A = (a
ij
) /
pn
(R).
Si A = (a
ij
), B = (b
ij
) son dos matrices de tama no p n, diremos que A = B si a
ij
= b
ij
para todo i = 1, 2, . . . , p, j = 1, 2, . . . , n.
Son especialmente importantes las matrices cuadradas, que se caracterizan por tener el
mismo n umero de las que de columnas.
9
10 2. Matrices y determinantes
Las matrices cuadradas mas simples son las diagonales. Una matriz cuadrada A /
nn
(R)
es diagonal si a
ij
= 0 para todo i ,= j, es decir,
A =
_
_
_
_
_
a
11
0 0
0 a
22
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 a
nn
_
_
_
_
_
.
Observacion: Se llama diagonal de una matriz A = (a
ij
) /
pn
(R) al vector de R
m
diag(A) =
(a
11
, a
22
, . . . , a
mm
), donde m = minp, n.
Tambien seran importantes las matrices triangulares.
Una matriz A /
nn
(R) es triangular superior si a
ij
= 0 para todo i > j, es decir, si
los elementos que estan por debajo de la diagonal son todos cero. Por ejemplo,
A =
_
_
1 2 4
0 3 4
0 0 2
_
_
.
Una matriz A /
pn
(R) es triangular inferior si a
ij
= 0 para todo i < j, es decir, si
los elementos que estan por encima de la diagonal son todos cero.
Sea A /
pn
(R). Se dene su traspuesta y se denota A
t
como la matriz cuyas columnas
son las las de A, es decir, si A = (a
ij
) /
pn
(R), entonces A
t
= (b
ij
) /
np
(R), con
b
ij
= a
ji
para todo i = 1, . . . , n, j = 1, . . . , p.
En general, cuando hagamos operaciones con matrices que incluyan vectores, estos se re-
presentaran en forma de columna. Si v R
n
es un vector columna, el correspondiente vector
la es v
t
:
v =
_
_
_
_
_
v
1
v
2
.
.
.
v
n
_
_
_
_
_
/
n1
(R) = v
t
= (v
1
, v
2
, . . . , v
n
) /
1n
(R).
2.3 Operaciones con matrices.
Suma de matrices.
La suma es una operacion interna en /
pn
(R). Dadas dos matrices A = (a
ij
) /
pn
(R),
B = (b
ij
) /
pn
(R), se dene su suma como la matriz A + B = (a
ij
+ b
ij
) /
pn
(R), es
decir,
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
p1
a
p2
a
pn
_
_
_
_
_
+
_
_
_
_
_
b
11
b
12
b
1n
b
21
b
22
b
2n
.
.
.
.
.
.
.
.
.
.
.
.
b
p1
b
p2
b
pn
_
_
_
_
_
=
_
_
_
_
_
a
11
+b
11
a
12
+b
12
a
1n
+b
1n
a
21
+b
21
a
22
+b
22
a
2n
+b
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
p1
+b
p1
a
p2
+b
p2
a
pn
+b
pn
_
_
_
_
_
.
2.3. Operaciones con matrices. 11
Es facil comprobar que (/
pn
(R), +) tiene estructura de grupo conmutativo. El elemento
neutro es la matriz nula
0 =
_
_
_
_
_
0 0 0
0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0
_
_
_
_
_
/
pn
(R).
Producto de una matriz por un escalar.
Dada una matriz A = (a
ij
) /
pn
(R) y un escalar R, se dene A = (a
ij
) = (a
ij
),
es decir,

_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
p1
a
p2
a
pn
_
_
_
_
_
=
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
p1
a
p2
a
pn
_
_
_
_
_
.
Es facil vericar las siguientes propiedades:
1. (A+B) = A+B, A, B /
pn
(R) , R.
2. ( +)A = A+A, A /
pn
(R) , , R.
3. ()A = (A) , A /
pn
(R) , , R.
Producto de matrices.
Dadas dos matrices A = (a
ij
) /
pn
(R), B = (b
ij
) /
nq
(R), se dene su producto
como la matriz AB = (c
ij
) /
pq
(R) dada por:
c
ij
=
n

k=1
a
ik
b
kj
= a
i1
b
1j
+a
i2
b
2j
+ +a
in
b
nj
, i = 1, 2, . . . , p , j = 1, 2, . . . , q.
Observese que para poder realizar el producto AB es necesario que el n umero de columnas
de A coincida con el n umero de las de B. Un caso especialmente interesante se presenta cuando
ambas matrices son vectores de R
n
. Sean
u =
_
_
_
_
_
u
1
u
2
.
.
.
u
n
_
_
_
_
_
/
n1
(R) ; v =
_
_
_
_
_
v
1
v
2
.
.
.
v
n
_
_
_
_
_
/
n1
(R).
Entonces:
u
t
v = (u
1
, u
2
, . . . , u
n
)
_
_
_
_
_
v
1
v
2
.
.
.
v
n
_
_
_
_
_
= u
1
v
1
+u
2
v
2
+ +u
n
v
n
R
12 2. Matrices y determinantes
representa el producto escalar, mientras que
uv
t
=
_
_
_
_
_
u
1
u
2
.
.
.
u
n
_
_
_
_
_
(v
1
, v
2
, . . . , v
n
) =
_
_
_
_
_
u
1
v
1
u
1
v
2
u
1
v
n
u
2
v
1
u
2
v
2
u
2
v
n
.
.
.
.
.
.
.
.
.
.
.
.
u
n
v
1
u
n
v
2
u
n
v
n
_
_
_
_
_
/
nn
(R).
Propiedades:
El producto de matrices es asociativo, es decir, si A /
pn
(R), B /
nq
(R) y C
/
qr
(R), se cumple que (AB)C = A(BC).
El producto de matrices verica la propiedad distributiva respecto a la suma, es decir, si
A, B /
pn
(R), C, D /
nq
(R) entonces A(C+D) = AC+AD, (A+B)C = AC+BC.
El producto de matrices tiene elemento neutro, llamado matriz identidad.
I =
_
_
_
_
_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_
_
_
_
_
/
nn
(R).
Se tiene que AI = A, A /
pn
(R) e IB = B, B /
nq
(R).
No se cumple la propiedad conmutativa, es decir, si A, B /
nn
(R), en general AB ,=
BA.
Ejemplo:
_
1 2
3 4
__
0 1
1 0
_
=
_
2 1
4 3
_
,=
_
3 4
1 2
_
=
_
0 1
1 0
__
1 2
3 4
_
.
Si A, B /
nn
(R), en general AB = 0 , A = 0 o B = 0.
Ejemplo:
_
0 0
0 1
__
0 1
0 0
_
=
_
0 0
0 0
_
.
Interpretaci on del producto con vectores la y vectores columna.
Sea A /
pn
(R). Si denotamos sus columnas por u
1
, u
2
, . . . , u
n
y sus las como v
t
1
, v
t
2
, . . . , v
t
p
,
entonces podemos escribir A en las dos siguientes formas:
A = (u
1
[u
2
[ [u
n
) ; A =
_
_
_
_
_
v
t
1
v
t
2
.
.
.
v
t
p
_
_
_
_
_
.
En ocasiones se puede describir el producto de matrices de forma mas conveniente usando
sus vectores la y sus vectores columna.
2.3. Operaciones con matrices. 13
1. Sea A = (u
1
[u
2
[ [u
n
) /
pn
(R). Sea
b =
_
_
_
_
_
b
1
b
2
.
.
.
b
n
_
_
_
_
_
/
n1
(R).
Entonces:
Ab = (u
1
[u
2
[ [u
n
)
_
_
_
_
_
b
1
b
2
.
.
.
b
n
_
_
_
_
_
= b
1
u
1
+b
2
u
2
+ +b
n
u
n
/
p1
(R).
2. Sean A /
pn
(R) y B = (u
1
[u
2
[ [u
q
) /
nq
(R). Entonces:
AB = A(u
1
[u
2
[ [u
q
) = (Au
1
[Au
2
[ [Au
q
) /
pq
(R).
3. Sean A /
pn
(R) y B /
nq
(R). Denotemos por u
1
, u
2
, . . . , u
n
las columnas de A y
por v
t
1
, v
t
2
, . . . , v
t
n
las las de B. Entonces:
AB = (u
1
[u
2
[ [u
n
)
_
_
_
_
_
v
t
1
v
t
2
.
.
.
v
t
n
_
_
_
_
_
= u
1
v
t
1
+u
2
v
t
2
+ +u
n
v
t
n
/
pq
(R).
Matriz inversa y potencia de una matriz.
Para matrices cuadradas tiene sentido denir el concepto de matriz inversa y el de potencia
de una matriz.
Denicion 2.2 Una matriz cuadrada A /
nn
(R) se dice inversible si existe una matriz
B /
nn
(R) tal que AB = BA = I, donde I es la matriz identidad. En caso de existir, B
se llama matriz inversa de A y se denota por A
1
. Las matrices inversibles tambien se llaman
regulares o no singulares.
La siguiente propiedad se deduce inmediatamente de la denicion:
Propiedad: Sean A, B /
nn
(R). Si A y B son inversibles entonces AB tambien lo es y
ademas (AB)
1
= B
1
A
1
.
Denicion 2.3 Sea A /
nn
(R) y k N. Se dene A
k
por induccion del siguiente modo:
A
2
= AA, y, en general, A
k+1
= A
k
A, para todo k 2, es decir A
k
resulta de multiplicar A por
s misma k veces. Por convenio, A
0
= I, A
1
= A.
14 2. Matrices y determinantes
En general es difcil encontrar la expresion general de A
k
en funcion de k. Sin embargo, es
sencillo para matrices diagonales:
Propiedad: Si A es diagonal entonces A
k
tambien es diagonal. Ademas,
_
_
_
_
_
a
11
0 0
0 a
22
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 a
nn
_
_
_
_
_
k
=
_
_
_
_
_
a
k
11
0 0
0 a
k
22
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 a
k
nn
_
_
_
_
_
.
Denicion 2.4 Sea A /
nn
(R). Se dice que B /
nn
(R) es una raz k-esima de A si
B
k
= A.
Ejemplo:
La matriz B =
_
0 1
1 0
_
es una raz cuadrada de la matriz identidad I /
22
(R) ya que
B
2
= I.
2.4 Propiedades de la trasposicion de matrices.
Recordemos que si A /
pn
(R) entonces A
t
es la matriz cuyas columnas son las las de A.
Se cumplen las siguientes propiedades:
1. (A
t
)
t
= A, A /
pn
(R).
2. (A+B)
t
= A
t
+B
t
, A, B /
pn
(R).
3. (A)
t
= A
t
, A /
pn
(R), R.
4. (AB)
t
= B
t
A
t
, A /
pn
(R), B /
nq
(R).
5. Si A es inversible entonces (A
t
)
1
= (A
1
)
t
.
6. (A
t
)
k
= (A
k
)
t
, A /
nn
(R), k N.
En relacion con la trasposicion de matrices tenemos las siguientes matrices especiales:
Denicion 2.5 Una matriz A = (a
ij
) /
nn
(R) es simetrica si A
t
= A, es decir, si a
ij
=
a
ji
, i, j = 1, . . . , n.
Ejemplo:
La matriz A =
_
_
0 1 1
1 2 3
1 3 1
_
_
es simetrica.
2.5. Traza de una matriz. 15
Propiedades:
1. Si A /
pn
(R) entonces A
t
A /
nn
(R) es simetrica.
2. Si A es simetrica entonces A
k
es simetrica para todo k N.
Denicion 2.6 Una matriz A = (a
ij
) /
nn
(R) es antisimetrica si A
t
= A, es decir, si
a
ij
= a
ji
, i, j = 1, . . . , n.
Es inmediato comprobar que si una matriz A = (a
ij
) /
nn
(R) es antisimetrica, entonces
a
ii
= 0, i = 1, . . . , n.
Ejemplo:
La matriz A =
_
0 1
1 0
_
es antisimetrica.
Denicion 2.7 Una matriz A = (a
ij
) /
nn
(R) es ortogonal si AA
t
= A
t
A = I, es decir,
si A es inversible y A
t
= A
1
.
Ejemplo:
Si es cualquier n umero real, la siguiente matriz es ortogonal:
A =
_
cos() sen()
sen() cos()
_
.
2.5 Traza de una matriz.
Sea A = (a
ij
) /
nn
(R). Se llama traza de A, y se denota tr (A), a la suma de sus elementos
diagonales, es decir, tr (A) =
n

i=1
a
ii
= a
11
+a
22
+ +a
nn
.
Propiedades:
1. tr (A+B) = tr (A) + tr (B), A, B /
nn
(R).
2. tr (A) = tr (A), A /
nn
(R), R.
3. tr (AB) = tr (BA), A /
pn
(R), B /
np
(R).
2.6 Matrices elementales.
Denicion 2.8 Sea A = (a
ij
) /
pn
(R). Se llaman operaciones elementales sobre las
las o columnas de A a cualquiera de las siguientes transformaciones:
1. Permutar dos las o dos columas de A.
16 2. Matrices y determinantes
2. Sumar a una la (o columna) de A un m ultiplo de otra la (o columna) de A.
3. Multiplicar una la o columna de A por un escalar no nulo.
Denicion 2.9 Una matriz A /
nn
(R) es una matriz elemental si se obtiene como re-
sultado de efectuar una operacion elemental sobre las las o columnas de la matriz identidad.
Tipos de matrices elementales.
Distinguiremos seis tipos de matrices elementales seg un los tipos de operaciones elementales
denidos arriba y dependiendo de si la operacion se realiza sobre las las o sobre las columnas
de I. As,
1. F
ij
es la matriz obtenida al permutar las las i y j en I.
2. F
i
() es la matriz obtenida al multiplicar la la i de I por un escalar ,= 0.
3. F
ij
() es la matriz obtenida al sumar a la la i de I la la j multiplicada por el escalar .
4. K
ij
es la matriz obtenida al permutar las columnas i y j en I.
5. K
i
() es la matriz obtenida al multiplicar la columna i de I por un escalar ,= 0.
6. K
ij
() es la matriz obtenida al sumar a la columna i de I la columna j multiplicada por
el escalar .
Ejemplos:
Tomando I /
33
(R), tenemos
F
23
= K
23
=
_
_
1 0 0
0 0 1
0 1 0
_
_
, K
2
(3) = F
2
(3)
_
_
1 0 0
0 3 0
0 0 1
_
_
F
13
(2) =
_
_
1 0 2
0 1 0
0 0 1
_
_
, K
13
(2) =
_
_
1 0 0
0 1 0
2 0 1
_
_
.
Efectos de las matrices elementales.
Las operaciones elementales sobre las las y columnas de una matriz A pueden obtenerse
como resultado de multiplicar por una matriz elemental:
1. Realizar una operacion elemental sobre las las de A /
pn
(R) es equivalente a multi-
plicar A por la izquierda por la correspondiente matriz elemental de las F /
pp
(R).
2. Realizar una operacion elemental sobre las columnas de A /
pn
(R) es equivalente a
multiplicar A por la derecha por la correspondiente matriz elemental de columnas K
/
nn
(R).
2.7. Forma escalonada y rango de una matriz. 17
Ejemplos:
Sea A =
_
1 2 3
4 5 6
_
.
1. Permutar las columnas 1 y 3 de A es equivalente a multiplicar A por la derecha por K
13
:
AK
13
=
_
1 2 3
4 5 6
_
_
_
0 0 1
0 1 0
1 0 0
_
_
=
_
3 2 1
6 5 4
_
.
2. Restar a la la 2 de A la la 1 multiplicada por 3 es equivalente a multiplicar A por la
izquierda por F
21
(3):
F
21
(3)A =
_
1 0
3 1
__
1 2 3
4 5 6
_
=
_
1 2 3
1 1 3
_
.
Inversas de las matrices elementales.
Es muy sencillo comprobar que todas las matrices elementales son inversibles y ademas su
inversa es la matriz elemental equivalente a la transformacion inversa. As,
1. Por las:
(F
ij
)
1
= F
ij
, (F
i
())
1
= F
i
(1/) , (F
ij
())
1
= F
ij
() .
2. Por columnas:
(K
ij
)
1
= K
ij
, (K
i
())
1
= K
i
(1/) , (K
ij
())
1
= K
ij
() .
2.7 Forma escalonada y rango de una matriz.
Denicion 2.10 Sea A = (a
ij
) /
pn
(R). Supongamos que la la i de A no tiene todos los
elementos iguales a cero. Se llama entrada principal de la la i al primer elemento de dicha
la distinto de cero, es decir, al elemento a
ij
tal que a
ij
,= 0, a
ik
= 0 k < j.
Denicion 2.11 Se dice que la matriz A /
pn
(R) esta en forma escalonada si cumple las
dos siguientes condiciones:
1. Si hay alguna la de ceros, esta al nal.
2. Si hay varias las distintas de cero, entonces la entrada principal de cada la no nula esta
m as a la izquierda que la de la siguiente la.
18 2. Matrices y determinantes
Denicion 2.12 Se dice que la matriz A /
pn
(R) esta en forma escalonada reducida si
cumple las siguientes condiciones:
1. Esta en forma escalonada.
2. Todas las entradas principales son iguales a 1.
3. En cada columna donde hay una entrada pricipal, el resto de los elementos son ceros.
Ejemplo: La matriz
A =
_
_
_
_
1 1 0 2 0
0 0 1 3 0
0 0 0 0 1
0 0 0 0 0
_
_
_
_
esta en forma escalonada reducida. Se han resaltado sus entradas principales.
El siguiente resultado es clave para las aplicaciones de las operaciones elementales:
Teorema 2.1 (Reduccion de Gauss-Jordan) Toda matriz se puede transformar en una ma-
triz en forma escalonada reducida mediante operaciones elementales por las.
Denicion 2.13 Para cada matriz A /
pn
(R), la matriz obtenida mediante el teorema
anterior es unica y recibe el nombre de forma escalonada reducida de A. La denotaremos
por rref (A).
Ejemplo: Hallar la forma escalonada reducida de
A =
_
_
_
_
1 1 0 3 2
3 3 2 1 0
3 3 2 1 0
2 2 3 0 2
_
_
_
_
.
A =
_
_
_
_
1 1 0 3 2
3 3 2 1 0
3 3 2 1 0
2 2 3 0 2
_
_
_
_
F
21
(3)

F
31
(3), F
41
(2)
_
_
_
_
1 1 0 3 2
0 0 2 8 6
0 0 2 8 6
0 0 3 6 6
_
_
_
_
F
32
(1)

F
42
(3/2)
_
_
_
_
1 1 0 3 2
0 0 2 8 6
0 0 0 0 0
0 0 0 6 3
_
_
_
_
F
34

_
_
_
_
1 1 0 3 2
0 0 2 8 6
0 0 0 6 3
0 0 0 0 0
_
_
_
_
F
1
(1)

F
2
(1/2), F
3
(1/6)
_
_
_
_
1 1 0 3 2
0 0 1 4 3
0 0 0 1 1/2
0 0 0 0 0
_
_
_
_
F
23
(4)

F
13
(3)
_
_
_
_
1 1 0 0 1/2
0 0 1 0 1
0 0 0 1 1/2
0 0 0 0 0
_
_
_
_
.
2.7. Forma escalonada y rango de una matriz. 19
Por tanto,
rref (A) =
_
_
_
_
1 1 0 0 1/2
0 0 1 0 1
0 0 0 1 1/2
0 0 0 0 0
_
_
_
_
.
Rango de una matriz.
Denicion 2.14 Sea A /
pn
(R). Se dene el rango de A como el n umero de las no nulas
de la forma escalonada reducida de A. Se denota rg (A).
Ejemplo: En el ejemplo anterior, rg (A) = 3.
Observacion: En la practica no es preciso calcular la forma escalonada reducida de A. El rango
de las de A coincide con el n umero de las no nulas de cualquier matriz escalonada obtenida
realizando operaciones elementales sobre las las de A. De hecho, para calcular el rango de A
se pueden combinar operaciones elementales por las y por columnas hasta obtener una matriz
en forma escalonada.
La siguiente propiedad proporciona un metodo para deteminar si una matriz tiene inversa
usando operaciones elementales.
Proposicion 2.1 Sea A /
nn
(R) una matriz cuadrada. Las siguientes armaciones son
equivalentes:
(1) A es inversible.
(2) rref (A) = I.
(3) rg (A) = n.
Demostracion. Recordemos que rref (A) se obtiene haciendo operaciones elementales sobre las
las de A. Por tanto, rref (A) = FA, donde F es una matriz que resulta de multiplicar matrices
elementales. En particular, F es inversible. Veamos que se cumplen las equivalencias:
(1)=(2): Como A es inversible, rref (A) = FA tambien es inversible y por tanto no tiene las
de ceros. Necesariamente rref (A) = I.
(2)=(3): Como rref (A) = I, rref (A) tiene n las no nulas y por tanto rg (A) = n.
(3)=(1): Como rg (A) = n, rref (A) tiene n las no nulas y por tanto rref (A) = I. Esto quiere
decir que existe una matriz F tal que FA = rref (A) = I. Por denicion, A es inversible y
F = A
1
. .
20 2. Matrices y determinantes
2.8 Calculo de la inversa.
Como consecuencia de que la forma escalonada reducida de las matrices inversibles es la identi-
dad, se tiene el siguiente resultado:
Proposicion 2.2 Toda matriz inversible A /
nn
(R) se puede transformar en la matriz
identidad mediante operaciones elementales por las.
Esta proposicion permite calcular la inversa de A utilizando operaciones elementales del
siguiente modo: sean F
1
, F
2
, . . . , F
k
las matrices elementales de las por las que debemos mul-
tiplicar A para llegar a la identidad, es decir, F
k
. . . F
2
F
1
A = I. Entonces A
1
= F
k
. . . F
2
F
1
.
En la practica, se procede del siguiente modo: si escribimos la matriz ampliada (A[I), el
resultado de aplicar F
1
, F
2
, . . . F
k
sobre esta matriz es (I[A
1
):
(A[I)
F
1
,F
2
,...,F
k
(F
k
. . . F
2
F
1
A[F
k
. . . F
2
F
1
I) = (I[A
1
).
Ejemplo:
Para calcular la inversa de
A =
_
_
1 1 1
1 2 0
1 0 3
_
_
,
realizamos las siguientes operaciones elementales:
(A[I) =
_
_
1 1 1 1 0 0
1 2 0 0 1 0
1 0 3 0 0 1
_
_
F
21
(1)

_
_
1 1 1 1 0 0
0 1 1 1 1 0
1 0 3 0 0 1
_
_
F
31
(1)

_
_
1 1 1 1 0 0
0 1 1 1 1 0
0 1 2 1 0 1
_
_
F
32
(1)

_
_
1 1 1 1 0 0
0 1 1 1 1 0
0 0 1 2 1 1
_
_
F
23
(1)

_
_
1 1 1 1 0 0
0 1 0 3 2 1
0 0 1 2 1 1
_
_
F
13
(1)

_
_
1 1 0 3 1 1
0 1 0 3 2 1
0 0 1 2 1 1
_
_
F
12
(1)

_
_
1 0 0 6 3 2
0 1 0 3 2 1
0 0 1 2 1 1
_
_
= (I[A
1
) .
Por tanto,
A
1
=
_
_
6 3 2
3 2 1
2 1 1
_
_
.
Observacion: En ning un caso se pueden combinar operaciones elementales de las y columnas
para calcular la inversa.
2.9. Determinantes. 21
2.9 Determinantes.
Las operaciones elementales tambien se usan como un metodo ecaz para calcular el determi-
nante de una matriz A /
nn
(R), teniendo en cuenta las siguientes propiedades:
a) Sumar a una la o columna de una matriz un m ultiplo de otra la o columna no vara el
valor del determinante.
b) Permutar dos las o dos columnas de una matriz hace que su determinante cambie de
signo.
c) Si A es una matriz triangular entonces su determinante es el producto de los elementos de
la diagonal.
De este modo, realizando operaciones elementales en A obtenemos una matriz en forma
triangular cuyo determinante se calcula haciendo uso de la propiedad c).
Ejemplo:

1 1 2
1 1 0
2 1 2

F
21
(1)
=
F
31
(2)

1 1 2
0 0 2
0 1 2

F
23
=

1 0 2
0 1 2
0 0 2

= 2.
En ocasiones conviene combinar este metodo con el desarrollo por los elementos de una la
o una columna (regla de Laplace).
Sea A = (a
ij
) /
nn
(R). Sea

A
ij
la matriz que se obtiene suprimiendo en A la la i y la
columna j. Entonces, para cada la i de A, se tiene:
det(A) =
n

j=1
(1)
i+j
a
ij
det(

A
ij
).
Esta formula permite expresar el determinante de una matriz de orden n en funcion del
determinante de n matrices de orden (n 1). Tambien se verica una formula analoga para
cada columna de A. En particular, se tienen las siguientes consecuencias:
1. Si n=2,

a b
c d

= ad bc.
2. Si A tiene una la o una columna de ceros entonces [A[ = 0.
3. Si el unico elemento no nulo de la la i es a
ik
entonces det(A) = (1)
i+k
a
ik
det(

A
ik
).
Otras propiedades de los determinantes:
1. [AB[ = [A[ [B[, A, B /
nn
(R).
22 2. Matrices y determinantes
2. [A
t
[ = [A[, A /
nn
(R).
3. Si R entonces

a
11
a
12
a
1n
.
.
.
.
.
.
.
.
.
.
.
.
a
i1
a
i2
a
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn

a
11
a
12
a
1n
.
.
.
.
.
.
.
.
.
.
.
.
a
i1
a
i2
a
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn

La misma propiedad es valida si una columna esta multiplicada por el escalar .


4. [A[ =
n
[A[, A /
nn
(R), R. En particular, [ A[ = (1)
n
[A[.
5. Si A /
nn
(R) entonces A es inversible si y solo si [A[ , = 0. Ademas, en ese caso,
[A
1
[ = 1/[A[.
Prueba de la propiedad 5.
Si A es inversible, entonces A
1
A = I y por tanto [A
1
[ [A[ = [A
1
A[ = [I[ = 1. De aqu
se obtiene que [A[ , = 0 y ademas [A
1
[ = 1/[A[.
Supongamos ahora que [A[ ,= 0 y consideremos su forma escalonada reducida rref (A).
Existe una matriz inversible F tal que rref (A) = FA, y por tanto [rref (A)[ = [F[ [A[ , = 0.
En consecuencia, rref (A) no puede tener las de ceros y se concluye que A es inversible. .
Captulo 3
Sistemas de ecuaciones lineales
3.1 Introduccion.
Este captulo esta dedicado a la resolucion de sistemas de ecuaciones lineales, lo que incluye el
estudio de la compatibilidad del sistema (existencia de soluciones), la determinacion del conjunto
de soluciones y la interpretacion geometrica de dicho conjunto. El metodo principal de resolucion
es el metodo de Gauss, basado en operaciones elementales sobre las las de la matriz ampliada
del sistema.
3.2 Expresion matricial.
Un sistema de p ecuaciones lineales con n incognitas en R es un conjunto de expresiones:
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
= b
2
=
=
a
p1
x
1
+a
p2
x
2
+ +a
pn
x
n
= b
p
,
donde los elementos a
ij
R se llaman coecientes del sistema, b
i
R se llaman terminos
independientes y x
i
se llaman incognitas.
El sistema es homogeneo si b
i
= 0 , i = 1, 2, . . . , p. En otro caso diremos que es no
homogeneo.
El sistema se puede expresar en la forma matricial Ax = b, donde
A =
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
p1
a
p2
a
pn
_
_
_
_
_
/
pn
(R) ; b =
_
_
_
_
_
b
1
b
2
.
.
.
b
p
_
_
_
_
_
R
p
; x =
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
.
La matriz A se llama matriz de coecientes del sistema y b es el termino independiente.
23
24 3. Sistemas de ecuaciones lineales
La matriz
(A[b) =
_
_
_
_
_
a
11
a
12
a
1n
b
1
a
21
a
22
a
2n
b
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
p1
a
p2
a
pn
b
p
_
_
_
_
_
/
p(n+1)
(R)
se llama matriz ampliada del sistema. Cada una de las ecuaciones se puede identicar con la
correspondiente la de la matriz (A[b). Observese que el n umero de columnas de A coincide con
el n umero de incognitas del sistema.
3.3 Existencia de soluciones.
Denicion 3.1 Un vector v = (v
1
, v
2
, . . . , v
n
) R
n
es una solucion del sistema si Av = b.
Resolver el sistema es determinar el conjunto de sus soluciones (que es un subconjunto de
R
n
). Si no existe ninguna solucion, el sistema es incompatible. Si existe alguna solucion,
diremos que el sistema es compatible determinado si la solucion es unica y compatible
indeterminado si existe mas de una solucion.
Eliminacion gaussiana.
La siguiente propiedad permitira estudiar con facilidad si un sistema es compatible y calcular
el conjunto de sus soluciones.
Proposicion 3.1 Sea Ax = b un sistema de p ecuaciones lineales con n incognitas. Si efec-
tuamos operaciones elementales sobre las las de la matriz ampliada (A[b) hasta obtener una
nueva matriz (A

[b

) entonces los sistemas Ax = b y A

x = b

son equivalentes, es decir, tienen


el mismo conjunto de soluciones.
Demostracion. Sea F = F
k
. . . F
2
F
1
, donde F
1
, F
2
, . . . , F
k
son las matrices elementales correspon-
dientes a las operaciones por las sobre (A[b). Entonces (A

[b

) = (FA[Fb) y el nuevo sistema


es FAx = Fb, que es equivalente a Ax = b ya que F es inversible. .
Utilizando esta proposicion, para resolver un sistema se realizan operaciones elementales
sobre las las de (A[b) hasta obtener su forma escalonada reducida (A

[b

). Sea r = rg (A[b) =
rg (A

[b

). El sistema A

x = b

se resuelve de forma inmediata, despejando las r incognitas


correspondientes a las entradas principales en funcion de las (n r) restantes. De este modo,
tenemos:
Si rg (A) ,= rg (A[b) entonces el sistema es incompatible porque en el sistema A

x = b

hay
una ecuacion 0 = 1.
Si rg (A) = rg (A[b) = n (n = n umero de incognitas =n umero de columnas de A) entonces
el sistema es compatible determinado.
Si rg (A) = rg (A[b) < n entonces el sistema es compatible indeterminado y el conjunto de
soluciones se puede escribir en funcion de (n r) parametros.
3.4. Conjuntos de soluciones. 25
3.4 Conjuntos de soluciones.
Una de las caractersticas especiales de los sistemas de ecuaciones lineales es que aunque el
conjunto de soluciones puede ser innito, siempre queda determinado por un conjunto nito de
vectores de R
n
.
Comenzamos analizando el caso de sistemas homogeneos.
Sistemas homogeneos.
Consideremos un sistema homogeneo Ax = 0, donde A /
pn
(R). En primer lugar,
observemos que un sistema homogeneo siempre es compatible, ya que x = 0 es solucion. El
conjunto de soluciones se denomina n ucleo de A y se denota por Ker (A), es decir,
Ker (A) = x R
n
/ Ax = 0.
Por tanto solo hay dos posibilidades:
Si rg (A) = n entonces el sistema es compatible determinado y su unica solucion es el
vector cero (Ker (A) = 0).
Si rg (A) = r < n entonces el sistema es compatible indeterminado y el n ucleo de A es el
conjunto de todas las combinaciones lineales de k = nr vectores de R
n
u
1
, u
2
, . . . , u
k
, es
decir,
Ker (A) =
1
u
1
+
2
u
2
+ +
k
u
k
/
i
R, i = 1, . . . , k.
Se dice que Ker (A) esta generado por los vectores u
1
, u
2
, . . . , u
k
y se denota
Ker (A) =< u
1
, u
2
, . . . , u
k
> .
Estos vectores se determinan despejando las incognitas correspondientes a las entradas
principales de la forma escalonada reducida de A en funcion del resto.
Ejemplo: Consideremos el sistema
_
_
1 1 1 1
1 2 0 0
1 0 2 2
_
_
_
_
_
_
x
y
z
t
_
_
_
_
=
_
_
0
0
0
_
_
Realizando operaciones elementales sobre las las de la matriz A, tenemos:
A =
_
_
1 1 1 1
1 2 0 0
1 0 2 2
_
_
F
21
(1)

_
_
1 1 1 1
0 1 1 1
1 0 2 2
_
_
F
31
(1)

_
_
1 1 1 1
0 1 1 1
0 1 1 1
_
_
F
32
(1)

_
_
1 1 1 1
0 1 1 1
0 0 0 0
_
_
F
12
(1)

_
_
1 0 2 2
0 1 1 1
0 0 0 0
_
_
= A

= rref (A).
26 3. Sistemas de ecuaciones lineales
Como rg (A) = rg (A

) = 2 < 4 = n umero de incognitas, el sistema es compatible indeter-


minado. Ademas, el conjunto de soluciones de Ax = 0 coincide con el conjunto de soluciones
del sistema equivalente A

x = 0, es decir, del sistema


x + 2z + 2t = 0
y z t = 0 .
Despejando las incognitas x e y en funcion de z y t, tenemos que el conjunto de soluciones es:
Ker (A) =
_
(x, y, z, t) R
4
/ x = 2z 2t , y = z +t
_
= (2z 2t, z +t, z, t) / z, t R =
= z(2, 1, 1, 0) +t(2, 1, 0, 1) / z, t R =< (2, 1, 1, 0), (2, 1, 0, 1) > .
El conjunto de soluciones esta formado por las combinaciones lineales de u
1
= (2, 1, 1, 0) y
u
2
= (2, 1, 0, 1).
Sistemas no homogeneos.
Consideremos ahora un sistema no homogeneo Ax = b, con A /
pn
(R), b R
p
.
El sistema es compatible indeterminado si rg (A) = r = rg (A[b) < n. En este caso el
conjunto de soluciones esta determinado por los k = n r generadores del n ucleo de A y un
vector p llamado solucion particular. En concreto, se tiene el siguiente resultado:
Proposicion 3.2 Si rg (A) = r = rg (A[b) < n, el conjunto de soluciones del sistema Ax = b es
S = p +
1
u
1
+
2
u
2
+ +
k
u
k
/
i
R, i = 1, . . . , k := p+ < u
1
, u
2
, . . . , u
k
>,
donde p es una solucion de Ax = b (es decir, Ap = b) y < u
1
, u
2
, . . . , u
k
>= Ker (A). En
notacion abreviada, escribiremos el conjunto de soluciones en la forma S = p + Ker (A).
Demostracion. Como el conjunto de soluciones es S = x R
n
/ Ax = b, se tiene:
z S Az = b = Ap A(z p) = Az Ap = 0 z p Ker (A)
z = p +u, u Ker (A) z p + Ker (A).
.
Ejemplo: Consideremos el sistema
_
_
1 1 1
1 2 0
1 0 2
_
_
_
_
x
y
z
_
_
=
_
_
1
1
1
_
_
.
Realizando operaciones elementales sobre las las de la matriz ampliada (A[b), tenemos:
(A[b) =
_
_
1 1 1 1
1 2 0 1
1 0 2 1
_
_
F
21
(1)

_
_
1 1 1 1
0 1 1 0
1 0 2 1
_
_
F
31
(1)

_
_
1 1 1 1
0 1 1 0
0 1 1 0
_
_
3.5. Matrices cuadradas y uso de la factorizacion LU. 27
F
32
(1)

_
_
1 1 1 1
0 1 1 0
0 0 0 0
_
_
F
12
(1)

_
_
1 0 2 1
0 1 1 0
0 0 0 0
_
_
= (A

[b

).
En primer lugar, rg (A[b) = rg (A

[b

) = 2 < 3 = n umero de incognitas, y por tanto el


sistema es compatible indeterminado. Ademas, el conjunto de soluciones de Ax = b coincide
con el conjunto de soluciones de A

x = b

, es decir, del sistema


x + 2z = 1
y z = 0 .
Despejando x = 1 2z, y = z, tenemos que el conjunto de soluciones en funcion del parametro
z es
S =
_
(x, y, z) R
3
/ y = z , x = 1 2z
_
= (1 2z, z, z) / z R =
= (1, 0, 0) +z(2, 1, 1) / z R = (1, 0, 0)
. .
p
+< (2, 1, 1) >
. .
Ker (A)
.
3.5 Matrices cuadradas y uso de la factorizacion LU.
Cuando A es una matriz cuadrada, es mas sencillo determinar si el sistema Ax = b es compatible
determinado:
Proposicion 3.3 Sean A /
nn
(R) y b R
n
. El sistema Ax = b tiene solucion unica si y
solo si rg (A) = n.
Demostracion. Si rg (A) = n entonces tambien se cumple que rg (A[b) = n, ya que la matriz
(A[b) tiene n las y, por tanto, n = rg (A) rg (A[b) n. .
Observese que en este caso la unica solucion del sistema homogeneo asociado Ax = 0 es
la solucion trivial, es decir, Ker (A) = 0. En consecuencia, las siguientes propiedades son
equivalentes para una matriz A /
nn
(R):
1. El sistema Ax = b es compatible determinado para cada b R
n
.
2. Ker (A) = 0.
3. rg (A) = n.
4. A es inversible.
5. det(A) ,= 0.
6. rref (A) = I.
28 3. Sistemas de ecuaciones lineales
Observacion: Si A /
nn
(R) es inversible, entonces la unica solucion del sistema Ax = b se
puede escribir en la forma x = A
1
b. Sin embargo, en la practica no se suele calcular la inversa
de A para resolver el sistema.
Factorizacion LU.
La factorizacion LU consiste en descomponer una matriz A /
nn
(R) en el producto
A = LU, donde L /
nn
(R) es una matriz triangular inferior con todos los elementos diago-
nales iguales a 1, y U /
nn
(R) es una matriz triangular superior. Diremos que A admite
factorizacion LU si es posible encontrar estas dos matrices.
El metodo de calculo de L y U se basa en la eliminacion gaussiana. Para poder obtener L
y U por este procedimiento sera necesario pedir condiciones adicionales a la matriz A.
Denicion 3.2 Sea A = (a
ij
) /
nn
(R). Para cada k = 1, 2, . . . , n, se llama menor prin-
cipal de orden k de A y se denota
k
al siguiente determinante:

k
=

a
11
a
12
a
1k
a
21
a
22
a
2k
.
.
.
.
.
.
.
.
.
.
.
.
a
k1
a
k2
a
kk

Proposicion 3.4 Si todos los menores principales de A son distintos de cero entonces A admite
factorizacion LU. Ademas, en este caso, dicha factorizacion es unica.
Calculo de la factorizacion LU.
Sea A /
nn
(R) una matriz en las condiciones de la proposicion anterior. Entonces
es posible transformar la matriz A en una matriz triangular superior U mediante operaciones
elementales sobre las las de A del tipo F
ij
(), con i > j, es decir, sin efectuar permutaciones
de las y utilizando solo las las superiores para modicar las inferiores.
Sean F
1
, F
2
, . . . , F
k
las correspondientes matrices elementales de las tales que F
k
. . . F
2
F
1
A =
U. Entonces L = (F
k
. . . F
2
F
1
)
1
= F
1
1
F
1
2
. . . F
1
k
es triangular inferior, sus elementos diago-
nales son iguales a 1 y ademas A = LU.
Ejemplo: Consideremos la matriz:
A =
_
_
_
_
2 1 0 1
4 4 1 5
2 1 1 0
2 5 4 1
_
_
_
_
/
44
(R) .
Veamos que A admite factorizacion LU.
3.5. Matrices cuadradas y uso de la factorizacion LU. 29
Los menores principales de la matriz A son:

1
= 2 ,= 0

2
=

2 1
4 4

= 4 ,= 0

3
=

2 1 0
4 4 1
2 1 1

= 4 ,= 0

4
=

2 1 0 1
4 4 1 5
2 1 1 0
2 5 4 1

= 16 ,= 0.
Todos los menores principales de A son no nulos y por tanto admite factorizacion LU. Para
calcular dicha factorizacion, en primer lugar determinaremos la matriz triangular superior U
mediante operaciones elementales sobre las las de la matriz A del tipo F
ij
(), con i > j. As,
_
_
_
_
2 1 0 1
4 4 1 5
2 1 1 0
2 5 4 1
_
_
_
_
F
21
(2), F
31
(1)

F
41
(1)
_
_
_
_
2 1 0 1
0 2 1 3
0 0 1 1
0 4 4 0
_
_
_
_
F
42
(2)

_
_
_
_
2 1 0 1
0 2 1 3
0 0 1 1
0 0 2 6
_
_
_
_
F
43
(2)

_
_
_
_
2 1 0 1
0 2 1 3
0 0 1 1
0 0 0 4
_
_
_
_
= U .
De esto se deduce que
[F
43
(2)F
42
(2)F
41
(1)F
31
(1)F
21
(2)] A = U
y entonces
L = [F
43
(2)F
42
(2)F
41
(1)F
31
(1)F
21
(2)]
1
=
= F
21
(2)F
31
(1)F
41
(1)F
42
(2)F
43
(2) .
Calcular el producto de ests matrices elementales es equivalente a realizar las correspondientes
operaciones elementales a la matriz identidad:
_
_
_
_
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
F
43
(2), F
42
(2)

F
41
(1)
_
_
_
_
1 0 0 0
0 1 0 0
0 0 1 0
1 2 2 1
_
_
_
_
30 3. Sistemas de ecuaciones lineales
F
31
(1)

_
_
_
_
1 0 0 0
0 1 0 0
1 0 1 0
1 2 2 1
_
_
_
_
F
21
(2)

_
_
_
_
1 0 0 0
2 1 0 0
1 0 1 0
1 2 2 1
_
_
_
_
= L.
Observacion: En la practica no es necesario comprobar previamente que todos los menores prin-
cipales de A son no nulos. Esto es equivalente a que se pueda obtener la matriz U mediante
operaciones elementales sobre las las de A del tipo F
ij
(), con i > j, y ademas los elementos
diagonales de U sean distintos de cero.
Uso de la factorizacion LU.
Sea A /
nn
(R) una matriz cuadrada de rango n. Supongamos que A admite factoriza-
cion LU. Entonces resolver el sistema de ecuaciones lineales Ax = b es equivalente a resolver
consecutivamente los sistemas Lz = b, Ux = z. (En efecto, Ax = LUx = Lz = b).
Ejemplo: Sean
A =
_
_
_
_
2 1 0 1
4 4 1 5
2 1 1 0
2 5 4 1
_
_
_
_
; b =
_
_
_
_
5
14
1
1
_
_
_
_
.
Vamos a resolver el sistema Ax = b usando la factorizacion LU.
Ya hemos calculado la factorizacion LU de la matriz A:
A =
_
_
_
_
2 1 0 1
4 4 1 5
2 1 1 0
2 5 4 1
_
_
_
_
=
_
_
_
_
1 0 0 0
2 1 0 0
1 0 1 0
1 2 2 1
_
_
_
_
_
_
_
_
2 1 0 1
0 2 1 3
0 0 1 1
0 0 0 4
_
_
_
_
= LU .
Como A = LU, la resolucion del sistema Ax = b es equivalente a la resolucion sucesiva de
dos sistemas triangulares:
Ax = b L Ux
..
z
= b
_
Lz = b
Ux = z
La solucion z = (z
1
, z
2
, z
3
, z
4
)
t
del sistema Lz = b viene dada por
z
1
= 5
2z
1
+z
2
= 14 = z
2
= 4
z
1
+z
3
= 1 = z
3
= 4
z
1
2z
2
+ 2z
3
+z
4
= 1 = z
4
= 4
3.5. Matrices cuadradas y uso de la factorizacion LU. 31
Calculamos ahora la solucion del sistema Ux = z:
4x
4
= 4 = x
4
= 1
x
3
+x
4
= 4 = x
3
= 3
2x
2
+x
3
+ 3x
4
= 4 = x
2
= 2
2x
1
x
2
+x
4
= 5 = x
1
= 1
Se puede comprobar que x = (x
1
, x
2
, x
3
, x
4
) = (1, 2, 3, 1) es la solucion del sistema
original Ax = b.
32 3. Sistemas de ecuaciones lineales
Captulo 4
Espacios vectoriales y aplicaciones
lineales
4.1 Introduccion.
En este captulo introduciremos la denicion de espacio vectorial y los principales conceptos rela-
cionados, como la independencia lineal, generadores, base y dimension. Tambien se interpretan
las matrices como aplicaciones lineales.
4.2 Espacios y subespacios vectoriales.
Denicion 4.1 Se llama espacio vectorial sobre R o espacio vectorial real a un conjunto V
dotado de dos operaciones:
Una operacion interna (suma), de tal forma que (V, +) es un grupo conmutativo.
Una operacion externa (producto por escalares) que asigna a cada escalar R y a cada
elemento v V un nuevo elemento v V , de tal forma que se cumplen las siguientes
propiedades:
1. (v +w) = v +w, R, v, w V .
2. ( +)v = v +v , , R, v V .
3. ()v = (v) , , R, v V .
4. 1v = v , v V , donde 1 es el elemento neutro del producto en R.
A los elementos de V los llamaremos vectores y a los elementos de R los llamaremos escala-
res. Generalmente denotaremos a estos ultimos con letras del alfabeto griego. Si hay posibilidad
de confusion, al elemento neutro de la suma en V lo denotaremos por para distinguirlo del
cero de R.
33
34 4. Espacios vectoriales y aplicaciones lineales
Ejemplos:
1. R
n
es un espacio vectorial real con las operaciones usuales de suma y producto por escalares.
2. El conjunto /
pn
(R) de las matrices reales de p las y n columnas es un espacio vectorial
sobre R con las operaciones denidas en el captulo 1.
3. El conjunto
n
(R) de los polinomios en una variable de grado menor o igual que n y con
coecientes en R es un espacio vectorial real con las operaciones habituales de suma de
polinomios y producto de un escalar por un polinomio.

n
(R) = a
0
+a
1
x + +a
n
x
n
/ a
0
, a
1
, . . . , a
n
R.
Subespacios vectoriales.
Denicion 4.2 Sea V un espacio vectorial. Un subconjunto U de V es un subespacio vec-
torial de V si cumple las siguientes propiedades:
(1) 0 U.
(2) u
1
+u
2
U , u
1
, u
2
U.
(3) u U , R, u U.
Las propiedades (2) y (3) de la denicion se pueden sustituir por la siguiente:
(4)
1
u
1
+
2
u
2
U ,
1
,
2
R, u
1
, u
2
U.
Ejemplos:
1. El conjunto U =
_
A /
nn
(R) / A
t
= A
_
es un subespacio vectorial de /
nn
(R).
Es evidente que 0 U, ya que 0
t
= 0. Veamos que se cumple la propiedad (4): si A, B U
entonces A
t
= A, B
t
= B, y por tanto, si , R entonces:
(A+B)
t
= A
t
+B
t
= A+B,
es decir, (A+B) U, , R.
2. El conjunto W = A /
22
(R) / det(A) = 0 no es un subespacio vectorial de /
22
(R).
Aunque 0 W, veamos que no se cumple la propiedad (2); para ello basta tomar
A
1
=
_
1 0
0 0
_
, A
2
=
_
0 0
0 1
_
.
Es claro que A
1
y A
2
pertenecen a W ya que det(A
1
) = det(A
2
) = 0. Sin embargo,
det(A
1
+A
2
) =

1 0
0 1

= 1 ,= 0 = A
1
+A
2
, W.
4.2. Espacios y subespacios vectoriales. 35
Recordemos que si v
1
, v
2
, . . . , v
n
son n vectores de un espacio vectorial V y
1
, . . . ,
n
son
n umeros reales, entonces cualquier vector de la forma
v =
1
v
1
+
2
v
2
+
n
v
n
se llama combinacion lineal de v
1
, v
2
, . . . , v
n
.
Tenemos la siguiente caracterizacion de los subespacios vectoriales:
Proposicion 4.1 Un subconjunto no vaco U de un espacio vectorial V es un subespacio vec-
torial si y solo si todas las combinaciones lineales de vectores de U pertenecen a U.
Denicion 4.3 Sea U un subespacio vectorial de un espacio vectorial V . Se dice que un sub-
conjunto S de U es un conjunto de generadores de U si todo vector de U es combinacion
lineal de vectores de S. Se denota U =< S >. Si S es un conjunto de generadores de U, diremos
que U es el subespacio generado por S.
Proposicion 4.2 Si A /
pn
(R), entonces Ker (A) = x R
n
/ Ax = 0 es un subespacio
vectorial de R
n
.
Demostracion. Es claro que 0 Ker (A) ya que A0 = 0. Ademas, si x
1
, x
2
Ker (A) y
1
,
2
R,
entonces
A(
1
x
1
+
2
x
2
) =
1
Ax
1
+
2
Ax
2
=
1
0 +
2
0 = 0,
de modo que
1
x
1
+
2
x
2
Ker (A). .
Hallar un conjunto de generadores de Ker (A) es equivalente a resolver el sistema homogeneo
Ax = 0.
Ejemplo:
Sea U =
_
(x, y, z) R
3
/ x +y +z = 0
_
. Podemos escribir:
U = (y z, y, z) / y, z R = y(1, 1, 0) +z(1, 0, 1) / y, z R
=< (1, 1, 0), (1, 0, 1) > .
En muchas ocasiones la forma mas sencilla de probar que un subconjunto U de un espacio
vectorial V es un subespacio consiste en encontrar un conjunto de generadores.
Ejemplo: Sea U = p(x)
2
(R) / p(1) = 0.
Consideremos un polinomio arbitrario p(x) = a +bx +cx
2

2
(R). Entonces:
p(x) U p(1) = 0 a +b +c = 0.
Podemos reescribir U como:
U =
_
a +bx +cx
2

2
(R) / a +b +c = 0
_
=
_
a +bx +cx
2

2
(R) / c = a b
_
=
=
_
a +bx + (a b)x
2
/ a, b R
_
=
_
a(1 x
2
) +b(x x
2
) / a, b R
_
=< 1 x
2
, x x
2
> .
Por tanto, U es el subespacio vectorial de
2
(R) generado por 1 x
2
y x x
2
.
36 4. Espacios vectoriales y aplicaciones lineales
4.3 Independencia lineal.
Sea V un espacio vectorial y S un subconjunto de V . Se dice que un vector v V depende
linealmente de los vectores de S si v es combinacion lineal de vectores de S, es decir, si existen

1
, . . . ,
n
R, v
1
, v
2
, . . . , v
n
S tales que v =
1
v
1
+
2
v
2
+
n
v
n
.
Denicion 4.4 Un conjunto de vectores es linealmente independiente o libre si ninguno de ellos
es combinacion lineal del resto.
Denicion 4.5 Sea S = v
1
, v
2
, . . . , v
n
un conjunto de vectores de un espacio vectorial V . Se
llama rango de S al mayor n umero de vectores linealmente independientes que hay en S. Se
denota rg (S).
De la denicion anterior se deduce inmediatamente que un conjunto S = v
1
, v
2
, . . . , v
n
es
libre si y solo si rg (S) = n.
Proposicion 4.3 Si S es un conjunto de p vectores de R
n
, entonces rg (S) = rg (A), donde
A /
pn
(R) es la matriz cuyas las son los vectores de S.
Demostracion. Es consecuencia de que la independencia lineal de un conjunto de vectores no
vara por operaciones elementales y el conjunto de las no nulas de una matriz escalonada es
linealmente independiente. .
Ejemplo:
Sea S = (1, 2, 1, 1), (1, 1, 0, 0), (1, 5, 2, 2). Entonces:
rg (S) = rg
_
_
1 2 1 1
1 1 0 0
1 5 2 2
_
_
F
21
(1)
=
F
31
(1)
rg
_
_
1 2 1 1
0 3 1 1
0 3 1 1
_
_
F
32
(1)
= rg
_
_
1 2 1 1
0 3 1 1
0 0 0 0
_
_
= 2.
Observacion: Si solo se realizan operaciones elementales por las en A para determinar una matriz
escalonada A

y obtener el rango de S entonces el subespacio generado por S coincide con el


subespacio generado por las las no nulas de A

. Esta propiedad no es cierta si se combinan


operaciones de las y columnas para calcular el rango.
En el ejemplo anterior,
U =< S >=< (1, 2, 1, 1), (1, 1, 0, 0), (1, 5, 2, 2) >=< (1, 2, 1, 1), (0, 3, 1, 1) > .
4.4 Bases y dimension.
Denicion 4.6 Un conjunto de vectores B de un espacio vectorial V es una base de V si B es
libre y V =< B >.
4.4. Bases y dimension. 37
Ejemplos:
1. El conjunto ( = (1, 0, . . . , 0), (0, 1, 0, . . . , 0), . . . , (0, 0, . . . , 0, 1) es una base de R
n
llamada
base canonica.
2. El conjunto B = 1, x, x
2
, . . . , x
n
es una base del espacio de polinomios
n
(R).
3. El conjunto
B =
__
1 0
0 0
_
,
_
0 1
0 0
_
,
_
0 0
1 0
_
,
_
0 0
0 1
__
es una base de /
22
(R).
Dimension.
Aunque un espacio vectorial tiene innitas bases, todas ellas tienen el mismo n umero de
vectores. Se llama dimension de V al n umero de vectores de cualquier base de V . Se denota
dim(V ).
Ejemplos:
Para los espacios vectoriales que hemos mencionado anteriormente, se tiene:
dim(R
n
) = n , dim(
n
(R)) = n + 1 , dim(/
22
(R)) = 4.
Observacion: Si V = 0 entonces no existe ninguna base de V y, por convenio, deniremos
dim(V ) = 0.
Calculo de la dimension.
En primer lugar, si V =< v
1
, v
2
, . . . , v
p
> entonces dim(V ) = rg (v
1
, v
2
, . . . , v
p
).
Ejemplo:
Sea U =< (1, 2, 1, 1), (0, 1, 1, 1), (0, 0, 0, 1) >. Entonces
dim(U) = rg
_
_
1 2 1 1
0 1 1 1
0 0 0 1
_
_
= 3.
Si U = Ker (A), con A /
pn
(R), entonces U es un subespacio de R
n
de dimension
d = n rg (A).
Ejemplo:
Sea U =
_
_
_
(x, y, z, t) R
4
/
x + 2y +z +t = 0
x y = 0
x + 5y + 2z + 2t = 0
_
_
_
= Ker
_
_
1 2 1 1
1 1 0 0
1 5 2 2
_
_
.
38 4. Espacios vectoriales y aplicaciones lineales
dim(U) = 4 rg
_
_
1 2 1 1
1 1 0 0
1 5 2 2
_
_
F
21
(1)
=
F
31
(1)
4 rg
_
_
1 2 1 1
0 3 1 1
0 3 1 1
_
_
=
F
32
(1)
= 4 rg
_
_
1 2 1 1
0 3 1 1
0 0 0 0
_
_
= 4 2 = 2.
Esta propiedad se puede extender a cualquier espacio vectorial de dimension nita V : Si
U es un subespacio de V entonces la dimension de U es igual a la dimension de V menos
el n umero de ecuaciones linealmente independientes que denen a U.
Por ejemplo, si U = A = (a
ij
) /
nn
(R) / a
ii
= 0, i = 1, 2, . . . , n entonces
dim(U) = dim(/
nn
(R)) n = n
2
n.
4.5 Cambio de base en R
n
.
La siguiente propiedad es una consecuencia inmediata de la denicion de base y permite intro-
ducir el concepto de vector de coordenadas:
Proposicion 4.4 Sea B = u
1
, u
2
, . . . , u
n
una base de R
n
. Cada x R
n
se puede escribir de
modo unico como
x =
1
u
1
+
2
u
2
+ +
n
u
n
.
El vector (
1
,
2
, . . . ,
n
) se llama vector de coordenadas de x respecto de la base B y se
suele denotar x = (
1
,
2
, . . . ,
n
)
B
.
Ejemplo: En R
3
se considera la base B = (1, 1, 1), (1, 2, 0), (0, 0, 1).
Calculamos las coordenadas de x = (1, 0, 0) respecto de B:
Si (1, 0, 0) = (, , )
B
entonces:
(1, 0, 0) = (1, 1, 1) +(1, 2, 0) +(0, 0, 1) = ( +, + 2, +)

_
_
_
+ = 1
+ 2 = 0
+ = 0
_
_
_

_
_
_
= 2
= 1
= 2.
Por tanto, (1, 0, 0) = (2, 1, 2)
B
.
Si B es una base de un espacio vectorial V y x = (
1
,
2
, . . . ,
n
)
B
entonces denotaremos
x
B
=
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
/
n1
(R).
4.5. Cambio de base en R
n
. 39
Observemos que si consideramos la base canonica (, entonces las coordenadas de un vector
x = (x
1
, x
2
, . . . , x
n
) R
n
respecto de ( son precisamente (x
1
, x
2
, . . . , x
n
), es decir,
x
C
= x =
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
/
n1
(R).
A continuacion veremos como cambian las coordenadas de un vector x al cambiar de base.
Sea B = u
1
, u
2
, . . . , u
n
una base de R
n
. Se llama matriz de cambio de base de B a la
base canonica ( a la matriz P /
nn
(R) cuyas columnas son los vectores de B, es decir,
P = (u
1
[u
2
[ [u
n
) .
Ejemplo: Sea B = (1, 1, 1), (1, 2, 0), (0, 0, 1). La matriz de cambio de base de B a ( es
P = P
BC
=
_
_
1 1 0
1 2 0
1 0 1
_
_
.
La propiedad que caracteriza a la matriz de cambio de base es la siguiente:
Proposicion 4.5 Si P = P
BC
es la matriz de cambio de base de B a ( entonces
P
BC
x
B
= x
C
, x R
n
.
Demostracion. Sea x = (x
1
, x
2
, . . . , x
n
) R
n
y (
1
,
2
, . . . ,
n
) su vector de coordenadas respecto
de B. Entonces:
x = x
C
=
1
u
1
+
2
u
2
+ +
n
u
n
= (u
1
[u
2
[ [u
n
)
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
= P x
B
.
El cambio de base de ( a B se puede hacer utilizando la sigiente propiedad:
Proposicion 4.6 Sea B una base de R
n
. Entonces P
BC
es inversible y ademas (P
BC
)
1
= P
CB
.
Demostracion. Como las columnas de P
BC
son los vectores de la base B, claramente son lineal-
mente independientes y por tanto P
BC
es inversible.
Por otra parte, para cada x R
n
, se tiene:
P
BC
x
B
= x
C
= x
B
= (P
BC
)
1
x
C
.
De aqu se deduce que (P
BC
)
1
= P
CB
. .
Ejemplo:
La matriz de cambio de base de ( = (1, 0, 0), (0, 1, 0), (0, 0, 1) a B = (1, 1, 1), (1, 2, 0), (0, 0, 1)
es
P
CB
= (P
BC
)
1
=
_
_
1 1 0
1 2 0
1 0 1
_
_
1
=
_
_
2 1 0
1 1 0
2 1 1
_
_
.
40 4. Espacios vectoriales y aplicaciones lineales
4.6 Denicion de aplicacion lineal y propiedades.
Una matriz A /
pn
(R) se puede identicar con la aplicacion L : R
n
R
p
denida por
L(x) = Ax, donde x R
n
es un vector columna.
Esta aplicacion recibe el nombre de aplicacion lineal. En general, una aplicacion L : R
n
R
p
es lineal si cumple las siguientes propiedades:
1. L(x +y) = L(x) +L(y) , x, y R
n
.
2. L(x) = L(x) , R, x R
n
.
De estas propiedades se obtiene por induccion que
L(
1
v
1
+
2
v
2
+ +
n
v
n
) =
1
L(v
1
) +
2
L(v
2
) + +
n
L(v
n
) ,
para todo
1
,
2
, . . . ,
n
R, y v
1
, v
2
, . . . , v
n
R
n
.
En otras palabras, L : R
n
R
p
es una aplicacion lineal si la imagen de la combinacion
lineal de n vectores de R
n
es igual a la combinacion lineal de las imagenes.
Matriz asociada a una aplicacion lineal.
Al igual que una matriz dene una aplicacion lineal, veremos que una aplicacion lineal
L : R
n
R
p
siempre se puede escribir en la forma L(x) = Ax para una matriz A /
pn
(R).
Teorema 4.1 Sea L : R
n
R
p
una aplicacion lineal. Entonces existe una matriz A /
pn
(R)
tal que L(x) = Ax, x R
n
.
Demostracion. Denotemos por C = e
1
, e
2
, . . . , e
n
la base canonica de R
n
.
Sea x = (x
1
, x
2
, . . . , x
n
) = x
1
e
1
+x
2
e
2
+ +x
n
e
n
R
n
. Como L es una aplicacion lineal:
L(x) = L(x
1
e
1
+x
2
e
2
+ +x
n
e
n
) = x
1
L(e
1
) +x
2
L(e
2
) + +x
n
L(e
n
) =
= (L(e
1
)[L(e
2
)[ [L(e
n
))
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
= Ax.
.
La matriz A del teorema anterior se llama matriz asociada a L. Sus columnas son las
imagenes de los vectores de la base canonica. En la practica, la matriz asociada a una aplicacion
lineal se puede obtener directamente.
Ejemplo: Sea L : R
3
R
2
denida por L(x, y, z) = (x + 2y z, y + 4z). Entonces:
L(x, y, z) =
_
x + 2y z
y + 4z
_
=
_
1 2 1
0 1 4
_
_
_
x
y
z
_
_
.
4.7. N ucleo e imagen de una aplicacion lineal. 41
La matriz asociada a L es
A =
_
1 2 1
0 1 4
_
/
23
(R).
4.7 N ucleo e imagen de una aplicacion lineal.
Sea L : R
n
R
p
una aplicacion lineal. Se dene el n ucleo de L como
Ker (L) = x R
n
/ L(x) = 0.
Es claro que si A es la matriz asociada a L entonces Ker (L) = Ker (A) = x R
n
/ Ax = 0.
La imagen de L se dene como el subespacio formado por todos los vectores de R
p
que son
imagen de alg un vector de R
n
por la aplicacion L:
Im(L) = L(x) / x R
n
.
Si B = u
1
, u
2
, . . . , u
n
es una base de R
n
entonces Im(L) =< L(u
1
), L(u
2
), . . . , L(u
n
) > .
En particular, tomando la base canonica, se obtiene que la imagen de L esta generada por
las columnas de la matriz asociada. Por extension, se llama imagen de una matriz A /
pn
(R)
al subespacio generado por sus columnas.
Ejemplo: Se considera la aplicacion lineal L : R
4
R
3
denida por
L(x, y, z, t) = (x +y +z, y 2z +t, 2x +y + 4z t).
Vamos a calcular una base de Ker (L) y otra de Im(L).
La matriz asociada es
A =
_
_
1 1 1 0
0 1 2 1
2 1 4 1
_
_
.
Por tanto, Ker (L) = Ker (A) = x R
4
/ Ax = 0. Para resolver el sistema, hacemos
operaciones elementales sobre las las de la matriz de coecientes:
_
_
1 1 1 0
0 1 2 1
2 1 4 1
_
_
F
31
(2)

_
_
1 1 1 0
0 1 2 1
0 1 2 1
_
_
F
32
(1)

_
_
1 1 1 0
0 1 2 1
0 0 0 0
_
_
F
12
(1)

_
_
1 0 3 1
0 1 2 1
0 0 0 0
_
_
.
42 4. Espacios vectoriales y aplicaciones lineales
As,
Ker (L) =
_
(x, y, z, t) R
4
/
x = 3z +t
y = 2z t
_
= (3z +t, 2z t, z, t) / z, t R =
= z(3, 2, 1, 0) +t(1, 1, 0, 1) / z, t R =< (3, 2, 1, 0), (1, 1, 0, 1) > .
Por tanto, dim(Ker (L)) = 2 y una base de Ker (L) es
B
1
= (3, 2, 1, 0), (1, 1, 0, 1) .
Por otra parte, la imagen de L esta generada por las columnas de A:
Im(L) =< (1, 0, 2), (1, 1, 1), (1, 2, 4), (0, 1, 1) > .
Para calcular una base de la imagen de L hacemos operaciones elementales para eliminar
los vectores linealmente dependientes:
_
_
_
_
1 0 2
1 1 1
1 2 4
0 1 1
_
_
_
_
F
21
(1)

F
31
(1)
_
_
_
_
1 0 2
0 1 1
0 2 2
0 1 1
_
_
_
_
F
32
(2)

F
42
(1)
_
_
_
_
1 0 2
0 1 1
0 0 0
0 0 0
_
_
_
_
.
Por tanto, dim(Im(L)) = 2 y una base de Im(L) es
B
2
= (1, 0, 2), (0, 1, 1) .
Inversas de aplicaciones lineales.
El siguiente resultado muestra que aplicaciones lineales son inversibles y como calcular la
aplicacion inversa.
Proposicion 4.7 Sea L : R
n
R
n
una aplicacion lineal y sea A /
nn
(R) su matriz asocia-
da. Entonces L es inversible si y solo si A es inversible. Ademas, la matriz asociada a L
1
es
A
1
.
Ejemplo:
Consideremos la aplicacion lineal L : R
2
R
2
dada por L(x, y) = (x+y, 2x+y). Su matriz
asociada es
A =
_
1 1
2 1
_
.
Como [A[ = 1 ,= 0, A es inversible y por tanto L es inversible.
La matriz asociada a L
1
es
A
1
=
_
1 1
2 1
_
,
y en consecuencia la aplicacion inversa L
1
: R
2
R
2
esta denida por
L
1
(x, y) = A
1
_
x
y
_
=
_
1 1
2 1
__
x
y
_
=
_
x +y
2x y
_
.
Captulo 5
Diagonalizacion y funciones de
matrices
5.1 Introduccion.
Los conceptos principales de este captulo son los de autovalor y autovector de una matriz
cuadrada. Se introduce el polinomio caracterstico para el calculo de autovalores y se dan
aplicaciones a la diagonalizacion de matrices y al calculo de funciones de matrices.
5.2 Autovalores y autovectores.
Denicion 5.1 Sea A /
nn
(R). Un vector x es un autovector de A si x ,= 0 y existe un
escalar tal que Ax = x. El escalar se llama autovalor de A asociado al autovector x.
Aunque en la mayora de las aplicaciones que veremos este curso trabajaremos con autova-
lores reales y por tanto el autovector es un vector de R
n
, veremos que es posible que el escalar
sea complejo. En ese caso el autovector asociado sera un vector x C
n
.
Denicion 5.2 El conjunto de todos los autovalores de una matriz A /
nn
(R) se llama
espectro de A y se denota Sp(A).
Ejemplo 1:
Consideremos la matriz
A =
_
_
1 1 1
1 1 1
1 1 1
_
_
/
33
(R).
Veamos que = 3 es una autovalor de A y v = (1, 1, 1) es un autovector asociado a dicho
autovalor :
Av =
_
_
1 1 1
1 1 1
1 1 1
_
_
_
_
1
1
1
_
_
=
_
_
3
3
3
_
_
= 3
_
_
1
1
1
_
_
.
43
44 5. Diagonalizacion y funciones de matrices
Ejemplo 2:
La matriz
A =
_
0 1
1 0
_
no tiene autovalores reales. Sin embargo, = i Sp(A):
_
0 1
1 0
__
i
1
_
=
_
1
i
_
= i
_
i
1
_
.
Calculo de autovalores: polinomio caracterstico.
La forma de calcular los autovalores de una matriz la proporciona el siguiente resultado:
Teorema 5.1 Sea A /
nn
(R) y sea un escalar. Entonces Sp(A) det(AI) = 0.
En consecuencia, Sp(A) = C/ det(AI) = 0.
Demostracion.
Observemos que
Ax = x Ax x = 0 (AI)x = 0 x Ker (AI).
Por tanto,
Sp(A) Ker (AI) ,= 0 [AI[ = 0.
.
Si A /
nn
(R), se llama polinomio caracterstico de A al polinomio denido por
q
A
(x) = det(A xI). El teorema anterior dice que los autovalores de A son las races de su
polinomio caracterstico.
Ejemplo: Sea
A =
_
1 2
2 1
_
/
33
(R).
El polinomio caracterstico de A es
q
A
(x) = [AxI[ =

1 x 2
2 1 x

= x
2
2x 3.
Los autovalores de A son las races q
A
(x). En este caso, como
x
2
2x 3 = 0 x =
2

16
2
,
los autovalores de A son
1
= 3,
2
= 1.
5.2. Autovalores y autovectores. 45
Si A /
nn
(R) entonces su polinomio caracterstico tiene grado exactamente n y su
coeciente principal es (1)
n
. Es decir,
q
A
(x) = (1)
n
x
n
+a
n1
x
n1
+ +a
1
x +a
0
.
Recordamos ahora algunas notas sobre races de polinomios necesarias para enunciar otros
resultados sobre el polinomio caracterstico.
Denicion 5.3 Sea p(x) un polinomio de grado n con coecientes en R. Se dice que es una
raz de p(x) de multiplicidad k si existe un polinomio p
1
(x) tal que p(x) = (x )
k
p
1
(x) y
p
1
() ,= 0.
Es bien sabido que un polinomio p(x) de grado n con coecientes reales tiene exactamente
n races en C contadas con su multiplicidad, es decir,
p(x) = c(x
1
)

1
(x
2
)

2
. . . (x
r
)
r
,
donde c R,
1
,
2
, . . . ,
r
C,
1
,
2
, . . . ,
r
N y
1
+
2
+ +
r
= n.
Denicion 5.4 Sea A /
nn
(R) y sea Sp(A). Se llama multiplicidad algebraica de
a la multiplicidad de como raz de q
A
(x), es decir al n umero natural tal que q
A
(x) =
(x )

p(x), p() ,= 0. Se denota m.a. ().


Por tanto, una matriz A /
nn
(R) tiene exactamente n autovalores (contados con su
multiplicidad), aunque algunos de ellos pueden no ser reales.
Calculo de autovectores. Subespacios propios.
Denicion 5.5 Sea A /
nn
(R) y sea Sp(A). Si R entonces los autovectores
asociados son vectores de de R
n
. Se llama subespacio propio asociado a al conjunto
V () = x R
n
/ Ax = x = Ker (AI).
Denicion 5.6 Se llama multiplicidad geometrica de a la dimension del subespacio propio
V (), es decir,
m.g. () = dim(V ()) = dim(Ker (AI)).
Observacion: Recordemos que si A /
nn
(R) entonces dim(Ker (A)) = n rg (A). Por tanto,
m.g. () = dim(Ker (AI)) = n rg (AI).
Si Sp(A), tanto la multiplicidad algebraica como la multiplicidad geometrica de son
al menos 1. De hecho se tiene el siguiente resultado:
Proposicion 5.1 Sea A /
nn
(R) y sea Sp(A). Entonces 1 m.g. () m.a. () n.
46 5. Diagonalizacion y funciones de matrices
Corolario 5.1 Si Sp(A) y m.a. () = 1 entonces m.g. () = m.a. () = 1.
Ejemplo:
Se considera la matriz
A =
_
_
0 1 1
1 1 0
1 0 1
_
_
.
Calculamos el polinomio caracterstico de A:
[AxI[ =

x 1 1
1 1 x 0
1 0 1 x

F
32
(1)
=

x 1 1
1 1 x 0
0 1 x 1 x

=
K
23
(1)
=

x 0 1
1 1 x 0
0 0 1 x

= (1 x)

x 0
1 1 x

= x(1 x)
2
.
Por tanto, Sp(A) = 0, 1, con m.a. (0) = 1, m.a. (1) = 2.
Como m.a. (0) = 1, se tiene que m.g. (0) = m.a. (0) = 1.
A continuacion calculamos la multiplicidad geometrica del autovalor = 1:
m.g. (1) = 3 rg (AI) = 3 rg
_
_
1 1 1
1 0 0
1 0 0
_
_
= 3 2 = 1.
Los subespacios propios asociados a 0 y 1 son:
V (0) = Ker (A) = (x, y, z) R
3
/ y = x, z = x =< (1, 1, 1) > .
V (1) = Ker (AI) = (x, y, z) R
3
/ x = 0, z = y =< (0, 1, 1) > .
Propiedades:
1. Si D = (d
ij
) /
nn
(R) es una matriz diagonal entonces los autovalores de D son los
elementos diagonales d
1
, d
2
, . . . , d
n
.
2. Si A /
nn
(R) y Sp(A) =
1
,
2
, . . . ,
n
(cada autovalor aparece tantas veces como
indica su multiplicidad algebraica), entonces:
det(A) =
n

i=1

i
=
1

2

n
tr (A) =
n

i=1

i
=
1
+
2
+ +
n
.
Esta propiedad es util para comprobar si los autovalores se han calculado correctamente,
ya que su suma debe coincidir con la traza de la matriz.
5.3. Matrices diagonalizables. 47
5.3 Matrices diagonalizables.
Denicion 5.7 Sea A /
nn
(R). Se dice que A es diagonalizable si existen dos matrices
P, D /
nn
(R) tales que P es inversible, D es diagonal y A = PDP
1
.
Denotemos por
D =
_
_
_
_
_

1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
_
_
_
_
_
; P = (u
1
[u
2
[ . . . [u
n
) .
Observese que
A = PDP
1
AP = PD (Au
1
[Au
2
[ . . . [Au
n
) = (
1
u
1
[
2
u
2
[ . . . [
n
u
n
) .
Esto quiere decir que si A es diagonalizable entonces los elementos diagonales de la matriz
D son los autovalores de A (contados con su multiplicidad) y las columnas de la matriz P son
los correspondientes autovectores asociados (en el mismo orden). Para poder construir D y P
es necesario que todos los autovalores de A sean reales y que cada autovalor proporcione tantos
autovectores linealmente independientes como indica su multiplicidad algebraica. En resumen,
se tiene el siguiente resultado:
Teorema 5.2 Sea A /
nn
(R). Entonces:
(a) A es diagonalizable si y solo si todos los autovalores de A son reales y ademas
m.a. () = m.g. (), Sp(A).
(b) Si A es diagonalizable, las matrices P y D tales que A = PDP
1
se construyen del
siguiente modo:
D =
_
_
_
_
_

1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
_
_
_
_
_
; P = (u
1
[u
2
[ . . . [u
n
) ,
donde
1
,
2
, . . . ,
n
son los autovalores de A (contados con su multiplicidad) y u
1
, u
2
, . . . , u
n
son los correspondientes autovectores asociados.
La diagonalizacion se puede aplicar al calculo de potencias y races cuadradas de matrices.
Proposicion 5.2 Si A = PDP
1
entonces A
k
= PD
k
P
1
, k 1.
48 5. Diagonalizacion y funciones de matrices
Proposicion 5.3 Si A /
nn
(R) es diagonalizable y todos sus autovalores son mayores
o iguales que cero entonces se puede calcular una raz cuadrada de A en la forma A
1/2
=
PD
1/2
P
1
, donde
D
1/2
=
_
_
_
_
_

1
0 0
0

2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0

n
_
_
_
_
_
.
Ejemplo: Hallar una raz cuadrada de la matriz
A =
_
_
1 1 1
1 1 1
1 1 1
_
_
.
En este caso Sp(A) = 0, 3, con m.a. (0) = m.g. (0) = 2. Ademas,
Ker (A) =< (1, 0, 1), (0, 1, 1) > , Ker (A3I) =< (1, 1, 1) > .
Por tanto, podemos tomar
D =
_
_
0 0 0
0 0 0
0 0 3
_
_
, P =
_
_
1 0 1
0 1 1
1 1 1
_
_
,
de tal forma que A = PDP
1
. De este modo, la matriz
B = PD
1/2
P
1
=
_
_
1 0 1
0 1 1
1 1 1
_
_
_
_
0 0 0
0 0 0
0 0

3
_
_
_
_
2/3 1/3 1/3
1/3 2/3 1/3
1/3 1/3 1/3
_
_
=
=
1

3
_
_
1 1 1
1 1 1
1 1 1
_
_
es una raz cuadrada de A (es decir, B
2
= A).
5.4 Teorema de Cayley-Hamilton.
Polinomios de matrices.
Sea A /
nn
(R). Sea p(x) = a
0
+a
1
x +a
2
x
2
+ +a
k
x
k
. Se dene
p(A) = a
0
I +a
1
A+a
2
A
2
+ +a
k
A
k
/
nn
(R).
5.4. Teorema de Cayley-Hamilton. 49
Diremos que p(x) es un polinomio anulador de A si p(A) es la matriz cero.
Ejemplo: El polinomio p(x) = x
2
2x es un polinomio anulador de la matriz
A =
_
1 1
1 1
_
.
En efecto,
p(A) = A
2
2A =
_
2 2
2 2
_
2
_
1 1
1 1
_
=
_
0 0
0 0
_
.
Teorema 5.3 (Teorema de Cayley-Hamilton) Sea A /
nn
(R) y q
A
(x) su polinomio
caracterstico. Entonces q
A
(A) = 0, es decir, q
A
(x) es un polinomio anulador de A.
Del teorema de Cayley-Hamilton se deduce que para calcular cualquier polinomio de una
matriz A /
nn
(R) es suciente calcular las (n 1) primeras potencias de A
Corolario 5.2 Sea A /
nn
(R). Si p(x) es un polinomio de grado k n entonces existe un
polinomio r(x) de grado menor que n tal que p(A) = r(A).
Demostracion. Dividiendo p(x) entre q
A
(x), se tiene que p(x) = q
A
(x)d(x) +r(x), donde el resto
r(x) tiene grado menor que n. Utilizando el teorema de Cayley-Hamilton:
p(A) = q
A
(A)
. .
0
d(A) +r(A) = r(A).
.
Para calcular r(x) no es necesario efectuar la division. Observemos que si es un autovalor
de A entonces p() = q
A
()d() +r() = r(), ya que q
A
() = 0. Es decir, los polinomios p(x)
y r(x) deben tomar el mismo valor sobre todos los autovalores de A. Del mismo modo, si la
multiplicidad algebraica de es m entonces
p
(k)
() = r
(k)
() , Sp(A) , k = 1, 2, . . . , m1.
Esta propiedad permite calcular r(x) resolviendo un sistema de ecuaciones lineales.
Ejemplo: Calcular un polinomio r(x) de grado 1 tal que r(A) = p(A), donde p(x) = x
10
2x+1
y
A =
_
1 1
2 2
_
.
Como los autovalores de A son
1
= 0,
2
= 1, el polinomio r(x) = a +bx de grado 1 debe
cumplir las relaciones:
r(0) = a = p(0) = 1
r(1) = a +b = p(1) = 0.
50 5. Diagonalizacion y funciones de matrices
Por tanto a = 1, b = 1 y r(x) = 1 x.
Finalmente,
p(A) = r(A) = I A =
_
2 1
2 1
_
.
5.5 Funciones de matrices.
En esta seccion usaremos la idea anterior para obtener funciones de matrices para una clase de
funciones mas general que los polinomios. En concreto, consideraremos funciones analticas, en-
tre las cuales estan las funciones racionales, las races k-esimas, la exponencial, el logaritmo y las
funciones trigonometricas mas comunes. Con ayuda de la ultima observacion se pueden calcu-
lar estas funciones de matrices como combinaciones lineales de las n1 primeras potencias de A.
Sea A /
nn
(R) y sea f : D R una funcion analtica denida en un dominio real
D. Supongamos que para cada autovalor de A estan denidos los valores f
(k)
() para todo
k = 0, 1, . . . , m 1, donde m = m.a. (), f
(0)
() = f(). Entonces es posible encontrar un
polinomio r(x) = a
0
+a
1
x + +a
n1
x
n1
de grado menor que n tal que
f
(k)
() = r
(k)
() , Sp(A) , k = 0, 1, . . . , m.a. () 1.
Denotaremos V
f,A
= f
(k)
() / Sp(A), k = 0, 1, . . . , m.a. () 1.
Denicion 5.8 Sean A /
nn
(R) y f una funcion de tal forma que existen todos los valores
del conjunto V
f,A
. Entonces diremos que f esta denida sobre A y se dene f(A) como el valor
del polinomio r(x) en A, es decir,
f(A) = r(A) = a
0
I +a
1
A+ +a
n1
A
n1
.
Observese que los n coecientes a
i
de r(x) se determinan resolviendo un sistema de n ecua-
ciones lineales con n incognitas.
Ejemplo 1: Se consideran la funcion f(x) = e
x
y la matriz
A =
_
_
0 1 1
0 0 1
0 0 0
_
_
.
En este caso Sp(A) = 0, con m.a. (0) = 3. Entonces existe un polinomio r(x) = a + bx + cx
2
de grado menor o igual que dos tal que
r(0) = a = f(0) = e
0
= 1
r

(0) = b = f

(0) = 1
r

(0) = 2c = f

(0) = 1.
5.5. Funciones de matrices. 51
Por tanto a = 1, b = 1, c = 1/2 y r(x) = 1 +x + (1/2)x
2
.
Finalmente,
e
A
= f(A) = r(A) = I +A+
1
2
A
2
=
_
_
1 0 0
0 1 0
0 0 1
_
_
+
_
_
0 1 1
0 0 1
0 0 0
_
_
+
1
2
_
_
0 0 1
0 0 0
0 0 0
_
_
=
=
_
_
1 1 3/2
0 1 1
0 0 1
_
_
.
Ejemplo 2: No es posible calcular una raz cuadrada de la matriz
A =
_
0 1
0 0
_
.
En efecto, consideremos la funcion f(x) =

x = x
1/2
. Como Sp(A) = 0 con m.a. (0) = 2,
para calcular f(A) = A
1/2
necesitamos determinar los valores de f(0) y f

(0).
Pero no existe f

(0) ya que f

(x) = 1/(2

x).
Observacion: La condicion de que existan todos los valores del conjunto V
f,A
no siempre es
necesaria para denir f(A). Por ejemplo, aunque
B =
_
0 0
0 0
_
tambien tiene Sp(B) = 0 con m.a. (0) = 2, es posible calcular una raz cuadrada de B (por
ejemplo, la propia B).
Autovalores de f(A).
Los autovalores de la matriz f(A) se pueden obtener sin calcularla explcitamente.
Proposicion 5.4 Si
1
,
2
, . . . ,
n
son los autovalores de A (contados con su multiplicidad)
entonces los autovalores de f(A) son f(
1
), f(
2
), . . . , f(
n
).
Casos particulares:
1. Sp(A
k
) =
k
1
,
k
2
, . . . ,
k
n
, k N.
2. Sp(A
1
) = 1/
1
, 1/
2
, . . . , 1/
n
. (Si A es inversible).
En particular, la proposicion 5.4 permite obtener el determinante y la traza de f(A) sin
calcular la funcion de la matriz. Si
1
,
2
, . . . ,
n
son los autovalores de A contados con su
multiplicidad, entonces:
det(f(A)) = f(
1
)f(
2
) f(
n
)
tr (f(A)) = f(
1
) +f(
2
) + +f(
n
).
52 5. Diagonalizacion y funciones de matrices
Funciones de matrices usando la diagonalizacion.
El siguiente resultado es consecuencia de la forma que tienen las potencias de las matrices
diagonales:
Proposicion 5.5 Si D es diagonal,
D =
_
_
_
_
_
_

1
0 0
0
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0
n
_
_
_
_
_
_
,
y f es una funcion denida sobre D entonces
f(D) =
_
_
_
_
_
_
f(
1
) 0 0
0 f(
2
)
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 f(
n
)
_
_
_
_
_
_
.
Ejemplo: Si f(x) = e
x
y
A =
_
_
0 0 0
0 0 0
0 0 0
_
_
entonces
e
A
= f(A) =
_
_
f(0) 0 0
0 f(0) 0
0 0 f(0)
_
_
=
_
_
e
0
0 0
0 e
0
0
0 0 e
0
_
_
=
_
_
1 0 0
0 1 0
0 0 1
_
_
.
Este resultado proporciona una forma alternativa para calcular funciones de matrices cuando
A es diagonalizable:
Proposicion 5.6 Si A /
nn
(R) es diagonalizable, es decir, A = PDP
1
con D diagonal,
entonces f(A) = Pf(D)P
1
.
Captulo 6
Espacios eucldeos
6.1 Introduccion.
En este tema se introduce el producto escalar y algunos conceptos importantes asociados a el,
como la norma y la ortogonalidad. Esto permite desarrollar nuevas aplicaciones del algebra ma-
tricial, como la diagonalizacion ortogonal, la descomposicion en valores singulares, la clasicacion
de formas cuadraticas y el metodo de mnimos cuadrados para obtener soluciones aproximadas
de sistemas de ecuaciones lineales sobredeterminados.
6.2 Espacios vectoriales con producto escalar.
Denicion 6.1 Sea V un espacio vectorial real. Una aplicacion , ) : V V R es un pro-
ducto escalar o producto interior si cumple las siguientes propiedades:
1) x
1
+x
2
, y) = x
1
, y) +x
2
, y) , x
1
, x
2
, y V .
2) x, y) = x, y) , x, y V, R.
3) x, y) = y, x) , x, y V .
4) x, x) > 0 , x V, x ,= .
Proposicion 6.1 De las propiedades (1)-(4) se deducen las siguientes:
5) x, y
1
+y
2
) = x, y
1
) +x, y
2
) , x, y
1
, y
2
V .
6) x, y) = x, y) , x, y V, R.
7) x, ) = 0 , x V .
Observacion: Las propiedades (1), (2), (5) y (6) se resumen diciendo que el producto escalar real
es una forma bilineal; la propiedad (3) dice que es simetrico y la propiedad (4) que es denido
positivo.
53
54 6. Espacios eucldeos
Norma inducida.
El producto escalar en un espacio vectorial V permite denir una norma:
Proposicion 6.2 Sea V un espacio vectorial con producto escalar. La aplicacion | | : V R
dada por
|v| = +
_
v, v) , v V
dene una norma sobre V ; esto es, cumple las siguientes propiedades:
i) |x| > 0 , x V y || = 0.
ii) |x| = [[. |x| , x V, R.
iii) |x +y| |x| +|y| , x, y V.
Recuerdese que si x, y son dos vectores de V entonces |x y| representa la distancia de x
a y. En particular, la norma de x representa su distancia a cero.
Denicion 6.2 Los espacios vectoriales con producto escalar dotados de la norma inducida se
llaman espacios eucldeos.
Ejemplos:
I. Producto escalar usual de R
n
.
Se dene el producto escalar usual en R
n
como
x, y) = x
t
y =
n

i=1
x
i
y
i
, x, y R
n
.
La norma asociada a , ) coincide con la norma usual de R
n
:
|x| = +

x
t
x = +
_
x
2
1
+x
2
2
+ +x
2
n
, x = (x
1
, x
2
, . . . , x
n
) R
n
.
II. Producto escalar de funciones. Sea V el espacio vectorial de las funciones reales continuas
denidas en [1, 1]. Se suele usar el siguiente producto escalar:
f, g) =
_
1
1
f(x)g(x) dx.
La norma inducida es
|f| =
__
1
1
f
2
(x) dx
_
1/2
.
6.3. Ortogonalidad 55
6.3 Ortogonalidad
Denicion 6.3 Sea V un espacio vectorial con producto escalar.
1. Se dice que dos vectores x e y son ortogonales si x, y) = 0.
2. Un vector x es ortogonal a un subespacio U de V si x es ortogonal a todos los vectores de
U.
3. Un conjunto de vectores o = v
1
, v
2
, . . . , v
k
de V es ortogonal si v
i
, v
j
) = 0 , i ,= j.
4. Un conjunto de vectores o = v
1
, v
2
, . . . , v
k
de V es ortonormal si es ortogonal y |v
i
| =
1 , i = 1, 2, . . . k.
Observacion: Los vectores de norma uno se llaman vectores unitarios. De cada vector v distinto
de cero se puede obtener un vector unitario con su misma direccion y sentido sin mas que dividir
por su norma.
Ortonormalizacion.
El siguiente resultado muestra como obtener un conjunto ortonormal de un conjunto libre:
Teorema 6.1 (Ortonormalizacion de Gram-Schmidt) Sea V un espacio vectorial con un
producto interior y sea S = v
1
, v
2
, . . . , v
p
un conjunto libre de vectores de V . Existe un
conjunto ortonormal T = u
1
, u
2
, . . . , u
p
tal que < S >=< T >. Es mas,
< v
1
, . . . , v
k
>=< u
1
, . . . , u
k
>, k = 1, . . . , p.
Descripcion del proceso de ortonormalizacion de Gram-Schmidt.
Sea S = v
1
, v
2
, . . . , v
p
el conjunto libre de vectores de V que queremos ortonormalizar.
Se procede del siguiente modo:
(1) Se construye u
1
dividiendo v
1
por su norma:
u
1
=
1
|v
1
|
v
1
.
(2) Para cada i 2 se construye u
i
en dos etapas:
(2.1) Se calcula un vector u
i
dado por:
u
i
= v
i

i1

j=1
v
i
, u
j
)u
j
= v
i
v
i
, u
1
)u
1
v
i
, u
i1
)u
i1
.
56 6. Espacios eucldeos
(2.2) Se normaliza el vector u
i
:
u
i
=
1
| u
i
|
u
i
.
Ejemplo:
Vamos a ortonormalizar el subconjunto S = (1, 0, 1), (1, 1, 1) de R
3
.
Denotemos por v
1
= (1, 0, 1), v
2
= (1, 1, 1). Entonces:
u
1
=
v
1
|v
1
|
=
1

2
(1, 0, 1) =
_
1

2
, 0,
1

2
_
;
u
2
= v
2
v
2
, u
1
)u
1
= (1, 1, 1)
2

2
_
1

2
, 0,
1

2
_
= (1, 1, 1) (1, 0, 1) = (0, 1, 0);
u
2
=
u
2
| u
2
|
= (0, 1, 0).
El conjunto T = u
1
, u
2
=
__
1

2
, 0,
1

2
_
, (0, 1, 0)
_
es ortonormal y genera el mismo subespacio
vectorial que S.
6.4 Proyeccion ortogonal.
Sea x R
n
y sea U un subespacio de R
n
con dim(U) = p < n. Se llama proyeccion ortogonal
de x sobre el subespacio U al unico vector u
x
U tal que (x u
x
) es ortogonal a U. El vector
v
x
= xu
x
se llama componente normal de x respecto a U y su norma representa la mnima
distancia de x al subespacio U, es decir, d(x, U) = |x u
x
|.
Calculo de la proyeccion ortogonal.
Proposicion 6.3 Sea U un subespacio vectorial de R
n
y B = u
1
, . . . u
p
una base ortonormal
de U. Entonces la proyeccion ortogonal de un vector x sobre U es
u
x
= u
1
u
t
1
x +u
2
u
t
2
x + +u
p
u
t
p
x = Px,
donde
P = u
1
u
t
1
+u
2
u
t
2
+ +u
p
u
t
p
= (u
1
[u
2
[ [u
p
)
_
_
_
_
_
u
t
1
u
t
2
.
.
.
u
t
p
_
_
_
_
_
/
nn
(R)
se llama matriz de proyeccion ortogonal.
Demostracion. En primer lugar, u
x
= u
1
(u
t
1
x) +u
2
(u
t
2
x) + +u
p
(u
t
p
x) U por ser combinacion
lineal de vectores de una base de U.
6.4. Proyeccion ortogonal. 57
Por otra parte, (x u
x
) es ortogonal a U ya que es ortogonal a los vectores de la base B.
Por ejemplo, usando que B es ortonormal, se tiene:
u
t
1
u
x
= u
t
1
(u
1
u
t
1
x +u
2
u
t
2
x + +u
p
u
t
p
x) = (u
t
1
u
1
)u
t
1
x + (u
t
1
u
2
)u
t
2
x + + (u
t
1
u
p
)u
t
p
x = u
t
1
x.
Por tanto, u
t
1
(x u
x
) = u
t
1
x u
t
1
u
x
= 0.
Del mismo modo se prueba para u
2
, . . . , u
p
.
Ejemplo: Hallar la matriz de proyeccion ortogonal sobre el subespacio
U = (x, y, z) R
3
/ x +y z = 0.
En primer lugar, calculamos una base de U:
U = (x, y, z) R
3
/ x +y z = 0 = (x, y, x +y) / x, y R =< (1, 0, 1), (0, 1, 1) > .
Una base de U es B

U
= (1, 0, 1), (0, 1, 1).
Aplicamos el proceso de Gram-Schmidt a los vectores v
1
= (1, 0, 1), v
2
= (0, 1, 1) para
obtener una base ortonormal B
U
= u
1
, u
2
de U:
u
1
=
v
1
|v
1
|
=
1

2
_
_
1
0
1
_
_
=
_
_
1/

2
0
1/

2
_
_
;
u
2
= v
2
v
2
, u
1
)u
1
=
_
_
0
1
1
_
_

_
_
1/2
0
1/2
_
_
=
_
_
1/2
1
1/2
_
_
;
u
2
=
u
2
| u
2
|
=
_
_
1/

6
2/

6
1/

6
_
_
.
La matriz de proyeccion ortogonal sobre U es:
P = u
1
u
t
1
+u
2
u
t
2
= (u
1
[u
2
)
_
u
t
1
u
t
2
_
=
_
_
1/

2 1/

6
0 2/

6
1/

2 1/

6
_
_
_
1/

2 0 1/

2
1/

6 2/

6 1/

6
_
=
=
_
_
1/2 + 1/6 0 2/6 1/2 1/6
0 2/6 0 + 4/6 0 + 2/6
1/2 1/6 0 + 2/6 1/2 + 1/6
_
_
=
_
_
2/3 1/3 1/3
1/3 2/3 1/3
1/3 1/3 2/3
_
_
.
Caso particular:
Sea u un vector unitario y sea U =< u >. La matriz de proyeccion ortogonal sobre U es
P
U
= uu
t
. Es facil comprobar que P
U
tiene rango 1, ya que todas sus las son m ultiplos de u.
En el caso general, el rango de P
U
coincide con la dimension de U.
58 6. Espacios eucldeos
Ejemplo: Construir la matriz de proyeccion ortogonal sobre W =< (2, 2, 1) >.
Para ello calculamos un vector unitario u en la direccion de v = (2, 2, 1) dividiendo por su
norma:
u =
v
|v|
=
_
_
2/3
2/3
1/3
_
_
.
Por tanto,
P = uu
t
=
_
_
2/3
2/3
1/3
_
_
(2/3, 2/3, 1/3) =
1
9
_
_
4 4 2
4 4 2
2 2 1
_
_
.
6.5 Diagonalizacion ortogonal.
Recordemos que una matriz P /
nn
(R) es ortogonal si P
1
= P
t
, es decir P
t
P = I.
Denicion 6.4 Sea A /
nn
(R). Se dice que A es ortogonalmente diagonalizable si existen
dos matrices P, D /
nn
(R) tales que P es ortogonal, D es diagonal y A = PDP
t
. En tal
caso, se dice que la descomposicion A = PDP
t
es una diagonalizacion ortogonal de A.
Teorema 6.2 (Teorema espectral para matrices simetricas) Una matriz real A /
nn
(R)
es ortogonalmente diagonalizable si y solo si A es simetrica.
Descomposicion Espectral.
Sea A = PDP
t
la diagonalizacion ortogonal de una matriz simetrica A de rango r. Sean

1
,
2
, . . . ,
r
sus autovalores no nulos, contados con su multiplicidad. Si u
1
, u
2
, . . . , u
n
son las
columnas de P entonces, usando el producto de matrices por bloques, se tiene:
A = PDP
t
= (u
1
[u
2
[ [u
n
)
_
_
_
_
_

1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
_
_
_
_
_
_
_
_
_
_
u
t
1
u
t
2
.
.
.
u
t
n
_
_
_
_
_
=
=
1
u
1
u
t
1
+
2
u
2
u
t
2
+ +
n
u
n
u
t
n
=
1
u
1
u
t
1
+
2
u
2
u
t
2
+ +
r
u
r
u
t
r
,
ya que
r+1
= =
n
= 0.
De esta manera se descompone A en la suma de r matrices u
i
u
t
i
de rango uno. Esta des-
composicion se llama descomposicion espectral de A. Observese que cada sumando es el
producto de un autovalor por la matriz de proyeccion sobre el subespacio generado por el auto-
vector correspondiente.
6.5. Diagonalizacion ortogonal. 59
Calculo de la diagonalizacion ortogonal de una matriz simetrica.
Sea A /
nn
(R) una matriz simetrica. Veamos como construir las matrices P y D tales
que A = PDP
t
.
La matriz D se construye en la forma habitual, es decir, es una matriz diagonal cuyos
elementos diagonales son los autovalores de A, repetidos un n umero de veces igual a su multipli-
cidad algebraica. Una observacion importante es que todos los autovalores de una matriz
simetrica son reales.
Como A = PDP
t
= PDP
1
, las columnas de la matriz P deben ser autovectores de
A. Necesitamos ademas que P sea ortogonal. La siguiente caracterizacion de las matrices
ortogonales sera util:
Proposicion 6.4 Una matriz P /
nn
(R) es ortogonal si y solo si sus columnas son una
base ortonormal de R
n
(respecto al producto escalar usual).
Demostracion. Denotemos por u
1
, u
2
, . . . , u
n
las columnas de P. Dado que rg (P) = n, el con-
junto B = u
1
, u
2
, . . . , u
n
es una base de R
n
. Ademas,
P
t
P =
_
_
_
_
_
u
t
1
u
t
2
.
.
.
u
t
n
_
_
_
_
_
(u
1
[u
2
[ [u
n
) = I
_
u
t
i
u
j
= 0, si i ,= j
u
t
i
u
i
= 1, i = 1, 2, . . . , n
_
B es ortonormal.
.
En virtud de la Proposicion 6.4, necesitamos conseguir una base de autovectores de A que
ademas sea ortonormal. La siguiente propiedad hace que esto sea posible:
Lema 6.1 Sea A /
nn
(R) una matriz simetrica. Si x
1
y x
2
son autovectores asociados a
dos autovalores distintos de A entonces x
1
y x
2
son ortogonales.
Demostracion. Sean
1
,=
2
dos autovalores de A y sean x
1
V (
1
), x
2
V (
2
). Teniendo en
cuenta que A = A
t
y
1
,
2
R:

1
x
1
, x
2
) =
1
x
1
, x
2
) = Ax
1
, x
2
) = (Ax
1
)
t
x
2
= x
t
1
A
t
x
2
= x
t
1
Ax
2
= x
t
1

2
x
2
=
2
x
1
, x
2
).
Por tanto,
1
x
1
, x
2
) =
2
x
1
, x
2
). Como
1
,=
2
, necesariamente x
1
, x
2
) = 0. .
Sea A /
nn
(R) una matriz simetrica. Teniendo en cuenta las propiedades anteriores, los
pasos para calcular una diagonalizacion ortogonal A = PDP
t
son los siguientes:
(1) Se calculan los autovalores de A. Los elementos diagonales de la matriz D son los autova-
lores de A (repetidos tantas veces como indica su multiplicidad algebraica).
(2) Para cada autovalor Sp(A) se halla una base del subespacio propio asociado V ()
y se le aplica el proceso de ortonormalizacion de Gram-Schmidt para obtener una base
ortonormal de V ().
60 6. Espacios eucldeos
(3) La matriz P es la que tiene por columnas los elementos de las bases ortonormales de V (
1
),
V (
2
), . . . , V (
k
) (donde
1
,
2
, ,
k
son los autovalores distintos de A) colocadas en el
mismo orden que ocupan los correspondientes autovalores en la diagonal de D.
Ejemplo:
Hallar una diagonalizacion ortogonal de la matriz A /
44
(R) dada por
A =
_
_
_
_
2 1 0 2
1 2 0 2
0 0 3 0
2 2 0 1
_
_
_
_
Dado que A es una matriz simetrica real, es ortogonalmente diagonalizable, es decir, existen
dos matrices P, D /
44
(R) tales que P es ortogonal, D es diagonal y A = PDP
t
. La matriz
diagonal D tiene como elementos diagonales los autovalores de A.
El polinomio caracterstico de A es q
A
(x) = (3 x)
3
(3 x) (hagase como ejercicio).
Por tanto los autovalores de A son
1
= 3 y
2
= 3, con m.a.(3)=3, m.a.(3)=1, y la
matriz D es
D =
_
_
_
_
3 0 0 0
0 3 0 0
0 0 3 0
0 0 0 3
_
_
_
_
.
Los vectores columna de la matriz ortogonal P = (u
1
[u
2
[u
3
[u
4
) constituyen una base orto-
normal de R
4
formada por autovectores de A. Para determinarlos, aplicaremos el procedimiento
de ortonormalizacion de Gram-Schmidt a sendas bases de los subespacios propios asociados a

1
= 3 y
2
= 3.
Resolviendo el correspondiente sistema homogeneo, se tiene:
Ker (A+ 3I) =< (1, 1, 0, 0), (0, 2, 0, 1), (0, 0, 1, 0) > .
Si denotamos v
1
= (1, 1, 0, 0), v
2
= (0, 2, 0, 1), v
3
= (0, 0, 1, 0) entonces los tres primeros vectores
columna u
1
, u
2
, u
3
de la matriz P se calculan del siguiente modo:
u
1
=
v
1
|v
1
|
= (1/

2, 1/

2, 0, 0)
u
2
= v
2
< v
2
, u
1
> u
1
= (1, 1, 0, 1) ; u
2
=
u
2
| u
2
|
= (1/

3, 1/

3, 0, 1/

3)
u
3
= v
3
< v
3
, u
1
> u
1
< v
3
, u
2
> u
2
= (0, 0, 1, 0) ; u
3
=
u
3
| u
3
|
= (0, 0, 1, 0).
Del mismo modo,
Ker (A3I) =< (1, 1, 0, 2) >=< v
4
>,
de modo que el vector columna u
4
de P viene dado por
u
4
=
v
4
|v
4
|
= (1/

6, 1/

6, 0, 2/

6) .
6.6. Formas cuadraticas sobre R
n
. Clasicacion. 61
As, la matriz ortogonal
P = (u
1
[u
2
[u
3
[u
4
) =
_
_
_
_
1/

2 1/

3 0 1/

6
1/

2 1/

3 0 1/

6
0 0 1 0
0 1/

3 0 2/

6
_
_
_
_
cumple que A = PDP
t
.
La descomposicion espectral de A es
A = 3u
1
u
t
1
3u
2
u
t
2
3u
3
u
t
3
+ 3u
4
u
t
4
.
En particular, la matriz A se puede escribir como A = 3P
1
+ 3P
2
, donde
P
1
= u
1
u
t
1
+u
2
u
t
2
+u
3
u
t
3
=
_
_
_
_
5/6 1/6 0 1/3
1/6 5/6 0 1/3
0 0 1 0
1/3 1/3 0 1/3
_
_
_
_
;
P
2
= u
4
u
t
4
=
_
_
_
_
1/6 1/6 0 1/3
1/6 1/6 0 1/3
0 0 0 0
1/3 1/3 0 2/3
_
_
_
_
son las matrices de proyeccion sobre los subespacios propios V (3) y V (3) respectivamente.
6.6 Formas cuadraticas sobre R
n
. Clasicacion.
Denicion 6.5 Una forma cuadratica sobre R
n
es una aplicacion : R
n
R denida por
(x) = x
t
Ax, x R
n
,
donde A /
nn
(R) es una matriz simetrica.
Observacion: Si A = (a
ij
) /
nn
(R) entonces la forma cuadratica (x) = x
t
Ax se expresa
como:
(x
1
, x
2
, . . . , x
n
) = (x
1
, x
2
, . . . , x
n
)
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_
_
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
=
n

i,j=1
a
ij
x
i
x
j
.
62 6. Espacios eucldeos
Recprocamente, si tenemos una expresion extendida de la forma cuadratica como la anterior,
podemos encontrar una unica matriz simetrica A /
nn
(R) tal que (x) = x
t
Ax, x R
n
.
Ejemplo:
Sea (x
1
, x
2
, x
3
) = 2x
2
1
+ 3x
2
2
+x
2
3
4x
1
x
2
+ 2x
1
x
3
2x
2
x
3
. Entonces:
(x
1
, x
2
, x
3
) = (x
1
, x
2
, x
3
)
_
_
2 2 1
2 3 1
1 1 1
_
_
_
_
x
1
x
2
x
3
_
_
= x
t
Ax.
Clasicacion de formas cuadraticas.
Denicion 6.6 Sea : R
n
R una forma cuadratica. Diremos que
1. es denida positiva si (x) > 0 , x ,= 0,
2. es denida negativa si (x) < 0 , x ,= 0,
3. es semidenida positiva si (x) 0 , x R
n
,
4. es semidenida negativa si (x) 0 , x R
n
,
5. es indenida en cualquier otro caso, es decir, si existen dos vectores x, y R
n
tales que
(x) > 0 , (y) < 0.
Denicion 6.7 Una matriz simetrica A /
nn
(R) se dice denida positiva, denida negativa,
semidenida positiva, semidenida negativa o indenida seg un lo sea la forma cuadratica
A
:
R
n
R denida por
A
(x) = x
t
Ax.
Formas cuadraticas degeneradas y no degeneradas
Denicion 6.8 Sea A /
nn
(R) una matriz simetrica y sea : R
n
R la forma cuadratica
denida por (x) = x
t
Ax, x R
n
. Se dice que es no degenerada si rg (A) = n. En otro
caso se dice que es degenerada. Observese que es no degenerada si y solo si [A[ , = 0.
Las formas cuadraticas denidas positivas y denidas negativas son siempre no degeneradas,
mientras que las semidenidas son degeneradas. Las formas cuadraticas indenidas pueden ser
degeneradas o no degeneradas, de modo que debe indicarse este aspecto en su clasicacion.
Ejemplos:
1. (x, y, z) = x
2
+ y
2
+ z
2
es denida positiva ya que x
2
+ y
2
+ z
2
0, (x, y, z) R
3
y
ademas x
2
+y
2
+z
2
= 0 x = y = z = 0.
6.6. Formas cuadraticas sobre R
n
. Clasicacion. 63
2. (x, y, z) = x
2
+y
2
z
2
es indenida ya que, por ejemplo, (1, 0, 0) = 1 > 0 y (0, 0, 1) =
1 < 0. Ademas es no degenerada ya que
(x, y, z) = (x, y, z)
_
_
1 0 0
0 1 0
0 0 1
_
_
_
_
x
y
z
_
_
= x
t
Ax,
con [A[ = 1 ,= 0.
Sin embargo, en general es difcil determinar la clasicacion de si aparecen terminos
cruzados. Por ejemplo, la forma cuadratica
(x
1
, x
2
, x
3
) = 2x
2
1
+ 3x
2
2
+x
2
3
4x
1
x
2
+ 2x
1
x
3
2x
2
x
3
es denida positiva, pero no es inmediato deducirlo a simple vista.
Uso de la diagonalizacion ortogonal.
Sea A /
nn
(R) una matriz simetrica. Recordemos que A es ortogonalmente diagonali-
zable, es decir, existen dos matrices P, D /
nn
(R) tales que D es diagonal, P es ortogonal y
A = PDP
t
.
Sea x R
n
. Entonces:
(x) = x
t
Ax = x
t
PDP
t
x = (P
t
x)
t
D(P
t
x).
Si denotamos y = P
t
x entonces la forma cuadratica se escribe en la nueva variable como
(y) = y
t
Dy =
n

i=1

i
y
2
i
,
donde y = (y
1
, y
2
, . . . , y
n
) y
1
,
2
, . . . ,
n
son los autovalores de A contados con su multiplicidad.
De aqu se deduce el siguiente resultado:
Teorema 6.3 Sea A /
nn
(R) una matriz simetrica. Entonces:
1. A es denida positiva si y solo si > 0 , Sp(A).
2. A es denida negativa si y solo si < 0 , Sp(A).
3. A es semidenida positiva si y solo si 0 , Sp(A).
4. A es semidenida negativa si y solo si 0 , Sp(A).
5. En cualquier otro caso, A es indenida.
64 6. Espacios eucldeos
Ejemplo:
La matriz
A =
_
_
2 1 1
1 2 1
1 1 2
_
_
es denida positiva ya que Sp(A) = 1, 4, con m.a. (1) = 2, m.a. (4) = 1.
Uso de los menores principales.
Las formas cuadraticas no degeneradas se pueden clasicar analizando el signo de los me-
nores principales de la matriz.
Teorema 6.4 Sea A /
nn
(R) una matriz simetrica. Las siguientes armaciones son equi-
valentes:
1. A es denida positiva.
2. Todos los autovalores de A son estrictamente positivos.
3. Todos los menores diagonales principales de A son mayores que cero.
Ejemplo: Consideremos la forma cuadratica : R
3
R denida por (x) = x
t
Ax, donde
A =
_
_
2 2 1
2 3 1
1 1 1
_
_
Los menores principales de A son:

1
= 2 > 0

2
=

2 2
2 3

= 2 > 0

3
=

2 2 1
2 3 1
1 1 1

= 1 > 0.
Como todos son positivos, A es denida positiva.
El resultado anterior se puede aplicar tambien a matrices denidas negativas, teniendo en
cuenta que A es denida negativa si y solo si B = A es denida positiva y que si A
k
/
kk
(R)
entonces det(A
k
) = (1)
k
det(A
k
). De este modo se obtiene el siguiente resultado:
Proposicion 6.5 Sea A /
nn
(R) una matriz simetrica. A es denida negativa si y solo si
los menores diagonales principales de orden impar son menores que cero y los de orden par son
mayores que cero.
El uso de los menores pricipales se puede resumir en el siguiente resultado:
6.6. Formas cuadraticas sobre R
n
. Clasicacion. 65
Teorema 6.5 Si [A[ ,= 0 entonces la forma cuadratica (x) = x
t
Ax es no degenerada y solo
puede ser denida positiva, denida negativa o indenida. En este caso, la clasicacion se puede
hacer usando los menores principales:
(a) Si todos los menores principales de A son positivos entonces es denida positiva.
(b) Si los menores principales de orden impar son negativos y los de orden par son positivos
entonces es denida negativa.
(c) En cualquier otro caso, es indenida.
Ejemplo: Consideremos la matriz
A =
_
_
0 1 1
1 0 1
1 1 0
_
_
.
Como [A[ = 2 ,= 0, estamos en el caso no degenerado y solo puede ser denida positiva, denida
negativa o indenida. Como el primer menor principal es
1
= 0, A no puede ser denida
positiva ni denida negativa. En consecuencia, A es indenida. (Alternativamente, se puede
comprobar que Sp(A) = 1, 2, con m.a. (1) = 2, m.a. (2) = 1.)
Otras observaciones utiles.
En el caso degenerado ([A[ = 0) la forma cuadratica (x) = x
t
Ax solo puede ser indenida
o semidenida, pero en este caso la clasicacion no se puede deducir de los menores principales y
en general hay que recurrir al calculo de autovalores. Sin embargo, el siguiente resultado permite
resolver de forma inmediata algunas situaciones.
Proposicion 6.6 Sea A = (a
ij
) /
nn
(R) una matriz simetrica y sea : R
n
R la forma
cuadratica denida por (x) = x
t
Ax, x R
n
.
Si B = e
1
, e
2
, . . . , e
n
es la base canonica de R
n
entonces (e
i
) = a
ii
, i = 1, 2, . . . , n.
Esta proposicion permite llegar a ciertas conclusiones sin mas que observar los elementos
diagonales de A. En particular:
Corolario 6.1 Sea A = (a
ij
) /
nn
(R) una matriz simetrica y sea : R
n
R la forma
cuadratica denida por (x) = x
t
Ax, x R
n
.
Si existen i, j tales que a
ii
> 0, a
jj
< 0 entonces necesariamente es indenida.
Ejemplo: Consideremos la matriz
A =
_
_
1 1 1
1 1 1
1 1 1
_
_
.
Como [A[ = 0, estamos en el caso degenerado y solo puede ser semidenida o indenida. Ahora
bien, como a
11
= 1 > 0, a
22
= 1 < 0, podemos concluir que A es indenida.
66 6. Espacios eucldeos
6.7 Mnimos cuadrados. Ajuste.
Consideremos un sistema de ecuaciones lineales Ax = b, donde A /
pn
(R) y b R
p
. Recor-
demos que la imagen de A es
Im(A) = Ax/ x R
n
R
p
.
La compatibilidad del sistema Ax = b se caracteriza en terminos del subespacio Im(A) de
forma sencilla.
Proposicion 6.7 El sistema Ax = b es compatible si y solo si b Im(A).
Demostracion.
Ax = b es compatible x R
n
/ Ax = b b Im(A). .
En el caso de que el sistema sea incompatible, buscaremos una solucion aproximada. Una
posibilidad es determinar el vector y Im(A) cuya distancia al termino independiente b sea la
menor posible. Los vectores x R
n
tales que Ax = y seran lo que llamaremos soluciones del
sistema Ax = b en el sentido de mnimos cuadrados. As, se tiene la siguiente denicion:
Denicion 6.9 Sean A /
pn
(R) y b R
p
. Se dice que x
0
R
n
es una solucion en el
sentido de mnimos cuadrados del sistema Ax = b si se verica:
|Ax
0
b| = min|Ax b| / x R
n
.
Recordemos que la distancia mnima de b a Im(A) es la distancia de b a la proyeccion
ortogonal de b sobre Im(A) y por tanto x
0
es una solucion de Ax = b en el sentido de mnimos
cuadrados si y solo si v = Ax
0
b es ortogonal al subespacio Im(A). Esto permite probar el
siguiente resultado:
Teorema 6.6 Sean A /
pn
(R) y b R
p
. Un vector x
0
es una solucion en el sentido de
mnimos cuadrados de Ax = b si y solo si
A
t
Ax
0
= A
t
b.
Demostracion. El vector x
0
es solucion de mnimos cuadrados de Ax = b si y solo si (Ax
0
b)
es ortogonal a Im(A), es decir:
Ax, Ax
0
b) = 0 , x R
n
,
lo que equivale a
0 = (Ax)
t
(Ax
0
b) = x
t
A
t
(Ax
0
b) = x, A
t
(Ax
0
b)) , x R
n
.
Esto solo es posible si A
t
(Ax
0
b) = 0, es decir, A
t
Ax
0
= A
t
b. .
6.7. Mnimos cuadrados. Ajuste. 67
Denicion 6.10 El sistema de ecuaciones lineales A
t
Ax = A
t
b cuyas soluciones son las so-
luciones en el sentido de mnimos cuadrados del sistema Ax = b se conoce con el nombre de
sistema de ecuaciones normales del sistema Ax = b.
El siguiente resultado es una consecuencia de que en R
n
siempre es posible calcular la
proyeccion ortogonal de un vector v sobre un subespacio U. Ademas, si v U entonces la
proyeccion ortogonal es el propio v.
Teorema 6.7 Sean A /
pn
(R) y b R
p
. El sistema de ecuaciones lineales A
t
Ax = A
t
b es
un sistema compatible. Ademas:
(1) Si Ax = b es compatible entonces el conjunto de soluciones de A
t
Ax = A
t
b coincide con
el conjunto de soluciones de Ax = b.
(2) Si Ax = b es incompatible entonces el conjunto de soluciones de A
t
Ax = A
t
b coincide con
el conjunto de soluciones de Ax = b en el sentido de mnimos cuadrados.
Ajuste polinomico de datos mediante mnimos cuadrados.
Supongamos que se calcula experimentalmente el valor de una cierta cantidad y que se
supone que es funcion polinomica de otra cantidad x:
y = p(x) = a
0
+a
1
x +a
2
x
2
+ +a
n
x
n
.
Si se realizan k experimentos en los que se obtienen las mediciones y
1
, y
2
, . . . , y
k
para los datos
de entrada respectivos x
1
, x
2
, . . . , x
k
, los coecientes del polinomio p(x) vendran dados por las
soluciones del sistema de ecuaciones lineales
_

_
y
1
= a
0
+a
1
x
1
+a
2
x
2
1
+ +a
n
x
n
1
y
2
= a
0
+a
1
x
2
+a
2
x
2
2
+ +a
n
x
n
2
.
.
.
y
k
= a
0
+a
1
x
k
+a
2
x
2
k
+ +a
n
x
n
k
,
o, en forma matricial,
_
_
_
_
_
1 x
1
x
2
1
x
n
1
1 x
2
x
2
2
x
n
2
.
.
.
.
.
.
.
.
.
.
.
.
1 x
k
x
2
k
x
n
k
_
_
_
_
_
. .
A
_
_
_
_
_
_
_
a
0
a
1
a
2
.
.
.
a
n
_
_
_
_
_
_
_
. .
x
=
_
_
_
_
_
y
1
y
2
.
.
.
y
k
_
_
_
_
_
. .
b
.
Si el sistema Ax = b es compatible entonces la graca del polinomio cuyos coecientes son
la solucion del sistema pasa por todos los puntos (x
1
, y
1
), (x
2
, y
2
), . . . , (x
k
, y
k
). Si no es compati-
ble, la solucion del sistema de ecuaciones normales A
t
Ax = A
t
b proporciona los coecientes del
68 6. Espacios eucldeos
polinomio de grado n que mejor ajusta los datos en el sentido de mnimos cuadrados.
Observacion: Si el polinomio p(x) que buscamos es de grado 1 se dice que el ajuste es lineal. Si
p(x) es de grado 2, se dice que el ajuste es cuadratico.
Ejemplo: Encontrar la recta y la parabola de ajuste en el sentido de mnimos cuadrados para los
siguientes datos:
x 2 1 1 2
y 3 1 1 5
La recta tiene la forma y = a
0
+a
1
x, de modo que buscamos la solucion de mnimos cuadrados
del sistema
_
_
_
_
1 2
1 1
1 1
1 2
_
_
_
_
_
a
0
a
1
_
=
_
_
_
_
3
1
1
5
_
_
_
_
.
Denotando por
A =
_
_
_
_
1 2
1 1
1 1
1 2
_
_
_
_
, b =
_
_
_
_
3
1
1
5
_
_
_
_
,
el sistema de ecuaciones normales A
t
Ax = A
t
b es
_
4 0
0 10
__
a
0
a
1
_
=
_
10
4
_
.
Por tanto, a
0
= 5/2, a
1
= 2/5 y la recta es y =
5
2
+
2
5
x.
Figura 6.1: Aproximaciones lineal y cuadratica de los datos.
Si ahora buscamos la parabola y = a
0
+ a
1
x + a
2
x
2
que ajusta mejor estos datos en el
sentido de mnimos cuadrados, planteamos el sistema
_
_
_
_
1 2 4
1 1 1
1 1 1
1 2 4
_
_
_
_
_
_
a
0
a
1
a
2
_
_
=
_
_
_
_
3
1
1
5
_
_
_
_
.
6.8. Descomposicion en valores singulares. 69
El sistema de ecuaciones normales es
_
_
4 0 10
0 10 0
10 0 34
_
_
_
_
a
0
a
1
a
2
_
_
=
_
_
10
4
34
_
_
,
y tiene como solucion (a
0
, a
1
, a
2
) = (0, 2/5, 1). En consecuencia, la ecuacion de la parabola de
ajuste es
y = a
0
+a
1
x +a
2
x
2
=
2
5
x +x
2
.
En la gura 6.1 se representan los puntos y las aproximaciones lineal y cuadratica. Se observa
que esta ultima es mucho mas precisa.
6.8 Descomposicion en valores singulares.
Sea A /
pn
(R). Entonces A
t
A /
nn
(R) es una matriz simetrica. En particular, todos los
autovalores de A
t
A son reales. Ademas son no negativos:
Proposicion 6.8 Todos los autovalores de A
t
A son mayores o iguales que cero.
Demostracion. Sea Sp(A
t
A) y x un autovector asociado. Entonces:
|Ax|
2
= Ax, Ax) = x
t
A
t
Ax = x
t
x = |x|
2
= =
|Ax|
2
|x|
2
0.
.
Denicion 6.11 Sean A /
pn
(R). Se llaman valores singulares de A a las races cua-
dradas positivas de A
t
A, es decir, si Sp(A
t
A) =
1
, . . . ,
n
entonces los valores singula-
res de A son

1
, . . . ,

n
. Se suelen denotar
1
, . . . ,
n
y se ordenan de tal forma que

1

2

n
0.
Ejemplo: Calcular los valores singulares de
A =
_
_
_
_
0 0 1
1 1 0
1 1 2
1 1 2
_
_
_
_
/
43
(R).
A
t
A =
_
_
0 1 1 1
0 1 1 1
1 0 2 2
_
_
_
_
_
_
0 0 1
1 1 0
1 1 2
1 1 2
_
_
_
_
=
_
_
3 1 0
1 3 0
0 0 9
_
_
.
70 6. Espacios eucldeos
Los autovalores de A
t
A son 2, 4 y 9, de modo que los valores singulares de A son

1
=

9 = 3

2
=

4 = 2

3
=

2.
Una de las principales aplicaciones de los valores singulares es que permiten obtener una
descomposicion de A como suma de r matrices de rango 1, donde r = rg (A).
Teorema 6.8 Descomposicion en valores singulares. Sea A /
pn
(R) con rg (A) = r y
valores singulares no nulos
1

2

r
> 0. Entonces existen dos matrices ortogonales
U /
pp
(R), V /
nn
(R) y una matriz /
pn
(R) tales que A = UV
t
, donde
=
_
D 0
0 0
_
, con D =
_
_
_
_
_

1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
r
_
_
_
_
_
/
rr
(R) .
Ejemplo:
En el ejemplo anterior,
=
_
_
_
_
3 0 0
0 2 0
0 0

2
0 0 0
_
_
_
_
Observacion: El rango de A coincide con el n umero de valores singulares no nulos de A (contados
con su multiplicidad).
Podemos obtener una expresion extendida de la descomposicion en valores singulares de
modo similar al que utilizamos para denir la descomposicion espectral de una matriz simetrica:
Teorema 6.9 Sea A = UV
t
una descomposicion en valores singulares de una matriz A de
rango r. Si u
1
, u
2
, . . . , u
r
y v
1
, v
2
, . . . , v
r
son las r primeras columnas de U y V respectivamente
entonces
A = UV
t
=
1
u
1
v
t
1
+
2
u
2
v
t
2
+ +
r
u
r
v
t
r
.
Denicion 6.12 Sea A =
1
u
1
v
t
1
+
2
u
2
v
t
2
+ +
r
u
r
v
t
r
la descomposicion en valores singulares
de una matriz A de rango r. Si k es cualquier n umero entero positivo menor que r, se llama
aproximacion de rango k de A a la matriz A
k
que se obtiene sumando los k primeros terminos
de la expresion anterior, es decir,
A
k
=
1
u
1
v
t
1
+
2
u
2
v
t
2
+ +
k
u
k
v
t
k
.
6.8. Descomposicion en valores singulares. 71
De entre todas las matrices de rango k que tienen el mismo tama no que A, la matriz A
k
es
la que mas se parece a A en cierto sentido. Concretamente, se puede denir una norma en el
espacio de matrices /
pn
(R) del siguiente modo:
|A| =
1
= max
1
,
2
, . . . ,
n
.
Es decir, la norma de A es el mayor de sus valores singulares. Dicha norma se llama norma
espectral de A.
Se puede probar que |AA
k
| =
k+1
= min |AB| / B /
pn
(R), rg (B) = k .
La descomposicion en valores singulares de una matriz A se suele llamar SVD(A) (las
iniciales de la traduccion al ingles singular value decomposition).
A continuacion se describe el metodo para calcular tanto la SVD de A como sus aproxima-
ciones de rango k para cada k < r.
Calculo de la SVD y la aproximacion de rango k.
Sea A /
pn
(R) con rg (A) = r.
(1) Los vectores v
1
, v
2
, . . . , v
r
se obtienen calculando bases ortonormales de los subespacios
propios asociados a los autovalores no nulos de A
t
A, ordenados de mayor a menor.
(2) Denotemos V = (v
1
[v
2
[ [v
n
) y U = (u
1
[u
2
[ [u
p
). Como A = UV
t
, se deduce que
AV = U y por tanto Av
i
=
i
u
i
, i = 1, 2, . . . , r. En consecuencia, las primeras r
columnas de U se obtienen directamente de las de V mediante las formulas
u
i
=
1

i
Av
i
, i = 1, 2, . . . , r.
(3) Una vez que hemos calculado las r primeras columnas de U y V , podemos obtener la SVD
de A y sus aproximaciones de rango k:
A = (u
1
[u
2
[ . . . [u
r
)
_
_
_
_
_

1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
r
_
_
_
_
_
_
_
_
_
_
v
t
1
v
t
2
.
.
.
v
t
r
_
_
_
_
_
=
1
u
1
v
t
1
+
2
u
2
v
t
2
+ +
r
u
r
v
t
r
;
A
k
= (u
1
[u
2
[ . . . [u
k
)
_
_
_
_
_

1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
R
_
_
_
_
_
_
_
_
_
_
v
t
1
v
t
2
.
.
.
v
t
k
_
_
_
_
_
=
1
u
1
v
t
1
+
2
u
2
v
t
2
+ +
k
u
k
v
t
k
.
72 6. Espacios eucldeos
Ejemplo: Calcular una descomposicion en valores singulares de la matriz
A =
_
_
_
_
0 0 1
1 1 0
1 1 2
1 1 2
_
_
_
_
/
43
(R)
y su aproximacion de rango dos A
2
.
Ya hemos calculado las matrices A
t
A y :
A
t
A =
_
_
3 1 0
1 3 0
0 0 9
_
_
, =
_
_
_
_
3 0 0
0 2 0
0 0

2
0 0 0
_
_
_
_
.
Por tanto, rg (A) = 3 y los vectores v
1
, v
2
, v
3
se obtienen calculando una base ortonormal
de cada uno de los subespacios propios de A
t
A. Dado que
V (9) = Ker (A
t
A9I) =< (0, 0, 1) >,
V (4) = Ker (A
t
A4I) =< (1, 1, 0) >,
V (2) = Ker (A
t
A2I) =< (1, 1, 0) >,
se obtiene sin mas que dividir cada vector por su norma que B
1
= (0, 0, 1) es una base ortonor-
mal de V (9), B
2
= (1/

2, 1/

2, 0) es una base ortonormal de V (4) y B


3
= (1/

2, 1/

2, 0)
es una base ortonormal de V (2).
Por tanto,
V = (v
1
[v
2
[v
3
) =
_
_
0 1/

2 1/

2
0 1/

2 1/

2
1 0 0
_
_
.
Los vectores u
1
, u
2
y u
3
se calculan directamente:
u
1
=
1

1
Av
1
=
1
9
_
_
_
_
0 0 1
1 1 0
1 1 2
1 1 2
_
_
_
_
_
_
0
0
1
_
_
=
_
_
_
_
1/3
0
2/3
2/3
_
_
_
_
;
u
2
=
1

2
Av
2
=
1
4
_
_
_
_
0 0 1
1 1 0
1 1 2
1 1 2
_
_
_
_
_
_
1/

2
1/

2
0
_
_
=
_
_
_
_
0
0
1/

2
1/

2
_
_
_
_
;
u
3
=
1

3
Av
3
=
1

2
_
_
_
_
0 0 1
1 1 0
1 1 2
1 1 2
_
_
_
_
_
_
1/

2
1/

2
0
_
_
=
_
_
_
_
0
1
0
0
_
_
_
_
.
6.8. Descomposicion en valores singulares. 73
La descomposicion en valores singulares de A es A = 3 u
1
v
t
1
+ 2 u
2
v
t
2
+

2 u
3
v
t
3
.
La aproximacion de rango 2 de A se obtiene tomando los dos primeros sumandos en la
expresion anterior:
A
2
= 3u
1
v
t
1
+ 2u
2
v
t
2
= 3
_
_
_
_
1/3
0
2/3
2/3
_
_
_
_
(0, 0, 1) + 2
_
_
_
_
0
0
1/

2
1/

2
_
_
_
_
(1/

2, 1/

2, 0) =
=
_
_
_
_
0 0 1
0 0 0
0 0 2
0 0 2
_
_
_
_
+
_
_
_
_
0 0 0
0 0 0
1 1 0
1 1 0
_
_
_
_
=
_
_
_
_
0 0 1
0 0 0
1 1 2
1 1 2
_
_
_
_
.
74 6. Espacios eucldeos
Referencias
Agunos libros donde buscar mas informacion y, en particular, muchos ejemplos y
aplicaciones del algebra lineal:
D. C. Lay,

Algebra Lineal y sus Aplicaciones (3


a
ed.), Pearson Educacion, 2007.
G. Nakos y D. Joyner,

Algebra Lineal con aplicaciones, Thomson, 1999.


D. Poole,

Algebra Lineal con aplicaciones (2


a
ed.), Thomson, 2007.
75

You might also like