You are on page 1of 206

Ingeniera Matematica

FACULTAD DE CIENCIAS

FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE

Algebra
Lineal 08-2

SEMANA 1: MATRICES

1.
1.1.

Matrices

Definiciones basicas

Definici
on 1.1 (Matriz). Una matriz A, de m filas y n columnas con
(en este apunte
ser
a
o
) es una tabla de
coeficientes en el cuerpo
doble entrada:

a11
..
A= .

am1

a1n
.. ,
.

aij

... amn

i = 1, . . . , m, j = 1, . . . , n.

Notamos tambien la matriz como A = (aij ) y denominamos Mmn ( ) al


conjunto de todas las matrices de m filas y n columnas con coeficientes en
el cuerpo .

(m = m ) (n = n ) (i {1, ..., m}, j {1, ..., n}, aij = bij )


Un caso especial de matrices son aquellas de n 1. Estas matrices se llaan matrimaran posteriormente vectores de n . As nuestros vectores ser
ces de una sola columna.

Construimos una estructura algebraica sobre Mmn ( ) a partir de las operaciones definidas en el cuerpo . Se define la suma de dos matrices como
sigue:
A, B Mmn ( ), A + B = (aij + bij )

Por ejemplo, en ( , +, ):

1
2
3
0 1 2

0 1
3
1

2
2

1 1
3 0

5
.
0

Es facil verificar que

Proposici
on 1.1. (Mmn ( ), +) tiene estructura de grupo Abeliano.
n. La suma es asociativa y conmutativa, como herencia de
Demostracio
las mismas propiedades en el cuerpo .
El neutro aditivo es

0 ... 0

0 = ... . . . ... Mmn ( ).

...

Mmn ( )

Definici
on 1.2 (Igualdad de matrices). Dadas dos matrices A Mmn ( ), B
Mm n ( ), diremos que son iguales si y s
olo si:

Usa estas notas al


margen para consultar de manera
m
as r
apida el material. Haz tambi
en tus propias
anotaciones.

matriz

Departamento de Ingeniera Matematica


- Universidad de Chile

Importante: Visita regularmente


http://www.dim.uchile.cl/docencia/algebra lineal.
Ah encontraras las guas de ejercicios y problemas, ademas
de informacion acerca de cu
al ser
a la dinamica del curso.

A=B

vector de

A+B

0 Mmn ( )

El inverso aditivo de A = (aij ) es A = (aij ). Por ejemplo, en M23 ( ):

=
Luego

ii
11

0+0
i + i

i
0 0
1 i 0

0+0
0+0
=

0
0

=
0 0
0 0

i 0 0
1 i 0

= 0.

Definici
on 1.3 (Producto de matrices). Dadas A = (aij ) Mmr ( ), B =
(bij ) Mrn ( ) se define el producto C = AB como aquella matriz
C Mmn ( ) tal que

cij =

aik bkj ,

i = 1, . . . , m, j = 1, . . . , n.

k=1

Claramente C Mmn ( ).
Ejemplos:

1. En ( , +, ),
A=

1
1

C = AB =

1
1

1 2
M23 ( ), B = 0 2
1 0

1 2 1 0
1 0
1 0
0 2 1 0 =
2 1
2 6
1 0 1 1

1 0
2 1

1 0
1 0 M34 ( )
1 0

0 0
4 1

2. En ( , +, ),
A = (i, i, 0) M13 ( )

i
B = 1 M31 ( )
0

C = AB = i i + i 1 + 0 0 = 1 + i M11 ( ).

Observaci
on: La multiplicaci
on de matrices no es conmutativa.
Por ejemplo en M22 ( ) :

1
0

0
0

0 0
2 0

0 0
,
0 0

0 0
2 0

1
0

0
0

0 0
.
2 0

M24 ( ).

Departamento de Ingeniera Matematica


- Universidad de Chile

i
0 0
i 0 0
+
1 i 0
1 i 0

AB

Proposici
on 1.2.
1. Asociatividad: Si A Mmn ( ), B Mnq ( ), C Mqs ( ), entonces:
A(BC) = (AB)C Mms ( ).

2. Distributividad con respecto a la suma: Dadas A Mmn ( ), B, C


Mns ( ), entonces

A(B + C) = AB + AC Mms ( ).
De igual manera se tiene la distributividad por el otro lado.
n. Demostremos la distributibidad, quedando la asociativiDemostracio
dad de ejercicio. Denominando E = A(B + C), se tiene:
n

eij =

aik (bkj + ckj )


k=1

i {1, ..., m}, j {1, ..., s}.

Como la multiplicaci
on distribuye con respecto a la suma en

eij =

(aik bkj + aik ckj )


k=1
n

aik bkj +
k=1

aik ckj .
k=1

De la definici
on de multiplicaci
on matricial, se obtiene E = AB + AC.

Un caso particular muy importante es el de las matrices cuadradas, es


decir con igual n
umero de filas y columnas. (Mnn ( ), ) admite un neutro
multiplicativo, denominado matriz identidad:

1 0 0
0 1 0
= (ij ), con ij = 0 si i = j
I =
..

1 si i = j.
.
0 0 1

En efecto, dada A Mnn ( ) :

a11
..

AI =
.
an1
n

=(

1
a1n
0
..

... ann
0
...

0
1
..
.
0

0
0

aik kj ) = (aij jj ) = (aij ) = A.

k=1

Conclumos entonces que


3

Departamento de Ingeniera Matematica


- Universidad de Chile

Dos propiedades importantes de la multiplicacion son las siguientes:

Ejercicio

matriz cuadrada
I

Dado que (Mnn ( , ) tiene un elemento neutro I, Tienen sus elementos


inverso?

Definici
on 1.4 (Matriz invertible). A Mnn ( ) es invertible si y
s
olo si existe B Mnn ( ) tal que:

AB = BA = I.

(1.1)

Proposici
on 1.3. De existir una matriz B que satisfaga (1.1), esta es
u
nica. Por ende la notaremos B = A1 .

n. Sean B1 , B2 Mnn ( ) que satisfacen (1.1). Luego


Demostracio
B1 = B1 I = B1 (AB2 ).
Usando la asociatividad de tenemos,
B1 = (B1 A)B2 ,
pero como B1 A = I, se concluye que
B1 = B2 .

Cabe se
nalar que para que A sea invertible se requiere que exista una matriz
B que sea a la vez inversa por izquierda y por derecha. Probaremos mas
adelante que es suficiente que A tenga inversa por un solo lado.
Ejemplos:
No todas las matrices cuadradas tienen inverso multiplicativo. En
1 2
no tiene inverso. En efecto, si existiese
M22 ( ), la matriz
2 4
el inverso,
x1 x2
, debera verificarse:
digamos
x3 x4

1 2
2 4

x1
x3

x1 + 2x3
2x1 + 4x3

x2
x4

x2 + 2x4
2x2 + 4x4

1
0
=

0
1
1
0

0
1

Departamento de Ingeniera Matematica


- Universidad de Chile

Corolario 1.1. (Mnn ( ), +, ) es un anillo con unidad (existe neutro para


).

(Mnn ( ), +, ) es
anillo con unidad

invertible

A1

x2 + 2x4 = 0
2x1 + 4x3 = 0
2x2 + 4x4 = 1

De la primera ecuaci
on multiplicada por 2, obtenemos: 2(x1 + 2x3 ) =
2. Pero de la tercera ecuaci
on, 2x1 + 4x3 = 0. De esta contradicci
on
conclumos que el sistema no tiene solucion.

En otros casos s existe inverso, por ejemplo, en M22 ( ),


0
1
En efecto:

1
0

0 1
1 0

0 1
1 0

0 1
1 0

1
0

0
1

O bien, en M22 ( ),
i
0
0 i

i
0

0
i

lo que se verifica r
apidamente.

1.2.

Matrices Particulares

Definici
on 1.5. Diremos que A Mnn ( ) es:
i = j:

1. Diagonal si y s
olo si aij = 0

A=

a11

diagonal

0
a22

..

ann

En este caso la matriz es notada A = diag(a11 , a22 , . . . , ann ).


2. Triangular superior si y s
olo si aij = 0 si i > j:

a11
0
A=
...
0

a12
a22

..
.

a1n
a2n
.
..
.

ann

3. Triangular inferior si y s
olo si aij = 0 si i < j:
5

Departamento de Ingeniera Matematica


- Universidad de Chile

x1 + 2x3 = 1

diag(a11 , a22 , . . . , ann )


triangular superior

triangular inferior

a11
a21
A=

an1

Ejemplos:

0
A = 0
0

1 2
A = 0 0
0 0

0
a22
..
.

..
.

an2

0
0
.
0

ann

Departamento de Ingeniera Matematica


- Universidad de Chile

0 0
1 0 0
2 0 , I = 0 1 0 son matrices diagonales
0 3
0 0 1

3
0 0 0
son matrices triangulares, superior e inferior
1, B = 1 2 0
respectivamente.
2
2 1 3

Ejercicio

Ejercicio 1.1: Una propiedad que queda propuesta es que si A es


diagonal con aii = 0, para i = 1, . . . , n entonces es invertible, y su
inversa tambien es diagonal con (A1 )ii = a1ii .

Notaci
on:
Dada una matriz A Mmn ( ) notaremos su i-esima fila como:

Ai = (ai1 ai2 . . . ain )


y su j-esima columna:
Aj

a
1j
a2j
=
..
.

amj

Podemos escribir entonces la matriz: A = (A1 , A2 , ..., An ), denominada


notaci
on por columnas. O bien:

A1
A2

A=
... ,

correspondiente a la notaci
on por filas.

Am

Ai

Aj

Ejercicio

AB = (A(B1 ), ..., A(Bp )) ,


es decir la primera columna de AB es la matriz A por la primera
columna de B, etc.

Qu
e hay de las filas de AB?
Definici
on 1.6 (Matriz ponderada). Dada una constante
nimos la matriz A ponderada por :

, defi-

A = (aij ).
Ejemplo:

En M23 ( ):
3

1
2

1 0
2 1

3
6

3 0
6 3

Veamos ahora que sucede al multiplicar por la derecha o izquierda una


matriz por otra diagonal:
DA =

2
0

0
3

1
2

1 2
0 1

2
6

2 4
0 3

constatamos que la primera fila aparece multiplicada por d11 = 2 y la


segunda por d22 = 3.

2 0 0
1
1
2
=
0 1 0 = 2 1 6
AD
2 0 1
4 0 3
0 0 3

Aqu, la primera columna de A aparece multiplicada por 2, la segunda


por 1, la tercera por 3.
En general:

1
0

a
11
.

..
n
an1
0

..

1 a11
a1p
2 a21
.. =

. ..
.
anp
n an1

1 a1p
2 a2p
..
.

n anp

Departamento de Ingeniera Matematica


- Universidad de Chile

Ejercicio 1.2: Con respecto a esta notaci


on, es un buen ejercicio estudiar c
omo el producto de matrices afecta las columnas y filas de las
matrices a multiplicar. M
as precisamente: Sean A Mmn ( ), B
Mnp ( ) y describamos B por sus columnas B = (B1 , B2 , ..., Bp ),
demostrar que entonces

b11
...

bp1

b1n
1
..
.

bpn

0
..

1 b11
= ...

1 bp1

2 b12
..
.

2 bp2

n b1n
..
.

n bpn

De forma mas compacta,

Proposici
on 1.4. Si D = diag(1 , . . . , n ) Mnn ( ), A Mnp ( ), B
Mmn ( ), se tiene que

1 A1

DA = ... ,
(1.2)

n An

BD = (1 B1 , ..., n Bn ).

(1.3)

n. Probaremos (1.2), mientras que (1.3) queda propuesta


Demostracio
como ejercicio.

Sea

D=

0
..

luego,

= (dij );

con dij =

i
0

si i = j
si i = j

(DA)ij =

dik akj = dii aij = i aij ,


k=1

y por lo tanto

AD =

1 a11

...
..
.

1 a1p

n an1

n anp

Otra propiedad, que utilizaremos mas adelante, es la siguiente:


Proposici
on 1.5. El producto de matrices triangulares inferiores (superiores) es triangular inferior (superior).
n. Verifiquemos el caso triangular superior. Sean
Demostracio

a11
0
T1 =
...
0

a22

..
.

b11
a1n
a2n
0
, T2 =
..
...
.
0
ann
8

b22

..
.

b1n
b2n
.
..
.

bnn

Departamento de Ingeniera Matematica


- Universidad de Chile

Ejercicio

aik bkj . Como T1 y T2 son


j=1

triangulares superiores: (ai = 0) (bi = 0) < i. Supongamos j < i,


luego
i1

cij =

aik bkj +
k=1

aik bkj .
k=i

En el primer termino k < i aik = 0. En el segundo termino j < i k


bkj = 0, luego j < i cij = 0. Es decir, la matriz C es tambien triangular
superior.
Notemos ademas que (T1 T2 )ii = aii bii es decir los elementos diagonales
del producto de dos triangulares superiores es el producto de los elementos
diagonales correspondientes.

1.3.

Potencias, traspuestas e inversas

Definimos por recurrencia las potencias de una matriz cuadrada, como sigue:

Definici
on 1.7 (Potencias de una matriz). Dada A Mnn ( )
A0 = I, An = AAn1 ,

n 1.

Ejemplo:

Por ejemplo; dada A M33 ( ):

0 1
A = 2 0
1 1

se tendra

0 1
A2 = AA = 2 0
1 1

0
A3 = AA2 = 2
1

1
0
1

2
0,
2

2
0 1
02 0
2
1 1

2
4 2
00 2
2
4 3


2
4
0 = 0
2
4

2 4
2 4
3 6

4
8 8 16
4 = 8 4 8 .
6
12 10 20

Definici
on 1.8 (Traspuesta). Dada una matriz A = (aij ) Mmn ( ),
se define la traspuesta de A como aquella matriz de nm que denotaremos
por At tal que (At )ij = aji .
Esto corresponde a intercambiar el rol de las filas y columnas. M
as claramente, la primera fila de At es la primera columna de A y as sucesivamente.

Departamento de Ingeniera Matematica


- Universidad de Chile

Luego C = T1 T2 = (cij ), donde: cij =

An

At , traspuesta

1 2
A = 0 1
1 1

0 0
0 1,
0 1

1
2
t
A =
0
0

0
1
0
1

1
1
.
0
1

1
1

A = (1, 1, 0, 0, 1), At = 0 .

0
1

1 2 1
1 2 1
A = 2 0 1 , At = 2 0 1 .
1 1 4
1 1 4

En el u
ltimo caso vemos que A = At .

Definici
on 1.9 (Matriz sim
etrica). Diremos que una matriz A Mnn ( )
es sim
etrica si y s
olo si
A = At
Es f
acil verificar que A es simetrica si y s
olo si:
i, j = 1, .., n

aij = aji

Algunas propiedades de la trasposici


on de matrices son las siguientes:
Proposici
on 1.6.
1. (At )t = A, A Mmn ( ).

2. (AB)t = B t At .

n. Probaremos 2: Sea C = AB, C t = (AB)t . En la posici


Demostracio
on
(i, j) de la matriz C t aparece el termino cji de la matriz C: cji =
t

ajk bki
k=1

Consideremos Z = B A . El termino (i, j) de la matriz Z esta dado por:


n

zij =

(B )ik (A )kj =
k=1

ajk bki = (AB)ji = (C t )ij ,

bki ajk =
k=1

sim
etrica

(AB)t = B t At

3. Si D Mnn ( ) es diagonal, entonces Dt = D.

Departamento de Ingeniera Matematica


- Universidad de Chile

Ejemplo:

k=1
t

luego Z = C , y por lo tanto (AB) = B At .


Algunas propiedades elementales de matrices invertibles son las siguientes
Proposici
on 1.7.
Sean A, B Mnn ( ) invertibles entonces:

1. La inversa de A es invertible y (A1 )1 = A.


10

(A1 )1 = A

3. n 0, (An )1 = (A1 )n .

(AB)1 = B 1 A1

Departamento de Ingeniera Matematica


- Universidad de Chile

2. El producto AB es invertible y (AB)1 = B 1 A1 .

(An )1 = (A1 )n

4. At es invertible y (At )1 = (A1 )t .


n. Veamos:
Demostracio
La propiedad 1 se prueba directamente de la definici
on y de la unicidad de
la inversa (Proposici
on 1.3).
Para 2 se tiene que,
AB(B 1 A1 ) = A(BB 1 )A1 = AIA1 = AA1 = I.
De manera an
aloga se prueba (B 1 A1 )AB = I Como la inversa es u
nica
1
1 1
(AB) = B A .
Para 3, procederemos por inducci
on. Se verifica para n {0, 1}. Supongamos cierto el resultado para n 1 y veamos:
(An+1 )1 = (An A)1 = A1 (An )1 ,
por hipotesis de inducci
on
(An+1 )1 = A1 (A1 )n = (A1 )n+1 .
Para probar 4, notemos que AA1 = I, as trasponiendo nos d
a (AA1 )t =
I t , lo que implica a su vez (A1 )t At = I.
Igualmente se obtiene que At (A1 )t = I. Finalmente, por unicidad de la
inversa: (At )1 = (A1 )t .

(At )1 = (A1 )t

Ejercicio

Ejercicio 1.3: En general el problema de saber si una matriz es invertible o no es un problema difcil. Tendremos que esperar a saber
resolver ecuaciones lineales para obtener un algoritmo eficiente que nos
permitira decidir si una matriz en particular es invertible y obtener su
inversa.
Por el momento nos contentaremos con el siguiente resultado, propuesto
como ejercicio.
Sea A = (aij ) una matriz de permutaci
on, es decir una matriz de
n n con solo 0 y 1 tal que tiene un y s
olo un 1, por cada fila y
columna.
Se tiene que A es invertible y su inversa es A1 = At .

11

permutaci
on

FACULTAD DE CIENCIAS

FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE

Algebra
Lineal 08-2

Ejercicios
1. Demuestre la asociatividad de la multiplicacion de matrices. Es decir, si
A Mmn ( ), B Mnq ( ), C Mqs ( ), entonces:

A(BC) = (AB)C Mms ( ).

2. Pruebe que si A es diagonal (A = diag(a11 , . . . , ann ) Mnn ( )), entonces


A es invertible aii = 0, para i {1, . . . , n}.

Demuestre ademas que, en caso de ser invertible, su inversa es diagonal


con (A1 )ii = a1ii .

3. Sean A Mmn ( ), B Mnp ( ) y describamos B por sus columnas


B = (B1 , B2 , ..., Bn ), demuestre que entonces
AB = (A(B1 ), ..., A(Bn )) .
4. Sea A = (aij ) una matriz de permutaci
on, es decir una matriz de
olo 0s y 1s tal que tiene un y s
olo un 1, por cada fila y
Mnn ( ) con s
columna. Pruebe que A es invertible y su inversa es A1 = At .

5. Se dice que P Mnn ( ) es una matriz de proyeccion si P = P 2 .


(a) Pruebe que si P es matriz de proyeccion, entonces In P es matriz
de proyeccion, donde In es la matriz identidad en Mnn ( ).

(b) Pruebe que P es matriz de proyeccion si y s


olo si P 2 (In P ) = 0
2
y P (In P ) = 0.

(c) Encuentre P M22 ( ) tal que P = P 2 y P 2 (I2 P ) = 0.


Indicaci
on: Considere matrices con coeficientes en {0, 1}.

Problemas

d1

P1. Sea D =

..

Mnn ( ) diagonal, con d1 , . . . , dn distintos

dn
y A, B, M, S Mnn ( ).

(a) Pruebe que si M D = DM , entonces M es diagonal.


(b) Sea S invertible, tal que S 1 AS y S 1 BS son diagonales. Pruebe
que AB = BA. Indicaci
on: Recuerde que el producto de matrices
diagonales conmuta.
(c) Sea S invertible tal que S 1 AS = D. Suponiendo que AB = BA,
verifique que S 1 AS y S 1 BS conmutan y concluya que S 1 BS
es diagonal.
P2. (a) Demuestre que si A, B y (A + B 1 ) son matrices invertibles, entonces (A1 + B) tambien es invertible y su inversa es A(A +
B 1 )1 B 1 .
12

Departamento de Ingeniera Matematica


- Universidad de Chile

Semana 1

Ingeniera Matematica

Proposici
on 1.2

Ejercicio 1.1

Ejercicio 1.2

Ejercicio 1.3

Sea N = C I, donde I es la matriz identidad de nn. Demuestre


que N n = 0.
(c) Demuestre que para las matrices C y N definidas en (b), se tiene
que C es invertible y su inversa es:
C 1 = I N + N 2 N 3 + + (1)n1 N n1 .

P3. (a) Sea A = (aij ) Mnn ( ) una matriz cualquiera. Se define la traza
de A, denotada por tr(A), como la suma de los elementos de la
diagonal principal, es decir,
n

aii .

tr(A) =
i=1

Por otra parte, se define la funci


on f : Mnn ( )

, donde

f (A) = tr(AA ).
Pruebe que:
(1) Dadas A, B Mnn ( ),

tr(AB) = tr(BA).

(2) f (A) 0, A Mnn ( ), ademas muestre que


f (A) = 0 A = 0,

donde 0 es la matriz nula de Mnn ( ).


(3) f (A) = tr(At A).
(b) Sea M Mmn ( ) una matriz tal que la matriz (M t M ) Mnn ( )
es invertible. Definamos la matriz P Mmm ( ) como

P = Im M (M t M )1 M t ,

donde IM es la matriz identidad de orden m.


Pruebe que:
(1) P 2 = P . Muestre ademas que P M = 0, donde 0 Mmn ( )
es la matriz nula.
(2) La matriz (M t M ) es simetrica y muestre que la matriz P es
tambien simetrica.

13

Departamento de Ingeniera Matematica


- Universidad de Chile

(b) Sea la matriz de n y n columnas triangular superior a coeficientes


reales siguiente:

1 1
0
0 ... ... 0
0 1
1
0 . . . . . . 0

..
.. . .
..
..
..
.

.
.
.
.
.

..
.
.
.
.
.
..
..
..
. . ..
.

C=
.
..

..
.

.
1
1
0

.. . . . . . . . . .
0
1 1

..
. ... ... ...
0
0 1


Ingeniera Matematica

SEMANA 2: MATRICES

1.4.

Matrices elementales

Como veremos la resolucion de sistemas de ecuaciones via eliminaci


on de
variables corresponde a premultiplicar (multiplicar por la izquierda) una
cierta matriz por matrices elementales que estudiaremos a continuaci
on.
Hay dos tipos de matrices elementales: elemental de permutaci
on y de
suma.

matrices elementales

Definici
on 1.10 (Matriz elemental de permutaci
on). Una matriz elemental de permutaci
on tiene la siguiente estructura:

1
0
..

.
0

fila p
0 1

..
..

.
1
.

Ipq =
1

..
..

.
1
.

fila q
1 0

..

.
0
0

La matriz Ipq se construye a partir de la identidad, permutando el orden

de las filas p y q.
Ejemplo:

En M44 ( ):

I24

1
0
=
0
0

0
0
0
1

0
0
1
0

0
1
,
0
0

I13

0
0
=
1
0

0
1
0
0

1
0
0
0

0
0
.
0
1

Notemos que toda matriz elemental de permutacion es una matriz de permutacion, pero no al reves. Puedes dar un ejemplo?.
Veamos ahora lo que sucede al multiplicar una matriz A, por la derecha
o izquierda, por una matriz elemental de permutacion Ipq : En el ejemplo

a11
a21
I24
a31
a41

a12
a22
a32
a42


a13
1
a23 0
=
a33
0
a43
0

0
0
0
1

0
0
1
0

0
a11
1 a21

a31
0
0
a41
14

a12
a22
a32
a42


a13
a11
a23 a41
=
a33
a31
a43
a21

a12
a42
a32
a22

Ipq

Ejercicio

anterior, sea A = (aij ) M43 ( )

Departamento de Ingeniera Matematica


- Universidad de Chile

FACULTAD DE CIENCIAS

FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE

Algebra
Lineal 08-2

a13
a43
.
a33
a23

B M34 ( ):

b11
b21
b31

b12
b22
b32

b13
b23
b33

1
b14
0
b24
0
b34
0

0
0
0
1

0
0
1
0


0
b
1 11
= b21
0
b31
0

b14
b24
b34

b13
b23
b33

b12
b22 .
b32

la matriz resultante es B con las columnas 2 y 4 permutadas. En general,


Propiedad 1.1.
Dadas Ipq Mnn ( ), A Mns ( ) y B Mqn ( ):

1. Ipq A corresponde a la matriz A con las filas p y q permutadas.


2. BIpq corresponde a las matriz B con las columnas p y q permutadas.
n. Recordemos que, por ser una matriz de permutacion (EjerDemostracio
1
cicio 1.3), Ipq es invertible y ademas Ipq
= Ipq . En efecto, el multiplicar
por la izquierda Ipq por si misma, corresponde a intercambiar sus filas p y
q, con lo cual se obtiene la identidad.

Tomemos ahora la matriz A M44 ( ) y sea:

1 0
0 1
E2,4 () =
0 0
0

0
0
1
0

0
0

0
1

Esta matriz se construye a partir de la identidad colocando el valor en la


posici
on (4,2) (notar que s
olo la fila 4 es diferente de la identidad).
Al multiplicar por la izquierda A por E2,4 ():

a11
a21
E2,4 ()
a31
a41

a12
a22
a32
a42


a13
1 0
a23 0 1
=
a33
0 0
a43
0

a11
a21

=
a31
a21 + a41

0
0
1
0

a12
a22
a32
a22 + a42

0
a11
0 a21

0
a31
1
a41

a12
a22
a32
a42

a13
a23

a33
a23 + a43

a13
a23
=
a33
a43

La matriz, E2,4 ()A es exactamente la matriz A, excepto por la fila 4, la


cual se obtiene de sumar la fila 4 de A mas la fila 2 de A ponderada por .
En general,

15

Departamento de Ingeniera Matematica


- Universidad de Chile

El resultado consiste en permutar las filas 2 y 4 de A. An


alogamente, sea

Ipq A
BIpq

Ep,q () =

0
.
..

..
.
0

col. p

..

col. q

0
1

..

..
.

..
.
..
.
0

.
1

1
1

..
0

.
1

.
p<q

matriz A Mns ( ); se tiene:

0
a11

0
..

.
1

a
p1

..

..

.
1
.

aq1

1

..
1

.
..

.
an1
1

a11

a1s
..
..

.
.

ap11

ap1s

..
..
=
.

.
.

ap1 + aq1 aps + aqs q

..
..

.
.
an1

ans
o, en notaci
on por filas:

Propiedad 1.2. Dada una

1
..

C = Ep,q ()A =

Ep,q ()

Ep,q () A

Ci = Ai
i = q
Cq = Ap + Aq
Se tiene entonces que el efecto, sobre A, de la premultiplicacion por Ep,q ()
es una matriz que s
olo difiere de A en la fila q: Esta es la suma de la fila p
ponderada por y la fila q.
Es importante observar que la matriz Ep,q () es triangular inferior, que
tiene unos en la diagonal y ademas:

16

Departamento de Ingeniera Matematica


- Universidad de Chile

Definici
on 1.11 (Matriz elemental). Definimos la matriz elemental Ep,q ()
Mnn ( ) como:

a1s
..
.

aps

..
.

aqs

..
.
ans

n. En efecto, sea C = Ep,q ()Ep,q (). Se tendra que C es


Demostracio
la matriz cuya fila q es la suma de la fila p de Ep,q (), ponderada por
y la fila q de Ep,q (). Es decir:
Cq = (0 . . . 0 1 0 . . . 0) + (0 . . . 0 . . . 0 0 . . . 0)

= (0 . . . 0 0 . . . 0) + (0 . . . 0 . . . 0 1 0 . . . 0).

Luego: Cq = (0..,0..,1..,0..,0) ademas i = q Ci es la i-esima fila de la


identidad. Es decir C = I, la matriz identidad

1.5.

Sistemas lineales y escalonamiento de matrices

Las matrices elementales son de gran utilidad en la resolucion de sistemas


de ecuaciones lineales.
Ejemplo:
Consideremos, a modo de ejemplo, el sistema de ecuaciones
x1 + 2x2 + x3 + x4 = 2
2x1 + 3x2 x3
= 1
x1

+ x3 + x4 = 1

(1)
(2)
(3)

Para resolverlo, utilizamos la eliminaci


on de variables, pero en forma
ordenada, desde la primera variable de la izquierda y desde arriba hacia
abajo:
17

(Ep,q ())1 =
Ep,q ()

Departamento de Ingeniera Matematica


- Universidad de Chile

Proposici
on 1.8. Ep,q () es invertible. Su inversa es la siguiente:

1
..

.
0

..

..

1
(Ep,q ()) =

.
1

1
.

..
.

.
1
.

..
..
..

.
.
0
0
0 1

x1 + 2x2 + x3 + x4 = 2
7x2 + x3 + 2x4 = 3
x1

+ x3 + x4 = 1

Luego, multiplicamos la primera por 1 y la sumamos a la tercera:


x1 + 2x2 + x3 + x4 = 2
7x2 + x3 + 2x4 = 3
2x2

= 1

2. Continuamos ahora con x2 , pero a partir de la segunda ecuaci


on.
andola a la tercera se obtiene:
Multiplicando la segunda por 72 y sum
x1 + 2x2 + x3 + x4 = 2
7x2 + x3 + 2x4 = 3
2
4
1
x3 + x4 =
7
7
7
Ya no es posible eliminar mas variables. Ahora, desde la u
ltima
hasta la primera ecuaci
on despejamos en funci
on de x4 :
1
1
4
x3 = x4 = 2x4
2
2
2
1
1
1
1
x2 = (x3 2x4 + 3) = (2x4 + 2x4 + 3) =
7
7
2
2
1
3
1
x1 = 2x2 x3 x4 + 2 = 2 + 2x4 + x4 + 2 = x4 +
2
2
2
Obteniendose la solucion:
3
+ x4
2
1
x2 =
2
1
x3 = 2x4
2
x4 = x4

x1 =

As, para cualquier valor real de x4 , obtenemos una solucion del


sistema. Existen entonces, infinitas soluciones, dependiendo de la
variable x4 . La variable x4 se denomina independiente o libres.
Veamos ahora, en general, que es un sistema de ecuaciones,

18

Departamento de Ingeniera Matematica


- Universidad de Chile

1. Eliminamos la variable x1 en las ecuaciones (2) y (3): para ello


multiplicamos la primera por dos y la sumamos a la segunda obteniendo:

a11 x1 + + a1n xn = b1
..
..
..
.
.
.
am1 x1 + + amn xn = bm
en donde los coeficientes, aij , y el lado derecho, bj , son elementos del cuerpo

Definiendo la matriz:

a11
..

A=
.
am1

a1n
..
Mmn ( )
.
amn

la m-tupla (lado derecho) y la n tupla de inc


ognitas

x1
b1
..
..
m

, x=
b=

.
.
xn
bm

Podemos escribir el sistema matricialmente:


Ax = b,

Realizar el procedimiento de eliminaci


on de variables descrito en el ejemplo precedente, con el fin de resolver el sistema, es equivalente a producir
ceros en la matriz aumentada con la columna lado derecho, (A|b)
Mm(n+1) ( ). En el ejemplo anterior:

1 2 1 1 2
2 3 1 0 1
(A|b) =
1 0 1 1 1

Eliminar x1 de la segunda ecuaci


on es equivalente a producir un cero en
la posici
on (2,1) de (A|b). Para ello se multiplica la primera fila por 2 y se
suma a la segunda fila. Para eliminar x1 de la tercera ecuaci
on se multiplica
la primera fila por 1 y se suma a la tercera

1 2 1 1 2
1 2 1 1 2
(A|b) 0 7 1 2 3 0 7 1 2 3
1 0 1 1 1
0 2 0 0 1

Eliminar x2 en la tercera ecuaci


on a partir de la segunda es equivalente a
multiplicar la segunda fila por 27 y sumarla a la tercera:

1 2 1 1 2
b)
0 7 1 2 3 = (A|
2
1
4
0 0 7 7 7
19

Departamento de Ingeniera Matematica


- Universidad de Chile

Definici
on 1.12 (Sistema de ecuaciones). Un sistema de m ecuacionesy n inc
ognitas consiste en el siguiente conjunto de ecuaciones en las variables x1 , ..., xn :

sistema de ecuaciones

Ax = b

matriz aumentada,
(A|b)

Sumar a una fila q, la fila p ponderada por un n


umero

De la definici
on de matrices elementales sabemos que esto es equivalente
a premultiplicar por la izquierda por la matriz Ep,q (). Veamos esto en el
mismo ejemplo.
Ejemplo:
1. Producir un cero en la posici
on

1 0
E1,2 (2)(A|b) = 2 1
0 0

1 2
= 0 7
1 0

(2,1) de (A|b):

0
1 2 1 1 2
0
2 3 1 0 1
1
1 0 1 1 1

1 1
1 2
1 1

2
3
1

2. Producir un cero en la posici


on (3,1):

1 0 0
1 2
E1,3 (1)E1,2 (2)(A|b) = 0 1 0 0 7
1 0 1
1 0

1 2 1
= 0 7 1
0 2 0

1 1
1 2
1 1

2
3
1

1 1
2 3
0 1

3. Producir un cero en la posici


on (3,2) desde la posici
on (2,2):

1 2 1 1 2
1 0 0
E2,3 ( 72 )E1,3 (1)E1,2 (2)(A|b) = 0 1 0 0 7 1 2 3
0 2 0 0 1
0 27 1

1
= 0
0

2
7
0

1
1

1
2

2
7

4
7

2
3

17

Se concluye entonces que la operaci


on de eliminaci
on de variable puede
realizarse mediante la pre-multiplicaci
on de (A|b) por matrices elementales.
20

Departamento de Ingeniera Matematica


- Universidad de Chile

= b.
As, el sistema inicial es equivalente al sistema Ax
Conviene se
nalar que en el procedimiento anterior la operaci
on de base ha
sido:

Vemos que, como a22 = 0, no es posible producir ceros en la segunda


columna, a partir de a22 . Luego intercambiamos el orden de las filas (claramente esto no cambia el sistema de ecuaciones asociado). Por ejemplo,
colocamos la cuarta fila en la segunda posici
on y la segunda en la cuarta.
Esto es equivalente a premultiplicar por I24 :

1 0 0 0
1 1 1 1
1 1 1 1
0 0 0 10 0 1 1 0 2 0 1
I24 (A|b) =

=
,
0 0 1 0
0 1 0 1
0 1 0 1
0 1 0 0
0 2 0 1
0 0 1 1

lo cual nos permite seguir produciendo ceros. Consideremos ahora A

Mmn ( ), definimos la matriz escalonada asociada


A Mmn ( ), tal que:
a
11 a
12 a
1i2
a
2i2

..

A=
a
sis

a la matriz A, como

a
1n
a
2n
..

a
sn .

donde los elementos a


11 = 0, a
2i2 = 0, ..., asis = 0, se denominan pivotes.
Notar que hemos supuesto que la primera columna no tiene ceros. De no
ser as, quiere decir que la primera variable no juega ningun rol, y por lo
tanto si el sistema tiene solucion esta variable queda de inmediato libre.
Supondremos en lo que sigue que la primera columna no es cero.
Observaci
on: No hay una u
nica manera de escalonar una matriz. En
efecto en el u
ltimo ejemplo podramos haber permutado las filas 2 y 3
en vez de las 2 y 4.
Hay dos cosas que son importantes de resaltar a este respecto:
1. Desde el punto de vista de sistemas de ecuaciones no hay diferencia entre un escalonamiento u otro: todos dan el mismo conjunto
solucion (probablemente descrito de distinta manera).
2. Es preferible por otras razones (te
oricas, como son el calculo del
determinante y la determinaci
on de matrices definidas positivas)
tratar de no utilizar permutaciones .

21

Departamento de Ingeniera Matematica


- Universidad de Chile

Hay casos en que tambien es necesario utilizar matrices de permutacion de


filas. Por ejemplo, si se tiene:

1 1 1 1
0 0 1 1
(A|b) =

0 1 0 1
0 2 0 1

matriz escalonada, A

pivotes

donde Ej es una matriz elemental de suma o de permutacion de filas.


Ademas, recordemos que las matrices elementales son invertibles. Esta propiedad es crucial para probar que el sistema original, Ax = b, y el obtenido
= b, son equivalentes (tienen identico condespues del escalonamiento, Ax
junto de soluciones). En efecto:
Proposici
on 1.9. Dada una matriz C, invertible entonces:
a K n es soluci
on de Ax = b a es soluci
on de (CA)x = Cb.
n. La demostracion es simple:
Demostracio
) Si Aa = b, entonces C(Aa) = Cb y por ende (CA)a = Cb.
) Supongamos (CA)a = Cb. Como C es invertible se tiene C 1 (CA)a =
C 1 (Cb), lo cual implica que Aa = b.
Como las matrices elementales son invertibles y el producto de matrices
invertibles tambien lo es, y por lo tanto podemos usar la Proposici
on 1.9
= b son
con C = j Ej , para concluir que los sistemas Ax = b y Ax
equivalentes.

22

Departamento de Ingeniera Matematica


- Universidad de Chile

La matriz A se obtiene mediante la premultiplicacion de A por matrices


elementales:
A = ( Ej )A,

FACULTAD DE CIENCIAS

FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE

Algebra
Lineal 08-2

Ejercicios
1. Encuentre un ejemplo de una matriz que sea de permutacion, pero no
sea matriz elemental de permutaci
on.

2. Dadas Ipq Mnn ( ) y B Mqn ( ), pruebe que BIpq corresponde a


las matriz B con las columnas p y q permutadas.
Indicaci
on: Puede usar la parte 1 de la Proposici
on 1.1.
3. Escriba los siguientes sistemas de ecuaciones en las variables xi , de forma
matricial Ax = b, especificando claramente A, b y x con sus dimensiones:

2x1 + 4x2 x3 + x5 = 0

x1 16x2 + x3 + 3x4 + 6x5 = 2


(a)
1

3 x2 10x3 + x4 6x5 = 2x3

x1 x3 x4 + 43 x5 = 1

x4 + x1 = 3

4x1 7x2 + x3 12x4 = 1


(b)
11 = x3

1
(x

x
)
+
x

x5 = 20
1
3
4
3

x1 ( 1)x2 + x3 x4 = 2
7x2 + x3 = + , con , .
(c)

= 3
3 x1 x2 + x4

2x1 = 1

4x2 = 2
(d)
9x3 = 0

3
2 x4 = 1

4. Escriba explcitamente las siguientes multiplicaciones de matrices:

(a) I12 E13 (1, 1), en M44 ( ). (d) E23 (0, 3i)1 E12 (1, i)E34 ( 12 , 3),
en M44 ( ).
(b) I34 E23 (i, 2)I34 , en M44 ( ).
(c) E12 (2, 1)E13 (1, 1), en M33 ( ).

Problemas

1
..
P1. Sea J Mnn ( ) tal que J = .

..
.

(a) Pruebe que Je = ne y J 2 = nJ.

(b) Sea =
(c) Sea =

1
n.
1
n,


1
1
.. y e = .. .
.
.
1

Calcule tal que (I J)1 = I + J.


verifique que (I J)e = 0.

P2. (a) (1) Sean A, B matrices de n m con coeficientes reales. Pruebe


que

A = B x Mm1 ( ), y Mn1 ( ) xt Ay = xt By.


23

Departamento de Ingeniera Matematica


- Universidad de Chile

Gua
Semana 2

Ingeniera Matematica

Pag. 12

Propiedad 1.1

A = B x Mn1 ( ) xt Ax = xt Bx.
(b) Demuestre que si una matriz cuadrada A verifica Ak = I, para
alg
un natural k 1, entonces A es invertible y determine su
inversa.
x y
(c) Encuentre todas las matrices de la forma A =
que cum0 y
plen A2 = I (x, y, z ).

P3. Considere el siguiente sistema lineal:


x1
x1
x1
x1

x2
2x2
4x2

+
+
+
+

x3
x3
x3
2x3

+
+

2x4
2x4
3x4
4x4

= 1,
= 1 ,
= 2,
= 5.

(a) Escriba el sistema de forma matricial Ax = b. Especifique claramente A, b y x, junto con sus dimensiones.
(b) Resuelva es sistema lineal escalonando la matriz aumentada (A|b).
P4. Considere el siguiente sistema lineal:
x1
x1

+
+

2x1

2x2
x2
3x2
x2

3x3

+
+

3x3
3x3

x4
x4

2x4

= 1,
= 1,
= 0,
= 2 .

(a) Escriba el sistema de forma matricial Ax = b. Especifique claramente A, b y x, junto con sus dimensiones.
(b) Resuelva es sistema lineal escalonando la matriz aumentada (A|b).

24

Departamento de Ingeniera Matematica


- Universidad de Chile

Indicaci
on: Calcule etj Aei donde ej = (Im )j y ei = (In )i . Im
y In son las identidades de tama
nos m y n respectivamente.
(2) Sean A, B matrices de nn simetricas con coeficientes reales.
Pruebe que


Ingeniera Matematica

SEMANA 3: MATRICES

1.6.

general de sistemas lineales


Solucion

m, x n, al escalonarlo

Dado el sistema Ax = b, A Mmn ( ), b


(escalonando (A|b)) obtenemos:

a
11
a
1i2

0 0 a
2i2

..
..
..
..
.
.
.
.

b) =
(A|
0

0
0

a
sis

0 0
0

.
.
..
..
0

a
1n
..
.
..
.
a
sn
0
..
.
0

b1
..
.

..
.

bs .

bs+1

..
.
bm

sis son no nulos. Claramente, si existe


donde los elementos a
11 , a
2i2 , . . . , a
un ndice j s + 1 tal que bj = 0, el sistema no tiene solucion, ya que se
tendra una ecuaci
on incompatible: 0 = bj = 0.
Luego, el sistema tiene solucion si y solo si bk = 0 k s + 1. En efecto, si
bk = 0, k s + 1, se obtiene la(s) solucion(es) despejando desde la s-esima
ecuaci
on hasta la primera en funci
on de las variables independientes. En este
caso diremos que el sistema es compatible. Cada una de las diferencias en
el n
umero de columnas que son cero bajo las filas sucesivas, las llamaremos
pelda
nos o escalones . As el pelda
no que se produce entre la fila k y k+1
es ik+1 ik . Notar que el u
ltimo pelda
no es: n + 1 is , es decir los pelda
nos
se miden en la matriz aumentada. La importancia de estos pelda
nos es la
siguiente:
Proposici
on 1.10. Si existe soluci
on para el sistema Ax = b y en la matriz A hay alg
un pelda
no de largo mayor o igual a dos, entonces existe m
as
de una soluci
on.

n. En efecto. Como por cada fila no nula de la matriz esDemostracio


calonada podemos despejar a lo mas una variable, tendremos entonces que
dejar libres tantas variables como n
umero de pelda
nos, menos uno.
Un corolario directo del resultado anterior es
Corolario 1.2. Si el sistema Ax = b es tal que n > m (n
umero de inc
ognitas mayor que el n
umero de ecuaciones), entonces tiene infinitas soluciones,
si es compatible.
n. En efecto, como n > m siempre existe en la matriz esDemostracio

calonada, A, un pelda
no de largo superior o igual a dos. De no ser as se

25

Departamento de Ingeniera Matematica


- Universidad de Chile

FACULTAD DE CIENCIAS

FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE

Algebra
Lineal 08-2

sistema compatible
pelda
nos

escalones

de donde m = n.

a
11
0
.

A = ..
.
..
0

a
12
a
22
0
..
.
0

..
.
0

a
1n
a
2n
..

.
..
.
a
mn

Un caso particular importante es cuando el lado derecho del sistema es


nulo, b = 0. Hablamos entonces de un sistema homog
eneo , Ax = 0.
Vemos que, en este caso, siempre existe al menos una solucion, la trivial
x = 0 n . En otras palabras sabemos de antemano que todo sistema
homogeneo es compatible.
Podemos resumir nuestro estudio de sistemas en el cuadro siguiente:

sistema homog
eneo

Dimensiones
N
umero Soluciones

Sistema Homogeneo (b = 0)
nm
n>m
1,

Sistema no-Homogeneo (b = 0)
nm
n>m
0, 1,
0,

Ejemplo:
Resolvamos el sistema

1 1
1 2

0 1
1 1
Escalonando:


x1

1 1 1
1
x2
0 1 0 0
x =
1 0 1 3
0
x4
1 1 0
1
x5

1 1 1
1 1 1 1 1 1
0 1 1
0 3 1 0 1 1

0 1 0
0 0 23 0 32 31
0 0 23 0 13 32
0 1 0

1 1 1 1 1 1
0 3 1 0 1 1

0 0 32 0 23 13
0 0 0 0 1 1
Obtenemos que los pelda
nos medidos desda la fila 1 son sucesivamente:
1,1,2,1. De la u
ltima ecuaci
on despejamos x5 = 1.
Con esta informaci
on en la tercera ecuaci
on dejamos libre x4 y despejamos x3 . En la segunda ecuaci
on despejamos x2 y finalmente de la
primera despejamos x1 , para obtener.
1 1
0 3
(A|b)
0 1
0 2

x5 = 1
x4 :

1
1
1
0

libre
3 1 2
1
1
1
x3 = ( x5 ) = x5 = + 1 =
2 3 3
2
2
2
1
1
1
1
x2 = (1 x3 x5 ) = (1 + 1) =
3
3
2
2
1 1
x1 = 1 x2 x3 x4 x5 = 1 x4 + 1 = 1 x4
2 2
26

Departamento de Ingeniera Matematica


- Universidad de Chile

tendra

1.7.

Sistemas cuadrados y Algoritmo de Gauss

Supongamos que el n
umero de ecuaciones es igual al n
umero de inc
ognitas
(n = m), en este caso el sistema se escribe:
Ax = b,

A Mnn ( ), x, b

Escalonemos el sistema y sea A la matriz escalonada, sin considerar el nuevo


lado derecho b:

a
11 a
1n
.
..
..
A =
.
0
a
nn

donde entre los elementos de la diagonal, a


ii , podra haber algunos nulos.
Se
nalemos que en el caso de matrices cuadradas el proceso de escalonamiento se denomina
Algoritmo de Gauss. Un resultado importante, que relaciona matrices
invertibles, solucion de sistemas y el algoritmo de Gauss, es el siguiente:

Teorema 1.1. Sea A Mnn ( ), entonces las proposiciones siguientes


son equivalentes:
1. A es invertible.
2. b

n, Ax = b tiene solucion unica.

a
ii = 0.

3.
i=1

n. Utilizamos un argumento de transitividad para probar


Demostracio
solamente que:
(1 2). Si A es invertible consideremos entonces A1 . As (A1 A)x =
A1 b y luego x = A1 b, por ende el sistema tiene solucion y claramente
esta es la u
nica.
En efecto si x1 , x2 n son soluciones, entonces Ax1 = Ax2 = b y se
tendra multiplicando por A1 que (A1 A)x1 = (A1 A)x2 , pero entonces
x1 = x2 .

(2 3). Sea A la matriz escalonada asociada a A y supongamos que para


alg
un i: a
ii = 0. Esto quiere decir que alguno de los escalones tiene largo
mayor o igual que 2 y por lo tanto el sistema homogeneo Ax = 0 tiene
infinitas soluciones (por Proposici
on 1.10) lo que es una contradicci
on. Por
n
lo tanto para todo i = 1, . . . , n a
ii = 0 o equivalentemente i=1 a
ii = 0.

27

Departamento de Ingeniera Matematica


- Universidad de Chile

La solucion general es: x1 = 1 x4 , x2 = 12 , x3 = 21 , x4 = x4 , x5 = 1


Existen entonces infinitas soluciones, una por cada valor de la variable
independiente x4 .

Algoritmo de Gauss

a
ii = 0, esto quiere decir que los elementos diai=1

gonales de A son todos no nulos.


Notemos que A = ( j Ej )A, donde las matrices Ej son elementales y por
lo tanto invertibles. Podramos ahora escalonar hacia arriba la matriz A
para obtener de manera similar una matriz diagonal D. Esto lo podemos
Es decir
hacer de manera que D tenga por diagonal la misma que A.


a
11
0
.
..
..
D = ..
Ej A
=
Fk ,
.
.
j
k
0 a
nn

donde las matrices Fk son del mismo estilo que las matrices elementales
que hemos usado. Sabemos entonces que las matrices D, E = j Ej y F =
1
DF 1 concluimos que A tambien es
k Fk son invertibles y como A = E
invertible.
Como corolario importante de lo demostrado en esta parte es que:

Corolario 1.3. Una matriz triangular superior es invertible si y s


olo si
todos sus elementos diagonales son distintos de cero.
Observaci
on: Notemos que pasando por la traspuesta se deduce que
si A es triangular inferior entonces es invertible si y solo si todos sus
elementos diagonales son distintos de cero. M
as a
un la inversa de una
triangular inferior es triangular inferior. En efecto, si aplicamos el algoritmo de escalonamiento sin permutar obtendremos:

a11
0
r
.
.
..
.. = (
Ej )A,
A = ..
.
j=1
0 ann
donde r es el n
umero de pasos tomados por el algoritmo y las matrices
elementales Ej son del tipo Epq (, 1). Notar que los pivotes son los
elementos de la diagonal de A. Como la inversa de cada Ej es del
mismo tipo se deduce que
1

(Ej )1 )A.

A=(
j=r

1 (
A1 = (A)

Ej ),

j=1

y por lo tanto la inversa de A es triangular inferior y ademas sus elementos diagonales son 1/aii i = 1, .., n. Notar que el producto de las
inversas en la expresi
on anterior est
a tomado en sentido opuesto:
1

(Ej )1 .

Ej )1 =
j=r

j=1

28

Departamento de Ingeniera Matematica


- Universidad de Chile

(3 1). Supongamos

1.8.

Calculo
de la inversa

Supongamos que dada una matriz cuadrada A de tama


no n, buscamos una
matriz Z de n n tal que AZ = I. Si describimos Z por sus columnas,
esto es Z = (Z1 Zn ) entonces la ecuaci
on AZ = I es equivalente a los
n sistemas
con i {1, . . . , n}, y ei la i-esima columna de I.

AZi = ei ,

Probemos ahora que,


Proposici
on 1.11. Si los n sistemas anteriores tienen soluci
on, entonces
A es invertible y adem
as A1 = Z.
n. Para ello probemos primero que b
Demostracio
b tiene solucion.

n el sistema Ax =

En efecto sea b = (b1 bn )t un elemento de n , y consideremos a =


b1 Z1 + bn Zn n . Utilizando las propiedades de la suma, multiplicacion y ponderaci
on de matrices se obtiene que

Aa = A(b1 Z1 + b2 AZ2 + bn Zn ) = b1 AZ1 + b2 AZ2 + bn AZn





b1
0
0
1
0 b2
1
0
. .
.
.
.
.
.
= b1
. + b2 . + bn . = ..
0 b
0
0

n1

bn

y por lo tanto a es una solucion del sistema Ax = b.

= b,

Si A no fuese invertible esto quiere decir que al escalonar A, se tendra que

alg
un a
ii = 0. Consideremos las filas i e i + 1 de A:
..
.

A

A = i =
Ai+1
..
.

0
0

0
0

..
.
a
ii = 0 a
ii+1
0
a
i+1i+1
..
.

a
in
a
i+1n

Si a
ii+1 = 0, a
i+1i+1 = 0 habramos permutados las filas y por lo tanto
la matriz escalonada tendra un 0 en la posici
on (i + 1, i + 1), lo que es
una contradicci
on. Si a
ii+1 = 0 entonces podemos utilizar este elemento
para escalonar hacia abajo y por lo tanto a
i+1i+1 = 0. En cualquier caso
se deduce que a
i+1i+1 = 0, y por un argumento de inducci
on que a
nn = 0,
29

Departamento de Ingeniera Matematica


- Universidad de Chile

Pasando por la traspuesta podemos deducir que la inversa de una triangular superior tambien es triangular superior.

Definamos
de A a A.


0
0
.
.
b = C 1
. .
0

1
Si consideramos el sistema Ax = b tendremos que al escalonar la matriz
aumentada (A|b) se obtendr
a una matriz escalonada (usando las mismas
operciones elemementales)
..
.
0

b) = C(A|b) =
(A|

..
.
1

lo que representa un sistema incompatible y por lo tanto Ax = b no puede


tener solucion. Hemos obtenido una contradicci
on y por lo tanto la u
nica
posibilidad es que i = 1, .., n a
ii = 0, y por lo tanto A es invertible. Ahora
de AZ = I se obtiene premultiplicando por A1 que Z = A1 .
Notemos que de paso se ha probado el siguiente resultado interesante

olo si todo
Corolario 1.4. Una matriz A Mnn ( ) es invertible si y s
sistema Ax = b tiene soluci
on.
Lo que a su vez es equivalente a todo sistema Ax = b tiene soluci
on
u
nica, por lo probado anteriormente.

Departamento de Ingeniera Matematica


- Universidad de Chile

esto es toda la u
ltima fila de A debe ser 0. Consideremos ahora la matriz
invertible C = Ej , donde A = CA, es decir la matriz que permite pasar

Ejercicio

Ejercicio 1.4: Que puede decir de una matriz cuadrada A para la


cual todo sistema Ax = b tiene a lo mas una solucion?. Debe ser A
invertible?. Pruebelo.

Para saber si una matriz es invertible hemos entonces probado que basta
estudiar n sistemas lineales. Para el c
alculo de la inversa podemos ir un
poco mas lejos. Consideremos el siguiente ejemplo:
Ejemplo:

luego:

0 1 1
A = 1 1 2
1 1 0

0 1 1
(A|I) = 1 1 2
1 1 0
30

1 0
0 1
0 0

0
0
1

1 1 0 0 0 1
1 1 0 0
(A|I) 1 1 2 0 1 0 0 2 2 0
0 1 1 1 0 0
0 1 1 1

1 1 0 0 0 1
0 2 2 0 1 1
0 0 2 1 21 12

0 1
1 1
0 0

En este paso ya estamos en condiciones de resolver los tres sistemas. Pero


podemos a
un pivotear, ahora sobre la diagonal; sin alterar la solucion
(ya que multiplicamos por matrices invertibles):

1 1 0 0 0 1
1 0 1 0 21 12
0 2 2 0 1 1 0 2 2 0 1 1
0 0 2 1 12 12
0 0 2 1 21 12

1 0 0 21 14 34
1 0 1 0 12 12
0 2 0 1 21 21 0 2 0 1 21 12
0 0 2 1 12 21
0 0 2 1 21 12
Finalmente, premultiplicando por la matriz invertible:

1 0 0
D = 0 21 0
0 0 12

Se tiene:

1 0
= 0 1
(I|I)
0 0

0 12 41 43
0 12 14 41
1 12 14 41

Obteniendo los sistemas de solucion trivial:


1

1
3
x11
2
x12
x13
4
4
I x21 = 12 , I x22 =
14 , I x23 = 14 ,
1
1
x31
14
x32
x33
2
4

de donde:

X = A1

1 1
2 4
= 12 41
1
2

En efecto:
AA1

3
4
1
4
1
1
4 4

1 1 3
0 1 1
2 4 4
1
= 1 1 2 12 41 14 = 0
1
1
1
1 1 0
0
2
4 4

0 0
1 0
0 1

Luego para calcular la inversa de A Mnn ( ) basta aplicar el Algoritmo


de Gauss sobre la matriz (A|I). Una vez que se ha obtenido la matriz
31

Departamento de Ingeniera Matematica


- Universidad de Chile

Escalonando:

Que sucede si una matriz A no es invertible?


Sabemos que necesariamente aparecer
a, al escalonar, un pivote nulo irreparable.
Ejemplo:

0 2 1 0 0
1
1 2 0 1 0 y 0
0 2 0 0 1
0


1
0
= 1 , Ax
= 0 son
y los sistemas Ax
1
1
1
(A|I) = 1
1

0 2 1 0
1 0 1 1
0 0 1 0

0
0
1

incompatibles.

Pero, en ocasiones, hay pivotes nulos reparables.


Ejemplo:

1 1
1 1
1 0

1 1
0 0
0 0

0
1
0

0
1 1 1 1 0
0 0 0 1 1 1
1
0 1 1 1 0

0
0
1

Aca el elemento a
22 = 0, pero podemos, premultiplicando por la matriz
de permutaci
on I23 , intercambiar las filas 2 y 3 obteniendo:

1 1 1 1 0 0
1 0 0 0 0 1
1 0 0 0 0 1
0 1 1 1 0 1 0 1 1 1 0 1 0 1 0 0 1 1
0 0 1 1 1 0
0 0 1 1 1 0
0 0 1 1 1 0

1 0 0 0 0 1
0 0 1
0 1 0 0 1 1 A1 = 0 1 1 .
0 0 1 1 1 0
1 1 0
Ejemplo y ejercicio importante: Descomposici
on LDU .
Supongamos que al escalonar A Mnn ( ) no encontramos pivotes nulos
(no permutamos filas!). Se obtiene entonces

a
11 a
1p

..
= ( Ej )A

a
nn

donde cada una de las matrices Ej es de la forma:

1
..

.
0

..

.
0
1
32

Departamento de Ingeniera Matematica


- Universidad de Chile

realizar el mismo procedimiento para los elementos


triangular superior A,
sobre la diagonal. Finalmente, se premultiplica por una matriz diagonal

para obtener la identidad en el lugar de A.

Ejercicio
LU , LDU

Ej es invertible y su inversa es triangular


j

inferior con 1s en la diagonal. Digamos:

1
..

.
21
1
( Ej ) = L = .
..
..

.
j
n1 nn1

0
..
.
..
.
1

Despejamos entonces A:

A=(
j

Ej )1

a
n

..
.

a
1n

a
nn

1. Concluya que si al escalonar A no se realizan permutaciones, A


puede factorizarse como el producto de una matriz L, triangular
inferior con unos en la diagonal, y una matriz U , triangular superior, donde los pivotes figuran en la diagonal. Esta factorizaci
on
se llama descomposici
on LU .
2. Recordando que

21
A= .
..
n1

..

n
i=1

a
ii = 0, demuestre que:

0
..
.
nn1

11
a

..

1
0
.
.

a
nn

a
12
a
11

..

a
1n
a
11

a
n1n
a
n1n

(1.4)
Es decir, A admite una factorizaci
on A = LDU , en donde L es
triangular inferior con unos en la diagonal, D es diagonal (formada por los pivotes del escalonamiento) y U es triangular superior
con diagonal de unos. Esta factorizaci
on se llama descomposici
on
LDU .
3. Demuestre que si A admite la descomposici
on LDU de (1.5), entonces la descomposici
on es u
nica.
4. Demuestre ademas que si A es simetrica, entonces L = U t .
5. Encuentre la descomposici
on LDU de

1 1 1
A = 0 1 1 .
1 2 0

33

..
.

Departamento de Ingeniera Matematica


- Universidad de Chile

1. Pruebe que la matriz

FACULTAD DE CIENCIAS

FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE

Algebra
Lineal 08-2

Ejercicios
1. Que puede decir de una matriz cuadrada A para la cual todo sistema
Ax = b tiene a lo mas una solucion?. Debe ser A invertible?. Pruebelo.

Ejercicio 1.4

2. Supongamos que al escalonar A Mnn ( ) no encontramos pivotes nulos


(no permutamos filas!). Se obtiene entonces

a
11 a
1p

..

= ( Ej )A
.
0

LU, LDU

a
nn

donde cada una de las matrices Ej es de la forma Epq (, 1), con

Ej es invertible y su inversa es triangular

a) Pruebe que la matriz


j

inferior con 1s en la diagonal. Digamos:

1
..

.
21
( Ej )1 = L = .
..
..
.
j
n1 nn1

0
..
.
..
.
1

Despejamos entonces A:

A=(
j

a
n

Ej )1

..
.

a
1n

a
nn

a) Concluya que si al escalonar A no se realizan permutaciones, A


puede factorizarse como el producto de una matriz L, triangular
inferior con unos en la diagonal, y una matriz U , triangular superior, donde los pivotes figuran en la diagonal. Esta factorizaci
on
se llama descomposici
on LU .
b) Recordando que

21
A= .
..

n1

..

n
i=1

a
ii = 0, demuestre que:

0
..
.
nn1

a
11
0

0
..

.
a
nn

1
.
.

a
12
a
11

..

a
1n
a
11

a
n1n
a
n1n

(1.5)
Es decir, A admite una factorizaci
on A = LDU , en donde L es
triangular inferior con unos en la diagonal, D es diagonal (formada
por los pivotes del escalonamiento) y U es triangular superior con
diagonal de unos. Esta factorizaci
on se llama descomposici
on LDU .

34

Departamento de Ingeniera Matematica


- Universidad de Chile

Gua
Semana 3

Ingeniera Matematica

..
.

e) Encuentre la descomposici
on LDU de

1 1 1
A = 0 1 1 .
1 2 0

Problemas

1 1 1
P1. (a) Sea la matriz de coeficientes reales A = a b c . Demueste
a 2 b 2 c2
que si la ecuaci
on Ax = 0 tiene una u
nica solucion entonces (a =
b) (a = c) (b = c).
(b) Considere el sistema lineal a coeficientes reales siguiente
x1
x1
x1

+
+

x2
x2
x2

+
+

x3
x3

x3

+ x4
+ x4

=
=
=
=

0,
0,
0,
0.

Determine las condiciones sobre los par


ametros reales y que
garanticen que el sistema tenga una u
nica solucion.

P2. (a) Considere las matrices cuadradas A, B Mnn ( ). Demuestre


que
1) A es invertible si y s
olo si AAt es invertible.
2) Si A2 = A y B = I A entonces B 3 = B.

Si A es invertible, utilice las condiciones dadas para calcular las


matrices A y B.

(b) Considere los vectores u, v Mn1 ( ) \ {0}. Se define la matriz


A Mnn ( ) por A = uv t .

1) Pruebe que x Mn1 ( ), Ax = 0 v t x = 0.


Indicaci
on: Observe que v t x .
2) Encuentre el n
umero de variables libres en la resolucion del
sistema Ax = 0.
Es A invertible?

P3. Considere

1
1
A=
0
2

2
1
3
1

3
1
0
1

3 3

b=
0 .
2

Estudiaremos las soluciones del sistema Ax = b, con x M41 ( ).


Encuentre los valores de y de manera que:
35

Departamento de Ingeniera Matematica


- Universidad de Chile

c) Demuestre que si A admite la descomposici


on LDU de (1.5), entonces la descomposici
on es u
nica.
d ) Demuestre ademas que si A es simetrica, entonces L = U t .

El sistema tenga una u


nica solucion. Encuentre la matriz inversa
de A y calcule la u
nica solucion del sistema.
El sistema tenga infinitas soluciones y encuentre sus soluciones.
Determine ademas el n
umero de variables independientes.

36

Departamento de Ingeniera Matematica


- Universidad de Chile

El sistema no tenga solucion.


Ingeniera Matematica

SEMANA 4: GEOMETRIA

2.

Geometra lineal en

2.1.
Sea

Definiciones basicas

n
un cuerpo. Anotaremos
los vectores de como columnas, es decir,

x1
..
n
= Mn,1 ( ) = { . | xi , i = 1, . . . , n } .1
xn
Recordar que en n = Mn,1 ( ) tenemos una suma (de matrices columna)
definidapor:

y1
x1
x1 + y1

..
si x = ... , y = ...
, entonces x + y =
,y
.

yn

xn

n , +) es un

con ella resulta que (

xn + yn

0

grupo Abeliano, con neutro 0 = ...
0

x1
.. .
.


x1


y opuestos x = ... =
xn
xn
Agregamos ahora la operaci
on Multiplicaci
on por Escalar definida como
sigue:

x1

on
Definici
on 2.1. Si x = ... y , entonces se define una funci

xn

x1

, en donde x = ... . Se le llama ponderaci


on
(, x)
x
xn
o multiplicaci
on por escalar.

Observaci
on: Llamaremos vectores columna, o simplemente vectores,
a los elementos de n , y escalares a los elementos de . De aqu el
nombre de esta operaci
on.

1 Para fijar ideas puede pensar en lo que sigue en


=
y n = 2 o
3, que con
seguridad le ser
an familiares de sus cursos de C
alculo. Sin embargo, salvo cuando se diga
puede ser cualquier cuerpo, y n un natural mayor o igual
explcitamente lo contrario,
a 1.

37

Departamento de Ingeniera Matematica


- Universidad de Chile

FACULTAD DE CIENCIAS

FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE

Algebra
Lineal 08-2

n = Mn,1 ()

Ponderaci
on

n ) 1 x = x
(1 , 2 ) (x n ) 1 (2 x) = (1 2 )x
(1 , 2 ) (x n ) (1 + 2 )x = 1 x + 2 x
( ) (x, y n ) (x + y) = x + y.
( ) (x n ) x = 0 = 0 x = 0.

1. (x
2.
3.
4.
5.

n. Las demostraciones de estos hechos son c


Demostracio
alculos elementales y quedan como un ejercicio muy simple para el alumnos.
Queda ademas el lector encargado de verificar que esta u
ltima propiedad se
puede tambien obtener como consecuencia de las propiedades 1. a 4. , mas
un cuerpo.
los hechos de que ( n , +) es un grupo Abeliano y

Ejemplos: Caso

= .

n = 1: El conjunto de vectores es 1 = , la recta real, el + es la


suma usual en
y la multiplicacion por escalar es el producto en
.

n = 2: El conjunto de vectores es

2 = 2, el plano x1 x2.

x=

x
x

1
2

Un vector x representar
a ambos, un punto del plano y una flecha
partiendo del origen que termina en dicho punto. La suma de elementos de 2 corresponde entonces a la suma usual de flechas en
el plano:

x+y

y
x

y del mismo modo se representa la ponderaci


on:
38

Departamento de Ingeniera Matematica


- Universidad de Chile

Proposici
on 2.1. Se tienen las siguientes propiedades:

Ejercicio

1/2 x

x
0 x=0
(-1) x

n = 3: La representacion de vectores en
3-dimensional:

3 se hace en el espacio

x
x= x
x

1
2
3

La ponderaci
on se representa de modo similar al caso
plano, y la suma de vectores
tambien corresponde a la diagonal del paralel
ogramo definido por los sumandos:

39

x+y

Departamento de Ingeniera Matematica


- Universidad de Chile

2x
x

y
v
y-x

2.2.

Rectas en

A partir de nuestra intuici


on geometrica rescatamos del concepto de recta
(en el plano o en el espacio) dos elementos importantes: que una recta define
una direcci
on de movimiento y que pasa por alg
un lugar.

L2

Pasa por p

La misma
direcccion

Direccion

L1

No pasa por p

Las rectas L1 y L2 del dibujo llevan la misma direcci


on, y lo que las diferencia es que pasan por distintos puntos. De hecho L2 es L1 desplazada.
Intentamos entonces definir una recta en n como sigue:

Definici
on 2.2 (Recta). Sean d n \ {0} un vector y p n un
punto dado. La recta L que pasa por p y va en la direcci
on de d es el
siguiente subconjunto de n :

L = Lp,d = {v

n | v = p + td, t }.

40

Departamento de Ingeniera Matematica


- Universidad de Chile

Observaci
on: A veces conviene (por ejemplo, para mayor claridad de
una figura) dibujar un vector como una flecha que parte de alg
un otro
punto distinto del origen. A modo de ejemplo consideremos x, y 2
y sea v = y x. Se ve f
acilmente que v ser
a una flecha partiendo en
el origen que tiene el mismo tama
no y apunta hacia el mismo lado que
una flecha que parta en x y termine en y. Dado esto, muchas veces
no nos molestamos en dibujar v partiendo del origen, sino que s
olo
dibujamos la flecha de x a y.

Recta

p
td

L
d

Se dice que p es una posici


on de L y que d es un vector director de L.

Departamento de Ingeniera Matematica


- Universidad de Chile

p +t d

posici
on de L
vector director de L
Ejercicio

Ejercicio 2.1: Un par de observaciones importantes:


1. Muchas posiciones definen la misma recta. Probar que, dado d
n
\ {0} fijo, se tendra q Lp,d Lq,d = Lp,d . (Las posiciones
de una recta L son sus puntos.)

2. Muchos vectores directores definen una misma recta. Probar que,


dado p n fijo, se tendra Lp,d = Lp,d ( \ {0}) d =
d. (Los vectores directores de una misma recta son los m
ultiplos
no nulos de un vector director dado.)

El Ejercicio 2.1.2 motiva la siguiente definici


on:

Definici
on 2.3 (Vectores paralelos). Sean v, w n . El vector v se
dice paralelo a w (lo que se anota v w) ssi ( \ {0}) w = v.

Usando esta definici


on, el Ejercicio 2.1.2 puede ser replanteado como
d es un vector director de Lp,d d d.

paralelo

Ejercicio

Ejercicio 2.2:
1. Si A n y p n , definimos la traslaci
on de
A en el vector p por p + A = {p + x | x A}. Mostrar que las
rectas que pasan por p n son exactamente las traslaciones en
p de las rectas que pasan por el origen 0.

41

2. Sean p, q n , con p = q. Mostrar que la recta de posici


on p y
vector director d = q p es la u
nica recta que pasa por ambos
puntos, p y q.

q
p

q-p

Observaci
on: La ecuaci
on
v = p + d,

que describe los puntos (vectores) de la recta Lp,d a medida que se


vara se llama ecuaci
on vectorial de la recta Lp,d.

2.3.

Planos en

Sean p n y d1 , d2 n \ {0} vectores no paralelos. Apelando a nuestra


intuici
on en el espacio tridimensional, vemos que por p pasan las dos rectas
an contenidas en un mismo
distintas L1 = Lp,d1 y L2 = Lp,d2 , y ambas est
plano .

42

Departamento de Ingeniera Matematica


- Universidad de Chile

ecuaci
on vectorial de la
recta

p
sd
d

Observando la forma como los puntos de este plano se obtienen a partir de


p, d1 y d2 podemos dar la siguiente definici
on en n :

Definici
on 2.4 (Plano). El plano que pasa por p y tiene vectores directores d1 y d2 es el subconjunto de n :

p,d1 ,d2 = {v

n | v = p + sd1 + td2 , s, t }

Departamento de Ingeniera Matematica


- Universidad de Chile

L
p+sd + td

Plano

ecuaci
on vectorial del
plano

Observaci
on:
1. v = p + sd1 + td2 , s, t
p,d1 ,d2 .

se llama ecuacion vectorial del plano

2. Sea E = d1 | d2 la matriz que tiene por columnas a los


vectores directores d1 y d2 . Entonces juntando los par
ametros s
s
2
y t en el vector r =

, la ecuaci
on vectorial queda
t

2
, s, t

,r

v = p + Er
= p+

d1

| d2

s
t

3. Notar la similitud con la ecuaci


on de una recta v = p+td, t .
En la recta hay un par
ametro libre: t
(dimensi
on 1, esto se
on
formalizara mas adelante) y en el plano dos: s, t (dimensi
2 ).

Ejercicio

Ejercicio 2.3: Se deja como ejercicio para el lector probar las siguientes propiedades:
1. q p,d1 ,d2 q,d1 ,d2 = p,d1 ,d2 . (Cualquier punto de un
plano sirve como su posici
on.)

43

n \ {0}, con d1no paralelo a d2 y

p,d1 ,d2 = p,d1 ,d2 (A M2,2 ( ) invertible)

d1

| d2

3. Dado p n , todo plano que pasa por p es la traslacion en p de


un plano que pasa por el origen, y si trasladamos en p un plano
cualquiera que pasa por el origen, obtenemos un plano que pasa
por p.

4. Sean p, q, r tres puntos no colineales en n . Probar que si d1 =


nico plano que pasa
q p y d2 = r p, entonces p,d1 ,d2 es el u
por p, q y r.

2.4.

Ecuaciones parametricas
y cartesianas de rectas y
planos

2.4.1.

Rectas

p1
d1

Sean p = ... n y d = ... n \ {0}. Sea L = Lp,d .


pn
dn
Recordemos que
la
ecuaci
o
n
vectorial
de L es v = p + td , t . Si

x1

anotamos v = ... el punto que recorre L cuando t recorre , resulta:

xn

x1

x2

xn

=
=
..
.

p1 + td1
p2 + td2

pn + tdn

Estas son las llamadas ecuaciones parametricas de la recta L. (Notar que


on y
p1 , . . . , pn , d1 , . . . , dn son constantes en , las coordenadas de la posici
de la direcci
on de L.)
Supongamos, para simplificar la notaci
on, que las primeras k componentes
d1 , . . . , dk de d son no nulas, y el resto todas nulas: dk+1 = dk+2 = . . . =
d1
.
..
dk
dn = 0, es decir d = 0 . Entonces las ecuaciones parametricas de la

..
.
0
recta L son

44

d1

| d2

Departamento de Ingeniera Matematica


- Universidad de Chile

2. Si p n , y d1 , d2 , d1 , d2
d1 no paralelo a d2 , entonces

ecuaciones
param
etricas

=
..
.

p1 + td1

xk = pk + tdk
xk+1 = pk+1

..
.

xn
= pn

Constantes.

Despejando t en cada una de las primeras k ecuaciones, e igualando:


x1 p1
2
k
= x2dp
= = xkdp
(= t)

d1

2
k

xk+1 = pk+1
..

xn
= pn

Este es un sistema de n 1 ecuaciones lineales para las n inc


ognitas

x1

x1 , . . . , xn , que son las componentes de un punto cualquiera v = ...

xn
de L. Las ecuaciones se llaman ecuaciones Cartesianas de la recta L. Como
quedan las ecuaciones cuando k = 1?
Ejemplos:
n = 2: La ecuaci
on Cartesiana (notar que en este caso queda una
sola) de L = L p1 , d1 queda:
( p2 ) d2
x2 p2
x1 p1
=
, si d1 , d2 = 0,
d1
d2
x2 = p2 , si d2 = 0, y
x1 = p1 , si d1 = 0.

d,d =0
1

d =0

d =0

n = 3: Una recta queda descrita por dos ecuaciones Cartesianas:


x2 p2
x3 p3
x1 p1
=
=
d1
d2
d3
(en caso que d1 , d2 , d3 = 0. Escribir las otras posibilidades.)

45

Departamento de Ingeniera Matematica


- Universidad de Chile

x1

ecuaciones Cartesianas
de L

Planos (caso n = 3)

Para simplificar el an
alisis veremos s
olo el caso n = 3 para las ecuaciones
Cartesianas
de
planos.
Sea

=
p,d1 ,d2 un plano en 3 , donde

p1
p = p2 3 es una posici
on de , y los vectores directores son los
p3

d11
d12
vectores no paralelos en 3 \ {0}, d1 = d21 y d2 = d22 . La
d31
d32
ecuaci
on vectorial de est
a dada por v = p + sd1 + td2 , s, t , y descomponiendola en sus 3 componentes resultan las ecuaciones parametricas
de :

x1 = p1 + sd11 + td12
x2 = p2 + sd21 + td22
, s, t .

x3 = p3 + sd31 + td32

Pivoteando, es posible eliminar el par


ametro s de dos de estas ecuaciones,
y luego tambien t de una de ellas, de modo que nos quedamos con una
ecuaci
on final con s
olo x1 , x2 , x3 (sin s y t) de la forma Ax1 +Bx2 +Cx3 = D,
on
donde A, B, C, D , con A, B o C = 0. Esta es la llamada ecuaci
Cartesiana del plano .

Observaci
on: Si el plano hubiese estado en n , con n 3, habramos
obtenido un sistema de n 2 ecuaciones cartesianas para el plano.
Que pasa en el caso n = 2? Y que puede decir de n = 1?
Sabemos del captulo de Sistemas Lineales que, recprocamente, un sistema
de una ecuaci
on y tres inc
ognitas, como la ecuaci
on Cartesiana de , tiene
dos variables libres (digamos x2 y x3 ) y sus soluciones son de la forma:

1
1
x1
1
x2 = 0 + x2 1 + x3 0
, x2 , x3 ,
1
0
0
x3

1
1
con 1 y 0 claramente no paralelos (por que?), as el
0
1
conjunto de soluciones representa un plano en 3 . Tenemos entonces que
los planos en 3 son exactamente los conjuntos solucion de ecuaciones
cartesianas como la que escribimos arriba para .

Ejemplo:

1
El plano 3 que pasa por el punto p = 0 y con vectores direc0

1
1
tores d1 = 1 y d2 = 0 tiene por ecuaciones parametri0
1

46

Departamento de Ingeniera Matematica


- Universidad de Chile

2.4.2.

-1
0
1

x+x+x=1
1 2 3

1
0
0

2.5.
2.5.1.

1
-1
0

Geometra metrica
en

Definiciones y propiedades basicas

Incorporaremos ahora a nuestro estudio conceptos como distancia entre


puntos, angulos, perpendicularidad, etc. Para ello debemos perder un poco
de generalidad y restringirnos al cuerpo
=
de los n
umeros reales.
= , los n
umeros complejos,
(Tambien se puede hacer todo esto con
pero esto lo postergaremos para mas adelante.)

Definici
on 2.5 (Producto punto en
y1

x1

..
.

xn

, y=

..
.

). Sean x, y

n ,

con x =

. Se define el producto punto x, y (tambien se anota

yn

x y) como el real

Departamento de Ingeniera Matematica


- Universidad de Chile

x1 = 1 + s t
x2 =
s
cas
, s, t
de las que se puede facilmente

x3 =
t
eliminar s y t para obtener la ecuaci
on Cartesiana x1 + x2 + x3 = 1.
Por otra parte, si partimos de esta ecuaci
on, despejando x1 en terminos de x2 yx3 resulta
x1 = 1 x2 x3 , por lo que un punto cual
x1
quiera v = x2 3 que satisfaga esta ecuaci
on tendra la forma
x

1
1
1
1 x2 x3
x1
= 0 + x2 1 + x3 0 ,
x2 =
x2
0
0
1
x3
x3
tomando valores arbitrarios. El lector reconocer
a esto
con x2 , x3
como una ecuaci
on vectorial del mismo plano .

producto punto
x, y , x y

x, y =
i=1

xi yi = xt y = yt x
47

n n

<, > :

(x, y)

x, y

llamada producto punto.

Proposici
on 2.2. Se tienen las siguientes propiedades:
1. (x, y

n )

x, y = y, x (Simetra).

2. (x, y, x, y n ) x + x, y = x, y + x, y x, y + y = x, y +
x, y (Biaditividad).
3. ( R) (x, y
4. (x

n )

n )

x, x 0

x, y = x, y = x, y (Bihomogeneidad).

x, x = 0 x = 0 (Positividad).

n. La demostracion de estas propiedades quedan como ejercicioDemostracio


.
El n
u
mero
x1
..
x = .

n
i=1

x, x que aparece en la propiedad 4. es x, x =

x2i , si

agoras se puede verificar


. Jugando con el Teorema de Pit

xn
facilmente que si n = 2
o n = 3,
x, x corresponde a la longitud de la
flecha representada por el vector x.
2
2

x1 + x2

+ x3

x1

+x2

x2
x3

x1

x1

n=2

x2

x1 + x2

n=3

Aprovechando estos hechos, y con la esperanza de reobtener el Teorema


de Pit
agoras en n , para todo n, definimos

Definici
on 2.6 (Norma Euclidiana). La norma Euclidiana (o, simplex1

mente, norma) de un vector x =

..
.

xn

48

n como

x =

n
i=1

x2i =

Departamento de Ingeniera Matematica


- Universidad de Chile

Tenemos as una funci


on

Ejercicio

norma

n
x

x =

x, x

Proposici
on 2.3. Se tienen las siguientes propiedades:

n ) x 0 x = 0 x = 0
( ) (x n ) x = || x
(x, y n ) x + y x + y
(Desigualdad Triangular.)

1. (x
2.
3.

n. Las demostraciones de 1 y 2 son elementales y se dejan


Demostracio
como un ejercicio f
acil para el lector. La prueba de la Desigualdad Triangular dependera del siguiente importante Lema:
Lema 1 (Desigualdad de CauchySchwartz).
(x, y

n) | x, y |

y .

n. (Desigualdad de CS) Notar que si x = 0 y = 0,


Demostracio
la desigualdad se verifica trivialmente (0 0). Supondremos entonces que
ambos vectores x e y son no nulos. Para x, y n \ {0} fijos, consideremos
2
ahora la funci
on :

definida por (t) = tx y . Claramente


ultiplo de x, (t) > 0
(t) 0 para todo t (y ademas, si y no es un m
2
para todo t ). Por otra parte, (t) = tx y, tx y = x t2
2
2 x, y t + y . As, es una funci
on polinomial de segundo grado en t,
2
2
con coeficientes a = x , b = 2 x, y , c = y (notar que como x = 0,
la funci
on es efectivamente de segundo grado, y no de un grado menor).
Como (t) 0 para todo t , sabemos que el discriminante b2 4ac
ser
a menor o igual a 0 (a lo mas una raz real de multiplicidad 2), es decir
4 x, y 2 4 x 2 y 2 0, de donde x, y 2 x 2 y 2 , lo que implica la
desigualdad deseada.

Observaci
on: Notar que si y no es m
ultiplo de x, (t) > 0 para todo
t , luego b2 4ac < 0, de donde se desprende que | x, y | < x y .
De aqu que (a
un en el caso x = 0 y = 0) se verifica la igualdad en
CauchySchwartz ssi alguno de los dos vectores es m
ultiplo del otro.
De modo similar se tiene que x, y = x y ssi alguno de los dos
vectores es un m
ultiplo no negativo del otro.

49

Departamento de Ingeniera Matematica


- Universidad de Chile

x, x (raz cuadrada 0).


Tenemos as la funci
on norma

Desigualdad
Triangular

Desigualdad de
CauchySchwartz

x+y

n. Tenemos:

x + y, x + y = x + 2 x, y + y
2
2
x + 2 | x, y | + y

C.Sch.

x 2+2 x y + y
( x + y )2

Observaci
on: De la observaci
on bajo la demostracion de la desigualdad de CauchySchwartz podemos concluir que en la desigualdad triangular vale la igualdad ssi alguno de los dos vectores es m
ultiplo no
negativo del otro.
Usaremos ahora la norma de
puntos de este conjunto.

n para definir la nocion de distancia entre

Definici
on 2.7. Sean p, q dos puntos en n . La distancia entre p y q es
el n
umero real no negativo d(p, q) = q p .
Observaci
on:
1. Recordando que q p se puede visualizar como el vector (flecha)
que va de p hasta q, resulta que d(p, q) es la longitud de esta
flecha, es decir, como esperaramos, la longitud del trazo recto
entre p y q.
2. Podemos usar la distancia entre puntos para interpretar la desigualdad triangular. Sean p, q, r n tres puntos que forman
un tri
angulo en n . Entonces: q p = (q r) + (r p)
q r + r p , es decir d(p, q) d(r, q) + d(p, r). En el
tri
angulo pqr esto significa que la longitud del lado pq es inferior o igual a la suma de los otros dos lados ( rq + pr), lo que es
un viejo teorema de geometra plana.

q
p

q-r
r-p
q

q-p
p

50

q-p

Departamento de Ingeniera Matematica


- Universidad de Chile

Podemos ahora probar la desigualdad triangular. Sean x, y

distancia
d(p, q)

1:
Situacion
Consideremos el siguiente diagrama:

x-y
y

x+y
0
-y

Los vectores x e y son no nulos en n , y los hemos dibujado en el plano que


pasa por el origen y que los contiene. Supongamos que x es perpendicular a
y (vamos a suponer que esto tiene sentido en n , y que en el plano de x, y y
0 se cumplen las propiedades usuales que conocemos de la geometra plana
del colegio). Esperamos entonces que el tri
angulo que tiene por vertices x,
y y y sea is
osceles en x (la altura es la flecha x), y as

xy = x+y

x y, x y = x + y, x + y
x 2 2 x, y + y 2 = x 2 + 2 x, y + y
4 x, y = 0
x, y = 0.

Aprovechemos esto para definir perpendicularidad en

n :

Definici
on 2.8 (Perpendicularidad). Dos vectores x, y n se dicen
perpendiculares u ortogonales ssi x, y = 0. Lo anotaremos como x y.

Departamento de Ingeniera Matematica


- Universidad de Chile

El producto punto est


a ntimamente ligado a la nocion de a
ngulo entre
vectores. Recurramos nuevamente a nuestra intuici
on geometrica para ver
algunos hechos que indican que esta afirmaci
on no es gratuita.

perpendicularidad
xy

Ejercicio

Ejercicio 2.4: Probar el Teorema de Pit


agoras en
: Sean A, B, C
n
, con (BC) (CA). Si a = d(C, B) = B C , b = d(A, C) =
C A y c = d(B, A) = A B son los tres lados del tri
angulo
ABC (triangulo rectangulo en C, con a, b los catetos y c la hipotenusa),
entonces a2 + b2 = c2 .

A
b

a
C

51

Queremos usar nuestra intuici


on geometrica para descubrir una relacion
que nos permita definir el
angulo entre dos vectores de n . Consideremos
el diagrama siguiente:

y
0

Todo transcurre en el plano que pasa por 0 y tiene a x e y como vectores


directores. El punto y es la proyecci
on ortogonal del punto x sobre la
recta que pasa por 0 y tiene a y como vector director, ser
a el angulo de
la flecha y a la x (si todo esto tiene sentido en n ). La cantidad y x
es la distancia de x a su proyeccion. Las relaciones trigonometricas que
esperaramos que se cumplan dicen: cos = y
= ||xy .
x
Nos gustara eliminar de esta f
ormula. Para ello notemos que como
2
(y x) y, entonces y x, y = 0, de donde y x, y = 0,
x,y
y as || = = y 2 . (El dibujo sugiere que y apunta hacia el mismo lado
que y. Analizar lo que pasa si no. Notar que > 2 en dicho caso.) Luego
cos = xx,yy . Usamos esto para definir el angulo entre vectores de n :

Definici
on 2.9 (Angulo
entre vectores). Sean x, y n \ {0}. Definimos el a
ngulo entre x e y como aquel n
umero [0, ] tal que
cos =

x, y
.
x y

Observaci
on:
1. Notar que la desigualdad de CauchySchwartz asegura que 1
x,y
la definici
on anterior tiene sentido.
x y 1, as
2. Esta definici
on entrega de manera trivial la famosa formula
x, y = x y cos .

52

Departamento de Ingeniera Matematica


- Universidad de Chile

2:
Situacion

a
ngulo

2.6.1.

a Rectas en
Aplicacion

y Planos en

2 .
2 . Definamos el nuevo vector d =

.
3

Rectas en

x2
x1
2.
x1
x2
Es un ejercicio f
acil verificar que las siguientes propiedades se satisfacen:
Sea d =

1.

d = d .

2. d es ortogonal a d.
3. d

= d.

4. Si d = 0, entonces
5. Si d = 0, entonces

2) [v d ( ) v = d ].
(v 2 ) [v d (t ) v = td].

(v

Sea ahora p
que

2 y L = Lp,d =
vL

| v = p + td, t

. Tenemos

v = p + td, t
(t ) v p = td
v p d
v p, d = 0.

Si llamamos n = d (o cualquier otro vector paralelo a este), hemos concluido que v L v p, n = 0, es decir, L = v 2 | v p, n = 0 .
La ecuaci
on
v p, n = 0

se llama ecuaci
on normal de L. El vector n (es decir, d o cualquier otro
paralelo a el) se dice vector normal a L.

53

Departamento de Ingeniera Matematica


- Universidad de Chile

2.6.

ecuaci
on normal de L
vector normal a L

p
n
d

De la ecuaci
on normal de L sale f
acilmente una ecuaci
on Cartesiana. Sean
x1
p1
n1
. Desarrollando:
yv=
,p=
n=
x2
p2
n2
v p, n = 0 v, n p, n = 0 n1 x1 + n2 x2 + (n1 p1 n2 p2 ) = 0,
es decir
ax1 + bx2 + c = 0,

con a = n1 , b = n2 y c = p, n .

(2.1)

Departamento de Ingeniera Matematica


- Universidad de Chile

v-p

Ejercicio

Ejercicio 2.5: Concluya que si (2.1) es una ecuaci


on Cartesiana de
b .
una recta de 2 , entonces un vector director de esta recta es d = a

2.6.2.

Planos en

3 .

as adelante se prueba
Sean d1 , d2 vectores no nulos y no paralelos en 3 . M
que existe un vector n = d1 d2 3 con las propiedades:

1. n = d1

d2 |sen | = 0, con el angulo entre d1 y d2 .

2. n d1 n d2 .

3) [v d1 v d2 ( ) v = n].
4. (v 3 ) [v n (s, t ) v = sd1 + td2 ].
Con estas propiedades, sea = p,d ,d el plano en 3 que pasa por un
punto p 3 y de vectores directores d1 y d2 . Entonces el lector puede
demostrar facilmente que para cualquier v 3 , v v p, n = 0.
3. (v

Nuevamente, n (o cualquier vector paralelo a n) se dir


a vector normal a ,
54

p,d1 ,d2

vector normal a

v p, n = 0
se llamar
a ecuaci
on normal de .
on normal conduce diDe modo similar al caso de rectas en 2 , la ecuaci
rectamente a la ecuaci
on Cartesiana Ax1 + Bx2 + Cx3 + D = 0 para .
A
(Donde n = B y D = p, n .)

d2
d1
v
v-p

55

Departamento de Ingeniera Matematica


- Universidad de Chile

y la ecuaci
on

ecuaci
on normal de

FACULTAD DE CIENCIAS

FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE

Algebra
Lineal 08-2

Ejercicios
1. Pruebe las siguientes propiedades de la ponderaci
on por escalar:

Proposici
on 2.1

) (x n) 1 (2 x) = (1 2 )x.
( ) (x, y n ) (x + y) = x + y.
( ) (x n ) x = 0 = 0 x = 0.

(a) (1 , 2

(b)
(c)

2. Pruebe que:

(a) Dado d n \ {0} fijo, se tendra q Lp,d Lq,d = Lp,d . (Las


posiciones de una recta L son sus puntos.)

Ejercicio 2.1, Ejercicio


2.2

(b) Dado p n fijo, se tendra Lp,d = Lp,d ( \ {0}) d = d.


(Los vectores directores de una misma recta son los m
ultiplos no
nulos de un vector director dado.)

(c) Si A n y p n , definimos la traslaci


on de A en el vector p
por p + A = {p + x | x A}. Las rectas que pasan por p n
son exactamente las traslaciones en p de las rectas que pasan por
el origen 0.

nica recta que


(d) Sean p, q n , con p = q. La recta Lp,qp es la u
pasa por ambos puntos, p y q.
3. Pruebe que:

(b) Dado p n , todo plano que pasa por p es la traslacion en p de


un plano que pasa por el origen, y si trasladamos en p un plano
cualquiera que pasa por el origen, obtenemos un plano que pasa
por p.

(c) Sean p, q, r tres puntos no colineales en n . Probar que si d1 =


nico plano que pasa
q p y d2 = r p, entonces p,d1 ,d2 es el u
por p, q y r.
4. Pruebe las siguientes propiedades del producto punto:

(a) (x, y, x, y n ) x + x, y = x, y + x, y
x, y + x, y (Biaditividad).
(b) ( R) (x, y

n )

) x, x 0

Proposici
on 2.2

(b)

x, y + y =

x, y = x, y = x, y (Bihomogeneidad).

x, x = 0 x = 0 (Positividad).

5. Pruebe las siguientes propiedades de la norma Euclidiana:

n ) x 0 x
( ) (x n ) x

(a) (x

traslaci
on

Ejercicio 2.3

(a) q p,d1 ,d2 q,d1 ,d2 = p,d1 ,d2 . (Cualquier punto de un plano
sirve como su posici
on.)

(c) (x

Departamento de Ingeniera Matematica


- Universidad de Chile

Gua
Semana 4

Ingeniera Matematica

= 0 x = 0.

= || x .

56

Proposici
on 2.3

2
1
2

P1. (a) Considere los puntos P =

,Q =

0
1
1

yR=

1
1
5

Verifique que son puntos no colineales y encuentre la ecuaci


on
vectorial (o parametrica) y Cartesiana del plano 1 que los contiene.
(b) Dadas las rectas L1 y L2 definidas por


1
1
3x + y + 4 = 0
y L2 :
.
L1 : 1 + t 3 , t
z+5=0
1
0

Verifique que L1 y L2 son paralelas y distintas y ecuentre la ecuacion vectorial (o parametrica) y Cartesiana del plano 2 que las
contiene.
(c) Encuentre la ecuaci
on vectorial de la recta L que se obtiene como
la interseccion de los plano 1 y 2 (L = 1 2 ).
(d) Encuentre el punto S de interseccion de las rectas L1 y L, y verifique que S satisface la ecuaci
on Cartesiana del plano 1 .

P2. (a) Verifique que las rectas




3
1
L1 : 4 + t 2 , t
5
5



2
2
L2 : 4 + s 1 , s
6
5

se intersectan en un u
nico punto. Encuentrelo.

1
2
3

(b) Sea el plano con vectores directores d1 =


que pasa por el punto P =
1
b
0

0
2
1

y d2 =

4
0
4

, y sea L la recta con vector


a

director d =
que pasa por el punto Q = 0 , donde a, b
0
Encuentre los valores de los par
ametros a, b tales que
L este contenida en (L ),
L y no tengan puntos en com
un (L = ). y
L contenga exactamente un solo punto.

P3. Sean 1 el plano de ecuaci


on x + y + 2z = 1, 2 el plano de ecuaci
on
0
x + y = 2 y L1 la recta que pasa por el punto P1 = 1 y cuya
direcci
on es D1 =

1
0
0

(a) Encuentre la ecuaci


on de la recta L2 , que se obtiene como la
interseccion de los planos 1 y 2 . Entregue un vector director
de dicha recta.
(b) Encuentre el punto P2 de interseccion de la recta L1 y 1 .
(c) Calcular el punto P3 de interseccion de L2 con el plano perpendicular a L2 que pasa por el punto P2 .
(d) Encuentre la ecuaci
on parametrica o vectorial de la recta contenida en 2 que pasa por el punto P3 y es perpendicular a L2 .

57

Departamento de Ingeniera Matematica


- Universidad de Chile

Problemas


Ingeniera Matematica
FACULTAD DE CIENCIAS

FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE

Algebra
Lineal 08-2

2.7.

Producto cruz (o producto vectorial) en

Utilizaremos la siguiente notaci


on, ya tradicional en las aplicaciones de la
geometra vectorial. Sean i, j, k 3 los siguientes vectores:

1
0
0
i = 0 , j = 1 , k = 0 .
0
0
1

Las siguientes afirmaciones son evidentes:


1.

i = j = k =1

(Estos vectores se dicen unitarios.)

2. i j j k k i
3.

x =

x1
x2
x3

(Son ortogonales entre s.)

nica, es
x = x1 i + x2 j + x3 k, y esta escritura es u

decir, si x1 i + x2 j + x3 k = y1 i + y2 j + y3 k, entonces x1 = y1 x2 =
y2 x3 = y3 .
Observaci
on: Las propiedades 1. y 2. se abrevian diciendo que
i, j, k es un conjunto ortonormal en 3 .

xk
3

x
x= x
x

1
2

k
i

xi

xj
2

Mas adelante en el curso definiremos la nocion de determinante, pero ahora


consideraremos la siguiente
a b
Notaci
on: Si a, b, c, d , anotamos
= ad bc .
c d
Con esto podemos dar la definici
on:

58

Departamento de Ingeniera Matematica


- Universidad de Chile

SEMANA 5: GEOMETRIA

bi, bj, k
b

b
d

i
x1
y1

j
x2
y2

k
x3
y3

x2
y2

Es decir, resulta el vector de

3 :

xy =

x3
y3

x1
y1

x2 y3 x3 y2
x y = x3 y1 x1 y3
x1 y2 x2 y1

x3
y3

j+

x1
y1

x2
y2

k.

3.

(Obviamente, esta u
ltima f
ormula no es muy facil de recordar, y es preferible
usar la notaci
on de la definici
on dada primero, cuya operatoria est
a ah mismo definida, para memorizar y calcular x y.)
Hemos as definido una ley de composici
on interna en 3 :

3 3
(x, y)

.
x y

Proposici
on 2.4. Se tienen las siguientes propiedades

3 x y x x y y.
x, y 3 x y = y x ( es anticonmutativo).
x, y, z 3 x (y + z) = x y + x z (x+ y) z = x z+ y z

1. x, y
2.
3.

( distribuye sobre +).


4. x, y
5. x

) (x) y = x (y) = (x y).

x x = 0.

n. La demostracion de estas propiedades b


Demostracio
asicas quedan
propuestas como ejercicio.
Notemos que con 2, 3, 4 y 5, mas el simple c
alculo de
i j = k, j k = i, k i = j,
se puede recuperar la f
ormula con que definimos originalmente el producto
cruz:
xy

=
=
=
=

(x1 i + x2 j + x3 k) (y1 i + y2 i + y3 k)
x1 y1 i i+x1 y2 i j+x1 y3 i k+x2 y1 j i+x2 y2 j j+x2 y3 j k
+x3 y1 k i+x3 y2 k j+x3 y3 k k
0 + x1 y2 k + x1 y3 (j) + x2 y1 (k) + 0 + x2 y3 i + x3 y1 j + x3 y2 (i) + 0
(x2 y3 x3 y2 )i + (x3 y1 x1 y3 )j + (x1 y2 x2 y1 )k.
59

Producto cruz

Departamento de Ingeniera Matematica


- Universidad de Chile

y1

x1

Definici
on 2.10 (Producto cruz). Si x = xx2 , y = yy2 3 ,
3
3
definimos el producto cruz o producto vectorial de x e y como el siguiente
vector de 3 :

xy

Ejercicio

(x y) z = x, z y y, z x

(2.2)

Notar que el producto cruz no es conmutativo (pero tiene la propiedad


parecida 2) y que desgraciadamente tampoco es asociativo. Para ilustrar
cu
an lejos est
a de serlo, est
a la llamada Identidad de Jacobi, que se puede
probar facilmente a partir de la propiedad anterior:
x, y, z

x (y z) + y (z x) + z (x y) = 0

(2.3)

Notemos que usando 2.3 y las propiedades anteriores resulta:


x (y z) (x y) z = y (x z),
lo que indica que x (y z) no tiene por que ser igual a (x y) z.
Veamos mas propiedades de :
Proposici
on 2.5.
x, y

3 \ {0}

xy = x

y |sen | ,

donde es el a
ngulo entre x e y.
n. Esto saldr
Demostracio
a de la siguiente identidad, la que pedimos al
lector que tenga la paciencia de verificar (es un c
alculo simple pero tedioso):
x, y

x, y

+ xy

= x

Una vez establecida esta identidad, y recordando que x, y = x


resulta:
2
2
2
2
xy
= x
y x, y
2
2
= x
y ( x y cos())2
= x 2 y 2 (1 cos2 ())
= x 2 y 2 sen2 ().

y cos(),

La siguiente propiedad muestra que el producto cruz representa a la direccion ortogonal a los vectores participantes.
Proposici
on 2.6. Sean x, y
Entonces

3 \{0} vectores no paralelos, y sea z 3.

1. z x z y = (
2. z x y = (s, t

) z = x y.

) z = sx + ty.
60

Departamento de Ingeniera Matematica


- Universidad de Chile

La siguiente es una f
ormula para el producto cruz de 3 vectores. Su demostraci
on es un simple c
alculo que omitimos.

Identidad de Jacobi


Departamento de Ingeniera Matematica
- Universidad de Chile

n. La demostracion es un ejercicio, explicado en mas detalle


Demostracio
a continuaci
on.

Ejercicio

Ejercicio 2.6: El objetivo de este ejercicio es probar la Proposici


on 2.

1. Sean x, y, z 3 tres vectores no coplanares con el origen, es


decir, que no existe un plano que pasa por el origen y que contiene
a los tres vectores x, y y z. Pruebe que esto equivale a:
(s, t

x
y
z

= 0 + sy + tz
= 0 + sx + tz
= 0 + sx + ty

2. Pruebe que la condicion anterior es equivalente a


(, ,

) x + y + z = 0 = = = = 0.

(2.4)

3. Sea A M33 ( ) la matriz descrita por columnas como A =


x | y | z . Pruebe que la propiedad 2.9 equivale a que el

sistema homogeneo A = 0 tiene como solucion u


nica
0, es decir, A es invertible.

4. Concluya que tres vectores x, y, z 3 no son coplanares con el


origen ssi la matriz A = x | y | z es invertible.
5. Considere ahora x e y no nulos y no paralelos. Pruebe que los
vectores x, y y x y = 0 son no coplanares con el origen.
Indicaci
on: Verifique la condicion 2.9.
6. Use la conclusi
on de la parte 2c para probar que
z

(s, t,

) z = sx + ty + x y.

(2.5)

7. Pruebe, usando la propiedad 2.10, la Proposici


on 2.

Observaci
on: La interpretaci
on geometrica del resultado anterior es:
Si x, y son vectores no nulos y no paralelos en 3 , x y define la lnea
recta (que pasa por 0) de vectores perpendiculares a x y a y. Por otra
parte los vectores perpendiculares a x y son exactamente aquellos del
plano que pasa por el origen y tiene a x e y como vectores directores.

61

y
0,x,y

L 0,x

Un par de propiedades geometricas mas de :

Proposici
on 2.7.
1. Sean x, y 3 \ {0} vectores no paralelos. Entonces el a
rea del paralel
ogramo que definen es x y .

2. Sean x, y, z 3 \ {0} vectores no coplanares con 0. Entonces el


volumen del paraleleppedo que definen es | x y, z |.
n. (Deberemos confiar en los conceptos intuitivos de a
Demostracio
rea y
volumen que traemos de la geometra escolar).

x y

z
H

h
0

1. El area del paralel


ogramo es dos veces el area del tri
angulo cuyos
vertices son x, y y 0. As, Area = 2 21 base altura = 2 21
x h, con h = y sen . De aqu que Area = 2 21 x y sen =
x y sen = x y .
2. De la geometra de colegio, el volumen del paraleleppedo se calcula
como el producto del
area de su base y su altura. De la parte (a), el
area de la base es x y . Por otra parte la altura H es la proyeccion
de z sobre la direcci
on perpendicular al plano de x e y, con lo que
H = z cos(), donde es el
angulo entre x y y z. Se obtiene
finalmente entonces que Vol = x y z cos() = | x y, z |.
62

Departamento de Ingeniera Matematica


- Universidad de Chile

x y

Con esta convenci


on resulta tambien que, si x, y 3 \{0} son no paralelos
y hacemos girar los dedos de la mano derecha en el plano definido por x e
y, desde x hacia y, el pulgar apunta en la direcci
on de x y.
x
x y
y

x y

Hay que indicar, sin embargo, que si alguien prefiriese dibujar los ejes como:
x1

x2

j
k
x3

entonces los productos cruz cumpliran una regla de la mano izquierda.


Nosotros seguiremos la convenci
on universalmente aceptada, dibujando los
ejes del primer modo que mencionamos, y nuestros productos cruz se dibujaran siempre seg
un la regla de la mano derecha.

63

Departamento de Ingeniera Matematica


- Universidad de Chile

Una u
ltima propiedad del producto cruz que es necesario indicar es la llamada regla de la mano derecha.
De x y conocemos que apunta en la lnea perpendicular al plano de x
e y, y que tiene por norma x y sen , con el angulo entre x e y.
Estos datos nos dejan a
un dos opciones posibles para x y: hacia un lado
del plano de x e y o hacia el otro. La verdad es que hacia cu
al de estos
dos lados se dibuja depende de c
omo dibujamos los vectores ortonormales
i, j, k (es decir, de c
omo dibujamos los tres ejes de coordenadas de 3 ).
Generalmente se conviene en dibujarlos de modo que si en el plano de i, j
(el plano x1 x2 ) hacemos los dedos de la mano derecha girar rotando de
i hacia j, k apunta en la misma direcci
on del pulgar.

regla de la mano
derecha

Distancia entre un punto y un conjunto. Proyecciones.

Definici
on 2.11 (Distancia puntoconjunto). Sea A n un subconjunto no vaco de n , y sea q n un punto. Definimos la distancia de q
al conjunto A como:

d(q, A) = nf {d(q, x) | x A} .

x
d(q,x)

d(q,y)

d(q,A)
z

d(q,z)

Departamento de Ingeniera Matematica


- Universidad de Chile

2.8.

d(q, A)

Ejercicio

Ejercicio 2.7: Verifique que d(q, A) queda bien definida.

Cabe notar que no tiene por que existir un punto r A tal que d(q, A) =
d(q, r), y si tal r llega a existir, no tiene por que ser u
nico (Construir
ejemplos de estas afirmaciones!).
Estudiemos a modo de ejemplo el caso en que A = L es una recta Lp,x en

n (recta que pasa por p y tiene vector director x).

Supongamos que existe un punto r L tal que q r es perpendicular a


L. Afirmamos (como nuestra intuici
on geometrica lo indica) que d(q, L) =
d(q, r). Probemos algo mejor:
(z L) z = r q z > q r ,

de donde la distancia de q a L se alcanza en un u


nico punto r.
En efecto, si z L, como qr es normal a L, el tri
angulo cuyos vertices son
z, r y q es rectangulo en r, y por Pit
agoras (recuerde que usted demostr
o en
2
2
2
el Ejercicio 2.4 que es valido en n ) q z = q r + r z . Como
2
z = r, entonces r z > 0, y eso prueba la desigualdad.

z
q
64

w = | y, x | x = y

|cos()| = y cos(),

donde es el
angulo entre x e y (que lo supondremos en 0, 2 para no
preocuparnos del signo de cos(). Si este no es el caso, podemos usar x
en lugar de x como vector director de L.)
Este vector w es lo que llamaremos proyecci
on del vector y sobre la direccion definida por el vector x. Notar que si en vez de x usamos otro vector
director x de L, resulta exactamente el mismo vector w.
x
r
w
u
p
q
y = q-p
Sea u = y w = y y, x x. Nuestra intuici
on nos hara esperar que
u x. Verifiquemos que eso es correcto:
u, x = y y, x x, x = y, x y, x x, x = y, x y,

1
x
x

x = 0,

de donde u x.
Basta tomar ahora r = p + w =p + y, x x, es decir
r = p + q p, x x,
que tiene la propiedad deseada pues q r = q p w = y w = u x,
luego q r L.
Definici
on 2.12 (Proyecci
on ortogonal sobre una recta). Llamamos
proyecci
on ortogonal del punto q n sobre la recta L n , al punto
r L tal que q r L.

Acabamos de probar que dicha proyeccion r existe y es el u


nico punto de L
que minimiza la distancia a q, y dimos ademas una formula para calcular
esta proyeccion en terminos de q, la posici
on p de L y su vector director x.
Como segundo ejemplo, vamos a estudiar ahora en detalle el caso en que
n = 3 y A es un plano 3 .

Ejercicio 2.8: Desarrollar de manera similar, en paralelo, el caso en


que n = 2 y A es una recta en 2 . Notar que ese problema es un caso
particular del que se resolvi
o antes, pero la solucion va por otro camino,
usando ecuaciones normales en vez de vectores directores.

65

Departamento de Ingeniera Matematica


- Universidad de Chile

Veremos ahora que tal r L efectivamente existe.


on de x: claramente x = 1).
Sea x = x1 x (vector unitario en la direcci
Sea y = q p el vector que conecta p con q, y sea w = y, x x. Notar que
w apunta en la misma lnea que x, y que

Proyecci
on ortogonal
sobre una recta

Ejercicio

Definici
on 2.13 (Proyecci
on ortogonal sobre un plano). Llamamos
proyecci
on ortogonal del punto q 3 sobre el plano 3 , al punto
r tal que q r .

Sabemos que dicho r es el u


nico punto de que minimiza la distancia a q.
Lo que no hemos probado a
un es que tal punto r realmente existe, y a eso
nos dedicaremos ahora.
Sea n un vector normal a (por ejemplo, si = p,d1 ,d2 , n se puede tomar
como d1 d2 , o si tenemos una ecuaci
on Cartesiana Ax1 +Bx2 +Cx3 +D = 0
A
para , n se puede tomar como B ). La recta L que pasa por q y es
C
perpendicular a tiene entonces por ecuaci
on vectorial:
t

v = q + tn,

(2.6)

Sea p un punto (fijo) cualquiera de . Podemos entonces escribir la ecuaci


on
normal de :
v p, n = 0.
(2.7)

Buscamos L , es decir, los v 3 que satisfacen simultaneamente (2.6)


y (2.7). Pero esto es f
acil de resolver. En efecto, (2.7) equivale a v, n =
p, n , y usando (2.6), obtenemos
q + tn, n = p, n q, n + t n

= p, n t =

p q, n
n

Una vez que tenemos la inc


ognita real t despejada, en (2.6) resulta
r=v=q+

66

p q, n
n

(2.8)

Departamento de Ingeniera Matematica


- Universidad de Chile

Sea L la recta que pasa por q y que es perpendicular a (es decir, que
tiene por vector director un vector normal a ). Veremos en un momento
que la interseccion entre y L consiste en un solo punto r. Nuestra intuici
on geometrica indica que d(q, ) = d(q, r), y la demostracion de este
hecho sigue exactamente las mismas lineas de lo que hicimos al estudiar la
proyeccion de un punto sobre una recta en n . (Se prueba la desigualdad
(z ) z = r q z > q r , etc.)

Proyecci
on ortogonal
sobre un plano

d(q, ) =

|Aq1 + Bq2 + Cq3 + D|

.
A2 + B 2 + C 2

En efecto, podemos usar n =

A
B
C

como vector normal para . Con ello la

ecuaci
on normal de ser
a v p, n = 0, donde v =

x1
x2
x3

es un punto que

recorre . Manipulando esta ecuaci


on normal se obtiene v, n p, n =
0, o Ax1 + Bx2 + Cx3 p, n = 0, y por comparaci
on con la ecuaci
on
cartesiana de , deber
a tenerse que p, n = D.
Como q, n = Aq1 + Bq2 + Cq3 , entonces
| p q, n | = | q, n p, n | = |Aq1 + Bq2 + Cq3 + D| .
El resultado se sigue del c
alculo de n .
Cabe notar que hay otra manera, tal vez un poco menos eficiente, de calcular
la proyeccion de q sobre , usando una ecuaci
on vectorial para en vez
de la normal: v = p + d1 + d2 , , . Esto, junto a v = p + td1 d2
que es la ecuaci
on vectorial de L, entrega el sistema lineal p + d1 + d2 =

= q p. Como d1 y
q + td1 d2 , o mejor d1 | d2 | d1 d2
t
d2 son no nulos y no paralelos, d1 , d2 y d1 d2 no son coplanares con el
origen, y entonces esta ecuaci
on tiene una solucion u
nica para , y t, lo
que entrega la proyeccion r = v.

Una tercera manera de proceder, tambien algo mas larga que la primera,
es utilizar la f
ormula r = p + d1 + d2 (que no dice mas que el hecho de
que la proyeccion r satisface la ecuaci
on vectorial de pues es un elemento
de este plano) y recordar que r q , es decir, r q d1 r q d2 .
d1 , p q + d1 + d2 = 0
, o,
Se obtiene el sistema de ecuaciones
d2 , p q + d1 + d2 = 0
en su forma matricial:
d1 , d1
d2 , d1

d1 , d2
d2 , d2

d1 , q p
d2 , q p

d1 , d1
d1 , d2
d2 , d1
d2 , d2
es invertible, luego el sistema anterior tiene una solucion u
nica para y ,
lo que entrega la proyeccion r.
Se puede probar que d1 no es paralelo a d2 ssi la matriz

67

Departamento de Ingeniera Matematica


- Universidad de Chile

como u
nica solucion de (2.6) y (2.7).
Hemos de paso encontrado una f
ormula (2.8) para la calcular la proyeccion
de q sobre en terminos de un punto p de y un vector normal n a
. Podemos tambien calcular la distancia de q a : d(q, ) = d(q, r) =
|
. De aqu sale una famosa formula para la distancia de
r q = | pq,n
n
a descrito por la ecuaci
on
un punto a un plano en 3 . Supongamos que est
q1
q
Cartesiana Ax1 + Bx2 + Cx3 + D = 0, y q = q2 . Entonces

f
ormula para d(q, )

1. Notemos que la f
ormula (2.8) era facil de adivinar, pues si n =
1
n
es
el
vector
unitario en la direcci
on de n, (2.8) se puede
n
escribir como r = q + p q, n n
q
p-q

<p-q,n>n

n
r

y recordando que p q, n n es la proyeccion (como vector) de


p q en la direcci
on de n, el punto q + p q, n n debera ser
el lugar donde la recta que parte de q y va en la direcci
on de n
encuentra al plano .
2. En muchos problemas se puede argumentar de manera similar a la
observaci
on 1) (es decir, proyectando sobre una recta vectores que
conectan un par de puntos dados, etc.) para llegar r
apidamente
a una respuesta.

68

Departamento de Ingeniera Matematica


- Universidad de Chile

Observaci
on:

FACULTAD DE CIENCIAS

FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE

Algebra
Lineal 08-2

Ejercicios
1. Demuestre las siguientes propiedades relacionadas con el produto cruz:
(a)

x1
x2
x3

x =

nica,
x = x1 i + x2 j + x3 k, y esta escritura es u

es decir, si x1 i + x2 j + x3 k = y1 i + y2 j + y3 k, entonces x1 = y1 x2 =
y2 x3 = y3 .

3 x y x x y y.
x, y, z 3 x(y+z) = xy+xz (x+y)z = xz+yz

(b) x, y
(c)

( distribuye sobre +).


(d) x

(e) x, y, z

x x = 0.

(x y) z = x, z y y, z x.

2. El objetivo de este ejercicio es probar:

Ejercicio 2.6

3 \ {0} vectores no paralelos, y sea z 3. Entonces


z x z y = ( ) z = x y.
z x y = (s, t ) z = sx + ty.

Sean x, y
a)
b)

Para ello:

(a) Sean x, y, z 3 tres vectores no coplanares con el origen, es decir,


que no existe un plano que pasa por el origen y que contiene a los
tres vectores x, y y z. Pruebe que esto equivale a:
(s, t

x
y
z

= 0 + sy + tz
= 0 + sx + tz
= 0 + sx + ty

(b) Pruebe que la condicion anterior es equivalente a


(, ,

) x + y + z = 0 = = = = 0.

(2.9)

(c) Sea A M33 ( ) la matriz descrita por columnas como A = x | y


Pruebe que la propiedad 2.9 equivale a que el sistema homogeneo

A = 0 tiene como solucion u


nica = 0, es decir, A es invertible.
(d) Concluya que tres vectores x, y, z
origen ssi la matriz A = x | y |

3 no son coplanares con el


z

es invertible.

(e) Considere ahora x e y no nulos y no paralelos. Pruebe que los


vectores x, y y x y = 0 son no coplanares con el origen.
Indicaci
on: Verifique la condicion 2.9.

69

Departamento de Ingeniera Matematica


- Universidad de Chile

Gua
Semana 5

Ingeniera Matematica

| z .

(s, t,

) z = sx + ty + x y.

(2.10)

(g) Pruebe, usando la propiedad 2.10, la proposici


on original.
3. Estudiar la proyeccion ortogonal de un punto q
L 2 , usando ecuaciones normales.

2 sobre una recta

Problemas
P1. Se definen las rectas


1
1
L1 : 2 + t 2 , t
1
2


3
0
L2 : 1 + s 1 , s
1
2

(a) Verifique que L1 y L2 no se intersectan.

(b) Encuentre laecuaci


on normal del plano que contiene a la recta
L1 y es paralelo a L2 .

3
(c) El punto P = 1 pertenece a L2 . Encuentre la proyeccion
1
ortogonal de P sobre el plano de la parte (b).
(d) De la ecuaci
on del plano paralelo a que est
a a la misma distancia
de L1 y L2 ( es el plano de la parte (b)).

P2. (a) Sean P y Q puntos distintos en 3 . Demuestre que el conjunto


A = {x 3 : ||x P || = ||x Q||} es un plano. Encuentre un
punto que pertenezca a A y encuentre un vector normal al plano
A.

(b) En

3 considere las rectas



0
1
L1 : 5 + t 3 , t
1
2



1
2
L2 : 2 + s 4 , s
3
1

(1) Demuestre que L1 y L2 se intersectan y encuentre la intersecci


on.
(2) Encuentre el sistema de ecuaciones cartesianas
que represen
1
tan a la recta L que pasa por P = 1 y que es perpendi1
cular al plano que contiene a L1 y L2 .
(3) Determine las ecuaciones de los planos que son paralelos al
plano que contiene a L1 y L2 , y que se encuentra a distancia
1 del punto en que L1 y L2 se intersectan.

70

Departamento de Ingeniera Matematica


- Universidad de Chile

(f ) Use la conclusi
on de la parte 2c para probar que

Ejercicio 2.8

on cartesiana x + z + y = 1 y sea P
(b) Sea el plano de 3 de ecuaci
etrico de P , con
el origen en 3 . Calcular el punto Q 3 sim
respecto a .

71

Departamento de Ingeniera Matematica


- Universidad de Chile

P3. (a) Sean L1 3 el


de las x y L2 3 larecta que pasa por los
eje
1
1
puntos 2 y 3 . Encuentre una tercera recta L3 3 que
0
1
sea perpendicular a L1 y a L2 , y que ademas intersecte estas dos
rectas.


Ingeniera Matematica

SEMANA 6: ESPACIOS VECTORIALES

3.

Espacios vectoriales

3.1.

Definicion

Las estructuras que hasta ahora se han estudiado est


an dotadas de operaciones que actuan internamente sobre el conjunto donde est
an definidas. Es
decir, a un par de elementos del conjunto, se le asocia otro elemento del
mismo conjunto. Veremos ahora un tipo diferente de estructura algebraica,
donde la multiplicaci
on actua sobre un par de elementos de conjuntos
distintos. Esta estructura que estudiaremos est
a inspirada en la estructura
lineal de n . Para ello consideremos (V, +) un grupo Abeliano, es decir

+ es ley de composici
on interna
+ es asociativa y conmutativa.
Existe un neutro, 0 V , tal que: x V, x + 0 = 0 + x = x.
x V , existe un inverso aditivo, x V , tal que
x + (x) = (x) + x = 0.
Sea

un cuerpo y definamos una ley de composicion denominada externa:V V


(, v) v V.

Definici
on 3.1 (Espacio vectorial). Dado un grupo abeliano (V, +) y
un cuerpo ( , +, ), con una ley de composici
on externa. Diremos que V es
un espacio vectorial sobre
si y s
olo si la ley de composici
on externa
satisface , K, x, y V :

(EV1) ( + )x = x + x.
(EV2) (x + y) = x + y.
(EV3) (x) = ()x.

.
En tal caso, los elementos de V se denominan vectores y los de , escalares.(EV4) 1 x = x, donde 1 es el neutro multiplicativo del cuerpo

Departamento de Ingeniera Matematica


- Universidad de Chile

FACULTAD DE CIENCIAS

FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE

Algebra
Lineal 08-2

ley de composici
on
externa

Espacio vectorial

vectores

escalares

Observaci
on: Se
nalemos que en la definici
on anterior participan dos
estructuras algebraicas diferentes; un grupo Abeliano, (V, +), y un cuerolo si
po, . En tal sentido, dos espacios vectoriales son iguales si y s
ambos est
an definidos sobre los mismos grupos y cuerpos y, ademas
con una ley de composici
on externa identica.

72

1. Es directo de la definici
on anterior que
sobre .

n es un espacio vectorial

2. Sea (Mmn ( ), +) el grupo Abeliano de las matrices de m filas y


n columnas con elementos en . Definamos la ley de composici
on
externa:
Mmn ( ) Mmn ( )

(, A) A = (aij )

Es f
acil verificar que se cumplen las propiedades (EV1) a (EV4).
Por ejemplo:

b11 . . . b1n
a11 . . . a1n
..
+ ...

(A + B) =
.

am1 . . . amn
bm1 . . . bmn

Departamento de Ingeniera Matematica


- Universidad de Chile

Ejemplos:

(a + b ) . . . (a + b )
a11 + b11 . . . a1n + b1n
11
11
1n
1n

..
..
..
..

=
=

.
.
.
.
am1 + bm1 . . . amn + bmn
(am1 + bm1 ) . . . (amn + bmn )

a11 . . . a1n
b11 . . . b1n
..
..
..
+
= A + B.
=
.
.
.
am1 . . . amn
bm1 . . . bmn

Conclumos entonces que Mmn ( ) es un espacio vectorial sobre

3. Sea Pn ( ) el conjunto de los polinomios de grado menor o igual a


n, con la suma de funciones reales y la multiplicacion por escalar
definida por:

p, q Pn ( ), (p + q)(x) = p(x) + q(x)

o bien, si p(x) =

(p)(x) = p(x)
n

ai xi , q(x) =

bi xi

i=0

i=0

(ai + bi )xi ,

(p + q)(x) =

(ai )xi .

(p)(x) =
i=0

i=0

Es directo verificar que Pn ( ) es espacio vectorial sobre .


Ademas,
Pn ( ) F( , ), lo cual, nos llevara mas adelante, a definir la
nocion de subespacio vectorial.

73

(, v) v

donde es la multiplicaci
on en el cuerpo . Como es cuerpo,
se verifican las propiedades . Conclumos entonces que todo cuerpo,
, es espacio vectorial sobre si mismo. Dos ejemplos importantes
son
y .

5. Sea el grupo Abeliano ( , +) con la ley de composici


on externa:

(, a + bi) (a + bi) = a + bi

Es claro que es un espacio vectorial sobre pero no es el mismo


espacio vectorial definido sobre . Es decir, el espacio vectorial
sobre
es distinto al espacio vectorial
sobre , pues los
cuerpos sobre los cuales est
an definidos son diferentes.

Departamento de Ingeniera Matematica


- Universidad de Chile

4. Tomemos ahora un cuerpo ( , +, ) arbitrario. Claramente ( , +)


es un grupo Abeliano. Ademas, definamos la ley de composici
on:

Ejercicio

Ejercicio 3.1: Sea V un e.v. sobre


1. 0v = v0 = 0, v V, 0

. Probar que:

, elemento neutro aditivo de .

, 0 V , elemento neutro aditivo de V .


v = 0 = 0 v = 0, , v V .

2. 0 = 0 = 0,
3.

3.2.

Subespacios vectoriales

Definici
on 3.2 (Subespacio vectorial). Sea un espacio vectorial V sobre un cuerpo . Diremos que U = , es un subespacio vectorial (s.e.v) de
V si y s
olo si:

1. u, v U, u + v U
2.

, u U,

u U.

Es decir, ambas operaciones, la interna y la externa, son cerradas en U .


La siguiente proposici
on nos entrega una forma mas compacta de caracterizar a un s.e.v.
Proposici
on 3.1. Sea un espacio vectorial V sobre un cuerpo
es subespacio vectorial (s.e.v) de V si y s
olo si:
1 , 2

, u1, u2 U,
74

1 u1 + 2 u2 U.

. U = ,

subespacio vectorial
(s.e.v.)

Observaci
on: Si U es un s.e.v. de V entonces 0 U (basta tomar
= 0). Luego el subespacio vectorial mas peque
no de V es {0}. El mas
grande es, obviamente, V .
Ejemplos:

1. El conjunto de los polinomios de grado menor o igual a n, Pn ( ),


es subespacio de F( , ).

2. U = {(x, y)/ax + by = 0} es un subespacio vectorial de


efecto, sean (x1 , y1 ), (x2 , y2 ) U, 1 , 2 :

2. En

1 (x1 , y1 ) + 2 (x2 , y2 ) = (1 x1 + 2 x2 , 1 y1 + 2 y2 )
Ademas, a(1 x1 +2 x2 )+b(1 y1 +2 y2 ) = 1 (ax1 +by1 )+2 (ax2 +
by2 ) = 1 0 + 2 0 = 0. Es decir, 1 (x1 , y1 ) + 2 (x2 , y2 ) U .
El subespacio vectorial U est
a compuesto de todos los vectores de
2
contenidos en la recta ax+by = 0. Es claro que, dado un vector
(x, y) de dicha recta, (x, y), est
a en la misma recta as como la
suma de dos vectores sobre ella. De esto conclumos que cualquiera
recta que pasa por el origen es un s.e.v. de 2 .

3. Sea la matriz M Mmn ( ), el conjunto U = {x n /M x = 0}


es un s.e.v. de n . En efecto:
Dados 1 , 2 , x, y n . M (1 x + 2 y) = 1 M x + 2 M y =
1 0 + 2 0 = 0, luego, 1 x + 2 y U.

Supongamos ahora que, dado un espacio vectorial V sobre un cuerpo


tienen U, W s.e.v. de V . Es directo que

, se

U W es tambien s.e.v de V.
En efecto, si x, y U W, 1 , 2 K, entonces como U, W son s.e.v. de
V , 1 x + 2 y U y 1 x + 2 y W .
Sin embargo, la uni
on no es necesariamente un s.e.v de V .
Ejemplo:

Tomemos U = {(x, y) 2 /x y = 0}, W = {(x, y) 2 /y 2x = 0}.


Es claro que ambos son s.e.v de 2 . Sin embargo, (1, 1) U, (1, 2) W
pero (1, 1) + (1, 2) = (2, 3)
/ U W , luego no es s.e.v. (grafique para
cerciorarse).

75

Departamento de Ingeniera Matematica


- Universidad de Chile

n. En efecto, si se verifica la primera definici


Demostracio
on entonces,
de la propiedad 2, 1 u1 U y 2 u2 U . De la propiedad 1 se concluye
1 u1 + 2 u2 U .
En el otro sentido, basta tomar 1 = 2 = 1 para verificar la primera
propiedad y 2 = 0 para verificar la segunda.

U W es s.e.v.

3.3.

Combinaciones lineales

Sea V un espacio vectorial sobre un cuerpo , y una colecci


on de vectores
v1 , v2 , ..., vn V , y de escalares 1 , ..., n K. Denominamos combinaci
on lineal a la suma ponderada de estos vectores:
n

i vi = 1 v1 + ... + n vn
i=1
n

Claramente, por inducci


on sobre n, se prueba que
i=1

i vi V .

Dado un conjunto fijo, v1 , ..., vn V de vectores, definimos el conjunto de


todas sus combinaciones lineales como sigue:
n

{v1 , ..., vn } = {v V /v =

i=1

i vi , i

}.

Proposici
on 3.2. Sean V e.v. y v1 , ..., vn V . Entonces {v1 , . . . , vn } es
un subespacio vectorial de V . Adem
as es el s.e.v. m
as peque
no que contiene los vectores v1 , . . . , vn . Es decir, si otro s.e.v U los contiene, entonces
{v1 , . . . , vn } U .
Por ende, {v1 , . . . , vn } es llamado subespacio vectorial generado por
{vi }ni=1 .
n. Para probar que es un subespacio vectorial de V , sean
Demostracio
n

u, v {v1 , . . . , vn } , , K. Tenemos que u =


luego

i vi , v =
i=1

i=1

i vi ,

u + v =
i=1

(i + i )vi {v1 , ..., vn } .

Para probar que es el mas peque


no, basta notar que como U es s.e.v. de V
y contiene el conjunto {vi }ni=1 , entonces contiene todas sus combinaciones
lineales.
Ejemplo:

Tomemos v = (1, 1) 2 , el subespacio {v} = {(1, 1)/ } corresponde a la recta que pasa por el orgen con direcci
on dada por el vector
(1,1). Sean v1 = (1, 0), v2 = (0, 1),
{v1 , v2 } = {(0, 1) + (1, 0) | ,
En efecto, dado un vector arbitrario (a, b)
como
(a, b) = a(1, 0) + b(0, 1).
76

} = 2.

2, este puede escribirse

Departamento de Ingeniera Matematica


- Universidad de Chile

Esta constataci
on nos llevar
a, mas adelante, a definir una operaci
on entre espacios vectoriales (la suma) tal que podamos hablar de uniones
compatibles con la estructura de espacio vectorial.

combinaci
on lineal

{v1 , ..., vn }

Dependencia e independencia lineal

Definici
on 3.3. Sea {vi }ni=1 V , diremos que estos vectores son linealmente dependientes (.d.) si y solo si: existen escalares {1 , ..., n }, no
n

i vi =

i vi = 0. En caso contrario, es decir

todos nulos, tales que

i=1

i=1

0 i = 0 i = 1, ..., n, diremos que el conjunto de vectores {vi }ni=1 es


linealmente independiente (.i.).
Ejemplos:
{(1, 1), (2, 2)} es un conjunto linealmente dependiente:
2(1, 1) + (2, 2) = (0, 0).
Dado un espacio vectorial arbitrario V sobre
dependiente pues: 0 = 0.

, {0} es linealmente

En general, cualquier conjunto de vectores, {vi }ni=1 que contenga


0 V es linealmente dependiente. Basta tomar la combinaci
on
0v1 + 0v2 + . + 0vn + 1 0 = 0, con escalares no todos nulos.
De manera similar a lo anterior es f
acil verificar que un conjunto dependiente sigue manteniendo esta propiedad al agregarle vectores. Ademas,
un conjunto independiente, mantiene la independencia al extraerle vectores.
En efecto, sea {vi }pi=1 V un conjunto de vectores .d, entonces existe una
combinaci
on lineal nula con escalares no todos nulos:
p

i vi = 0.
i=1

on
Luego v V, {v} {vi }pi=1 es .d., ya que basta tomar la combinaci
lineal:
n

i vi = 0.

0v +
i=1

Supongamos, ahora que el conjunto {vi }pi=1 es .i., es directo de la de la


definici
on que al sacar un vector, vk , el conjunto {vi }pi=1 \ {vk } es .i.
Ejemplos:

1. El conjunto {(1, 1, 1), (0, 1, 1), (1, 0, 0)} 3 es .d. En efecto,


(1, 1, 1) = (0, 1, 1) + (1, 0, 0), es decir (1, 1, 1) (0, 1, 1) (1, 0, 0) =
(0, 0, 0) donde 1 = 1, 2 = 1, 3 = 1.

2. En el espacio vectorial 4 ( ), los polinomios 1, x son .i En efecto,


tomemos una combinaci
on lineal nula 1+x = 0, pero si = 0 se
tendra que + x es un polinomio de grado 1, luego tiene a lo mas
una raz y el polinomio 0 tiene infinitas races, luego = = 0.
77

Departamento de Ingeniera Matematica


- Universidad de Chile

3.4.

linealmente
dependientes (.d.)

linealmente
independiente (.i.)

4, {(1, 1, 0, 1), (1, 0, 1, 0), (0, 0, 1, 1), (0, 1, 1, 0)},

1 (1, 1, 0, 1)+2 (1, 0, 1, 0)+3 (0, 0, 1, 1)+4 (0, 1, 1, 0) = (0, 0, 0, 0)


es equivalente al sistema de 4 4:
1 + 2 = 0
1 + 4 = 0
2 + 3 + 4 = 0
1 + 3 = 0
en terminos matriciales

1 1
1 0

0 1
1 0

0
0
1
1


0
1
0
1 2 0
=
1
3
0
0
4
0

Aplicando Gauss a la matriz aumentada:

1
1

0
1

1
0
1
0

0
0
1
1

0
1
1
0

0
1 1 0
0
0 1 0

0
0 1 1
0
0 1 1

1 1 0 0
0 1 0 1

0 0 1 2
0 0 0 3

0
1
1
0

0
1 1 0 0
0
0 1 0 1

0
0 0 1 2
0
0 0 1 1

0
0

0
0

0
0
1 = 2 = 3 = 4 = 0.
0
0

En general en n , dado un conjunto de m vectores {v1 , ..., vm }, donde


vi = (v1i , ..., vni ),
i = 1, ..., m, podemos estudiar su dependencia o independencia lineal a
traves de un sistema de n ecuaciones y m inc
ognitas. En efecto:
1 v1 + ... + m vm = 0

0
v11
v12
v1m
.
v21
v22
v2m
..

1 .. + 2 .. + ... + m .. = .
..
.
.
.
vn1
vn2
vnm
0

v11
v21

...

vn1

v12
v22
..
.

vn2

v1m
v2m

..
.

vnm

78

0
1
.
2
..
=

..
.
. ..
m
0

m.

Departamento de Ingeniera Matematica


- Universidad de Chile

3. Los vectores en
son .i. En efecto:

Teorema 3.1. En
tes.

n, m > n vectores son siempre linealmente dependien

Observaci
on: Conviene se
nalar que en n siempre es posible determinar n vectores independientes. Basta tomar el conjunto {ei }ni=1 , ei =
(0, ..., 1, ..., 0), donde la componente no nula es la i-esima.

79

Departamento de Ingeniera Matematica


- Universidad de Chile

Definiendo M = (vij ) Mnm ( ) (es decir poniendo los vectores originales


m como el vector de inc
ognitas, se tiene que para
como columnas) y
analizar la dependencia o independencia lineal basta estudiar las soluciones
= 0.
del sistema M
= 0 que satisface el sistema, entonces el conjunto de vectores
Si existe
{vi }m
as a
un, sabemos que si m > n el
i=1 es .d., en caso contrario es .i.. M
sistema tiene mas de una solucion, en particular una no nula luego {vi }m
i=1
es .d..
As se ha probado:

FACULTAD DE CIENCIAS

FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE

Algebra
Lineal 08-2

Ejercicios

. Probar que:
0v = v0 = 0, v V, 0 , elemento neutro aditivo de .
0 = 0 = 0, , 0 V , elemento neutro aditivo de V .
v = 0 = 0 v = 0, , v V .

1. Sea V un e.v. sobre


(a)
(b)
(c)

2. Determinar cu
ales de las siguientes estructuras son espacios vectoriales:
(a)
(b)
(c)
(d)
(e)

2 con la suma usual y la siguiente ponderacion: ,

(a, b) =
(a, b).
2
con la suma usual y la siguiente ponderaci
on: , (a, b) =
(a, 0).
+
con la suma: x y = x y y la ponderaci
on: x = x .
El conjunto de las funciones de [a, b] en acotadas, con la suma y
poderaci
on (por escalares en ) usuales.
El conjunto de las funciones f : tales que f (1) = f (1), con
la suma y ponderaci
on usuales.

3. Sea Pn ( ) el conjunto de los polinomios de grado menor o igual a n,


con la suma de funciones reales y la multiplicacion por escalar definida
por:
p, q Pn ( ), (p + q)(x) = p(x) + q(x)
, (p)(x) = p(x).

Pruebe que Pn ( ) es espacio vectorial sobre

4. Indique cu
ales de los siguientes conjuntos son s.e.v. de P2 ( ) (considerado como en la parte anterior) y cu
ales no lo son. Pruebe su respuesta.
(a)
(b)
(c)
(d)
(e)

U
U
U
U
U

= {p(x) = a(x2 + x + 1) | a }.
= {p(x) = ax2 + bx + b) | a, b }.
= {p(x) = x2 + ax + b | a, b }.
= {p(x) = ax2 + b | a, b }.
= {p(x) = ax2 + b2 x + x + c | a, b, c

\ {0}}.

5. Determine la dependencia o independencia lineal de cada uno de los


siguientes conjuntos de vectores:
(a)

3
1
0
2

4
6
5
2

7
5
5
2

3.

(b) x + 1, x 1, x + x + 1 P2 ( ).
(c) {( 10 00 ) , ( 10 10 ) , ( 11 10 ) , ( 11 11 )} M22 ( )
6. (a) Sean a, b, c tres vectores de un espacio vectorial V . Determine si el
conjunto {a + b, b + c, c + a} es un conjunto l.i.
(b) Sea {u1 , u2 , . . . , uk } un subconjunto l.i. de un espacio vectorial V .
Pruebe que escalar, el conjunto:
{u1 + u2 , u3 , . . . , uk } es l.i.
80

Departamento de Ingeniera Matematica


- Universidad de Chile

Gua
Semana 6

Ingeniera Matematica

Ejercicio 3.1

P1. Sea P3 ( ) el conjunto de polinomios de grado menor o igual a 3 con


coeficientes reales. Sean p1 , p2 , p3 P3 ( ) tales que

p1 (x) = 1 + 6x2 ,

p2 (x) = 4x,

p3 (x) = 1 + 3 + 5x2 .

Demuestre que P2 ( ) = {p1 , p2 , p3 } .


P2. Sean E, F e.v. sobre un cuerpo
satisface:

. Sea T una funcion T : E F , que

(1) T (0E ) = 0F . En donde 0E y 0F son los neutros aditivos en cada


e.v.
(2) x E,

: T (x) = T (x).

(3) x, y E, T (x + y) = T (x) + T (y).


Considere
T (E) = {y F | y = T (x), x E}.
(a) Muestre que T (E) es un s.e.v. de F .

(b) Suponga ademas que T satisface que:


x E, T (x) = 0 x = 0.
Muestre que si {u1 , . . . , un } E es l.i., entonces {T (u1), . . . , T (un )}
F es l.i.
P3. Sean E y F espacios vectoriales sobre el mismo cuerpo

(a) Pruebe que dotando al conjunto E F de las leyes


(x, y), (u, v) E F,

(x, y) + (u, v) = (x + u, y + v)

, (x, y) E F,
este resulta ser un e.v. sobre .

(x, y) = (x, y),

(b) Pruebe que E {0F } y {0E } F son subespacios vectoriales de


E F . Determine 0EF y pruebe que (E {0F }) ({0E } F ) =
{0EF }.

(c) Sea {e1 , e2 , . . . , en } E un conjunto l.i. en E y {f1 , f2 , . . . , fm }


F un conjunto l.i. en F . Determine un conjunto l.i. en E F , de
tama
no n + m.

P4. Sea E el espacio vectorial sobre


a valores reales:

de las funciones definidas sobre

E = {f | f :

81

es funcion}.

Departamento de Ingeniera Matematica


- Universidad de Chile

Problemas

n , f (n) + a1 f (n 1) + a2 f (n 2) = 0.
Pruebe que F0 es un s.e.v. de E.

(b) Sea ahora F1 el conjunto de las funciones f E que verifican la


condicion:
n , f (n) + a1 f (n 1) + a2 f (n 2) = 1.
Pruebe que F1 no es un s.e.v. de E.

82

Departamento de Ingeniera Matematica


- Universidad de Chile

(a) Sean a1 , a2
con a2 = 0 y F0 el conjunto de las funciones
f E que verifican la condicion:


Ingeniera Matematica

SEMANA 7: ESPACIOS VECTORIALES

3.5.

Generadores de un espacio vectorial

Sea V un espacio vectorial sobre un cuerpo


{v1 , ..., vn } V , generan V si y s
olo s:

. Diremos que los vectores

{v1 , ..., vn } V
generan V

{v1 , ..., vn } = V
o de manera equivalente:
v V, {i }ni=1

tal que

i vi .

v=
i=1

Ejemplo:

Tomemos el conjunto {(1, 0), (0, 1), (1, 1)}. Este genera 2 . En efecto,
(x, y) = x(1, 0) + y(0, 1) + 0(1, 1). Es decir {(1, 0), (0, 1), (1, 1)} = 2 .
Pero, en este caso, la forma de escribir (x, y) no es u
nica:

(x, y) = (x y)(1, 0) + y(1, 1) + 0(0, 1).


En ambas combinaciones lineales sobra un vector. M
as a
un, constatamos que los tres vectores son l.d.:
(1, 1) (1, 0) (0, 1) = (0, 0)

umeEsto nos lleva a la noci


on de conjunto generador de 2 con un n
ro mnimo de vectores linealmente independientes. En nuestro ejemplo
anterior
{(1, 0), (0, 1)}
o {(1, 1), (1, 0)}.
Hay alguno mas?.

Definici
on 3.4 (Base). Dado un espacio vectorial V sobre , diremos
que el conjunto de vectores {vi }ni=1 es una base de V si y s
olo s:
(1) {vi }ni=1 es un conjunto l.i.
(2) V = {v1 , ..., vn } .
Ejemplos:

1. En n , el conjunto {ei }ni=1 , donde ei = (0, ..., 1, 0..,0) es base. En


efecto, ya probamos que son l.i., ademas, dado x = (x1 , ..., xn )

n , x =

xi ei . Esta base de

i=1

83

Departamento de Ingeniera Matematica


- Universidad de Chile

FACULTAD DE CIENCIAS

FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE

Algebra
Lineal 08-2

n se denomina base canonica.

base

Para resolverlo tomemos la

1 1 0 b1
1 1
1 0 1 b2 0 1
0 1 1 b3
0 1

matriz aumentada y escalaremos:

0
b1
1 1 0
b1
1 b2 b1 0 1 1
b2 b1 ,
1
b3
0 0 2 b3 + b2 b1

de donde: 3 = b3 +b22 b1 , 2 = b1 +b23 b2 , 1 =


dado b 3 , b es combinaci
on lineal de B:

(b1 , b2 , b3 ) =
Luego

3 =

b1 +b2 b3
.
2

Es decir,

b1 + b3 b2
b2 + b3 b1
b1 + b2 b3
(1, 1, 0)+
(1, 0, 1)+
(0, 1, 1).
2
2
2
B . Para determinar que el conjunto B es l.i. (y por

lo tanto base) basta resolver el sistema anterior para b = (0, 0, 0).


En este caso se concluye 1 = 3 = 3 = 0, y por lo tanto son l.i.

3. En el espacio vectorial Pn ( ), el conjunto B = {1, x, x2 , ..., xn } es


base. En efecto. Es claro que cualquier polinomio, q de grado n
se escribe como combinaci
on lineal de los vectores en B:
n

ai xi .

q(x) =
i=0

para verificar que estos son .i tomemos la combinaci


on lineal
n

i xi = 0.
i=0

Se tiene que, si el polinomio de la izquierda tiene alg


un coeficiente
no nulo, entonces es un polinomio de grado entre 0 y n luego posee,
a lo mas, n races. Pero el polinomio de la derecha (polinomio nulo)
tiene infinitas races. De esto se desprende que i = 0, i = 0, ..., n.
Otra manera de verificar la independencia lineal es mediante derivaci
on:
n

d
i xi ) = 1 + 22 x + ... + nn xn1 = 0
(
dx i=0
84

Departamento de Ingeniera Matematica


- Universidad de Chile

3
2. Estudiemos, en
, si el conjunto de vectores, B =
{(1, 1, 0), (1, 0, 1), (0, 1, 1)}, es base. Veamos primero si B es generador. Sea b = (b1 , b2 , b3 ) 3 y determinemos si existen escalares, {1 , 2 , 3 }, tales que: (b1 , b2 , b3 ) = 1 (1, 1, 0) + 2 (1, 0, 1) +
3 (0, 1, 1). Esto es equivalente a estudiar el sistema de 3 3:


1 1 0
1
b1
1 0 1 2 = b2 .
0 1 1
3
b3

..
.

dn
i xi ) = n!n = 0
(
dxn i=0
n = 0 n1 ... 1 = 0 0 = 0
4. Existen espacios vectoriales en los cuales ning
un conjunto finito de
vectores es base, por ejemplo, sea S el conjunto de las sucesiones,
es decir:
S = {(un )/un , n }.

Claramente, con la suma (un )+(vn ) = (un +vn ) y la multiplicacion


(un ) = (un ), , S es un espacio vectorial sobre .

(1)

Vemos que el conjunto finito de sucesiones Bn = {x , . . . , x(n) },


(i)
olo si i = j (0 en otro caso), es linealmente
donde xj = 1 si y s
independiente. En efecto:
n
i=0

i x(i) = (1 , 2 , ..., n , 0, 0...) = (0, ..., 0, ...) i = 0 i = 1, ..., n.

Pero, siempre es posible agrandar este conjunto. Basta tomar


Bn+1 = Bn {x(n+1) }. Ademas n , Bn no es generador pues
dado n fijo, el vector x(n+1) es linealmente independiente de los
vectores de Bn . Es decir, extendiendo adecuadamente las definiciones de l.i. y generador a conjuntos infinitos (lo cual se puede
hacer, pero no lo haremos aqu), la base sera B = n1 Bn ,
que es un conjunto infinito. Sin embargo, es posible probar que
B tampoco puede generar a todas las sucesiones de S, es s
olo un
conjunto l.i.

5. Observemos que el conjunto de las progresiones aritmeticas, P A


es un s.e.v. de S, y este tiene una base finita. En efecto
1 =
(1, . . . , 1, . . . ), e = (1, 2, 3, . . . , n, . . . ) P A y ademas son l.i.:

1 + e = ( + , + 2, + 3, ..., + u, ...) = (0, ..., 0, ...)


( + = 0) ( + 2 = 0) = = 0.
Ademas son generadores: Sea (xn )n una progresion de diferencia
d entonces se tiene xn = x0 + nd y por lo tanto:
1 + de.
(xn ) = x0

85

Departamento de Ingeniera Matematica


- Universidad de Chile

d2
i xi ) = 22 + ... + n(n 1)n xn2 = 0
(
dx2 i=0

Proposici
on 3.3. Dado un espacio vectorial V , B = {vi }ni=1 V es una
base si y s
olo s v V, v se escribe de manera u
nica como combinaci
on
lineal de los vectores del conjunto B.

n. Demostremos esta propiedad:


Demostracio
) Como B es base, B = V , luego v se escribe como combinaci
on lineal
de los vectores en B. Supongamos que esto puede hacerse de dos maneras:
n

i vi .

i vi , v =

v=

i=1

i=1
n

Se tiene entonces
i=1

(i i )vi = 0. Como B es un conjunto l.i., conclumos

que i = i para todo i.


) Por hipotesis, cualquier vector v V es combinaci
on lineal del conjunto
n

i vi = 0

B, luego B es generador. Supongamos que B es l.d., entonces

i=1

con escalares no todos nulos. Ademas 0v1 + 0v + ... + 0vn = 0 luego el


vector 0 se escribe de dos maneras distintas, lo cual es una contradicci
on.
Conclumos entonces que B es base.

Observaci
on: Por convenci
on el conjunto vaco es la base del espacio
vectorial {0}. Esto pues por definici
on diremos que es l.i. y ademas
el subespacio mas peque
no que lo contiene es {0}.
Otra propiedad importante es la siguiente:

Teorema 3.2. Si X = {v1 , . . . , vn } V es un conjunto generador, entonces es posible extraer un subconjunto B = {vi1 , . . . , vis } que es base de
V.

n. Procederemos de manera recursiva


Demostracio
1. Elijamos vi1 B, el primer vector no nulo que encontremos ( Que pasa si todos son cero?). Hagamos B1 = {vi1 }. Claramente B1 es linealmente independiente.
2. Preguntamos X \ B1 B1 ?

Si es cierto: Entonces B1 es base. En efecto, X \ B1 B1


n

j = i1 , vj = j vi1 . Como V = X v V, v =

86

k vk =
k=1

Departamento de Ingeniera Matematica


- Universidad de Chile

Una caracterizaci
on de base, que nos ser
au
til mas adelante, es la siguiente:

k k vi1 + i1 vi1 = vi1 B1 , con

lo que implica que

V B1 . Es decir V = B1 , luego B1 es l.i. y generador.

/ B1 . Hacemos B2 =
Si no es cierto: Entonces vi2 X \ B1 , vi2
B1 {vi2 } y repetimos el procedimiento anterior.

En el k-esimo paso se habr


a generado, a partir de Bk1 = {vi1 , ..., vik1 },
(que es linealmente independiente), el nuevo conjunto:
Bk = Bk1 {vik },

vik
/ Bk1 .

Bk es linealmente independiente: En efecto, sea:


k

j vij = 0.
j=1

Si k = 0 entonces vik = 1k

k1
j=1

j vij Bk1 que es una contra-

dicci
on. Luego k = 0 y, como Bk1 es linealmente independiente,
j = 0 j = 1...k 1.
Finalmente, como el conjunto de vectores X es finito, en un n
umero finito de pasos determinamos un conjunto linealmente independiente Bs =
aloga a lo ya hecho se
{vi1 , ..., vis }, tal que X \ Bs Bs y de manera an
prueba que es generador y por lo tanto base de V .
En la demostracion anterior, elegimos el pr
oximo vector, vik , para entrar al conjunto Bk1 , exigiendo solamente: vik
/ Bk1 . Obviamente
pueden existir varios vectores con tal propiedad. Esto permite afirmar que,
en general, a partir de B podemos determinar varias bases (a menos claro
que B mismo sea una base).
Ejemplo:
Si
B
=
{(1, 0), (0, 1), (1, 1)},
los
subconjuntos
{(1, 0), (0, 1)}, {(1, 0), (1, 1)} y {(0, 1), (1, 1)} son todos bases de
2
.

Daremos ahora una generalizaci


on del Teorema 3.1.
Teorema 3.3. Supongamos que tenemos B = {vi }ni=1 , base de V y un
conjunto arbitrario X = {wi }m
i=1 V . Si m > n, entonces el conjunto X
es l.d.

n. En efecto, como B es base: wi = 1i v1 + ... + ni vn


Demostracio
i m. Tomemos una combinaci
on lineal de los vectores de X:
1 1 + ... + m m = 0,
87

1
(3.1)

Departamento de Ingeniera Matematica


- Universidad de Chile

k=i1

i [1i v1 + ... + ni vn ] = 0
i=1
m

ji vj = 0

i
i=1
n

j=1
m

i ji ) = 0

vj (
j=1

i=1

y como B = {vj }nj=1 es l.i., lo anterior es equivalente a


m

ji i = 0
i=1

1jn

o, de manera matricial A = 0, donde

1
11 12 1m
21 22 2m
2

A=
, =
..
..
...

.. .
.
.
.
n1 n2 nm
m

Del captulo anterior sabemos que para m > n el sistema anterior tiene
mas de una solucion (infinitas), luego al menos una no nula. Es decir existen
escalares 1 , ..., m , no todos nulos, solucion de la ecuaci
on 3.1. De donde
conclumos que X es l.d.
De este resultado se desprende directamente el corolario siguiente que es
suma importancia:
Corolario 3.1. Si {vi }ni=1 , y {ui }m
i=1 son bases de V , entonces n = m.
n. En efecto, si n > m, de la propiedad anterior conclumos
Demostracio
on.
{vi }ni=1 es l.d., lo cual es una contradicci
As, si existe una base finita, de cardinal n, entonces cualquier otra base
contiene exactamente n vectores.
Esto nos lleva a definir la dimensi
on de un espacio vectorial.
Definici
on 3.5 (Dimensi
on). Diremos que un espacio vectorial V sobre

es de dimension n (finita) si admite una base de cardinalidad n. En caso

que no exista una base finita, hablaremos de espacio vectorial de dimensi


on
infinita.
Notaremos dim V al cardinal de una base (dim V = , si V no posee una
base finita). En particular dim{0}=0.
Ejemplos:
1. dim

n = n.
88

Departamento de Ingeniera Matematica


- Universidad de Chile

reemplazando cada wi como combinaci


on lineal de B, 3.1 equivale a:

dimensi
on

dimensi
on infinita

3. dim P A = 2.
4. dim Mmn = m n.
Verifiquemos esta u
ltima. Tomemos el conjunto de matrices de 0 y 1:
] = (e ), e = 1 (, ) = (i, j) {1, ..., m}, {1, ..., n}}.
B = {E[,
ij
ij
Este conjunto corresponde a la base can
onica del espacio de las matrices.
Por ejemplo, para m = 2 y n = 3, el conjunto B est
a formado por las
matrices:
1 0
0 0

0
0

0
0

1 0
0 0

0
0

0 1
0 0

0 0
1 0

0
0

0 0
1 0


11 ...1n
0
.

.
=
E[, ] =
.
=1 =1
0
m1 ...mn

... 0
..
.

0
0

0 0
0 0

Volvamos al caso general, claramente B es l.i.


m

= 0

... 0

, .

Ademas, dada A = (aij ) Mmn (K):


m

a E[, ].

A=
=1 =1

Luego, el conjunto {E[, ]}, es base. Es decir dim Mmn (K) = mn.
Algunas propiedades de los espacios de dimensi
on finita son las siguientes:

Teorema 3.4.
1. Sea dim V = n. Si {vi }ni=1 es l.i. entonces {vi }ni=1 es base.
2. Sea U un s.e.v de V , luego dim U dim V m
as a
un se tiene que
dim U = dim V U = V .
n.
Demostracio
1. Basta probar que V = {v1 , ..., vn } . Supongamos u
/ {v1 , .., vn } ,
luego
B = {u, v1 , ..., vn } es l.i. y |B| = n + 1 > n. Lo que es una contradicci
on, pues todo conjunto de cardinal mayor que la dimensi
on debe
ser l.d.

89

0
1

Departamento de Ingeniera Matematica


- Universidad de Chile

2. dim S = .

Para probar la u
ltima parte supongamos U = V . Sea {ui }ni=1 una
base de U . Como U = V y {u1 , ..., un } = U,
v V \ U B = {v} {ui }ni=1 es l.i. en V y |B| > dim V , que al
igual que antes da una contradicci
on.
Un resultado importante es la posibilidad de que, en un espacio vectorial
V,
dim V = n, un conjunto de vectores linealmente independiente, pueda
completarse hasta formar una base de V .

Teorema 3.5 (Completaci


on de base). Dado V espacio vectorial sobre
con dim V = n, y un conjunto de vectores l.i.; X = {v1 , . . . , vr }, r <
n, entonces existen vectores vr+1 , . . . , vn , tales que el conjunto {v1 , . . . , vn }
es base de V .

n. Sea U = {v1 , . . . , vr } , claramente U = V (justifique).


Demostracio
Luego v V \ U . Definiendo vr+1 = v, el conjunto {v1 , ..., vr , vr+1 } es l.i.
En efecto
r+1

i vi = 0
i=1
1
Si r+1 = 0 entonces, se concluye que vr+1 = r+1

r
i=1

i vi {v1 , ..., vr }

lo cu
al es una contradicci
on ya que vr+1
/ U . Si r+1 = 0 i = 0 i =
1, ..., r pues los vectores de X son l.i. Si {v1 , ..., vr+1 } = V hemos terminado, sino repetimos el procedimiento.
Ejemplo:
Consideremos, en

4 el conjunto
X = {(1, 1, 0, 0), (0, 1, 0, 0)}.

Claramente este conjunto es l.i. y ademas (0, 0, 1, 0)

/
{(1, 1, 0, 0), (0, 1, 0, 0)} . Luego {(1, 1, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0)} es
l.i.
An
alogamente, el vector (0, 0, 0, 1)
/ {(1, 1, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0)}
luego el conjunto B = {(1, 1, 0, 0)(0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} es l.i.
y como contiene tantos vectores como dim 4 = 4, es base.

90

Departamento de Ingeniera Matematica


- Universidad de Chile

2. Supongamos m = dim U > n = dim V , entonces existe {ui }m


i=1 base
de U , pero {ui }m

V
es
l.i.,
de
cardinal
mayor
que
la
dimensi
on,
i=1
lo cual contradice el hecho que el maximo conjunto de vectores l.i. es
de cardinalidad n.

Completaci
on de base

Suma de espacios vectoriales

Recordemos que la uni


on de subespacios de un espacio vectorial V , no es
necesariamente un espacio vectorial. Definamos una operaci
on entre subespacios que nos permita determinar uno nuevo, que contenga a ambos. Sean
U, W subespacios de V , definimos la suma de subespacios vectoriales
como sigue:
U + W = {v V /v = u + w, u U, w W }.
Es directo que U + W es un s.e.v de V . En efecto, sean x, y U + W, ,
K, luego x = u1 + w1 , y = u2 + w2 . Ademas, x + y = (u1 + u2 ) +
(w1 + w2 ) U + W ya que U y W son s.e.v.
Ejemplo:
Tomemos en

2, los subespacios U =

{(1, 1)} , W = {(1, 0)}

U + W = {v = (1, 1) + (1, 0)/,

} = 2

En efecto, (x, y) = y(1, 1) + (x y)(1, 0)


Sean, en 3 , los subespacios U = {(1, 0, 0)} , W = {(0, 1, 0)}

U + W = {(x, y, 0) | x, y

} = 3.

En general, es directo que U U + W y W U + W . Basta tomar los


elementos de la forma u + 0 y 0 + w, respectivamente.
Dado V = U + W , un vector no necesariamente admite una escritura u
nica
en terminos de U y W .
Ejemplo:
Si
U =< {(1, 0), (0, 1)} >, W =< {(1, 1)} >

luego

2 = U + W . Pero el vector (1, 1) se escribe de dos maneras:


(1, 1) = (1, 1) + 0

donde (1, 1) U y 0 W , pero ademas


(1, 1) = 0 + (1, 1)
donde esta vez 0 U y (1, 1) W .
En el caso particular, en que la descomposici
on de un vector de V sea u
nica
en terminos de los subespacios, diremos que V es suma directa de U y
W,
Definici
on 3.6 (Suma directa). Sea un espacio vectorial V y dos subespacios vectoriales U, W de V . Diremos que el subespacio Z = U + W es
suma directa de U y W , notado U W = Z, si v Z, v se escribe de
91

Departamento de Ingeniera Matematica


- Universidad de Chile

3.6.

suma de subespacios
vectoriales

U +W

suma directa
U W = Z

v = u + w,

u U, w W.

En el caso en que V sea suma directa de U y W , diremos que estos u


ltimos
son suplementarios.
Ejemplo:

Sean, por ejemplo, los subespacios de 2 , V =< {(1, 0)} >, W =<
{(0, 1)} >
2
= U W, pues (x, y) = x(1, 0) + y(0, 1) es u
nica.

Una caracterizaci
on u
til de la suma directa es la siguiente:
Proposici
on 3.4. Dado V e.v. y U, W, Z s.e.v. de V , entonces
Z = U W (Z = U + W ) (U W = {0})
n. En efecto:
Demostracio
) Como Z es suma directa de U y W , v Z, ! u U, w W tal que
v = u + w v U + W , luego Z = U + W .

Supongamos ahora v U W , entonces v = v + 0 = 0 + v. Es decir,


v admite dos escrituras en U + W , luego necesariamente v = 0.

) Como Z = U + W, v Z, v = u + w, u U, w W . Veamos que


esta descomposici
on es u
nica. Supongamos v = u + w y v = u + w ,

entonces u u = w w, donde u u U y w w W , luego


u u U W u u = 0 u = u w = w .
Una propiedad interesante de la suma directa es:

Teorema 3.6. Si V = U W y V es de dimensi


on finita, entonces dim
V = dim U + dim W .

n. En efecto, si U o W corresponde al subespacio nulo, {0},


Demostracio
el resultado es directo.
Supongamos entonces U = {0} = W . Sea {ui }ki=1 base de U, {wi }m
i=1 base
de W . Afirmamos que el conjunto B = {u1 , ..., uk , w1 , ..., wm } es base de
V:
1. B es linealmente independiente:
m

i wi = 0

i ui +
i=1

i=1

92

Departamento de Ingeniera Matematica


- Universidad de Chile

manera u
nica como

dim U W

i=1

i ui U,

i=1

i wi W y el vector 0 se escribe de manera

u
nica en U + W como 0 = 0 + 0, obtenemos:
m

i wi = 0

i ui =
i=1

i=1

y por independencia lineal de {ui }ki=1 , {wi }m


mos 1 = ... =
i=1 conclu
k = 1 = ... = k = 0.
2. B es generador del e.v. V :
Como V = U W, v V, v = u + w, u U, w W . Pero u U, w
k

i ui ,

W se escriben como combinaci


on lineal de sus bases: u =
i=1

i wi , de donde,

w=
i=1
k

i wi , luego B = V .

i wi +

v=

i=1

i=1

De (1) y (2) es directo que dim V = k + m = dim U + dim W .


Una pregunta importante es la siguiente: dado un s.e.v U de V , existe
un suplementario de U ?, es decir un s.e.v W tal que V = U W ?
La respuesta es afirmativa, si U = V , basta tomar como suplementario
W = {0}. Si dim U < dim V , tomemos una base de U : X = {ui }ki=1 . Por
el teorema de completaci
on de base, existen vectores {uk+1 , ..., un } tales
que B = X {uk+1 , ..., un } es base de V . Sea ahora
W = {uk+1 , ..., un } . Afirmamos que V = U W . En efecto, como {u1 , ..., un }
es base de V , todo v V puede escribirse, de manera u
nica, como combinaci
on lineal de esta base:
n

i ui +

v=
i=1

i ui
i=k+1

Como u =
i=1

i ui U, w =

i=k+1

i ui W , tenemos que un vector v V

se escribe de manera u
nica como v = u + w.
Ejemplos:
Tomemos V =

3 y los subespacios

U = {(1, 0, 0), (0, 1, 0)} , W = {(0, 1, 0), (0, 0, 1)}


U W = {(0, 1, 0)} . En efecto, si v U W, v = (1, 0, 0)+(0, 1, 0) =
(0, 1, 0) + (0, 0, 1). De donde, = = 0, = . Luego v = (0, 1, 0).
Es decir
U W = {(0, 1, 0)} , De esto conclumos que U +W no es suma directa,
93

Departamento de Ingeniera Matematica


- Universidad de Chile

Como

En 2 , cualquier par de rectas no colineales, que pasen por el origen,


est
an asociados a subespacios suplementarios. Luego el suplementario de
un s.e.v. U no es u
nico.
El siguiente resultado, propuesto como ejercicio, extiende el Teorema 3.6 al
caso en que la suma no es necesariamente directa.

Departamento de Ingeniera Matematica


- Universidad de Chile

sin embargo 3 = U + W =
{(1, 0, 0), (0, 1, 0), (0, 0, 1)} .

Teorema 3.7. Supongamos que V = U + W , entonces dim V = dim U +


dim W dim U W .

dim U + W

n. Propuesta como ejercicio. Ver la gua para indicaciones.


Demostracio

Ejercicio

94

FACULTAD DE CIENCIAS

FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE

Algebra
Lineal 08-2

Ejercicios
1. Averigue si el conjunto de polinomios {1 + x3 , 1 x3 , x x3 , x + x3 }
constituye una base de F = {p P( ) | gr(p) < 4}. Donde P( ) el es
espacio de los polinomios a coeficientes reales.

2. Sea W es subespacio vectorial de 4 generado por el conjunto



2
1
1


1
1
, , 3 .
1 1 2

3
1
1
(a) Determine una base de W y su dimensi
on.

(b) Extienda la base encontrada antes a una base de

4 .

3. Se desea probar el siguiente resultado:


Supongamos que V = U + W , entonces dim V = dim U + dim W
dim U W .
Para ello:
Considere U W como subespacio de U y W . Si se toma {z1 , ..., zk }
base de U W , se puede extender a
BU = {z1 , ..., zk , u1 , ..., ul } base de U y

BW = {z1 , ..., zk , w1 , ..., wp } base de W.


Se probar
a que B = {z1 , ..., zk , u1 , ..., ul , w1 , ..., wp } es base de V .
(a) Pruebe que B genera a V . Es decir, tome v V y pruebe que es
combinaci
on lineal de los vectores de B. Use que V = U + W .
(b) Para probar que B es l.i., tome una combinaci
on lineal de B igual
a cero:
0 = 1 z1 + ... + k zk + 1 u1 + ... + l ul + 1 w1 + ... + p wp
de donde
(1 w1 + ... + p wp ) = 1 z1 + ... + k zk + 1 u1 + ... + l ul . (3.2)
Pruebe que existen 1 , . . . , k

tales que

(1 w1 + ... + p wp ) = 1 z1 + ... + k zk .
(c) Demuestre que 1 = = p = 1 = = k = 0.

(d) Reemplace lo anterior en 3.2 y use que BU es base para probar que
1 = = k = 1 = = l = 0.
(e) Concluya que B es l.i. y por ende base de V .
(f ) Concluya el resultado buscado.
95

Departamento de Ingeniera Matematica


- Universidad de Chile

Gua
Semana 7

Ingeniera Matematica

Teorema 3.7

P1. Considere los conjuntos W y U

a
W = {M M33 ( ) | M = b
0

definidos por:

b 0
e c a+e+i = 0, a, b, c, e, i
c i

0 r s
U = {M M33 ( ) | M = r 0 0 , r, s }.
s 0 0

}.

(a) Demuestre que W y U son subespacios vectoriales de M33 ( ).


(b) Encuentre bases y dimensiones para los subespacios U, W, U W
y U + W , y decida (justificando) si la suma U + W es directa.
Cu
antos vectores es preciso agregar a una base de U +W para obtener una base de S = {M M33 (R) | M simetrica}? Justifique
encontrando una base de S.

P2. Sea m = 2n con n > 0 y considere el conjunto Pm ( ) de los polinomios


reales de grado menor o igual a m. Si cada p Pm ( ) se escribe
p(x) = a0 + a1 x + + am xm , se define el conjunto

V = {p Pm ( ) | i {0, . . . , m}, ai = ami .}

(a)
(b)
(c)
(d)

Probar que V es subespacio vectorial de Pm ( ) sobre los reales.


Encontrar una base de V y deducir que su dimensi
on es n + 1.
Probar que Pm ( ) = V Pn1 ( ).
Se define

V = {p(x) =

i=0

ai xi Pm ( ) | i {0, . . . , m}, ai = ami }.

Probar que Pm ( ) = V V (asuma que V es un subespacio


vectorial de Pm ( )).

P3. Si A Mnn ( ) y V es un subespacio vectorial de

n, se define:

A(V ) = {Ax | x V }.

(a) (1) Pruebe que si A Mnn ( ) y V es s.e.v. de n entonces


A(V ) tambien es s.e.v. de n .
(2) Sean V, W s.e.v. de n tales que V W = n . Pruebe que
si A Mnn ( ) es invertible entonces A(V ) A(W ) = n .
(3) Sean V, W s.e.v. de n tales que V W = n . Pruebe que
si A(V ) A(W ) = n , entonces A es invertible.
Indicaci
on: Pruebe que para todo z n el sistema Ax = z
tiene solucion.
(b) (1) Sea W un s.e.v. de n y definamos E = {A Mnn ( ) | A( n )
W }. Muestre que E es un s.e.v. de Mnn ( ).
on de E = {A
(2) Sea W = {(t, t) | t }. Calcule la dimensi
M22 ( ) | A( 2 ) W }.

96

Departamento de Ingeniera Matematica


- Universidad de Chile

Problemas


Ingeniera Matematica

SEMANA 8: TRANSFORMACIONES LINEALES

4.

Transformaciones lineales

4.1.

Introduccion

Sea la matriz A = ( 01 10 ) y multipliquemos los vectores de 2 por esta


matriz. Sea v = ( xx12 ), se tiene entonces Av = ( xx21 ), es decir el vector que se
obtiene de intercambiar las coordenadas de v.
0
Si tomamos A = 1
0 1 , al multiplicar por el vector v obtenemos Av =
x1
( x2 ) , que es el vector simetrico con respecto al orgen.
Estos dos ejemplos nos dan funciones completamente distintas pero ellas
comparten propiedades que son fundamentales: la imagen de la suma de dos
vectores es la suma de las imagenes y la imagen de un vector ponderado por
un real es la imagen del vector ponderada por el mismo escalar. Funciones
que verifican estas propiedades son llamadas lineales y son el objeto de este
captulo. Veamos un caso mas general.
En n consideremos T como la funci
on:

T :

n m
v Av

donde A Mmn ( )
Este tipo de transformaciones tiene dos propiedades fundamentales:
u, v

1. T (u + v) = T (u) + T (v)
2. T (v) = T (v)

, v n

En efecto, T (u + v) = A(u + v). Como la multiplicacion matricial distribuye


con respecto a la suma:
T (u + v) = Au + Av = T (u) + T (v)
Por otra parte, T (v) = A(v) = Av = T (v)

4.2.

Tranformaciones lineales

Definici
on 4.1 (Tansformaci
on lineal). Sean U, V dos espacios vectoriales sobre el mismo cuerpo . Diremos que una funci
on T : U V es
una transformaci
on (o funci
on) lineal si y s
olo si satisface:

1. u1 , u2 U, T (u1 + u2 ) = T (u1 ) + T (u2 )

2. u U, K, T (u) = T (u)

(4.1)

Se
nalemos que la propiedad 4.1 establece un homomorfismo entre los grupos
(U, +) y (V, +).

97

Departamento de Ingeniera Matematica


- Universidad de Chile

FACULTAD DE CIENCIAS

FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE

Algebra
Lineal 08-2

Transformaci
on lineal

n m, X AX, es lineal.
El caso particular, f : , x ax, a es lineal. En efecto,

1. Cualquier funci
on T :
2.

f (x + y) = a(x + y) = ax + ay = f (x) + f (y). Ademas, f (x) =


a(x) = ax = f (x). Esta transformaci
on corresponde a una
recta (lnea) que pasa por el orgen con pendiente a.

3. f : , x x2 , no es lineal. En efecto: f (x + y) = (x + y)2 =


x2 + 2xy + y 2 = f (x) + f (y) + 2xy, luego no es lineal. En general
cualquier funci
on real de grado superior a uno , trigonometrica,
etcetera, no es lineal.

4. f : P3 ( ) 4 , p(x) = a0 + a1 x + a2 x2 + a3 x3 f (p) =
(a0 , a1 , a2 , a3 ), es lineal. En efecto; si q(x) = b0 + b1 x + b2 x2 + b3 x3 ,
obtenemos
f (p + q) = f ((a0 + b0 ) + (a1 + b1 )x + (a2 + b2 )x2 + (a3 + b3 )x3 ) =
= (a0 + b0 , a1 + b1 , a2 + b2 , a3 + b3 ) = (a0 , a1 , a2 , a3 ) + (b0 , b1 , b2 , b3 )
= f (p) + f (q)
f (p) = f (a0 + a1 x + a2 x2 + a3 x3 ) = (a0 , a1 , a2 , a3 )
= (a0 , a1 , a2 , a3 ) = f (p).

5. Sea Fd ( , ) el conjunto de las funciones reales derivables. Es


directo verificar que este conjunto es un s.e.v. de F( , ). Consideremos la transformaci
on:

) F(, )

T : Fd ( ,

f T (f )

df
(x) es la funci
on derivada. Es directo, de las
donde T (f )(x) = dx
propiedades de derivaci
on que T es lineal.

S ea V e.v sobre

, V

= V1 V2 y sean:

P1 : V V1 ,
v = v1 + v2 P1 (v) = v1

P2 : V V2
v = v1 + v2 P2 (v) = v2

Ambas funciones (porque son funciones?) son lineales. Verifiquemos para P1 : sean , v = v1 + v2 , u = u1 + u2 , vi , ui Vi , i =
1, 2.
P1 (v + u) = P1 (v1 + u1 ) + (v2 + u2 )) =
= v1 + u1 = P1 (v) + P1 (u)

La funci
on, Pi , se denomina la proyeccion de V sobre Vi .

98

Departamento de Ingeniera Matematica


- Universidad de Chile

Ejemplos:

Propiedades de transformaciones lineales

Proposici
on 4.1. Sea T : U V una transformaci
on lineal. Se tiene
entonces:
1. T (0) = 0 V .
2. T (u) = T (u).
3. T es lineal si y s
olo si 1 , 2 K, u1 , u2 U
T (1 u1 + 2 u2 ) = 1 T (u1 ) + 2 T (u2 ).
n. Demostremos estas propiedades:
Demostracio
1. T (u) = T (u + 0) = T (u) + T (0)
como V es espacio vectorial (V, +) es un grupo Abeliano, luego podemos cancelar T (u); de donde 0 = T (0).
2. T (u) = T (1u) = 1T (u) = T (u).
3. ) T (1 u1 + 2 u2 ) = T (1 u1 ) + T (2 u2 ) = 1 T (u1 ) + 2 T (u2 ).
) Tomando 1 = 2 = 1 se verifica la propiedad (1) de linealidad.
Considerando 2 = 0, se obtiene la propiedad (2).

Observaci
on: Note que las demostraciones de las propiedades 1 y 2
podran haber sido omitidas, ya que dichas propiedades son consecuencias de que T sea morfismo entre los grupos (U, +) y (V, +).
n

Dada una combinaci


on lineal de vectores
lineal,
T : U V . Se tiene, por inducci
on, que:

i=1

i xi U y la transformaci
on

i T (xi )

i xi ) =

T(

i=1

i=1

Si dim U = n y = {ui }ni=1 es una base de U , sabemos que u U se escribe,


n

i ui , donde los escalares = (1 , ..., n )

de manera u
nica, como u =
i=1

corresponden a las coordenadas de u con respecto a la base . Aplicando a


este vector u la transformaci
on lineal T :
n

i T (ui )

i ui ) =

T (u) = T (

(4.2)

i=1

i=1

De este c
alculo se desprende que: basta definir la transformaci
on T sobre
una base de U , es decir calcular s
olo {T (vi )}ni=1 . Para determinar el efecto
de T sobre un vector u V arbitrario, basta aplicar la ecuaci
on 4.2.

Departamento de Ingeniera Matematica


- Universidad de Chile

4.3.

Ejercicio

99

u T (u)

tal que T (ui ) = vi i = 1, ..., n.

Consideremos ahora la transformaci


on:

f :U n
u f (u) = = (1 , ..., n )
que a cada vector u le asocia las coordenadas con respecto a una base fija
= {ui }ni=1 .
Es claro que f es funci
on (representacion u
nica de un vector con respecto
a una base). Ademas, es lineal. M
as a
un f es biyectiva (verifquelo). Esto
nos lleva a la siguiente definici
on.
Definici
on 4.2 (Isomorfismo). Sea T : U V una transformaci
on
lineal, diremos que es un isomorfsmo si T es biyectiva.
Adem
as diremos que U y V son isomorfos si existe un isomorfsmo entre
U y V , en cuyo caso lo denotaremos como U
= V.

En nuestro ejemplo anterior f es un isomorfsmo y U


= n . Esto quiere
decir que si U tiene dimensi
on finita n se comporta como si fuera n . Esta
isomorfa no es u
nica, depende de la base elegida. Por el momento esto no
debe preocuparnos. Calculemos ademas la imagen, a traves del isomorfismo

f , de la base {ui }ni=1 del espacio vectorial U .

0
.
..
1 = ei
f (ui ) = f (0u1 + + 1ui + + 0un ) =
.
..

Luego, la base asociada a

4.4.

{ui }ni=1

es la base canonica de

n .

de funciones lineales
Composicion

Consideremos U, V, W espacios vectoriales sobre el mismo cuerpo. Sean T :


U V y L : V W dos transformaciones lineales, la composici
on L T :
U W es facil ver que es una funci
on lineal. Si ademas L y T son biyectivas
(isomorfsmos) entonces tambien lo es L T .
Otra propiedad importante es que si T : U V es un isomorfsmo tendremos que la funci
on inversa, que existe pues T es biyectiva, tambien
100

Departamento de Ingeniera Matematica


- Universidad de Chile

Ejercicio 4.1: Pruebe que entonces dada una base = {ui }ni=1 de U
y n vectores X = {vi }ni=1 no necesariamente .i. de V existe una u
nica
transformaci
on lineal T
T :U V

Ejercicio

Isomorfismo

T (u1 + u2 )) = T (u1 ) + T (u2 ) = v1 + v2 ,


esto quiere decir que
T 1 (v1 + v2 ) = u1 + u2 = T 1 (v1 ) + T 1 (v2 ),
entonces T 1 es lineal.
Una transformaci
on lineal importante es idU : U U que es la transformaci
on identidad. Como sabemos que es biyectiva se tiene que idU es un
isomorfsmo.
Con todos estos ingredientes se puede concluir que la relacion entre espacios
vectoriales de ser isomorfos es una relaci
on de equivalencia.

4.5.

lineal
Subespacios Asociados a una transformacion

Definici
on 4.3 (N
ucleo). Sea una transformaci
on lineal T : U V .
Definimos el n
ucleo de T como el conjunto:
KerT = {x U/T (x) = 0}.
Claramente, KerT = ya que como T (0) = 0 tenemos que siempre 0
KerT . M
as a
un, KerT es un s.e.v. de U . En efecto, sean x, y KerT, ,
;
T (x + y) = T (x) + T (y) = 0 + 0 = 0

luego, x + y KerT .
Otro conjunto importante en el estudio de transformaciones lineales es la
imagen:
Definici
on 4.4 (Imagen). Sea una transformaci
on lineal T : U V .
Definimos la imagen de T como el conjunto:
ImT = T (U ) = {v V /u U : v = f (u)}
ImT es un s.e.v de V . En efecto, sean v1 , v2 ImT , existen entonces
u1 , u2 U tales que vi = T (ui ), i = 1, 2. Dados , se tiene:

v1 + v2 = T (u1 ) + T (u2 ) = T (u1 + u2 )


de donde conclumos v1 + v2 ImT .
Definici
on 4.5 (Rango y nulidad). La dimensi
on de ImT se denomina el rango de la transformaci
on T y se nota r. La dimensi
on del KerT se
llama nulidad y se suele denotar por la letra griega .

101

Departamento de Ingeniera Matematica


- Universidad de Chile

es un isomorfsmo. En efecto s
olo resta probar que T 1 es lineal, pues es
claro que es biyectiva (por que?). Tomemos v1 , v2 V, , . Sean
T 1 (v1 ) = u1 , T 1 (v2 ) = u2 por lo tanto

N
ucleo

Imagen

Rango y nulidad

Desarrollemos un ejemplo. Sea la transformaci


on lineal:
T :

4 3

x1
x2
x3
x4

x1 +x2
x2 x3
x1 +x3

o en terminos matriciales:
x1
0 0
x
1 0 2
x3
1 0
x4

1 1
T (x) = 0 1
1 0

Determinemos los subespacios KerT y ImT . Tenemos que x KerT


T (x) = 0, lo que es equivalente a determinar la solucion general del
sistema homogeneo:

1 1
0 1
1 0

x1
0 0
0
x
1 0 2 = 0
x3
1 0
0
x4

Escalonando:

1 1
0 0
1
1
0 0
1 1
0 1 1 0 0
1 1 0 0 1
1 0
1 0
0 1
1 0
0 0

De donde:

0 0
1 0 (4.3)
0 0

x1 = x2

x1 + x2 = 0
x2 x3 = 0

x2 = x3
x3 = x3

x4 = x4

Lo cual permite escribir la solucion general en funci


on de dos par
ametros:
x1 = x3
x2 = x3
x3 = x3
x4 = x4

1
0
x1
1
0
x2
= x3
+ x4
1
x3
0
0
1
x4

102

Departamento de Ingeniera Matematica


- Universidad de Chile

Ejemplo:

0
0
0
1

es un s.e.v de
y1
y2
y3

Determinemos ahora ImT . Sea

4 de dimension dos.

ImT , es decir:

x1
1
0 0
x
1 1 0 2
x3
0
1 0
x4

1
1
0
= x1 0 + x2 1 + x3 1
1
0
1


y1
1
y2 = 0
y3
1

0 , 1 , 1
.
Luego ImT =
1
0
1
Pero del resultado de escalonar la matriz que tiene como columnas a
0
0
1
1
los vectores 0 , 1 , 1 y 0 , en 4.3 podemos extraer una ba1

0 , 1 , 1
0 , 1 , 1 , 0
, tomando
=
se de
0
1
0
1
0
1
1
aquellos vectores asociados a columnas con pivotes de la matriz
escalonada (Importante: ver gua de ejercicios y problemas). Es decir,
1
0
1

1
1
0

Departamento de Ingeniera Matematica


- Universidad de Chile

1
1
1
0

Luego, KerT =

Ejercicio

Conclumos entonces que ImT =


dimensi
on dos.

1
0
1

1
1
0

es un s.e.v. de

3 de

Observemos en este ejemplo que 4 = dim 4 = dim KerT + dim ImT .


Ademas T no es inyectiva ya que KerT contiene mas de un vector, es
0
decir el vector 0 tiene mas de una pre-imagen. Tampoco es epiyectiva
0

ya que dim ImT < 3 = dim

3 .

103

T es inyectiva KerT = {0}


n. ) Dado u KerT, T (u) = 0 = T (0). Como T es
Demostracio
inyectiva, se tiene u = 0.
) Sea T (u1 ) = T (u2 ) T (u1 u2 ) = 0 luego u1 u2 KerT = {0}, de
donde u1 = u2 .
De este resultado obtenemos el siguiente Corolario
Corolario 4.1. Una transformaci
on lineal T : U V , es un isomorfismo
si y s
olo si KerT = {0} ImT = V , o equivalentemente dim ImT = dim V
y dim KerT = 0.
n. Para probar la biyectividad de T , basta notar que KerT =
Demostracio
{0} (inyectividad) y ImT = V (epiyectividad). La otra equivalencia sale de
que ImT = V dim ImT = dim V y KerT = {0} dim KerT = 0.
La inyectividad de aplicaciones lineales (KerT = {0}) tiene una consecuencia muy importante sobre los conjuntos linealmente independientes.
Teorema 4.2. Si T : U V es inyectiva, entonces {ui }ki=1 es .i. en
U {T (ui )}ki=1 es l.i. en V .
n. Sea la combinaci
Demostracio
on lineal nula:
n

n
i=1
n

i=1

i T (ui ) = 0 T (

i ui ) = 0
i=1
n

i ui KerT = {0}

i ui = 0
i=1

Como {ui }ni=1 es .i., i = 0, i = 1, ..., n.


Se puede probar que en efcto esta propiedad caracteriza las aplicaciones
lineales inyectivas (hacerlo!).
Finalizamos est
a secci
on mencionando un ejemplo interesante:
Pn ( ). En efecto, sea
T : n+1 Pn ( ) tal que:

a0
n
a1

ai xi Pn ( )
..
.

i=0

an

Es facil verificar que T es lineal.

104

n+1

Departamento de Ingeniera Matematica


- Universidad de Chile

Teorema 4.1. Sea T : U V una transformaci


on lineal entonces

FACULTAD DE CIENCIAS

FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE

Algebra
Lineal 08-2

Ejercicios
1. El objetivo de este ejercicio es formalizar la tecnica mencionada en la
tutora para extraer, de un conjunto generador de un cierto subespacio
vectorial, una base. Esto en el contexto de n .

y U = {v1 , . . . , vm } . Sea ademas la matriz


Considere v1 , . . . , vm
A, escrita por columnas como A = (v1 , . . . , vm ) Mnm ( ). Denotamos
por vij a la coordenada i del vector j y, por ende, a la componente (i, j)
de A.

Escalonando la matriz A, se obtiene:

v11 v12

0
0 0 v2j2

..

.
0
0

0
A =

vkjk

vk(jk +1)

Los coeficientes encerrados en un rectangulo

vkjk

v(k+1)jk+1

son los pivotes de

la matriz escalonada. Notamos por vj a la columna j de la matriz A.


(a) Demuestre que el conjunto de vectores {v1 , vj2 , . . . , vjl }, es decir las
columnas correspondientes a los pivotes, es un conjunto l.i.
Indicaci
on: Estudie que sucede si en la matriz original A s
olo hubiese puesto los vectores v1 , vj2 , . . . , vjl .
(b) Pruebe que las columnas de A que no contienen pivotes, que est
an
entre la del pivote k y la del k + 1 (es decir vjk +1 , . . . , vjk+1 1 ), son
combinaci
on lineal de los vectores v1 , vj2 , . . . , vjk .
Indicaci
on: Use inducci
on en k.
(c) Dado un conjunto de vectores {u1 , . . . , um }
invertible E Mnn ( ), demuestre que:

n es combinacion lineal de u1, . . . , um

y una matriz

Eu

105

.
0
0
..
.

vljl
0

vlm

..
.

n es combinacion lineal de Eu1, . . . , Eum.

(d) Use el resultado anterior para probar que, las columnas de A que
no est
an asociadas a pivotes, entre la columna del pivote k y la del
k + 1 (es decir vjk +1 , . . . , vjk+1 1 ), son combinaci
on lineal de los
vectores v1 , vj2 , . . . , vjk .
(e) Concluya que {v1 , vj2 , . . . , vjl } es base de U .

..

Departamento de Ingeniera Matematica


- Universidad de Chile

Gua
Semana 8

Ingeniera Matematica

Extraer una base de U , desde {v1 , . . . , vm }.


Extender dicha base a una base de

n .

3 generado por el conjunto


Extraiga una base de U y extiendala a una base de 3 .

1
0
1

3. Sea U el subespacio vetorial de

1
1
2

Problemas

P1. Sea P3 ( ) el conjunto de los polinomios de grado menor o igual a 3


con coeficientes reales. Se define la transformaci
o n T : P3 ( ) P3 ( )
por:

T (a0 + a1 x + a2 x2 a3 x3 ) = a0 + (2a1 + a2 )x + (2a2 + a3 )x2 + 2a3 x3 .


(a) Probar que T es una transformaci
on lineal.
(b) Probar que T es una transformaci
on biyectiva.

(c) Si id es la transformaci
on identidad del espacio vectorial P3 ( )
pruebe que T 2 id, (T 2 id)2 , (T 2 id)3 y T id son transformaciones lineales.
Indicaci
on: Recuerde que dada una funci
on f , f k = f f f .
k veces

(d) Encontrar bases y dimensi


on de Ker(T 2 id), Ker(T 2 id)2 y
3
Ker(T 2 id) .

(e) Probar que P3 ( ) = Ker(T 2 id)2 Ker(T id).

P2. (a) Considere la funci


on T :
T

x
y
z
w

4 M22() definida por

x
2x + 2y + z + w

y+w
.
x+y+z

(1) Demuestre que T es funci


on lineal.
(2) Determine bases y dimensiones para Ker(T ) e Im(T ).
(b) Dada la transformaci
on lineal L :

1
1
0 , 1
Ker(L) =

0
0

3 2 se sabe que:
y


1
L 1 =
1

1
.
1

Encuentre en terminos de x1 , x2 y x3 , los valores de y1 y y2 que


x1
satisfacen L xx2 = ( yy12 ).
3

106

1
1
0

Departamento de Ingeniera Matematica


- Universidad de Chile

2. Sea un conjunto de vectores v1 , . . . , vm n , con U = {v1 , . . . , vm } y


dim(U ) < n. Muestre que, construyendo la matriz A del Ejercicio 1, aument
andola con la identidad en Mnn ( ) (es decir (A|I)) y aplicando
el mismo procedimiento, se consigue:

(v, w) + (v , w ) =
(v, w)

. En V W se definen la suma y ponderacion


(v + v , w + w ) ,

.
es un espacio vectorial sobre (no lo

(v, w) ,

Con estas operaciones V W


pruebe).

(v, w), (v , w ) V W ,

(v, w) V W ,

Dada una funci


on f : V W se define su grafico por
Gf

{(v, w) V W : w = f (v)} .

(a) Pruebe que f es lineal s y s


olo si Gf es subespacio vectorial de
V W.

(b) Pruebe que {0V } W es subespacio vectorial de V W .


Nota: 0V denota el neutro aditivo de V .

(c) Sea f : V W lineal. Pruebe que Gf ({0V } W ) = V W .

107

Departamento de Ingeniera Matematica


- Universidad de Chile

P3. Sean V , W e. v.s sobre


por escalar as:


Ingeniera Matematica
FACULTAD DE CIENCIAS

FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE

Algebra
Lineal 08-2

4.6.

Teorema del Nucleo-Imagen

(TNI)

El prop
osito de est
a secci
on es probar el siguiente teorema.

Teorema 4.3 (N
ucleo-Imagen). Sean U, V espacios vectoriales sobre
on lineal, dim U < . Entonces:
un cuerpo , T : U V una transformaci

dim U = dim KerT + dim ImT.


n. Daremos una demostracion constructiva de este teorema.
Demostracio
Sea {u1 , ..., u } una base de KerT . Completemos esta base a una base de
U
U = {u1 , ..., u , u+1 , ..., un }.

Probaremos que = {T (u+1 ), ..., T (un )} es base de ImT . Sea v ImT es


decir v V y existe u U T (u) = v. Como U es base de U se tendra que
u = 1 u1 + .... + u + +1 u+1 + .... + n un ,
de donde
v = T (u) = +1 T (u+1 ) + .... + n T (un ),

pues T (u1 ) = ... = T (u ) = 0. Es decir v es combinaci


on de los elementos
de . Probemos ahora que son l.i., para ello consideremos
+1 T (u+1 ) + .... + n T (un ) = 0.
Como T (+1 u+1 + .... + n un ) = +1 T (u+1 ) + .... + n un T (un ) = 0
se deduce que el vector +1 u+1 + .... + n KerT pero entonces existen
escalares 1 , ..., tal que
+1 u+1 + .... + n un = 1 u1 + .... + u ,
o equivalentemente
1 u1 + .... + u +1 u+1 ... n un = 0
Como los vectores u1 , ..., un son .i. se deduce en particular que
+1 = ... = n = 0,
y por lo tanto = {T (u+1), ..., T (un )} es base de ImT . Pero entonces
tenemos
dim U = n = + (n ) = dim KerT + dim ImT.

108

Departamento de Ingeniera Matematica


- Universidad de Chile

SEMANA 9: TRANSFORMACIONES LINEALES

Teorema
N
ucleo-Imagen (TNI)

Teorema 4.4. Sea T : U V aplicaci


on lineal.
1. Si dim U = dim V entonces
T inyectiva T epiyectiva T biyectiva.
2. Si dim U > dim V T no puede ser inyectiva.
3. Si dim U < dim V T no puede ser epiyectiva.
4. Como conclusi
on de (2) y (3)
U isomorfo a V dim U = dim V.

n. Probemos s
Demostracio
olo (2), el resto queda de ejercicio. Del TNI
se tiene que
dim U = dim KerT + dim ImT < dim V,
como dim KerT 0 se concluye que
dim ImT < dim V,
y por lo tanto ImT es un s.e.v. estrictamente mas peque
no que V , es decir
T no puede ser epiyectiva.
Es importante se
nalar que en (1c), la implicancia es consecuencia de (2)
y (3), mientras que se obtiene del hecho de que todo espacio de dimensi
on
finita n es isomorfo a n (ver ejemplo anterior a la Definicion 4.2).

Departamento de Ingeniera Matematica


- Universidad de Chile

Es directo del TNI que: si dim U = n, y el rango de T es n se tiene


dim KerT = 0, es decir T es inyectiva. Otra aplicaci
on directa es

Ejercicio

Ejercicio 4.2: Probar que si T : U V es lineal y W es un subespacio


de U entonces
1. T (W ) es subespacio de V.
2. dim T (W ) dim U .
3. Si T es inyectiva dim T (W ) = dim W .

109

Vimos anteriormente que, dado un e.v V sobre , dimV = n, se tena


V
= n . Esto nos permite llevar el trabajo de cualquier espacio de dimensi
on finita a un espacio de n-tuplas. Trataremos de extender esto para
transformaciones lineales, reemplazando estas (en un sentido que precisaremos) por matrices.

Sean U, V espacios vectoriales sobre un cuerpo , dim U = p, dim V = q.


Sean U = {u1 , ..., up }, V = {v1 , ..., vq } bases de U y V respectivamente.
Consideremos finalmente una transformaci
on lineal T : U V .
Sabemos que T queda completamente determinada por su accion sobre la
base U
q

aij vi

T (uj ) =
i=1

1jp

o bien,
T (u1 ) = a11 v1 + a21 v2 + ... + aq1 vq
T (u2 ) = a12 v1 + a22 v2 + ... + aq2 vq
..
.
T (up ) = a1p v1 + a2p v2 + ... + aqp vq
Es claro que la informaci
on importante que define T est
a contenida en las
coordenadas, (a1j , a2j , ..., aqj ) de cada vector T (uj ), con respecto a la base
V , en el espacio de llegada. Esta informacion la guardamos en una matriz
de q filas y p columnas, denominada matriz representante de T , con
respecto a las bases U y V :
a

a12 ...
a
21 a22 ...
MU V (T ) =
..
..
.
.
aq1 aq2 ...
11

a1p
a2p
..
Mqp ( )
.
aqp

donde, q = dim U, p = dim V .


En la columna j-esima de esta matriz, aparecen las coordenadas del vector
T (uj ) con respecto a la base V :
a
1j

Aj

a2j

=
.. T (uj ) =
.
aqj

110

aij vi
i=1

Departamento de Ingeniera Matematica


- Universidad de Chile

Lineal
Matriz Representante de una Transformacion

4.7.

Matriz representante
de T
MU V (T )

Ejemplo:
Sea T :

4 3, definida por

1 1
T (x) = 0 1
0 0

x1
0 0
x
1 0 2 .
x3
1 1
x4

4 ,

Consideremos = U = {e1 , e2 , e3 , e4 }, base canonica de


= V =

1
1
0

T (e1 ) = T
T (e2 ) = T
T (e3 ) = T
T (e4 ) = T
de donde:

1
0
1

1
0
0
0
0
1
0
0
0
0
1
0
0
0
0
1

0
1
1

base de

1
0
0

1
1
0

=1

0
1
1

=0

0
0
1

M (T ) =

Tomemos ahora, en

1
1
0

1
1
0
1
1
0

1
2

1
0
1

1
0
1

+0
1
1
0

1
2

21

1 0

1
2

0 0

1
2

0 1

1
2

T (e2 ) =
T (e3 ) =
T (e4 ) =

1
0
0
1
1
0
0
1
1
0
0
1

1
0
1

+0

1
2

21

1
2

1
2

0
1
1
0
1
1

+0
+1

0
1
1

1
0
1

1
2

M34 ( )

3, la base canonica, =

T (e1 ) =

Luego,

1
2

3. Se tiene entonces:

0
1
1

1
0
0

0
1
0

0
0
1

= 1e1 + 0e2 + 0e3


= 1e1 + 1e2 + 0e3
= 0e1 + 1e2 + 1e3
= 0e1 + 0e2 + 1e3

1
M (T ) = 0
0

1 0
1 1
0 1

0
0
1

Sorpresa!, esta matriz representante no s


olo es distinta de la anterior,
sino que corresponde a la matriz que define T en forma natural. Conclumos entonces que: la matriz representante depende de las bases elegidas y que la matriz representante con respecto a las bases canonicas
111

Departamento de Ingeniera Matematica


- Universidad de Chile

Observaci
on: Una pregunta interesante es: Que sucede con esta
matriz si cambiamos las bases?. Esto lo responderemos en breve.

Consideremos

TA :

p q

x Ax, A Mqp ( )

Sea = {e1 , ..., ep } la base can


onica de
canonica de q .

p y = {e1, ..., eq } la base

Se tiene entonces:

TA (ej ) = Aej =

a11 ...
..
.

a1j ...
..
.

aq1 ...

aqj ...


0
a
1j
..
a1p
.
a2j
.. 1 =


.
. ...
aqp ..
aqj
0

o bien:

aij ei

TA (ej ) = a1j e1 + ... + aqj em =


i=1

de donde conclumos M (TA ) = A.


Veamos ahora como interactuan T y M = M (T ). Sea u U , entonces
u = 1 u1 + ... + p up ,
y por lo tanto T (u) =
tanto

p
j=1

j T (uj ) pero T (uj ) =

j=1

mij vi =

mij vi y por lo

T (u) =

q
i=1

j mij )vi .

i=1 j=1

i=1

As las coordenadas de T (u) con respecto a son


p

j mqj ,

j m1j , . . . ,
j=1

j=1

y por lo tanto si = (1 , ..., p ) son las coordenadas de u entonces M


son las de T (u). Esto permite trabajar con M en vez de T .
Ya tenemos una matriz que representa T , ahora deseamos olvidarnos de
T y trabajar s
olo con un representante matricial. Para hacer esto, en algebra acostumbramos establecer una isomorfa, en este caso, entre el espacio
vectorial de todas estas matrices, Mqp ( ), y aquel de todas las transformaciones lineales. Para ello definamos primero este u
ltimo espacio.

Definici
on 4.6. Sea U, V espacios vectoriales sobre
dim U = p y dim V = q respectivamente.
Definimos

de dimensiones

L (U, V ) = {T : U V /T es transformaci
on lineal }
112

Departamento de Ingeniera Matematica


- Universidad de Chile

es la matriz asociada a T . Esto u


ltimo lo podemos verificar en el caso
general:

(T )(x) = T (x), , T L (U, V )


(T + T )(x) = T (x) + T (x), T, T L (U, V )
es un espacio vectorial sobre el cuerpo

Tenemos entonces la propiedad buscada:

L (U, V )
= Mqp ( )
En efecto, sean U , V bases de U y V respectivamente y definamos la
funci
on.

: L (U, V ) Mqp ( )

T (T ) = MU V (T )

Es decir, a una transformaci


on lineal arbitraria le asociamos su matriz
representante con respecto a las bases U y V .
1. es una transformaci
on lineal. Sean U = {u1 , ..., up }, V = {v1 , ..., vq },
T, L LK (U, V ), A = MU V (T ), B = MU V (L).
Calculemos (T + L) = MU V (T + L).
(T + L)(uj ) = T (uj ) + L(uj ) =
q

i=1

i=1

i=1

(aij + bij )vi

bij vi =

aij vi +

Luego, la j-esima columna de MU V es el vector:

a1j + b1j

..

= Aj + Bj
.
aqj + bqj

Se concluye entonces:

a11 + b11 ...a1j + b1j ...a1p + b1p

..
..
(T + L) = MU V (T + L) = ...

.
.
aq1 + bq1 ...aqj + bqj ...aqp + bqp

= A + B = MU V (T ) + MU V (L) = (T ) + (L)
De manera an
aloga se prueba que
(T ) = MU V (T ).

113

L (U, V )

Departamento de Ingeniera Matematica


- Universidad de Chile

Es directo que L (U, V ), dotado de las operaciones:

Por otra parte, u U, u =


p

j=1

j uj , de donde u U, T (u) =

j T (uj ) =
j=1

j=1

j 0 = 0, concluyendo T 0, la transformaci
on

nula. Luego, es inyectiva. Veamos la epiyectividad. Dada una matriz

on lineal T , que
A = (aij ) Mqp ( ), le asociamos la transformaci
q

aij vi . Es directo que (T ) =

a la base de U asocia: T (uj ) =


i=1

Mqp (T ) = A, luego es epiyectiva. De (1) y (2) conclumos que es


un isomorfismo.

Directamente, de este resultado se tiene: dim L (U, V ) = dim Mqp ( ) =


pq = dim U dim V . Es decir, la dimensi
on del espacio de transformaciones
lineales es finita y corresponde al producto de las dimensiones de U y V .
En el contexto del resultado anterior que relacion existe entre la multiplicacion de matrices y la composici
on de funciones lineales?.
Veamos que sucede al componer dos transformaciones lineales. Sean T :
U V, L : V W transformaciones lineales, luego L T : U W es
tambien lineal. Ahora bien, sean dimU = p, dimV = q, dimW = r con
bases U = {ui }pi=1 , V = {vi }qi=1 , W = {wi }ri=1 , respectivamente. Supongamos ademas que MU V (T ) = B Mqp ( ),
al es la expresi
on de MU W (L
MU V (L) = A Mpr ( ). La pregunta es cu
T )? Los datos del problema son:

T (uk ) =

bjk vj

1kp

aij wi

1jq

j=1
r

L(vj ) =
i=1

Calculemos ahora:
q

(L T )(uk ) = L(T (uk )) = L(


q

j=1

j=1

aij wi )

bjk (

bjk L(vj ) =

i=1

bjk vj ) =
j=1
q

aij bjk )wi

(
i=1 j=1

114

1kp

Departamento de Ingeniera Matematica


- Universidad de Chile

2. es biyeccion. Sean T Ker() (T ) = MU V (T ) = 0


Mqp ( )
T (uj ) = 0v1 + ... + 0vq = 0.


a
b
1j jp
j=1
j=1

..
MU W (L T ) =

q
q

arj bj1 ...


arj bjp

a1j bj1 ...

j=1

j=1

= A B = MV W (L) MU V (T )
Hemos probado que la matriz representante de la composici
on de dos funciones lineales L T , es el producto de las matrices representantes.

115

Departamento de Ingeniera Matematica


- Universidad de Chile

obteniendo


Departamento de Ingeniera Matematica
- Universidad de Chile

Una aplicaci
on inmediata de este resultado es

Ejercicio

Ejercicio 4.3: T : U V es una transformaci


on lineal y , son
bases de U y V respectivamente entonces
1. T es invertible ssi M (T ) es una matriz invertible.
2. Si T es invertible,
(M (T ))1 = M (T 1 ).

Esto nos permite, cuando se estudian transformaciones lineales sobre espacios vectoriales de dimensi
on finita, trabajar directamente en la estructura
matricial correspondiente, sumando o multiplicando matrices.
En base a lo anterior se tiene el resultado siguiente:

Teorema 4.5. Para toda matriz A Mnn ( ), las propiedades siguientes


son equivalentes
1. A es invertible.

n n, v TA(v) = Av es un isomorfismo.
El conjunto {Aj}nj=1 es base de n .

2. TA :
3.

n. Demostremos primero (2)(3). Para ello recordemos que


Demostracio
A es la matriz representante de TA con respecto a las bases canonicas:
TA (ej ) = Aej = Aj.
2 3) Como TA es isomorfismo, es en particular inyectiva, luego {TA (ej )}nj=1
es .i {Aj }nj=1 es .i en n . Como dim n = n, este conjunto es base.

3 2) Sabemos Aj = TA (ej ) para 1 j n, luego {Aj }nj=1 base, es


decir {TA (ej )}nj=1 es base de n , luego ImTA =< {TA (ej )} >= n . Del
TNI se tiene:

dim

n = n = dim ImTA + dimKerTA,

luego n = n + dim KerTA ,

entonces dim KerTA = 0 y por lo tanto KerTA = {0}.


Ademas las dimensiones de los espacios de partida y llegada son iguales,
luego TA es isomorfirmo.
(1)(2) es consecuencia del Ejercicio 4.3, usando el hecho de que TA tiene
a A como matriz representante con respecto a las bases canonicas.

116

Matriz de Pasaje o de Cambio de Base

Cuando definimos la matriz representante vimos que esta dependa de las


bases elegidas. De esto surge el problema de la no unicidad de la representacion: una misma transformaci
on lineal tiene asociada mas de una matriz,
dependiendo de las bases escogidas.
Sea entonces V un espacio vectorial sobre K, dimV = n, sean = {vi }i=1
y = {vi }ni=1 dos bases de V . Claramente, los vectores de tienen una
representacion u
nica en la base :
v1 = p11 v1 + p21 v2 + ... + pn1 vn
..
..
..
.
.
.
vj = p1j v1 + p2j v2 + ... + pnj vn
..
..
..
.
.
.
vn = p1n v1 + p2n v2 + ... + pnn vn
Denominamos matriz de pasaje o de cambio de base de a a la matriz:

p11 ... p1j ... p1n

..
..
P = P = (pij ) = ...
.
.
pn1 ... pnj ... pnn

cuya columna j-esima corresponde a las coordenadas del vector vj , de


la nueva base , con respecto a la antigua base . Es facil ver que
est
a matriz es exactamente
M (idV ),
es decir la matriz representante de la identidad de V, colocando como base
de partida y de llegada .

Por otra parte, sabemos que a un vector x V podemos asociarle de manera


biunivoca un vector = (1 , ..., n ) n , correspondiente a sus coordenadas con respecto a la base . De manera an
aloga le podemos asociar
= (1 , ..., n ) n , sus coordenadas con respecto a la base .
Se tiene entonces:

j (

j vj =
j=1

j=1

v=

pij vi ) =

(
i=1 j=1

i=1

i vi .

Pero, ademas, v =
i=1

Como la representacion es u
nica, conclumos:
n

pij j

i =
j=1

matricialmente: = P .
117

1in

pij j )vi

Departamento de Ingeniera Matematica


- Universidad de Chile

4.8.

Matriz de pasaje o de
cambio de base

Es posible despejar ?. S lo es, y esto es equivalente a probar que P


es invertible. Pero por ser la matriz representante de un isomorfsmo es
entonces invertible. Ademas P 1 es la matriz de cambio de base de a :
M (idV ).
Observaci
on: Cabe hacer notar que la notaci
on no es muy afortunada,
pues la matriz de cambio de base de a es M (idV ) es decir hay
que expresar los vectores de en funci
on de los de .

Estudiaremos ahora la relaci


on que existe entre las distintas matrices representantes de una misma transformaci
on lineal. Esto lo deduciremos de
la regla que tenemos para la matriz representante de una composici
on de
aplicaciones lineales. Sea T : U V lineal y consideremos cuatro bases:
, bases de U
, bases de V.
La pregunta es c
omo se relacionan M (T ) y M (T )?.
Todo sale de la observaci
on
idV T idU = T,
y por lo tanto
M (T ) = M (idV T idU ) = M (idV )M (T )M
(idU ).

(4.4)

Es decir la nueva matriz representante de T es la antigua multiplicada por


matrices de cambio de base. La mejor forma de recordar esto es con un
diagrama
T
U, V,

T
idV
idU

U, V,
Recorremos este diagrama de dos maneras distintas. para obtener la formula 4.4. Notemos que cuando hacemos el recorrido por abajo el orden que
aparecen las matrices es reverso: la matriz mas a la derecha en 4.4 es la que
actua primero y as sucesivamente.
an relacionadas por un par
Las matrices A = M (T ) y B = M (T ) est
de matrices invertibles que denotaremos por P, Q:
C = P AQ.
Diremos que entonces A y C son semejantes. Como ejercicio, probar que
esta es una relaci
on de equivalencia. Un caso importante es cuando Q =
P 1 , es decir
C = P AP 1 .
118

Departamento de Ingeniera Matematica


- Universidad de Chile

Esta ecuaci
on establece la relaci
on entre las coordenadas de un mismo vector v V con respecto a ambas bases.

matrices semejantes
Ejercicio

119

matrices similares

Departamento de Ingeniera Matematica


- Universidad de Chile

En este caso especial diremos que A y C son similares. Esta tambien es


una relacion de equivalencia.
Se tiene que a diferencia de la semejanza no es facil saber cu
ando dos
matrices son similares. Parte de este problema la estudiaremos en el proxima
secci
on.

FACULTAD DE CIENCIAS

FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE

Algebra
Lineal 08-2

Ejercicios
1. Sea T : U V una transformaci
on lineal. Pruebe que
(a) Si dim U = dim V entonces
T inyectiva T epiyectiva T biyectiva.
(b) Si dim U < dim V T no puede ser epiyectiva.
(c) U isomorfo a V dim U = dim V.
2. Probar que si T : U V es lineal y W es un subespacio de U entonces
(a) T (W ) es subespacio de V.
(b) dim T (W ) dim U .

(c) Si T es inyectiva dim T (W ) = dim W .

3. T : U V es una transformaci
on lineal y , son bases de U y V
respectivamente entonces
(a) T es invertible ssi M (T ) es una matriz invertible.
(b) Si T es invertible,
(M (T ))1 = M (T 1 ).

Problemas

P1. Sean M22 ( ) el espacio vectorial de las matrices de 22 a coeficientes


reales sobre el cuerpo . Sea P2 ( ) el espacio vectorial de los polinomios de grado menor o igual a 2 a coeficientes reales sobre el cuerpo
. Sea

T:

M22 ( ) P2 ( )
a b
T ( ac db ) = (a + d) + (b + c)x + (a + b + 2c + d)x2 .
c d

(a) Demuestre que T es una transformaci


on lineal.

(b) Sean la bases de M22 ( ) y P2 ( ) siguientes:


M = {( 10 00 ) , ( 00 10 ) , ( 01 00 ) , ( 00 01 )} ,

P = {1, x, x2 }.

Encuentre la matriz representante de T con respecto a las bases


M y P .

(c) Sean la bases de M22 ( ) y P2 ( ) siguientes:

M
= ( 10 01 ) ,

1 0
0 1

, ( 01 10 ) ,

0 1
1 0

P = {1 + x, x + x2 , 1 + x2 }.

Encuentre la matriz representante de T con respecto a las bases

M
y P .
(d) Calule la dimensi
on del N
ucleo y la dimensi
on de la Imagen de T .
120

Departamento de Ingeniera Matematica


- Universidad de Chile

Gua
Semana 9

Ingeniera Matematica

Teorema 4.4

Ejercicio 4.2

Ejercicio 4.3

f : M22 ( )

g:

x g(x) =

x1 +x2 x3
2x1 +x3

y las bases
B1 =

1
3

Sea A =

2
1 0
0 3
2 5
,
,
,
4
1 2
0 1
2 4

0
1
2
B2 = 1 , 1 , 2 de

1
3
1

1 11 1
2 0 0 1
2 1 1 1

de M22 ( )

la matriz representante de la funci


on f con

respecto a las bases B1 en M22 ( ) y B2 en

3.

(a) Encuentre la matriz representante de B de la funci


on g con respecto a las bases can
onicas de 3 y 2 respectivamente.

(b) Obtenga la matriz representante de g f con respecto a la base


onica de 2 .
B1 en M22 ( ) y a la base can

P3. Sea T : V V una aplicaci


on lineal con V espacio vectorial de dimensi
on finita. Demuestre que
V = Ker(T ) Im(T ) Ker(T 2 ) = Ker(T ).
P4. Sea = {1, x, x2 } la base can
onica

0
Q = 1
1

del espacio P2 ( ). Considere

1 3
0 0 .
0 1

(a) Encuentre la base de P2 ( ) tal que Q sea representante de la


identidad de P2 ( ) con en P2 ( )con . Si le sirve, si denotamos
por [p] el vector de coordenadas de p con respecto a la base ,

[p] = Q[p]

p P2 ( ).

(b) Sea T : P2 ( ) 3 la transformaci


on lineal cuya matriz representante con respecto a las bases en P2 ( ) y canonica en 3 es
la matriz

0 1 0
A = 0 0 2 .
0 0 0

Calcule la matriz representante de T con respecto a las bases


onica en 3 , donde es la base encontrada en
en P2 ( ) y can
(a).

121

Departamento de Ingeniera Matematica


- Universidad de Chile

P2. Considere las funciones lineales f y g tales que


Ingeniera Matematica

SEMANA 10: TRANSFORMACIONES LINEALES - VALORES Y


VECTORES PROPIOS

4.9.

Rango de una matriz y forma de Hermitte

Dada una matriz A Mqp ( ) definimos el rango de A, como el rango de


la transformaci
on lineal T (x) = Ax. Denotaremos por r(A) el rango de A.
As r(A) es la dimensi
on de la imagen de A.
Como Ax = x1 A1 + ... + xp Ap si x = (x1 , ..., xp ), entonces la imagen de
A es generada por las columnas de A esto es:
ImA = {A1 , ..., Ap } ,
por lo tanto el rango de una matriz es el n
umero maximo de columnas l.i.

Departamento de Ingeniera Matematica


- Universidad de Chile

FACULTAD DE CIENCIAS

FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE

Algebra
Lineal 08-2

Rango de A

Ejercicio

Ejercicio 4.4: Supongamos que A, B son semejantes es decir existen


matrices invertibles P, Q tal que A = P BQ. Probar que entonces que
A y B tienen el mismo rango:
r(A) = r(B).

Nuestro prop
osito es probar la recproca de lo anterior, esto es si dos matrices de igual dimensi
on tienen el mismo rango entonces son semejantes.
Para ello necesitaremos lo que se llama la forma normal de Hermitte.
Consideremos A Mqp ( ), ella induce de forma natural una aplicaci
on
lineal T mediante: T (x) = Ax. Es claro que A = M (T ) donde ,
son las bases can
onicas de p y q respectivamente. Construiremos ahora dos nuevas bases. Comencemos por una base de KerA: {u1 , ..., u }, y
extend
amosla a una base de p

= {w1 , ..., wr u1 , ..., u }.


Notemos dos cosas: primero que hemos dado un orden especial a esta base
donde los vectores que agregamos van al principio; y segundo que del teorema del n
ucleo imagen p = dim p = dim ImA + dim KerA y por lo tanto
necesitamos agregar tanto vectores como rango de A es decir r = r(A).
Tomemos ahora X = {v1 , ..., vr } donde vi = Awi , i = 1, ...r. Probaremos
que X es un conjunto l.i.. En efecto si

1 v1 + ... + r vr = 0,
se tendra que
0 = 1 Aw1 + ... + r Awr = A(1 w1 + ... + r wr ),

122

1 w1 + ... + r wr = 1 u1 + ... + u ,
lo que implica que
1 w1 + ... + r wr 1 u1 ... u = 0,
y como los vectores son l.i. se tiene que 1 = ... = r = 0.
Extendamos ahora X a una base de q

= {v1 , ..., vr , vr+1 , ..., vq },


y calculemos la matriz representante de T con respecto a estas nuevas bases:
Aw1 = v1 = 1v1 + 0v2 + ... + 0vr + 0vr+1 + ... + 0vq
Aw2 = v2 = 0v1 + 1v2 + ... + 0vr + 0vr+1 + ... + 0vq
..
.
Awr = vr = 0v1 + 0v2 + ... + 1vr + 0vr+1 + ... + 0vq ,
Au1 = 0 = 0v1 + 0v2 + ... + 0vr + 0vr+1 + ... + 0vq
..
.
Au = 0 = 0v1 + 0v2 + ... + 0vr + 0vr+1 + ... + 0vq
por lo tanto la matriz representante es:
M (T ) =

Ir
0

0
0

donde Ir es una identidad de tama


no r y el resto son matrices de ceros de
las dimensiones apropiadas. Usualmente esta matriz se denota por H y se
le conoce como la forma normal de Hermitte. Usando el teorema de cambio
de base se encuentra que existen matrices invertibles P, Q tal que
A = P HQ.

Por otro lado si A, B Mqp ( ) tienen el mismo rango entonces se demuestra que existen matrices invertibles P, Q, R, S tal que
A = P HQ, B = RHS, y por lo tanto A = P R1 BS 1 Q,
como P R1 , S 1 Q son invertibles se deduce que A, B son semejantes.
El rango de una matriz es el n
umero maximo de columnas l.i., pero que
hay del n
umero maximo de filas l.i., o lo que es lo mismo, el rango de At .
Veremos acontinuaci
on que
r(A) = r(At ).
123

Departamento de Ingeniera Matematica


- Universidad de Chile

es decir el vector 1 w1 + ... + r wr est


a en el KerA. Como lo hemos hecho
ya varias veces de aqu se deduce que los coeficientes deben ser cero. En
efecto, por estar en el KerA se debe tener que

Forma normal de
Hermitte

que es la forma normal de Hermite para At . Ademas es claro que r(H) =


r(H t ), pero entonces r(A) = r(H) = r(H t ) = r(At ). En particular se
concluye que r(A) mnimo (p, q).
Un problema que se nos presenta es saber si hay una forma f
acilde calcular
el rango de una matriz. La respuesta es si, y se obtiene mediante escalonamiento. Notemos que la matriz escalonada de A que usualmente se denota
tiene el mismo rango que A pues estas dos matrices son semejantes. En
A,
efecto A se obtiene por premultiplicaci
on de A por matrices elementales que
son invertibles. Pero el rango de A es f
acil de calcular, pues tiene tantas
filas l.i. como filas no nulas tenga, y esto debido a la forma triangular de
Por lo tanto el rango de A es el n

A.
umero de filas no nulas en A.
Tomemos, por ejemplo, el escalonamiento siguiente:

1 1 1 1 1 0 0
1 1 1 1 1 0 0
1 1 1 1 1 0 1
0 2 0 2 2 0 1

A = 0 1 1 1 1 0 1 A = 0 0 1 0 2 0 12 ,

0 1 1 1 1 1 0
0 0 0 0 0 1 1
1 1 1 1 1 0 1
0 0 0 0 0 0 0

Departamento de Ingeniera Matematica


- Universidad de Chile

Usando la forma normal de Hermite, se deduce que existen matrices invertibles P, Q tal que
A = P HQ. At = Qt H t P t ,

Ejercicio

Ejercicio 4.5: Probar que r(AB) r(A) y por lo tanto


r(AB) mnimo (r(A), r(B)).

5.

Valores y vectores propios

En esta secci
on abordaremos el problema de saber cu
ando para una aplicacion lineal L : n n , es posible encontrar una base B con respecto
a la cual la matriz representante de L sea diagonal. En forma equivalente,
cu
ando una matriz A de n n puede descomponerse de la forma

A = P DP 1 con D diagonal ?

(5.1)

Este problema de naturaleza puramente algebraica, tiene muchas aplicaciones en otras ramas de la Matem
atica, por ejemplo en Ecuaciones Diferenciales, Estadstica, etc.
Tal vez el teorema mas importante de este captulo es el que dice que toda
matriz simetrica puede representarse en la forma (5.1).
Comenzamos con las nociones de valores y vectores propios de una aplicacion lineal L : V V donde V es un espacio vectorial sobre ( =
o ).

124

Diremos que x V es un

(i) x = 0

tal que L(x) = x.


En este caso el valor que satisface (ii) se denomina valor propio
(ii)

asociado a x.

Diremos que x V \ {0} es un vector propio de A Mnn si es vector


propio de la aplicaci
on lineal L dada por L(x) = Ax. Es decir

Ax = x.

De la misma manera decimos que es valor propio de A.


Para la transformaci
on lineal asociada a una matriz A mencionada anteriormente, se tiene:

Proposici
on 5.1. Dada A Mnn ( ), son equivalentes:
(i) x = 0 Ax = x.
(ii) x soluci
on no trivial del sistema (A I)x = 0.
(iii) Ker(A I) = {0}
(iv) A I no es invertible.

Necesitamos una forma f


acil de determinar que valores de son valores
propios. Para ello sera u
til que la condicion (iv) pudiera expresarse como
una ecuaci
on en . Veremos que el c
alculo de los valores propios se reduce a
estudiar un polinomio de grado n cuyos coeficientes dependen de la matriz
A.
Con este objetivo introduciremos una aplicaci
on llamada determinante,
le asigna un elemento
que a cada matriz cuadrada A con coeficientes en
de .
Para ello primero definiremos Aij la submatriz de A que se obtiene a partir
de A eliminado la fila i y la columna j.

Ejemplo:

1
A = 4
7

2
5
8

3
6
9

A11 =

5 6
.
8 9

Con esto podemos definir el determinante de una matriz por un procedimiento inductivo de la siguiente forma.
Definici
on 5.2 (Determinante). Definimos el determinante de A como
(i) Si A es de 1 1 |A| = a donde A = a.
125

Vector y valor propio

Departamento de Ingeniera Matematica


- Universidad de Chile

Definici
on 5.1 (Vector y valor propio).
vector propio de L si:

Determinante

As, si A =

a
c

b
d

n
i=1

(1)i+1 ai1 |Ai1 |.

|A| = a11 |A11 | a21 |A21 | = ad cb.

Departamento de Ingeniera Matematica


- Universidad de Chile

(ii) Si A es de n n |A| =

Ejercicio

Ejercicio 5.1: Obtener la f


ormula para una matriz de 3 3.
A continuaci
on daremos las propiedades mas importantes de la funci
on
determinante, sin dar demostraciones, las cuales se presentan (por completitud) en el Apendice.

126

1. El determinante es una funci


on lineal de las filas de A es decir

t K, x, y

A1
..
.

: tx + y = t
.
..
An

A1
A1
..
..
.
.

x + y
.
.
..
..
An
An

2. Si B se obtiene de A permutando dos filas entonces |A| = |B|.


3. Si A tiene dos filas iguales |A| = 0.
4. |I| = 1 donde I es la identidad.Si A es triangular superior entonces
n

|A| =

aii .

i=1

5. Si a la fila i de la matriz A le sumamos la fila j ponderada por t


entonces el determinante no cambia. Es decir

A1
A1
.

..
..

.
A

i1
Si B =
donde i = j y A = i1 entonces

Ai + tAj
Ai

.
..

..
.
An
An
|B| = |A|.
6. Si A = (
aij ) es una versi
on escalonada de A y N , el n
umero de
permutaciones de filas realizadas para escalonar A. Entonces:
n

= (1)N
|A| = (1)N |A|

a
ii .
i=1

7. A es invertible si y s
olo si |A| = 0.
8. Una permutaci
on del conjunto {1, 2, ..., n} es una funci
on : {1, 2, ..., n}
1
2 ... n
{1, 2, ..., n}, biyectiva. Se suele usar la notaci
on = (1)
(2) ... (n) .
Dada

una permutaci
on del conjunto {1, 2, ..., n}, se define signo() =
e(1)
e(2)

. donde e1 , ..., en son las filas de la matriz identidad. De (2)


..
e(n)

y (4) se obtiene que signo() {1, 1}. Se tiene adem


as |A| =

signo() a1(1) a2(2) ...an(n) donde la suma se extiende sobre todas


las n! permutaciones de {1, ..., n}.
9. |AB| = |A||B|.
127

Departamento de Ingeniera Matematica


- Universidad de Chile

Proposici
on 5.2. Se tienen las siguiente propiedades:

permutaci
on

11. |A| = |At |. Adem


as de (4) si A es triangular inferior entonces |A| =
n

aii .
i=1

12. Para cualquiera i0 , j0 {1, . . . , n} fijos, se tiene:


n

|A| =

i=1

(1)i+j0 aij0 |Aij0 |

(C
alculo de |A|, usando la columna j0 )

|A| =

j=1

(1)i0 +j ai0 j |Ai0 j |

(C
alculo de |A|, usando la fila i0 )

La propiedad (7) nos dice que es valor propio de A si y s


olo si |AI| = 0.
Esta ecuaci
on es un polinomio de grado n en .
En efecto, usando la formula (8) se tiene
n

|A I| =

signo ()

i=1

(A I)i(i)

si es la permutaci
on identidad tendremos
n

signo ()
i=1

(A I)i(i) =

i=1

(aii ) = (1)n n + q()

donde q() es un polinomio de grado n 1.


Si es distinta de la permutaci
on identidad se tendra que existe un ndice
n

i {1, ..., n} tal que i = (i). De donde () = signo()


signo ()
i:(i)=i

(aii )

i:(i)=i

i=1

(A I)i(i) =

ai(i) es un polinomio de grado n 2

(este u
ltimo producto debe contener por lo menos dos terminos por que?)
y por lo tanto
|A I| = (1)n n + n1 n1 + ... + 1 + 0 ,
donde n1 , . . . , 0 dependen de A. Por ejemplo evaluando en = 0 se
tiene |A| = 0 .
Cuanto vale el coeficiente de n1 ?.
Definici
on 5.3 (Polinomio caracterstico). P () = |A I| es llamado el polinomio caracterstico de A.
Ejemplo:
A=

4
2

128

5
3

Departamento de Ingeniera Matematica


- Universidad de Chile

10. Si A es invertible entonces |A1 | = 1/|A|.

Polinomio
caracterstico

A I =

5
3

4
2

4
5
2
3

pero entonces 0 = |AI| = (4)(3+)+10 = (12+2 )+10 =


2 2. Los valores propios son 1 = 2, 2 = 1.
Ejemplo:
A=

0 1
1 0

|A I| =

1
1

= 2 + 1 = 0

no tiene solucion en , y por tanto A no tiene valores propios reales.


Sin embargo si el cuerpo donde estamos trabajando es
entonces A
tiene dos valores propios.
Ejemplo:

Sea D( ) = { espacio de funciones infinitamente diferenciables de


} se prueba f
acilmente que D( ) es un espacio vectorial sobre .
Consideremos
L : D( ) D( )
df ,
f Lf =
dt
es decir Lf es la funci
on derivada de f .

As por ejemplo si f (t) = tn , g(t) = cos(t) se tendra Lf = ntn1 ; Lg =


sen(t). Estudiemos si L tiene vectores propios:
Lf = f es decir df
on diferencial y una
dt = f . Esta es una ecuaci
solucion es: f (t) = cet .
Luego todo es valor propio y un vector propio es cet , c = 0.

De la definici
on v es vector propio si v = 0 y tal que Av = v. As,
es valor propio si y s
olo si existe una solucion no nula de la ecuaci
on
(A I)v = 0
Cualquier solucion no nula de esta ecuaci
on es entonces un vector propio
de A con valor propio .
Notemos que si v es vector propio tambien lo es 10v y en general v para
cualquier , = 0.
Ademas, si v es vector propio, el valor propio asociado es u
nico. Supongamos
que L(v) = 1 v = 2 v entonces (1 2 )v = 0 . Como v = 0 se tendra 1
2 = 0 y por lo tanto 1 = 2 .

Para cada valor propio de A, introduciremos el subespacio propio W


que corresponde a W = Ker(A I). Notar que este subespacio debe
contener vectores no nulos, pues es valor propio.

129

Departamento de Ingeniera Matematica


- Universidad de Chile

Cuales son los valores propios de A?. Para ello estudiemos A I.

Subespacio propio

A I = P BP 1 P P 1 = P (B I)P 1
|(A I)| = |(P (B I)P 1 )|

= |P ||(B I)||P 1 | pero |P 1 | = 1/|P |


= |B I|

luego A y B tienen el mismo polinomio caracterstico, por lo tanto tienen


los mismos valores propios.
Ejemplo:
4 5
Sabemos que los valores propios son 1 = 2, 2 =
2 3
1. Calculemos los vectores propios asociados.
1 = 2 La ecuaci
on de vectores propios es

Sea A =

(A 2I)

x1
x2

2 5
2 5

x1
x2

0
0

La solucion general es x1 = 25 x2 y su espacio propio es:


W2 = Ker(A 2I) = {

x1
x2

/x1 =

5
2

5
x2 } =
2

As v es vector propio asociado a 1 = 2 si y solo si v =

5
2

= 0.

Para 2 = 1

5 5
5 5

, luego la solucion general


2 2
0 0
de la ecuaci
on (A + I)x = 0 es: x1 = x2 , y su espacio propio es
A (1)I = A + I =

W1 = Ker(A (1)I) = Ker(A + I) =

130

1
1

Departamento de Ingeniera Matematica


- Universidad de Chile

Si A y B son similares es decir si existe P invertible tal que A = P BP 1 ,


entonces los valores propios de A y B son los mismos y mas a
un, el polinomio
caracterstico es el mismo. En efecto:


Ingeniera Matematica

SEMANA 10: VALORES Y VECTORES PROPIOS

Apendice
Hemos definido el determinante de una matriz A de nn en forma recursiva
de la siguiente manera | A |= (1)j+1 aj1 | Aj1 |, donde Ak es la matriz
j

de n 1 n 1, que se obtiene de A elimin


andole la fila k y la columna
. Probaremos ahora las propiedades fundamentales de esta funci
on. Varias
de las propiedades pueden probarse por inducci
on, dejaremos al lector la
tarea de completar estas demostraciones.
1. Si

a11
..
.

A = ak1 + bk1

..

an1

entonces

a11
..
.
=
|A|
an1
.
..
an1

a1n

a11
..

akn + bk1
.

..

ann
an1

a1n

akn + bkn ,

ann

a1n

bkn

ann

= |A| + |B|.

Por hipotesis de inducci


on (sobre el tama
no de la matriz) se tiene
| Aj1 |=| Aj1 | + | B j1 | .
Ademas, | Ak1 |=| Ak1 |, luego
n

| A |=

j=1

(1)j+1 a
j1 |Aj1 | =

j=1
j=k

(1)j+1 aj1 {| Aj1 | + | B j1 |}+

(1)k+1 (ak+1 + bk+1 ) | Ak1 |=| A | + | B |


An
alogamente se prueba que si

a11
..
.

A = tak1
.
..
an1

131

a1n
..
.

takn ,

ann

Departamento de Ingeniera Matematica


- Universidad de Chile

FACULTAD DE CIENCIAS

FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE

Algebra
Lineal 08-2

a11
..
.

| A |= t ak1
.
..
an1

a1n

akn .

ann

As visto como funci


on de las filas de A el determinante tiene la propiedad lineal siguiente

x, y

A1
A2
..
.

n
,t K :

tx + y
.
..
An

A1
A1
A2
A2
.
.
.
.
.
.
=t
.
+
y
x
.
.
..
..
An
An

Es decir el determinante es lineal en cada una de las filas de la matriz.


Si estamos considerando matrices de dimensi
on n entonces diremos que
el determinante es n-lineal.
Probaremos simult
aneamente por inducci
on las propiedades (2) y (3):
2. Si B se obtiene de A permutando dos filas entonces |B| = |A|. Se dice
que el determinante es una funci
on alternada.
3. Si A tiene dos filas iguales entonces |A| = 0. Supongamos que A tiene
las filas i y j iguales, es decir:

A1
..
.

X i
.

A=
.
..

j
X
.
..
An

Cada matriz Ak1 tiene dos filas iguales a menos que k = i o k = j de


donde | Ak1 |= 0 si k = i k = j. Por lo tanto | A |= (1)i+1 ai1 |
Ai1 | +(1)j+1 aj1 | Aj1 |.
Las matrices Ai1 y Aj1 de dimensi
on n1n1 son iguales excepto que
la fila X esta en distinta posici
on. En Ai1 esta en la fila j 1. En Aj1 esta
en la fila i. As podemos llegar de la matriz Ai1 a la matriz Aj1 mediante
132

Departamento de Ingeniera Matematica


- Universidad de Chile

entonces

| A | = ai1 {(1)i+1 (1)j1i | Aj1 | +(1)j+1 | Aj1 |}


= {(1)j (1)j }ai1 | Aj1 |= 0

Supongamos que A se obtiene de A permutando las filas i y j:

A1
..
.

Aj i
.

A =
.
..

j
Ai
.
.
.
An

Tomemos

A1
..
.

Ai + Aj

..
B=
,

Ai + Aj j

..

.
An

como B tiene dos filas iguales se deduce que

A1
..
.

A1
..
.


A1
A1
.. ..
. .


Ai Ai
. .
. + .. +
.


Ai Aj
. .
.. .
.
An
An

Aj
Ai

..

..

+
0 =| B |=

=
.
.

A +A

i
j
Ai + Aj

.
.

..
..

An
An
A

A1
1
..
..
.
.
A

j
Aj

.
..
+ 0,

+ .. + . = 0 + |A| + |A|

Aj
Ai

. ..
.
.
An
An
133

Departamento de Ingeniera Matematica


- Universidad de Chile

j 1i permutaciones. Por cada permutacion hay un cambio de signo en


el determinante (de dimensi
on n 1). Luego | Ai1 |= (1)j1i | Aj1 |.
Ademas ai1 = aj1

| A |= | A |
4. Sea In la identidad de n n entonces |In | = 1. En efecto
|In | = 1|In1 | = 1.
De manera mas general se prueba que si A es triangular superior entonn

ces |A| =

aii , esto tambien es cierto para una triangular inferior pero


i=1

lo probaremos mas tarde.


5. Si a la fila i le sumamos la fila j(i = j) amplificada por alg
un factor,
entonces el determinante no cambia. Sea

A1
..
.

Aj

.
..
A =
,

Ai + tAj i

..

.
An

entonces

A1
..
.

Aj

j
.
| A |=| A | +t ..
=| A |

Aj i

.
..
An

6. Las filas de A son l.d. | A |= 0. Supongamos que las filas de A son l.d.
es decir 1 , ..., n no todos nulos tal que 1 A1 +2 A2 +...+n An = 0
podemos suponer sin perdida de generalidad que 1 = 0

1 A1 + 2 A2 + ... + n An
A2

=
A =
..

An

0
A2
1+1
11

=
... = (1) 0 | A | +
An

134

n
j=2

(1)j+1 a
j1 |Aj1 |,

Departamento de Ingeniera Matematica


- Universidad de Chile

y por lo tanto

Ak
A2
A
A2
+....+k .2 +...+n
0 = 1 |A|+2
.
..
..
An
An

An
A2
. = 1 |A|,
..
An

pero 1 = 0 y por lo tanto | A |= 0.


Si las filas son l.i. probaremos que |A| = 0. En efecto, mediante operaciones elementales sobre las filas de A (suma de filas y permutacion de
filas) se llega a

a
11
0
.

A = ..
.
..
0

a
12
a
22

0
..
.

..

.
0

a
1n
a
2n

a
nn

pero entonces | A |= | A |. Dado que | A |=

a
ii = 0 (ver (4)), se
i=1

concluye que | A |= 0.
Falta probar que |A| = |At |. Esta proposici
on no es facil, para ello
necesitamos la siguiente f
ormula:
7. |A| =

(signo ) a1(1) a2(2) ...an(n) donde la suma se extiende sobre

todas las permutaciones de {1, ..., n} y signo() se define como

e(1)

signo () = ... ,
e(n)

donde {e1 , ...en } es la base can


onica de

Ejemplo:

1 2
2 1

3
3

e(1) = e2
e(2) = e1
e(i) = ei

135

i2

n
n

Departamento de Ingeniera Matematica


- Universidad de Chile

pero para j 2 la primera fila de Aj1 es cero luego las filas de Aj1 son
l.d., por tanto | Aj1 |= 0. As | A |= 0. Ademas


0
0

0 = (1)3 | In1 |= 1, luego signo

0
0
1
..
.

0 1
1 0

0 0
signo() =
.
..

() = 1

El termino asociado a esta permutaci


on en la formula (7) es:
1 a12 a21 a33 a44 ...ann
Notemos que cada termino de la f
ormula (7) es el producto de una elemento por fila y columna.
Demostremos la f
ormula. Dado que A1 = a11 e1 + a12 e2 + ... + a1n en se
tendra

ek
n
A2

| A |=
a1k
... .
k=1

An

a2 e , luego

An
alogamente A2 =
=1

ek
A2
. =
..

An

a2
=1

ek
e

A3 =
.
..

a2
=k

An

ek
e

A3 .
.
..

An

Por lo tanto

|A| =

a1k a2
k=

ek
e
Aj
..
.
a1k1 a2k2 ...ankn

k1 ,...,kn

todos
distintos

k1

ek2

a1k1 a2k2 ...ankn


..
.
ekn

Esta suma es la suma sobre todas las permutaciones

ek1
1 2 n

y ... = signo (),


=
k1 k2
kn
ekn

lo que prueba la f
ormula deseada. Notemos que lo que se uso en probar
esta formula es que el determinante es n-lineal y alternada. Por esto
estudiaremos un poco como son este tipo de funciones.

136

Departamento de Ingeniera Matematica


- Universidad de Chile

F (A) = |A| F (I)

no n. Este
donde F (I) es el valor que toma para la identidad de tama
resultado dice que toda funci
on n-lineal alternada debe ser un m
ultiplo
del determinante. De igual forma como lo hicimos para el determinante
se prueba que

e(1)

F (A) =
a1(1) ...an(n) F ... .

e(n)
Pero por ser F alternada se tendra

e(1)

F ... = F (I)
e(n)

el signo depende de si se necesitan un n


umero par o impar de permutaciones para llegar a la identidad pero

e(1)
.
..
e(n)

Departamento de Ingeniera Matematica


- Universidad de Chile

Supongamos que tenemos una funci


on F que asigna a cada matriz cuadrada de n n un n
umero de , de manera que es n-lineal y alternada
en las filas de la matriz, entonces necesariamente:

es exactamente 1 dependiendo de la paridad del n


umero de intercambios necesarios para llegar a la identidad. Luego, F (A) = F (I)
signo ()a1(1) ...an(n) =
j

F (I)|A|.
8. |AB| = |A||B|
Sea

F : Mnn ( )

A |AB|

probemos que F es n-lineal. En efecto

A1
A1
..
..
.
.

C1 = X
C2 = Y
.
.
..
..
An
An

A1 B
A1
..

..
.

AB = XB + Y B ,
A = X +Y

.
.

..
..
An B
An
137

A1 B
A1 B
.. ..
. .

= |AB|
=
F (A)
XB + Y B = |C1 B|+|C2 B| = F (C1 )+F (C2 ).
. .
.. ..
An B
An B

De igual forma se prueba que

A1
..
.

F tAi = tF
.
..
An

A1
..
.

Ai .
.
..
An

Si intercambiamos las filas i y j de A y definimos

A1
..
.

Aj i
.

A =
..

Ai j
.
.
.
An

A1 B
..
.

Aj B
.
= . ,
AB
.

Ai B
.
.
.
An B

= |AB| por lo tanto F (A)


= F (A). Del resultado
se tendra |AB|
anterior concluimos que F (A) = |A|F (I) pero F (I) = |IB| = |B| por lo
tanto |AB| = |A||B|
9. Si A es invertible entonces
|A1 | =

1
|A|

en efecto, |A1 A| = |I| = 1 = |A1 | |A| luego |A1 | =

1
|A| .

Proposici
on 5.3. Sean y dos permutaciones entonces signo(

) = signo() signo( ).
n. Sean
Demostracio

e(1)

A = ...
e(n)

138

e (1)

B = ...
e (n)

Departamento de Ingeniera Matematica


- Universidad de Chile

y por lo tanto

Si escribimos A en terminos de sus columnas, tendremos que el 1 de la


primera columna se ubica en la posici
on k (fila k) que hace que (k) = 1,
pero entonces k = 1 (1), por lo tanto A descrita por sus columnas es:
A = (e1 (1) e1 (2) ...e1 (n) ). Como
0 j=k
etj ek =
, se tiene que la primera fila de BA tendra la forma:
1 j=k
(BA)1j = et (1) e1 (j) =

1
0

(1) = 1 (j) ,
sino

es decir (BA)1 es un vector de la base canonica, lo que debemos averiguar es en que posici
on tiene el 1, pero esto se deduce de la ecuacion (1) = 1 (j) pues entonces j = ( (1)) = (1), luego
(B A)1 = eo (1) . As se obtiene:

e (1)
e (2)

BA =

..

.
e (n)
Por lo tanto C = B A, de donde |C| = |B||A| y entonces

signo( )= signo() signo( ). En particular signo( 1 )= signo()


pues
signo( 1 ) = signo(id) = 1 = signo() signo( 1 ),
donde id es la permutaci
on identidad.
10. Probemos ahora que |A| = |At |. En efecto:
|At | =

signo () (At )1(1) (At )2(2) ...(At )n(n)

( signo())a(1)1 , a(2) ...a(n)n

pero
i=1

a(i)i =

i=1

ai1 (i) lo que se obtiene reordenando el producto

de acuerdo a la primera coordenada. Luego


|At | =

( signo())a11 (1) a21 (2) ...an1 (n) .

Como signo() = signo( 1 ) y la aplicaci


on 1 es una biyeccion
se tiene:
|At | =
( signo())a1(1) ...a2(2) = |A|

139

Departamento de Ingeniera Matematica


- Universidad de Chile


e( (1))
e (1)

..
..
C=
.
=
.
.

e( (n))
e (n)

Sea F : Mnn ( )

F (A) =

n
i=1

(1)i+j aij |Aij | que corresponde a

desarrollar el determinante de A por la columna j.


Se puede probar al igual que hicimos para el determinante que F es
n-lineal y alternada luego F (A) = |A| F (I) pero F (I) = 1, por tanto
F (A) = |A|. Ademas si se usa |A| = |At | se prueba que se puede calcular
n

|A| utilizando las filas de A esto es: |A| =

(1)i+j aij |Aij |

j=1

Si |A| = 0 definamos B mediante:


bij =
Calculemos AB:

1
(1)i+j |Aji |.
|A|

(AB)ij =

aik bkj =
k=1

k=1

(1)k+j
aik |Ajk |.
|A|

Analicemos ahora dos casos:


1. j = i

(AB)ii =

1
|A|

n
k=1

2. j = i (AB)ij =
k=1

(1)k+i aik |Aik | = 1

ik
(1)k+j a|A|
|Ajk |, que corresponde al determinante

de la siguiente matriz, calculado usando la fila j

a11
..
.

ai1
.
.
.
ai1
|A|

.
..
an1

..
.

..
.

..
.

a1n
..
.

ain i
..

.
ain j

|A|
..
.
ann

Como las filas de esta matriz son l.d. se tiene


y por tanto AB = I lo que implica que
B = A1 .
Ejemplo:
Sea
A=

a
c

140

b
d

jk
(1)k+j |A|
|Ajk | = 0,

k=1

Departamento de Ingeniera Matematica


- Universidad de Chile

Formula
para A1

|A| = ad bc

|A11 | = d |A12 | = c
A1 =

1
d c
|A| b a

141

|A21 | = b |A22 | = a
=

1
d b
|A| c a

Departamento de Ingeniera Matematica


- Universidad de Chile

Se tendra que

FACULTAD DE CIENCIAS

FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE

Algebra
Lineal 08-2

Ejercicios
1. Suponga que A, B son semejantes, es decir, existen matrices invertibles
P, Q tal que A = P BQ. Pruebe que A y B tienen el mismo rango:
r(A) = r(B).
2. Probar que r(AB) r(A) y por lo tanto
r(AB) mnimo (r(A), r(B)).
3. Obtener la f
ormula del determinante de una matriz de 33.

4. Demuestre que si A, B Mnxn ( ), entonces P (A B) = P (B A) si A


es invertible, y donde P (A) denota el polinomio caracterstico de A
5. Determinar los valores y los vectores propios correspondientes a las matrices siguientes:

2
0
0

3
1 0
0
2 0
0
0 3
0

0
3
1
0

1
0
3
0

0
3
2
2
3 2 1

0
2 1 6 2 1 1
0
1 1 4
2 6 4
3

Problemas

P1. (a) Pruebe que una matriz A Mmn ( ) tiene rango 1 si y s


olo si
existen u m , v n , ambos no nulos tales que A = uv t .

y n

(b) Si 0 , 1 , ..., n1
polinomio caracterstico de

0
1

A = 0
..
.

2, probar por inducci


on que el
la matriz

0 ... 0
0
0 ... 0
1

1 ... 0
2

..
.. .. ..
.
. . .

0 0

n1

es igual a: (1)n (

... 1

n1

k k + n ).

k=0

P2. Sean A, B Mn,n ( ) invertibles y

, 0 < < 1.

a) Sea PA1 B () el polinomio caracterstico de A1 B. Pruebe que


|(A + (1 )B)| = (1 )n |A|PA1 B

b) Demueste que existe 0 < < 1 tal que (A+(1)B) es invertible.


142

Departamento de Ingeniera Matematica


- Universidad de Chile

Gua
Semana 10

Ingeniera Matematica

a) Pruebe que si Bv = 0 y v es vector propio de A asociado a


entonces Bv tambien lo es.
b) Muestre que si v es vector propio de A perteneciente a un espacio
propio de dimensi
on 1, entonces v es vector propio de B.

143

Departamento de Ingeniera Matematica


- Universidad de Chile

P3. Sean A, B matrices de nn con coeficientes reales tales que AB = BA


Ingeniera Matematica

SEMANA 11: VALORES Y VECTORES PROPIOS

Sea L : n n lineal y sea A la matriz representante de L con respecto


a la base can
onica B. Supongamos que existe B = {v1 , . . . , vn } base de
vectores propios, es decir B es una base de n y

i i

Avi = i vi .

Cual es la matriz representante de L con respecto a B ?


Av1 = 1 v1 = 1 v1 + 0v2 + + 0vn

Av2 = 1 v2 = 0v1 + 2 v2 + + 0vn


..
.
Avn = n vn = 0v1 + 0v2 + + n vn

MB B (L) =

0
..
.

0
0

..

0
..
.
= D que es diagonal.
0
n

Ademas se tiene el diagrama

P 1

P.

D
B

Por lo tanto A = P DP 1
Algunas ventajas de conocer D:
(1) r(A) = r(D) = n
umero de valores propios no nulos.
(2) |A| = |P DP 1 | = |P ||D||P 1 | = |D| =

i .
i=1

(3) |A| = 0 entonces ii = 0 y A1 = P D1 P 1 donde

En efecto,

D1 =

1
1
0

0
..

.
1
n

A1 = (P DP 1 )1 = (P 1 )1 D1 P 1 = P D1 P 1 ,

144

Departamento de Ingeniera Matematica


- Universidad de Chile

FACULTAD DE CIENCIAS

FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE

Algebra
Lineal 08-2


pero D1 =

1
1

0
..

.
1
n

(4)
Am = (P DP 1 )m = (P DP 1 )(P DP 1 ) (P DP 1 )

m
1
0
1

..
= P Dm P 1 = P
P
.
m
n

Como hemos visto A = P DP 1 donde P = MB B (idn ) es decir tenemos


que expresar los vectores propios en terminos de la base canonica, y por lo
tanto P = (v1 , v2 , . . . , vn ), donde los vectores vi son las columnas de P .

Definici
on 5.4 (Matriz diagonalizable). Diremos que A Mnn ( ) es
diagonalizable si n admite una base de vectores propios de A.

Matriz diagonalizable

Teorema 5.1. A es diagonalizable si y s


olo si A es similar a una matriz
diagonal.
n.
Demostracio
() Hemos visto que si A es diagonalizable entonces

1
0
..

A = P DP 1 donde D =
.

0
n
y P = (v1 , . . . , vn ). Luego A es similar a una diagonal.

() Supongamos que A es similar a una diagonal, es decir existe P invertible tal que A = P DP 1 . De manera equivalente:
AP = P D.
d1
0

entoces la igualdad anterior se escribe:


d1
0

,
dn

..

A(v1 , . . . , vn ) = (v1 , . . . , vn )

..

Si suponemos que P = (v1 , . . . , vn ) (notacion por columnas) y D =

.
dn

Y por propiedades de la multiplcaci


on de matrices esto equivale a:
(Av1 , . . . , Avn ) = (d1 v1 , . . . , dn vn ).
Finalmente, la igualdad vista por columnas nos dice que i {1, . . . , n} Avi =
di vi . Es decir, los vectores v1 , . . . , vn son vectores propios de A (son no nulos
pues P es invertibles), con valores propios respectivos d1 . . . , dn .
Ademas, son claramente una base de n , pues son las columnas de P que
es invertible.

145

Departamento de Ingeniera Matematica


- Universidad de Chile

n. Por inducci
Demostracio
on sobre k. Para k = 1, la propiedad es obviamente cierta. Supongamos
1 v1 + + k vk = 0,

(5.2)

donde Avi = i vi y i i = 1, . . . , k son todos distintos. Entonces


1 1 v1 + + k k vk = A(1 v1 + + k vk ) = A0 = 0.
Multiplicado (5.2) por k se tiene 1 k v1 + + k k vk = 0. Luego
1 (1 k )v1 + + k1 (k1 k )vk1 = 0
como {v1 . . . , vk1 } son l.i. se tiene i (i k ) = 0 i = 1, . . . ., k 1. Como
i = k se debe tener que i = 0 i = 1, . . . , k 1 y de (5.2) se concluye que
k = 0.
Antes de seguir, veremos la extensi
on natural del concepto de suma directa de mas de dos subespacios vectoriales. Definamos primero, dados
U1 , U2 , . . . , Uk s.e.v. de un espacio vectorial V , la suma de ellos como:
v=

i=1

i=1

ui | i {1, . . . , k}, ui Ui

Esto es claramente un s.e.v. de V .


Definici
on 5.5 (Suma directa m
ultiple). Sea V espacio vectorial y U1 , . . . , Uk
k
subespacios vectoriales de V . Decimos que el subespacio Z = +i=1 Ui es
suma directa de U1 , . . . , Uk , notado Z = ki=1 Ui = U1 U2 Uk ,
si para todo v Z, v se escribe de manera u
nica como
k

ui ,

v=
i=1

con ui Ui , i {1, . . . , k}.

Las siguientes propiedades se tienen de manera an


aloga al caso de dos
subespacios:
Proposici
on 5.4. Sea V espacio vectorial y Z, U1 , . . . , Uk subespacios vectoriales de V , entonces:

1. Z =

i=1

Ui Z =

+ Ui

i=1

j {1, . . . , k}, Uj
146

+ Ui = {0}.

i=1
i=j

+ Ui
i=1

+ Ui = U1 + U2 + + Uk

Departamento de Ingeniera Matematica


- Universidad de Chile

Teorema 5.2. Sea A Mnn ( ) si {i }i=1,...,k son valores propios de A


distintos y {vi }i=1...,k son vectores propios de A tal que Avi = i vi , entonces
{vi }i=1,...,k es un conjunto l.i.

k
L

i=1

Ui

+ Ui y Z es de dimension finita, entonces son equivalentes:

i=1

Ui .

(a) Z =
i=1

(b) (i {1, . . . , k})(ui Ui \ {0}) {u1 , . . . , uk } es l.i.

(c) La yuxtaposici
on de bases de los subespacios Ui es una base (y no
s
olo un generador) de Z.
k

dim(Ui ).

(d) dim(Z) =
i=1

n. Probaremos (a) (b) en la parte 2. El resto de las deDemostracio


mostraciones, quedan propuestas como ejercicio.
(b) (a) Sea v Z y dos formas distintas de escribirlo:
k

wi ,

wi =

v=

i=1

i=1

con wi , wi Ui .

De aqu, suponiendo sin perdida de generalidad que i {1, . . . , k }, wi


wi = 0, sale que:
k

i=1

(wi wi ) = 0,

lo cual es una combinaci


on lineal nula, con escalares no nulos (todos 1), de
los vectores ui = wi wi Ui \ {0}. Pero esto es una contradicci
on con el
hecho de que dichos vectores son l.i, por hipotesis.
As se tiene que la escritura es u
nica y por ende la suma es directa
(a) (b) Supongamos ahora que Z =
ui Ui , i {1, . . . , k}. Estudiemos

k
i=1

Ui . Sea {u1 , . . . , uk }, con

i ui = 0.
i=1

Como para cada i {1, . . . , k}, Ui es un s.e.v., luego i ui Ui . As, hemos


encontrado una forma de escribir al vector nulo como suma de elementos
de los subespacios Ui .
Por unicidad de dicha escritura,
i {1, . . . , k}, i ui = 0.
Y esto implica, ya que ui = 0, que i = 0, i {1, . . . , k}. Es decir,
{u1 , . . . , uk } es l.i.

147

Departamento de Ingeniera Matematica


- Universidad de Chile

2. Si Z =

Ejercicio

En particular, A es diagonalizable si y s
olo si

n = W

W2 Wk .

n. Directa de la Proposici
Demostracio
on 5.4.

Corolario 5.1. Supongamos que A Mnn ( ) y que p() = |A I|, el


polinomio caracterstico de A, tiene n races distintas en
: 1 , . . . , n ,
entonces

on 1.
1. Wi = Ker(A i I) es de dimensi
2. Sea vi Wi con vi = 0 entonces {v1 , . . . , vn } es una base de vectores
propios.

Este teorema da un criterio simple para que A Mnn ( ) sea diagonizable,


este es que A tenga n valores propios distintos.
Ejemplo:
Sea

1 1 1
A=
1 1 1
1 1 1

1
1
1
p() = |A I| = 1
1
1
1
1 1

= (1 ){(1 )2 1} 1{(1 ) + 1} {1 + (1 )}

= (1 )3 (1 ) (1 ) 1 1 (1 )
= (1 3 + 32 3 ) 3 + 3 2

= 32 3 4

Ahora = 2 es una raz de p(). Por otro lado p()2 = 2 ++2


As las otras races de p son = 1 y = 2. Por lo tanto p() =
( 2)( + 1)( 2) Se puede probar que A tiene una base de vectores
propios por lo que no es necesario que todos los valores propios sean
distintos para que A sea diagonalizable.

148

Departamento de Ingeniera Matematica


- Universidad de Chile

Teorema 5.3. Sea A Mnn ( ), 1 , . . . , k los valores propios (distintos)


de A y Wi = Ker(Ai I), i {1, . . . , k}. Si W = W1 +W2 + +Wk ,
se tiene que
W = W1 W2 Wk .

1 0 0
Consideremos A = 2 2 0 los valores propios son 1 = 1, 2 =
0 0 2

1
0

0
2
1,0
2, 3 = 2 y W1 =
W2 =
.

0
0
1

1 0 0
As 3 = W1 W2 , y A es diagonalizable similar a D = 0 2 0
0 0 2

Definici
on 5.6 (Multiplicidad geom
etrica). Sean A Mnn ( ) y
un valor propio de A. Definimos la multiplicidad geom
etrica de ,
A (), como la dimensi
on del espacio propio W = Ker(A I).

Teorema 5.4. Una matriz A Mnn ( ) es diagonalizable ssi la suma de


las multiplicidades geometricas de sus valores propios es n.

n. Basta usar el Teorema 5.3 y el hecho de que si 1 , . . . , k


Demostracio
son los v.p.s de A,
k

dim(W1 Wk ) =

A (i ).
k=1

Definici
on 5.7 (Multiplicidad algebraica). Sean A Mnn ( ) y un
valor propio de A. Definimos la multiplicidad algebraica de , A (),
como la m
axima potencia de (x ) que divide al polinomio caracterstico
de A, pA (x) = |A xI|.

Proposici
on 5.5. Sean A Mnn ( ) y 0 un valor propio de A, entonces:
1 A (0 ) A (0 ) n.

Departamento de Ingeniera Matematica


- Universidad de Chile

Ejemplo:

Multiplicidad
geom
etrica, A ()

Multiplicidad
algebraica, A ()

Ejercicio

Ejercicio 5.2: Demuestre la Proposici


on 5.5. Para ello proceda de la
siguiente manera:
1. Pruebe las desigualdades 1 A (0 ) y A (0 ) n.

149

3. Extienda dicha base a una base = {v1 , . . . , v , v+1 , . . . , vn } de


n
.

4. Calcule la matriz representante de T (x) = Ax, con respecto a la


base . Es decir, M (T ).
5. Pruebe que
pA () = |A I| = ( 0 ) q().
En donde q() es un polinomio de grado n .
Indicaci
on: Pruebe y use que A y M (T ) son similares.
6. Concluya el resultado.

Corolario 5.2. Sea A Mnn ( ) y pA () su polinomio caracterstico. Se


tiene entonces que A es diagonalizable si y s
olo si pA () se factoriza comen factores lineales. Es decir:
pletamente en

pA () = cA ( 1 )A (1 ) ( 2 )A (2 ) . . . ( k )A (k ) ,
y adem
as, para todo valor propio de A, se tiene que A () = A ().
n. Supongamos que A es diagonalizable y sean 1 , . . . , k
Demostracio
sus valores propios. Entonces, gracias al Teorema 5.3 tenemos que n =
k
i=1 Wi .
del polinomio caracterstico de A:
Sea entonces la fatorizaci
on en

pA () = cA ( 1 )A (1 ) ( 2 )A (2 ) . . . ( k )A (k ) q(),
con q() un polinomio.
Pero, gracias a la Proposici
on 5.5,

n) = dim(

Wi ) =
i=1

i=1

De donde

k
i=1

n = dim(

A (i )

A (i ).
i=1

A (i ) = n.

Ahora
n = gr(pA ()) = gr(cA ( 1 )A (1 ) ( 2 )A (2 ) . . . ( k )A (k ) ) + gr(q())
k

A (i ) + gr(q()).

=
i=1

150

Departamento de Ingeniera Matematica


- Universidad de Chile

2. Sea = A (0 ). Considere una base 0 = {v1 , . . . , v } de W0 =


Ker(A 0 I).

Ahora, supongamos que pA () se factoriza completamente en


guiente manera:

de la si-

pA () = cA ( 1 )A (1 ) ( 2 )A (2 ) . . . ( k )A (k ) .
De donde
implica que

k
i

A (i ) = n. Y, supongamos que A no es diagonalizable. Esto

A (i ).

A (i ) < n =

Wi ) =
i=1

dim(

i=1

i=1

Lo cual contradice la hip


otesis de igualdad de las multiplicidades.
Corolario 5.3. A Mnn ( ) es diagonalizable si y s
olo si para todo valor
propio de A, se tiene que
A () = A ().

151

Departamento de Ingeniera Matematica


- Universidad de Chile

As, gr(q()) = 0. Es decir, es una constante y se tiene la fatorizaci


on
buscada.

FACULTAD DE CIENCIAS

FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE

Algebra
Lineal 08-2

Ejercicios
1. Demostrar que dados V espacio vectorial y Z, U1 , . . . , Uk subespacios
vectoriales de V , entonces:

(a) Z =

i=1

Ui Z =

+ Ui

i=1

(b) Si Z =

j {1, . . . , k}, Uj

+ Ui y Z es de dimension finita, entonces son equivalentes:

i=1

Ui .

(1) Z =
i=1

(2) (i {1, . . . , k})(ui Ui \ {0}) {u1 , . . . , uk } es l.i.


(3) La yuxtaposici
on de bases de los subespacios Ui es una base (y
no s
olo un generador) de Z.
k

(4) dim(Z) =

dim(Ui ).
i=1

2. Pruebe que, dados A Mnn ( ) y 0 un valor propio de A, entonces:


1 A (0 ) A (0 ) n.
Para ello
(a) Pruebe las desigualdades 1 A (0 ) y A (0 ) n.

(b) Sea = A (0 ). Considere una base 0 = {v1 , . . . , v } de W0 =


Ker(A 0 I).

(c) Extienda dicha base a una base = {v1 , . . . , v , v+1 , . . . , vn } de


n
.

(d) Calcule la matriz representante de T (x) = Ax, con respecto a la


base . Es decir, M (T ).
(e) Pruebe que
pA () = |A I| = ( 0 ) q().
En donde q() es un polinomio de grado n .
Indicaci
on: Pruebe y use que A y M (T ) son similares.
(f ) Concluya el resultado.

Problemas

P1. (a) Sea P2 ( ) el espacio vectorial de los polinomios a coeficientes


reales de grado menor o igual a 2, y sea T : P2 ( ) P2 ( ) la
transformaci
on lineal definida por

T (a0 + a1 x + a2 x2 ) = (a0 + 2a2 ) + a1 x + (2a0 + a2 )x2 .

152

Proposici
on 5.4

+ Ui = {0}.

i=1
i=j

Departamento de Ingeniera Matematica


- Universidad de Chile

Gua
Semana 11

Ingeniera Matematica

Proposici
on 5.5

(2) Calcule A2n para cada n 1 natural, diagonalizando A.


(3) Calcule T 2n (1 + x + x2 ), donde T 2n = T T T .
2n

Indicaci
on: Recuerde que la matriz representante de T 2n es
A2n .
(b) Encuentre los valores reales de

2
0 2

0 0

0 0
0 0
sea diagonalizable.

y de modo que la matriz

0 0 0
0 0

2 0 0

0 1
0 0 1

P2. Sea a . Se define una sucesion de n


umeros reales (un )n de la
siguiente manera: u0 = 1, u1 = a, (n 2) un = aun1 un2 .
n
Sean x0 = ( 10 ), (n 1) xn = ( uun1
).

(a) Demuestre que para todo n 0 se tiene que xn = An x0 con


A = a1 1
0 .
(b) Demuestre que si |a| = 2 entonces A no es diagonalizable.
(c) Demuestre que si |a| > 2 entonces A es diagonalizable.

(d) Asuma que |a| > 2 y denote 1 , 2 los valores propios de A.


Demuestre que
1
1

y ( 2
1 ) son vectores propios asociados a 1 y 2 , respectivamente.
n+1 n+1
(2) Para todo n se tiene que un = 1 1 22 .

(1)

P3. Sean R, S Mnn ( ), con S invertible. Considere A = RS y B = SR.

(a) Pruebe que v n es vector propio de A asociado al valor propio


R ssi Sv es vector propio de B asociado al mismo valor propio
. Concluya que A y B tienen los mismos valores propios.
(b) Sean W (A) = Ker(A I) el subespacio propio de A asociado al
valor propio
y W (B) el subespacio propio de B asociado
a . Pruebe que dim(W (A)) = dim(W (B)).

(c) Pruebe que A es diagonalizable ssi B es diagonalizable.

153

Departamento de Ingeniera Matematica


- Universidad de Chile

(1) Verifique que la matriz representante de T con respecto a la


base can
onica {1, x, x2 } de P2 ( ) (en dominio y recorrido)
es

1 0 2
A = 0 1 0 .
2 0 1


Ingeniera Matematica
FACULTAD DE CIENCIAS

FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE

Algebra
Lineal 08-2

6.

Ortogonalidad

6.1.

Conjuntos ortogonales y ortonormales

Recordemos que la proyeccion de u sobre v = 0 est


a definida por w = u,v
v,v v.
Este vector w es el que est
a mas cerca de u en el espacio {v} . Es decir
mn u v = u w .

Notaremos por uv si u, v = 0, es decir si u y v son ortogonales.

Departamento de Ingeniera Matematica


- Universidad de Chile

SEMANA 12: ORTOGONALIDAD

uv

Definici
on 6.1 (Conjunto ortogonal/ortonormal). Un conjunto {v1 , . . . , vk }
Conjunto
1
ortogonal/ortonormal
n
2
se dice ortogonal si vi , vj = 0 i = j. Si adem
as vi = vi , vi =
de
1, diremos que el conjunto es ortonormal.
En el caso en que {v1 , . . . , vk } es adem
as base de un subespacio vectorial
W , diremos que se trata de una base ortonormal de W .
Base

ortogonal/ortonormal

Ejemplo:
La base can
onica de

n es una base ortonormal.

Veamos una propiedad u


til de los conjuntos ortogonales:
Proposici
on 6.1. Sea {v1 , . . . , vk }
es l.i.

n\{0} ortogonal, entonces {v1, . . . , vk }

n. Sea i=1 i vi una combinaci


on lineal nula de los elemenDemostracio
tos de {v1 , . . . , vk }. Sea j {1, . . . , k}, luego por propiedades del producto
interno:
k

i vi , vj
i=1

=0

i vi , vj = 0.
i=1

Pero dado que el conjunto es ortogonal, luego vi , vj = 0 para i = j, de


manera que
2
j vj , vj = j vj = 0.
Y como vj = 0, se deduce que j = 0.
Como este procedimiento es valido para todo j {1, . . . , k}, se concluye
que {v1 , . . . , vk } es l.i.
Ahora, en el caso de conjuntos ortonormales, hay propiedades importantes
que motivan su b
usqueda.
Proposici
on 6.2. Sea W un subespacio vectorial de
base ortonormal de W , entonces:

154

n y {u1, . . . , uk } una

x, ui ui .

x=
2. Si x

i=1

n y definimos
k

x, ui ui W,

z=
i=1

entonces (xz)w, w W . Y en particular d(x, z) = mnwW d(x, w),


de hecho w W \ {z}, d(x, z) < d(x, w).
n.
Demostracio
1. Como {u1 , . . . , uk } es una base de W y x W , luego
k

i ui .

x=
i=0

Tomemos j {1, . . . , k} y calculemos el producto interno entre x y


uj :
k

i ui , uj

x, uj =
i=0
k

i ui , uj .

=
i=0

Como el conjunto {u1 , . . . , uk } es ortogonal, se tiene que ui , uj =


0, i = j, de donde
x, uj = j uj , uj = i 1.
Repitiendo este procedimiento para todo j {1, . . . , k}, se concluye
que j = x, uj
k

x, ui ui .

x=
i=1

2. Sea x

n , z =

k
i=1

x, ui ui y w W , veamos:
k

x z, w = x, w z, w = x, w

w, uj uj

x, ui ui ,
i=1

j=1

la u
ltima igualdad gracias a que w W . As, usando las propiedades
del producto interno:
k

x z, w = x, w

x, ui w, uj
i=1 j=1

155

ui , uj

Departamento de Ingeniera Matematica


- Universidad de Chile

1. Si x W ,

x z, w = x, w

x, ui w, ui ui , ui
i=1
k

= x, w

x, ui w, ui
i=1
k

= x, w

= 0.

w, ui ui

x,
i=1

Para probar que d(x, z) = mnwW d(x, w), sea w W distinto de z,


luego por el Teorema de Pit
agoras en n , probado en el Ejercicio 2.4:

xz
Pero como w z

+ wz

= xw

> 0, luego
xz

< xw

De esta manera
w W, d(x, z) = x z < x w = d(x, w),
de donde se concluye.

6.2.

Proyecciones Ortogonales

La Proposici
on 6.2 motiva la definici
on proyeccion ortogonal sobre un subespacio vectorial de n . Asumiremos por ahora el siguiente resultado, el
cual demostraremos en la Secci
on 6.4, que asegura la existencia de una
base ortonormal de cualquier subespacio vectorial de n .

Proposici
on 6.3. Todo subespacio vectorial de
normal.

n posee una base orto-

Definimos entonces:
Definici
on 6.2 (Proyecci
on ortogonal sobre un s.e.v.). Sea W un
subespacio vectorial n y {u1 , . . . , uk } una base ortonormal de W . Definimos la proyecci
on ortogonal sobre W como la funci
on

P:

x P (x) =

156

i=1

x, ui ui W.

Departamento de Ingeniera Matematica


- Universidad de Chile

y como {u1 , . . . , uk } es ortonormal, ui , uj = 0, i = j y

Proyecci
on ortogonal

d(x, z1 ) < d(x, z2 ),


lo cual contradice la propiedad que satisface z2 .
De la misma manera se prueba que P es funci
on.
Veamos ahora las propiedades de la proyeccion ortogonal:
Proposici
on 6.4. Sea W un subespacio vectorial de
ortogonal asociada, entonces:

n y P su proyeccion

1. P es una transformaci
on lineal.
2. x

n, w W,

(x P (x))w.

3. d(x, P (x)) = mnwW d(x, w).


n. 2 y 3 se deducen de la Proposici
Demostracio
on 6.2. La demostracion
de 1 queda de ejercicio.

6.3.

Subespacio Ortogonal

Definici
on 6.3 (Subespacio ortogonal). Sea W un subespacio de
definamos el ortogonal de W como:
W = {u

n | w W

w, u = 0}.

Proposici
on 6.5.
(i) W es un subespacio de
(ii)

n = W W .

n .

Departamento de Ingeniera Matematica


- Universidad de Chile

Observaci
on: Notemos que esta definici
on es correcta, es decir que
P no depende de la base ortonormal considerada y que es funci
on.
Gracias a la Proposici
on 6.2.2, sabemos que independiente de la base
ortonormal considerada para definirla, la proyeccion es aquella que minimiza la distancia de x a W . As, si hubiese dos proyecciones z1 , z2 ,
asociadas a bases distintas y fuesen distintas, luego:

Ejercicio

Subespacio ortogonal
W

n = W W

(iii) dim(W ) = n dim(W ).


n.
Demostracio

(i) Sea u, v W y , debemos probar que u + v W . Sea


w W:
w, u + v = w, u + w, v = 0
lo que es valido para todo w W . Luego u + v W por lo tanto
W es un subespacio vectorial de n .

157

n ,

En donde P es la proyeccion ortogonal sobre W . As, P (x) W y


x P (x) W (gracias a la Proposici
on 6.4), de donde x W + W .

Nos basta entonces probar que W W = {0}. En efecto si x


W W , en particular es ortogonal a s mismo, es decir x, x = 0,
de donde x = 0.
Se concluye entonces que

n = W W .

(iii) Se deduce directamente de (ii).

6.4.

Metodo
de Gram-Schmidt

El objetivo de esta parte es asociar de forma can


onica a un conjunto dado
de n , una base ortonormal del subespacio generado por el. Este metodo
es conocido con el nombre de Metodo de Gram-Schmidt.
Probaremos el siguiente teorema:

Teorema 6.1 (Gram-Schmidt). Dado un conjunto {v0 , . . . , vm }


existe un conjunto ortonormal {u0 , . . . , uk } tal que

n ,

{v0 , . . . , vm } = {u0 , . . . , uk } .
n. La demostracion de este teorema es precisamente el metoDemostracio
do Gram-Schmidt, que entrega un procedimiento algortmico para construir
el conjunto buscado. Sea entonces {v0 , . . . , vm } un conjunto de vectores y
definimos el conjunto {u0 , . . . , uk } mediante el Algoritmo 1.
Probemos que esta definici
on del {u0 , . . . , uk } cumple lo pedido. Lo haremos
por inducci
on en m.
Caso base. Para m = 0, si v0 = 0 luego w0 = 0 y el algoritmo
termina sin generar vectores uj . Esto es consistente con que la u
nica
base de {0} es el conjunto vaco.
Si v0 = 0, por ende w0 = 0, se tiene el resultado ya que
u0 =

v0
,
v0

que es claramente de norma 1 y ademas, como es ponderaci


on de v0 ,
se tiene que {u0 } = {v0 } .
Paso inductivo. Supongamos que dado el conjunto {v0 , . . . , vm1 },
el conjunto {u0 , . . . , uk1 } es ortonormal y tal que
{v0 , . . . , vm1 } = {u0 , . . . , uk1 } .
158

Departamento de Ingeniera Matematica


- Universidad de Chile

(ii) Es claro que W + W n . Para la otra inclusi


on, dado x
basta notar que
x = P (x) + (x P (x)).

M
etodo Gram-Schimdt

z2 = v2 , v1 u1
y restamos esta proyeccion a v2 :
w2 = v2 z2
3:

perpendicular a {u1 } y normalizamos, u2 =


Luego podemos pasar a trabajar con v2

w2
w2

z3 = v3 , u1 u1 + v3 , u1 u2
w3 = v3 z3 ,
4:

w3
perpendicular a {u1 , u2 } y normalizamos, u3 = w
.
3
se sigue del mismo modo: una vez obtenidos {u1 , . . . , uk }, proyectamos
vk+1 sobre {u1 , . . . , uk } y definimos
k

vk+1 , ui ui

zk+1 =
i=0

wk+1 = vk+1 zk+1 ,


5:

wk+1
perpendicular a {u1 , . . . , uk } y normalizamos, uk+1 = w
.
k+1
El proceso termina cuando hemos procesado todos los vi .

159

Departamento de Ingeniera Matematica


- Universidad de Chile

Algoritmo 1 Metodo Gram-Schmidt


v
1: Partamos con w1 = v1 .
1
2: Luego, proyectamos v2 sobre el subespacio generado por u1 :

Veamos los dos casos posibles:


k1

Si wk = 0, se tiene que vm =
l=0

y por ende

vm , ul ul , de donde vk {u0 , . . . , uk1 }

{v0 , . . . , vm } = {u0 , . . . , uk1 } .

Y la base ortonormal generada es {u0 , . . . , uk1 }.

Ahora si wk = 0, seg
un el algoritmo, uk estar
a definido por:
wk
1
uk =
=
wk
wk

k1

vm

vm , ul ul .
l=0

Veamos entonces, para cualquier i {0, . . . , k 1}


uk , ui =
=

1
wk
1
wk

k1

vm

vm , ul ul

, ui

l=0
k1

vk , ui

vm , ul ul , ui
l=0

y por hip
otesis de inducci
on, l = i, ul , ui = 0 y ui , ui = 1, luego
1
( vm , ui vm , ui 1)
wk
= 0.

uk , ui =

Es decir, el conjunto {u0 , . . . , uk } es ortogonal, y como es claro que


i {0, . . . , k} ui = 1, es ademas ortonormal.
Ahora, por construcci
on de uk se tiene

k1

vm = wk uk +

vm , ul ul
l=0

es decir, vm es combinaci
on lineal de {u0 , . . . , uk }, lo que equivale a
vm {u0 , . . . , uk } . As, gracias a la hipotesis inductiva, se tiene que
{v0 , . . . , vm } {u0 , . . . , uk } .

(6.1)

Por otra parte, uk es combinaci


on lineal de vm y u0 , . . . , uk1 , ya que
1
vm
uk =
wk

k1

l=0

vm , ul
ul .
wk

Pero gracias a (6.1), existen 0 , . . . , m

tales que

m
l=0

l ul . As uk {v0 , . . . , vm } y luego
{u0 , . . . , uk } {v0 , . . . , vm } .
160

k1
l=0

vm ,ul
wk

ul =

Departamento de Ingeniera Matematica


- Universidad de Chile

Con k = dim( {v0 , . . . , vm1 } ).

Luego, por Principio de Inducci


on, se tiene el teorema.
Observaci
on:
Notemos que como corolario del Teorema 6.1, se obtiene la Proposici
on 6.3.
Ademas, el Teorema 6.1 puede ser aplicado en particular a una
base {v0 , . . . , vn1 } de n .

Observaci
on:
Observar que si alguno de los vectores a normalizar, v1 o los wi , vale
0, significa que el vi correspondiente no aportar
a un nuevo vector a la
base, y simplemente se descarta, pas
andose a trabajar con vi+1 .
Esto trae como consecuencia que el n
umero de vectores ui sea menor
que el de los vj si estos u
ltimos son l.d.
En general, esto har
a que al procesar el k-esimo vk , estemos produciendo un ui , con i < k, pero no hemos introducido esto en la descripcion
del algoritmo para no confundir la notaci
on.
Ejemplo:

1
1
1
0
0 , 1 , 1 , 0 en

1
0
1
1

3 .


0
u0 = v0 / v0 , v0 , como v0 , v0 = 1 se tiene u0 = 0
1


1
1
0
0
1
w1 = 1 1 , 0 0 = 1 .
0
0
1
1
0

1
1
1
w1 , w1 = 2
u1 = w1 = 1
2
2 0
1
2





1
1
1
0
0
1
1
w2 = 1 1 , 0 0 1 , 1
2 0
1
1
1
1
1


1
0
1
0
1 1
= 1 0 21 = 0
2 2
0
0
1
1
161


1
1

1
2 0

Departamento de Ingeniera Matematica


- Universidad de Chile

Obteniendo lo buscado.

y redefinimos w2 .






1
1
1
0
0
1
1
1
1
w2 = 0 0 , 0 0 0 , 1 1
2 0
2 0
1
1
1
1
1




1
1
1
1
0
1
0
1
1
1
1
1 .
= 0 0 1 = 0 0 1 =
2
2
2 2 0
0
0
1
1
1
1
Como w2 , w2 =

1
4

1
4

= 21 , luego


1
1
u2 =
1 .
2 0

6.5.

Producto Hermtico

Ahora, extendemos el producto interno de , :


n
, de la siguiente forma.

n n a
..
.

,v =

un

..
.

vn

,
n

u, v

uj vj .

v1

u1

Definici
on 6.4 (Producto Hermtico). Dados u =
n

j=1

Departamento de Ingeniera Matematica


- Universidad de Chile

1
1
1

w2 = 0, por ende ignoramos

Producto Hermtico,
u, v H

Ejercicio

Ejercicio 6.1: Probar que el producto hermtico satisface:


, u, v, w n
1. u, v

= v, u

2. u + v, w
3. u, u

H.

= u, w

, mas aun

+ v, w

u, u

H.

0 y u, u

= 0 u = 0.

De 2a y 2b, se deduce que


u, v + w

u, v
=

+ u, w

Observaci
on: Los conceptos de ortogonalidad, proyeccion ortogonal,
subespacio ortogonal y el metodo de Gram-Schmidt, pueden desarrollarse tambien en n , como espacio vectorial sobre .

162

FACULTAD DE CIENCIAS

FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE

Algebra
Lineal 08-2

Ejercicios

1. Dado W un s.e.v. de n y P :
da. Probar que P es lineal.

n W su proyeccion ortogonal asocia-

2. Demuestre las siguientes propiedades del producto hermtico:


(a) u, v

= v, u

(b) u + v, w
(c) u, u

H.

= u, w

, mas aun

+ v, w

u, u

H.

0 y u, u

= 0 u = 0.

Problemas

P1. Sea W el subespacio vectorial de 4 generado por:



2
1
1
1


1
1
3
, , 3 .
1 1 1 2

3
1
1
3

(a) Encuentre una base ortonormal de W y de W .

(b) Encuentre la descomposici


on de v =

1
2
3
4

en W + W .

P2. Sea A Mnn ( ) una matriz invertible y U un s.e.v. de


si
on 0 < k < n. Se define

n de simen-

n | u U, Ax, Ay = 0}.
Probar que W es s.e.v. de n y probar que W U = {0}.
Sea V = {v n | u U, v = Au}. Pruebe que V es s.e.v. de
n.
W = {y

(a)
(b)

(c) Sea {v1 , . . . , vk } una base ortonormal de V . Probar que {u1 , . . . , uk }


donde ui = A1 vi , i {1, . . . , k}, es una base de U que verifica
la propiedad: Aui , Auj = 0 si i = j y Aui , Auj = 1 si i = j.
(d) Probar que
w W i {1, . . . , k}, Aw, Aui = 0.
Donde {u1 . . . . , uk } es la base del punto anterior.
(e) Probar que si v
v z W.

n entonces z =

i=1

Av, Aui ui U y que

(f ) Deducir que n = U W y calcular la dimensi


on de W .

2
1


1
, 1
P3. (a) Sea W =
1 1 .

0
1
163

Departamento de Ingeniera Matematica


- Universidad de Chile

Gua
Semana 12

Ingeniera Matematica

Proposici
on 6.4

Ejercicio 6.1

los valores y1 , y2 , y3 , y4 que satisfacen T

x1
x2
x3
x4

y1
y2
y3
y4

on lineal para la
donde T : 4 4 es una transformaci
cual Ker(T ) = W y, para todo x W , T (x) = x.

(b) Sean U, V subespacios vectoriales de


(b.1)
(b.2)
(b.3)
(b.4)

(U + V ) = U V .
(U ) = U .
(U V ) = U + V .
U V = n U V =

164

n. Demuestre que

n.

Departamento de Ingeniera Matematica


- Universidad de Chile

(a.1) Encuentre una base ortonormal de W .


(a.2) Sean x1 , x2 , x3 , x4 . Encuentre (en terminos de x1 , x2 , x3 , x4 )


Ingeniera Matematica

SEMANA 13: ORTOGONALIDAD

6.6.

Espectro de una matriz simetrica

Sea A Mnn ( ) una matriz simetrica entonces


u, v

Au, v = u, Av .
t

(6.2)

En efecto, Au, v = (Au) v = u A v = u Av = u, Av


Probemos ahora que si A Mnn ( ) satisface 6.2 entonces A es simetrica.
Esto se deduce del siguiente hecho f
acil de probar: si {e1 , . . . , en } la base
canonica de n y A es una matriz de n n entonces

Aei , ej = aji .

(6.3)

Utlizando esta propiedad y 6.2 se obtiene que


aij = Aej , ei = ej , Aei = Aei , ej = aji ,
donde ademas se usa el hecho que el producto interno en

n es simetrico.

Dada A Mnn ( ), definimos la matriz adjunta de A, A , de la siguiente


forma:
k, (A )k = ak .
Ejemplo:
A=

1
i
2+i 3

A =

1 2i
i
3

Decimos que A es hermtica si A = A , notar que si A Mnn ( ) entonces


A = A A = At .
De forma an
aloga al caso simetrico se prueba que
u, v

Au, v

= u, Av

si y s
olo si A es hermtica. As, en particular, u, v
u, Av H si A Mnn ( ) y A es simetrica.

Au, v

Sea A Mnn ( ) entonces el polinomio caracterstico p() = |A I| es


un polinomio de grado n con coeficientes complejos y por lo tanto tiene n
races en (con posibles repeticiones). Denotaremos por
(A) = {

/|A I| = 0}

al conjunto de las raices del polinomio caracterstico. Este conjunto lo llamaremos el espectro de A. Como Mnn ( ) Mnn ( ) podemos definir de
igual manera el espectro de A, para A Mnn ( ).
En general el espectro de A es un subconjunto de , a
un cuando A
Mnn ( ), como lo muestra el proximo ejemplo.

165

Departamento de Ingeniera Matematica


- Universidad de Chile

FACULTAD DE CIENCIAS

FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE

Algebra
Lineal 08-2

Adjunta, A

Hermtica

espectro, (A)

0 1 0
B = 1 0 0
0 0 1

1
0
B I = 1
0
|B I| = (1 ){2 + 1}
0 0 1

Las races son = 1 = i. Si B es considerada como matriz de


olo
coeficientes reales (es decir estamos trabajando en n ) B tiene un s
entonces B tiene
valor propio que es 1. Si el cuerpo considerado es
3 valores propios 1, i, i. En cualquier caso el espectro de B es (B) =
{1, i, i}.

Teorema 6.2. Sea A Mnn ( ) hermtica entonces el espectro de A es


subconjunto de .

n. Sea (A) (en general ser


Demostracio
a complejo) entonces, |A
I| = 0, es decir A I no es invertible, luego debe existir v n , v = 0
tal que (A I)v = 0. Por lo tanto
Av, v

= v, v

= v, v

pero
Av, v

= v, Av

= v, v

v, v
=

es decir . Se tiene que para A


como v = 0 v, v H = 0 entonces =
hermtica el polinomio caracterstico p() = |A I| tiene todas sus races
reales.

Corolario 6.1. Si A Mnn ( ) es simetrica entonces (A)

Teorema 6.3. Si A Mnn ( ) es hermtica y 1 = 2 son valores propios


y v1 , v2 son vectores propios asociados a 1 y 2 respectivamente entonces
v1 , v2 H = 0.

n. Consideremos Av1 , v2 H = 1 v1 , v2 H = 1 v1 , v2
Demostracio
pero Av1 , v2 H
2 v1 , v2
y por tanto
= v1 , Av2 H = v1 , 2 v2 H =
H pero 2
(1 2 ) v1 , v2 H = 0, como 1 = 2 , v1 , v2 H = 0.

166

H,

Departamento de Ingeniera Matematica


- Universidad de Chile

Ejemplo:

= u, v , por lo tanto se

Corolario 6.2. Vectores propios de A Mnn ( ), simetrica, asociados a


valores propios distintos son ortogonales.
Definici
on 6.5 (Transformaci
on sim
etrica). Sea W un subespacio de
W una aplicaci
on lineal, diremos que L es simetrica (en
W ) si

n y L : W

u, v W L(u), v = u, L(v)

Lema 2. L : n n es simetrica si y s
olo si la matriz representante
con respecto a la base can
onica de n es simetrica.

n. Si A es la matriz representante de L con respecto a la


Demostracio
base canonica entonces L(u) = Au de donde
L(u), v = Au, v

u, L(v) = u, Av ,

luego L es simetrica si y s
olo si A es simetrica.

Departamento de Ingeniera Matematica


- Universidad de Chile

Notemos que si u, v n n , entonces u, v


obtiene el siguiente corolario importante.

Transformaci
on
sim
etrica

Ejercicio

Ejercicio 6.2: Sea W subespacio vectorial de


probar que:

n y L : W W lineal,

1. Si B = {u1 , . . . , un } es una base ortonormal de W , entonces


L simetrica MBB (L) simetrica.
2. Si B = {u1 , . . . , un } es una base de W y
: W
x=

k
i=0

i ui

(x) =

..
.

Entonces x es vector propio de L asociado al v.p. si y s


olo si
(x) es vector propio de MBB (L) asociado al v.p. .

Ahora estamos en posici


on de probar uno de los teoremas mas importantes
de la secci
on.

Teorema 6.4. Sea W subespacio de n , dim W 1 y L : W W lineal,


simetrica, entonces existe una base ortonormal de W de vectores propios
de L.

167

L(v) W = {v} ,

luego existe
tal que L(v) = v. Es decir, es un valor propio de L
y v vector propio de L.
Definiendo
1
v,
v =
v
se tendra L
v =
v y ademas {
v } es una base ortonormal de W . Esto prueba
el caso en que la dimensi
on sea 1.
Supongamos que la propiedad es cierta para espacios de dimensi
on k1, por
demostrar que es cierta para espacios de dimensi
on k. Sea W subespacio
de dimensi
on k y L : W W lineal simetrica. Sea B = {w1 , . . . , wk }
base ortonormal de W , gracias al Ejercicio 6.2 la matriz MBB (L) k es
simetrica, por lo que tiene todos sus valores propios reales.
Sea 0 un valor propio cualquiera, por lo tanto existe un vector z =
(z1 , . . . , zk )t = 0, tal que MBB (L)z = 0 z.

Sea v = z1 w1 + z2 w2 + + zk wk W . Como v = 0 (pues z = 0 y


{w1 , . . . , wk } es l.i.), luego gracias a la parte 2 del Ejercicio 6.2, es vector
propio de L (ya que (v) = z).
= {u W | u, v = 0} el ortogonal de {v} con respecto a W . Se
Sea W
lo que implica que dim W
=k1
tiene que k = dim W = 1 + dim W

Sea u W L(u), v = u, L(v) = u, 0 v = 0 u, v = 0, luego


)W
. Tomemos
L(W
:W
W

L
),
(la restricci
on de L a W
u = Lu
uL
es lineal y simetrica. Verifiquemos que L
es simetrica. Consientonces L

deremos u, w W

L(u),
w = L(u), w = u, L(w) = u, L(w)
,
es simetrica en W
. Como dim W
= k 1 se tiene por hipotesis
es decir L
de vectores propios de
de inducci
on que existe una base ortonormal de W
{w
w
L:
1 , . . . , w
k1 }, es decir L(wi ) = L(
i ) = i w
i luego w
1 , . . . , w
k1 son
vectores propios de L. Finalmente, consideremos
B =

v
,w
1 , . . . ., w
k1
v

es una base ortonormal de W , de vectores propios de L, y por lo tanto el


resultado queda demostrado.

168

Departamento de Ingeniera Matematica


- Universidad de Chile

n. Por inducci
Demostracio
on sobre la dimensi
on de W . Si dim W = 1.
Entonces W = {v} , con v = 0. Notemos que

n. Sea L(x) = Ax, entonces L es simetrica. Por el teorema


Demostracio
anterior existe una base ortonormal B = {v1 , . . . , vn } de vectores propios.
Luego Aes diagonizable
un A = P DP 1 donde P = (v1 , v2 , . . . , vn )
y mas a
1
0
. Resta por demostrar que P 1 = P t . Calculemos
y D=

0
n
(P t P )ij = vit vj = vi , vj =

1
0

i=j
,
i=j

por lo tanto P t P = I.
Una matriz que satisface P 1 = P t se denomina ortogonal o unitaria.

Departamento de Ingeniera Matematica


- Universidad de Chile

Corolario 6.3. Sea A Mnn ( ), simetrica, entonces A es diagonalizable


y m
as a
un, A = P DP t donde P = (v1 , . . . , vn ) y B = {v1 , . . . , vn } es una
base ortonormal de vectores propios de A. D es la matriz diagonal de los
valores propios correspondientes.

A = P DP t

Matriz ortogonal o
unitaria
Ejercicio

Ejercicio 6.3: Verificar que P es ortogonal si y s


olo si
u, v

P u, P v = u, v .

Entonces si P es ortogonal P u 2 = P u, P u = u, u = u 2, es decir, P


preserva la norma.
Notemos que no hay unicidad en la base de vectores propios y por lo tanto
una matriz diagonalizable A puede descomponerse de la forma P DP 1
de muchas maneras. Lo que probamos para una matriz simetrica es que se
puede tomar una base ortonormal de vectores propios y que para esta base
se tiene la descomposici
on P DP t .

Ejercicio

cos
sen

Ejercicio 6.4: Probar que P =

sen
cos

Ejemplo:

2
A = 0
0

0 0
2 0
0 1

los valores propios son = 2 y = 1 en efecto:

169

es unitaria en

2 .

2
|A I| = 0
0

0
0
2
0 = (2 )2 (1 ).
0
1

Calculemos el espacio propio de = 2.


0 0 0
x
0 = (A 2I)u = 0 0 0 y ,
0 0 1
z

luego W2 = y | z = 0 . Determinemos W1 :

1 0 0
x
0 = (A I)u = 0 1 0 y ,
0 0 0
z

es decir W1 = y | x = y = 0 . Por lo tanto una base de vectores

z
propios es:

1
0
1
B = 0 , 1 , 0

0
0
1

1 1 0
1 1 0
P = 0 1 0 P 1 = 0 1 0
0 0 1
0 0 1

1 1 0
2 0 0
1 1 0
A = 0 1 00 2 00 1 0
0 0 1
0 0 1
0 0 1

Pero A tambien posee una base ortonormal de vectores propios:



0
0
1
0,1, 0

0
0
1

1 0 0
2 0 0
1 0 0
A = 0 1 00 2 00 1 0.
0 0 1
0 0 1
0 0 1

Observaci
on: Cabe se
nalar que en el caso de que si no hubiese sido
sencillo obtener a simple vista una base ortonormal del subespacio propio
asociado a = 2, podemos utilizar el metodo de Gram-Schmidt en dicho
subespacio. En general, la base ortonormal de vectores propios de n
(que sabemos existe en el caso de A simetrica) puede obtenerse utilizando
Gram-Schmidt en cada subespacio propio.

170

Departamento de Ingeniera Matematica


- Universidad de Chile

Ejemplo:
Veamos el caso de las proyecciones ortogonales.
Dado W subespacio de n consideremos W el ortogonal de W . Entonces n = W W . Sea ademas P : n n , la proyeccion ortogonal
sobre W .
Esta funcion P verifica

1. P 2 = P .
En efecto: P (u) = w W luego w = w + 0 es la u
nica descomposici
on, de donde
P P (u) = P (w) = w.
Se tiene ademas P (I P ) = 0.
2. Im(P ) = W y Ker(P ) = W .
En efecto, es claro que Im(P ) W . Por otro lado, si w
W P (w) = w, luego Im(P ) = W . Ahora si v W v = 0 + v es
la descomposici
on u
nica y por tanto P (v) = 0, as W Ker(P ).
Sea v Ker(P ), luego P (v) = 0 y por tanto v = 0 + v es decir
v W .
3. P es sim
etrica.
En efecto sean u1 = w1 + v1 , u2 = w2 + v2 , luego
P (u1 ), u2 = w1 , w2 + v2 = w1 , w2 + w1 , v2 = w1 , w2 =
w1 + v1 , w2 = u1 , P (u2 )
4. Los valores propios de P son 0
o 1.
Sea P (u) = u, u = 0, entonces como P 2 = P se tiene P (u) =
P 2 (u) = P (P (u)) = P (u) = P (u) = 2 u. De donde (2 )u =
0. Como u = 0 2 = 0 entonces = es 0 o 1.
Identificaremos P con su matriz representante respecto a la base canonica. Dado que P es simetrica P = Dt con ortogonal y D satisface:

1
..

Ir 0

D=
=
0

0
0

..

.
0
Como P y D son similares tienen el mismo rango, as r = r(P ) =
dim(Im(P )) = dim(W ). puede construirse de la siguiente forma: =
171

Departamento de Ingeniera Matematica


- Universidad de Chile

El Teorema 6.4 tambien es cierto para L(x) = Ax, con A hermtica, y la


demostracion es an
aloga.

Puede comprobarse directamente que I P es la proyeccion ortogonal


sobre W .

172

Departamento de Ingeniera Matematica


- Universidad de Chile

(1 , . . . , n ). Escogemos {1 , . . . , r } una base ortonormal de W , la cual


completamos a una base ortonormal de n {1 , . . . , n }.

FACULTAD DE CIENCIAS

FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE

Algebra
Lineal 08-2

Ejercicios
1. Sea W subespacio vectorial de

n y L : W W lineal, probar que:

(a) Si B = {u1 , . . . , un } es una base ortonormal de W , entonces


L simetrica MBB (L) simetrica.
(b) Si B = {u1 , . . . , un } es una base de W y

: W
k
i=0

x=

(x) =

i ui

..
.

Entonces x es vector propio de L asociado al v.p. si y s


olo si (x)
es vector propio de MBB (L) asociado al v.p. .
2. Verificar que P es ortogonal si y s
olo si
u, v
3. Probar que P =

cos
sen

es ortogonal en

2 .

Ejercicio 6.4

Problemas

P1. Considere la matriz A M33 ( )

2
A = 1
1

siguiente,

1
1
2 1 .
1 2

(a) Calcular los valores propios de A.

(b) Calcular una base de vectores propios de A.

(c) Encontrar una matriz P M33 ( ) y D M33 ( ), D diagonal,


tal que A = P DP t .
(d) Es A una matriz invertible?, justifique su respuesta.

P2. (a) Sea A M33 ( ). Se sabe que A es simetrica y que 0 es vector


1
propio de A asociado al valor propio 2, y ademas la dimensi
on del
Ker(T ) es igual a 2. Calcular A.
1a 0

(b) Sea A = 0 1 a , donde a es un par


ametro real. Calcule los valores
0 0 3
de a para los cuales la matriz A es diagonalizable.

P3. Sean v1 , . . . , vk
\ {0}, y

ortogonales y de norma 1, sean 1 , . . . , k

A = 1 v1 v1t + + k vk vkt Mnn ( ).


173

Ejercicio 6.2

Ejercicio 6.3

P u, P v = u, v .
sen
cos

Departamento de Ingeniera Matematica


- Universidad de Chile

Gua
Semana 13

Ingeniera Matematica

(b) Sea {w1 , . . . wnk } base ortonormal del Ker(A). Demuestre que
{v1 , . . . , vk , w1 , . . . wnk } es una base de n de vectores propios
de A. Especifique cu
al es el valor propio correspondiente a cada
uno de estos vectores propios.

5/4 3/4

(c) Sea A = 3/4 5/4 . Determine {v1 , v2 } base ortonormal de


y 1 , 2 tales que

A = 1 v1 v1t + 2 v2 v2t .

174

Departamento de Ingeniera Matematica


- Universidad de Chile

(a) Pruebe que Im(A) = {v1 , . . . , vk } , que Ker(A) = {v1 , . . . , vk }


y determine r(A), es decir el rango de A.


Ingeniera Matematica

SEMANA 14: FORMAS CUADRATICAS

Formas cuadraticas

7.
7.1.

Formas cuadraticas
y matrices definidas positivas

En esta secci
on estudiaremos las formas cuadraticas inducidas por una matriz simetrica. Las formas cuadraticas aparecen en varias aplicaciones en
matematicas. Una de ellas es la caracterizacion de mnimos o maximos
para funciones de varias variables. Nosotros nos interesaremos en la caracterizacion de matrices definidas positivas. Al final del captulo estudiaremos
las c
onicas en 2 .

Dada A Mnn ( ) sim


etrica,

Definici
on 7.1 (Forma cuadr
atica).
definimos:
q: n

x q(x) = xt Ax.

q es llamada una forma cuadr


atica en

n .

enea de grado 2,
Notemos que una forma cuadratica en n es homog
es decir, x n q(x) = 2 q(x). En efecto, q(x) = (x)t A(x) =
xt Ax = 2 xt Ax = 2 q(x).

Ejemplo:
q:

2 ,

q(x1 , x2 ) = x21 + 2x1 x2 + x22 = (x1 , x2 )

Se tiene q(1, 1) = 0, en realidad q(x1 , x1 ) = 0.

1 1
1 1

x1
.
x2

Definici
on 7.2 ((Semi)Definida positiva/negativa). Sea A Mnn ( ),
simetrica diremos que
A es definida positiva si x = 0

xt Ax > 0.

A es semidefinida positiva si x xt Ax 0.
A es definida negativa x = 0 xt Ax < 0.
A es semidefinida negativa x xt Ax 0.
Notar que A es definida (semidefinida) positiva ssi A es definida (semidefinida) negativa.

175

Departamento de Ingeniera Matematica


- Universidad de Chile

FACULTAD DE CIENCIAS

FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE

Algebra
Lineal 08-2

Forma cuadr
atica,
xt Ax

(Semi)Definida
positiva,
(Semi)Definida
negativa

q(x) = 2x21 + 2x1 x2 + 2x22 = (x1 + x2 )2 + x21 + x22


= (x1 x2 )

2
1

1
2

x1
x2

2 1
es definida positiva, en efecto, si q(x) = 0
1 2
2
0, x2 = 0, luego x1 = x2 = 0.
A =

x21 =

Teorema 7.1. Supongamos que A Mnn ( ) es simetrica. Entonces las


siguientes proposiciones son equivalentes.
1. x = 0

x t Ax > 0 (A es definida positiva)

2. Los valores propios de A son positivos.


3. Sea

a11
a21
A=
...

an1

A(1) = [a11 ]

A(2) =

a11
a21

a12
a22

an2

a12
a22

A(3)

a1n
a2n

ann

a11
= a21
a31

a12
a22
a32

a13
a23 . . .
A33

. . . A(n) = A
entonces |A(1) | = a11 > 0
|A| > 0

, |A(2) | > 0, |A(i) | > 0 |A(n) | =

4. El metodo de Gauss utilizando s


olo operaciones elementales del tipo Epq (, 1); p < q permite escalonar A y adem
as los pivotes son
siempre positivos.

n. (1) (2).
Demostracio
Sea un valor propio de A y v = 0 un vector propio correspondiente al
valor propio .
0 < v t Av = v t (v) = v t v = v

176

>0

Departamento de Ingeniera Matematica


- Universidad de Chile

Ejemplo:

xt Ax = xt P DP t x = (P t x)t DP t x,
entonces si definimos z = P t x se tendra que en terminos de estas nuevas
variables la forma cuadratica queda
xt Ax = z t Dz = 1 z12 + + n zn2 0,
pues los valores propios son positivos. M
as a
un la u
nica forma en que esta
suma de cuadrados sea cero es que z1 = = zn = 0 es decir z = 0, pero
entonces P t x = 0 x = P 0 = 0 (recordemos que P 1 = P t ).
a
0

..
.

(1) (3). Sea a = 0 y definamos x =

0 < xt Ax =

, entonces

aij xj

xi

xi (Ax)i =

j=1

i=1

i=1

= a a11 , luego a11 > 0


Sea v = (v1 , . . . , vk )t

k , tomemos x = (v1, . . . , vk , 0, . . . , 0)t n


k

xt Ax =

vi vj aij = v t A(k) v

xi xj aij =
i,j=1

i,j=1

si v = 0 se tiene x = 0, luego v t A(k) v = xt Ax > 0 es decir A(k) es definida


positiva.
De donde A(1) , A(2) , . . . , A(n) = A son todas definidas positivas. Pero una
matriz definida positiva tiene todos sus valores propios positivos (por lo ya
demostrado). Como el determinante es el producto de los valores propios
entonces el determinante es positivo. Luego
|A(1) | > 0, . . . , |A(n) | > 0.
(3) (4).
Por inducci
on sobre i

a11 a
12

22
0 a
.
..

Ai =
0

.
..
0

a11 > 0 es el primer pivote. En la etapa i tendremos

a
1i a
1n
..
..
.
.
..
..

. a
i1i1
.

B1 B2
..

0
a
ii
. =

B3 B4
..
.

0
a
ii+1
..
..
..
..
.
.
.
.

a
in

177

a
nn

Departamento de Ingeniera Matematica


- Universidad de Chile

(2) (1). Sabemos que por ser A simetrica tiene la descomposici


on A =
P DP t , donde las columnas de P son una base ortonormal de vectores propios y D es la diagonal de los valores propios respectivos. As

son invertibles y triangulares inferiores con diagonal 1. Por tanto A = C Ai


donde C = ( Ek )1 es tambien triangular inferior con unos en la diagonal.
k

1 C2
As si C = C
C3 C4 donde C1 : ii, C2 : ini, C3 : nii, C4 : nini,
se tendra C2 = 0 y ademas C1 es triangular inferior con diagonal 1, y por
lo tanto |C1 | = 1. Luego:

A=

C1

C2

C3

B1

B2

B3

B4

C1 B1

C1 B2

C2 B1 + C3 B3

C2 B2 + C3 B4

Por lo tanto A(i) = C1 B1 , de donde 0 < |A(i) | = |C1 B1 | = |C1 ||B1 | =


i

|B1 |. Por otro lado B1 es triangular superior, luego |B1 | =

a
jj , pero
j=1

a
11 , a
22 , . . . , a
i1i1 > 0 se concluye, a
ii > 0. As el metodo de Gauss no
necesita intercambiar filas y ademas todos los pivotes son > 0.
(4) (1).
Como todos los pivotes son positivos y no hay que hacer intercambios de
filas se tendra que A = LDU , con L triangular inferior D diagonal y U
triangular superior. U y L tienen 1 en la diagonal y dii = a
ii . Como A es
simetrica U = Lt entonces

A = LDLt = (L D) ( DLt ) = RRt , con R = L D


y

a
11

D=

0
a
22
..

a
nn

=a
Dado que |A| = |A|
11 a
22 , . . . , a
nn > 0 entonces 0 < |A| = |RRt | = |R|2
luego |R| = 0, y por lo tanto R es invertible y as su traspuesta.
xt Ax = xt (RRt )x = (Rt x)t Rt x = Rt x 2 .
Si x = 0 Rt x = 0 pues Rt es invertible luego Rt x
xt Ax > 0 si x = 0 es decir A es definida positiva.

> 0 de donde

Hemos probado de paso la que toda matriz definida positiva tiene la siguiente descomposici
on.

Departamento de Ingeniera Matematica


- Universidad de Chile

Donde B1 : i i, B2 : i n i, B3 : n i i, B4 : n i n i. Por hipotesis


de inducci
on, se obtuvo Ai mediante el algoritmo de Gauss, sin utilizar
permutaciones de filas pues todos los pivotes a
11 , . . . , a
i1i1 son positivos.
As, Ai = ( Ek )A donde Ek son matrices simples del tipo Ep,q (, 1) que

Definici
on 7.3 (Descomposici
on de Cholesky). Decimos que A Mnn ( ) Descomposicion de
Cholesky
admite una descomposici
on de Cholesky si existe R matriz triangular inferior, con diagonal estrictamente positiva tal que
A = RRt .
178

Observaci
on: Hay que hacer una precisi
on sobre la propiedad 4 del
teorema anterior. Es f
acil ver que la matriz
A=

2
1

1
2

es definida positiva, pero si al escalonar utilizamos E12 ( 12 , 1) obtenemos la matriz escalonada


2 1
0 32

y los pivotes no son todos positivos!. Sin embargo si utilizamos


E12 ( 21 , 1) obtenemos
2 1
A =
.
0 23
Por lo tanto es importante recordar que para estudiar si una matriz es
definida positiva las operaciones elementales permitidas son Epq (, 1).

7.2.

Formas canonicas

Sea q(x) = xt Ax una forma cuadratica. Como A es simetrica, entonces


A = P DP t donde P = (v1 , , vn ) con {v1 , , vn } una base ortonormal
de vectores propios de A y

1
0
2

,
D=
..

.
0

siendo 1 , . . . , n los valores propios de A.


Sea y = P t x entonces

i yi2

xt Ax = xt P DP t x = y t Dy =
i=1

As haciendo este cambio de variables la forma cuadratica tiene la expresi


on
q(y) = 1 y12 + 2 y22 + + n yn2 .
Ejemplo:

q(x) =

x21

2x22

+ 3x1 x2 = xt

179

3
2

3
2

x.

Departamento de Ingeniera Matematica


- Universidad de Chile

Notemos que A es definida positiva ssi R triangular inferior con diagonal


no nula tal que:
A = RRt .

3
2

A=

3
2

Calculemos los valores y vectores propios:


1

|A I| =

3
2

3
2

= (1 )(2 )

3
= 0.
4

Luego el polinomio caracterstico es


5
= 0,
4

2 3 +
cuyas raices son
=

32
95
=
=
2
2

Calculemos los vectores propios:


= 25

3
2

5
2
3
2

5
A I =
2

5
2

1 =
2 =

23

3
2

las filas son .d. ( por que?) luego

5
2
1
2

3
2
21

3
5
3
v2 = 0 v2 = 3v1 .
(A I)v = 0 v1 +
2
2
2

Sea v1 = 1, v2 = 3, un vector propio colineal de largo uno es:


w1 =
=

1
2

1
3

1
2
1
2
3
2

1
A I =
2

3
2
3
2

y por lo tanto

3
1
1
(A I)v = 0

v1 +
v2 = 0 v1 = 3v2 .
2
2
2
Un vector propio de largo uno es:

1 3
,
w2 =
1
2
y una base de ortonormal de vectores propios est
a formada por {w1 , w2 }.
Se tiene que
t

A = P DP =

3
2

3
2

1
2
3
2

180

3
2
1
2

5
2

0
1
2

1
2

23

3
2
1
2

Departamento de Ingeniera Matematica


- Universidad de Chile

Consideremos A la matriz que define esta forma cuadratica.

y1
y2

y=

3
2
1
2

1
2

23

=P x=

x1
x2

La forma cuadratica en terminos de y es q(y) = 52 y12 + 21 y22 . El cambio


de coordenadas de x a y corresponde a una rotacion (en que angulo?).
Volvamos al caso general. En el sistema y = P t x, la forma cuadratica se
escribe como
p

i yi2

q(y) =

r
i=p+1

i=1

i=1

i yi2

i yi2 +

donde:
1 , . . . , p son > 0,

r+1 = = n = 0.

p+1 , . . . , r son < 0,

Definamos
zi =
zi =
es decir,

1

z=

i yi
i yi
zi = yi

i = 1, . . . , p
i = p + 1, . . . , r
i = r + 1, . . . , n

2
..

.
p
p+1

..

..

y = Qy.

luego tenemos z = QP t x. En las nuevas variables z, es la forma cuadratica:


2
2
zp+2
zr2 ,
q(z) = z12 + z22 + + zp2 zp+1

donde r corresponde al rango de A. El n


umero 2p r = n
umero de valores
propios positivos menos el n
umero de valores propios negativos, es llamada
la signatura.
El cambio de coordenadas y = P t x corresponde a una rotacion de sistemas
de coordenadas. El cambio z = Qy corresponde a dilatar y contraer ciertas
direcciones (homotecia).
En nuestro ejemplo z1 =

5
2 y1

z2 =
181

1
2 y2

Departamento de Ingeniera Matematica


- Universidad de Chile

Consideremos el cambio de variables:

5
1
1 2
y2 ) = y12 + y22
2
2
2

Para ubicar el nuevo sistema, con respecto al inicial, consideremos el problema en dos etapas. En el cambio y = P t x, el eje correspondiente a y1
est
a en la direcci
on x tal que


1
1

0
0


P tx =
... luego x = P ... = v1 ,
0

la primera columma de P que corresponde al primer vector propio. De igual


forma el i-esimo eje del sistema de coordenadas y es el i-esimo vector
propio vi . De igual forma el sistema de coordenadas z tiene sus ejes en
las direcciones v1 , . . . , vn , solamente que algunos ejes se han contrado y
otros expandido.
Hemos probado el siguiente resultado
Teorema 7.2. Sea xt Ax una forma cuadr
atica, existe L invertible tal que
si z = Lx, entonces en terminos de las variables z la forma cuadr
atica se
2
expresa como q(z) = z12 + + zp2 (zp+1
+ + zr2 ), donde r=rango A =
n
umero de valores propios = 0, p = n
umero de valores propios > 0.

7.3.

Conicas
en

Una c
onica en

2 es el conjunto solucion de una ecuacion del tipo


ax2 + by 2 + 2cxy + dy + f x = e

o en forma matricial
(x, y)

a
c

c
b

x
y

+ (d, f )

A=

a
c

c
b

donde

, v=

Supongamos que A = P DP t , con D =

x
y

= e = v t Av + g t v = e,

x
y
1
0

, g=
0
2

d
f
y P = (v1 v2 ). Entonces

la ecuaci
on de la c
onica es:
e = v t P DP t v + g t v = v t P DP t v + gP P t v.

182

Departamento de Ingeniera Matematica


- Universidad de Chile

5 2
y1 ) + (
2

z12 + z22 = (

La expresi
on que toma la c
onica es entonces
2
e = 1 u21 + 2 u22 + fu1 + du
1. 1 = 2 = 0 ( a = b = c = 0)
El conjunto solucion es {(x, y)/dy + f x = e} que en general es una
recta (pudiendo ser vaco si d = f = 0 y e = 0).
2. El caso interesante es cuando 1 = 0 o 2 = 0, llamemos
u1 = u1
u2 = u2
+ ) = e
1 (u1 + )2 + 2 (u2 + )2 + f(u1 + ) + d(u
2
= e
1 (u1 )2 + 2 (u2 )2 + u1 {21 + f} + u2 {22 + d}

con e = e (1 2 + 2 2 + f + d)

on
Si 1 = 0 (2 = 0) tomemos: = 2d2 , = 0 se llega a la ecuaci
2 (u2 )2 + fu1 = e.
Si f = 0 (u2 )2 =
paralelas:

u2

o ser
a vaco si

e (u )2

2 .

As, el conjunto solucion ser


an dos rectas
e

0 (que en realidad es una sola si e = 0)

< 0. Si f = 0
si

2
2
, que corresponde a una par
abola, en las coordenada
u1 =
f

u1 , u2 . El caso 1 = 0 2 = 0 es totalmente an
alogo.

Falta ver el caso 1 = 0 y 2 = 0, tomamos = 2f 1 y = 2d2 .


En el sistema u1 , u2 tenemos la ecuaci
on
1 (u1 )2 + 2 (u2 )2 = e
3. 1 > 0, 2 > 0, e 0; o 1 < 0, 2 < 0, e 0 la solucion es una elipse
(una circunferencia si 1 = 2 ) en el sistema u1 , u2 Si 1 > 0, 2 >
0, e < 0; o 1 < 0, 2 < 0, e > 0 no hay solucion.

183

Departamento de Ingeniera Matematica


- Universidad de Chile

Sea u = P t v. En este nuevo sistema de coordenadas la ecuaci


on de la c
onica
es:
f
e = ut Du + gt u con g = P t g = .
d

1 (u1 )2 |2 |(u2 )2 = e, que corresponde a una hiperbola con eje de


simetra el eje u1 . El caso 1 < 0, 2 > 0, e 0 el conjunto solucion
es una hiperbola con eje de simetra u2 .
Notemos que en general el sistema (u1 , u2 ) corresponde a una rotacion con
respecto al eje (x, y) y sus ejes est
an en la direcci
on de los vectores propio.
El sistema (u1 , u2 ) corresponde a una traslacion o cambio de origen del
sistema (u1 , u2 ).

184

Departamento de Ingeniera Matematica


- Universidad de Chile

4. 1 > 0 y 2 < 0 podemos suponer que e 0 de otra manera multiplicamos por 1

FACULTAD DE CIENCIAS

FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE

Algebra
Lineal 08-2

Ejercicios
t
1. Escriba
x1 en forma x Ax las siguientes formas cuadraticas, en donde x =
x2

. :
..
xn

(a) q(x) = 2x21 21 x1 x2 + 5x22 .

(b) q(x) = x1 (2x1 x2 ) + x2 (3x1 + x2 ).


(c) q(x) = x21 + y22 y32 x1 x2 + x1 x3 .

(d) q(x) = (x1 + x2 )2 (x1 + x3 )2 .

2. Se
nale si las matrices siguientes son definidas positivas/negativas, o ninguna de las dos:
1
1

1
0

(b)
0
0
0
(a)

0
2
0
0
0

1
.
1

0
0
1/2
0
0

3 1
.
1 1

(c)
0
0
0
1
0

0
0

0
.
0
4

1
2
(d)
1
1

2
1
1
1

1
1
0
1

1
1
.
1
1

3. Sea A Mnn ( ) una matriz simetrica.

(a) Probar que v n es vector propio de A si y s


olo si es vector propio
al es el
de I A. Si es el valor propio de A asociado a v, cu
valor propio de I A asociado a v?

(b) Probar que la matriz I A es definida positiva si y s


olo si todos los
valores propios de A son menores estrictos que uno.

Problemas
P1. Considere la c
onica de ecuaci
on 5x2 + 5y 2 + 6xy + 16x + 16y = 15.
Realice el cambio de variables que permite escribir la c
onica de manera centrada y escriba la nueva expresi
on (escribir explcitamente el
cambio de variables). Identifique la c
onica resultante y dib
ujela.

P2. Sea A M22 ( ) simetrica definida postiva, b


tal que
f (x) = xt Ax bt x + c.

2 , c y f : 2

Se quiere minimizar f .
(a) Sea x0 = 21 A1 b. Pruebe que f (x) = (xx0 )t A(xx0 )xt0 Ax0 +c.
(b) Concluya que el u
nico mnimo de f se alcanza en x0 , i.e., que
f (x) f (x0 ) para todo x 2 y que la igualdad se alcanza
solamente cuando x = x0 -

185

Departamento de Ingeniera Matematica


- Universidad de Chile

Gua
Semana 14

Ingeniera Matematica

y considere la ecuacion
x2 + y 2 + 2( 1)xy

2x + 2y = 0.

Determine todos los valores de tales que la ecuaci


on corresponde a:
(a) Circunferencia.
(b) Elipse.
(c) Recta o rectas.

(d) Par
abola.
(g) Un punto.
(e) Hiperbola.
(f ) Conjunto vaco.

186

Departamento de Ingeniera Matematica


- Universidad de Chile

P3. Sea


Ingeniera Matematica

SEMANA 15: FORMA DE JORDAN

8.
8.1.

Forma de Jordan

Definicion

Estudiaremos aqu un procedimiento que permite obtener, a partir de una


matriz A, otra similar con gran cantidad de ceros. Obviamente, el ideal es
obtener una matriz diagonal, pero esto no siempre es posible. Nos conformaremos con una forma algo mas compleja que la matriz diagonal, pero
con la ventaja de que esta puede obtenerse para matrices arbitarias.
La idea general de reducir una matriz consiste en determinar una base de
modo que la transformaci
on lineal asociada a la matriz inicial tenga una
representacion simple en la nueva base.
Partamos con un ejemplo. Consideremos la transformaci
on lineal TA : 9
9
dada por x Ax, cuya matriz representante J, con respecto a una base
J es:
2 1 0

0 2 1

0 0 2

2 1

J =
0 2

(2)

5 1

0 5
(6)
Es claro que (A) = {2, 5, 6}, con multiplicidades algebraicas 6, 2, 1 respectivamente.
La base J la notaremos como sigue:
1
1
1
1
1
1
2
2
3
J = {v11
, v12
, v13
, v21
, v22
, v31
, v11
, v12
, v11
}

De la definici
on de matriz representante, obtenemos:
1
1
TA (v11
) = 2v11
1
1
1
TA (v12
) = v11
+ 2v12
1
1
1
TA (v13
) = v12
+ 2v13
1
1
TA (v21
) = 2v21
1
1
1
TA (v22
) = v21
+ 2v22
1
1
TA (v31
) = 2v31
2
2
TA (v11
) = 5v11
2
2
2
TA (v12
) = v11
+ 5v11
3
3
TA (v11
) = 6v11

187

Departamento de Ingeniera Matematica


- Universidad de Chile

FACULTAD DE CIENCIAS

FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE

Algebra
Lineal 08-2

1
..
.

1
1

..

1
..
.

1
1

..

1
..
.

1
r

..

1
..
.

donde los bloques son de tama


no s(1, 1), . . . , s(1, p1 ), . . . , s(r, 1), . . . , s(r, pr ),
pr

p1

y el espectro es (A) = {1 , . . . , r }, con multiplicidades

s(r, j),

s(1, j), . . . ,
j=1

j=1

respectivamente. La base se escribe:


1
1
1
1
, . . . , vp11 1 , . . . , vp11 s(1,p1 ) , . . . , vprr 1 , . . . , vprr s(r,pr ) }
, v21
, . . . , v2s(1,2)
J = {v11
, . . . , v1s(1,1)

o mediante una tabla de doble entrada:

1
v11

1
v21

1
v12

1
v22

..
.

..
.

1
v1s(1,1)

1
v2s(2,1)

vp11 1

vp11 2

..
.

vp11 s(1,p1 )

188

r
v11

r
v21

r
v12

r
v22

..
.

..
.

r
v1s(r,1)

r
v2s(r,2)

vprr 1
vprr 2
..
.

vprr s(r,pr )
(8.1)

Departamento de Ingeniera Matematica


- Universidad de Chile

1
Vemos que v11
es vector propio (cabeza de serie) asociado al valor propio
1
1
1
1
1 = 2, v12 es una cola asociada a v11
y v13
es cola asociada a v12
.
Posteriormente obtenemos otro vector propio asociado a 1 = 2 con una
cola y finalmente un tercer vector propio asociado a 1 = 2. Luego se
repite el mismo esquema: un vector propio y una cola asociados a 2 = 5 y
finalmente un vector propio asociado a 3 = 6.
En general la matriz J que nos interesa en este p
arrafo tiene la forma:

1
r

vectores de la base
asociados a r

las flechas indican el encadenamiento de los vectores de base. Por ejemplo


1
1
al vector v1s(1,1)
le sigue v21
.
El primer elemento de cada columna corresponde a un vector propio. Bajo
un vector propio figuran las colas asociadas.
Ademas:
k
k vij
k
k
vij1 + k vij

k
k
TA (vij
) = Avij
=

si j = 1 (1era fila de la tabla)


(8.2)
si j > 1

Una base J , con estas caractersticas se denomina base de Jordan asociada


a la transformaci
on lineal T y su matriz representante es justamente J.
Tambien es claro que los subespacios propios son:
V1 =

1
v11
, . . . , vp11 1

, dim V1 = p1

V2 =
..
.

2
v11
, . . . , vp22 1

, dim V2 = p2

Vr =

r
v11
, . . . , vprr 1

, dim Vr = pr

Los bloques se notan:

Ji =

1
..
.

..
..

.
.

1
i

Definici
on 8.1 (Forma de Jordan). Una transformaci
on lineal
n

x TA (x) = Ax

TA :

se reduce a la forma de Jordan si y s


olo si es posible determinar una
base J con las caractersticas definidas en (8.1) y (8.2).
Veamos otro ejemplo. Sea la matriz:

donde J1 =

8
0

8
0

J = 0

0
0
1
8

1
8
0
0
0

0
0
0
0
0

0
0
1
0
0

, J2 =

0
0

1
0

0
J1

0 =

0
0
, J3 = (0).

189

J2
J3

Departamento de Ingeniera Matematica


- Universidad de Chile

vectores de la base
asociados a 1

Base de Jordan

Forma de Jordan

donde {ei }5i=1 es la base can


onica de
la base de Jordan, J es:

. De acuerdo a nuestra notaci


on,

1
v11

2
v11

1
v12

2
v12

asociados a
V1

2
v21

asociados a
V2

Estudiemos el esquema de similitud entre la matriz A (representante de T


con respecto a la base can
onica) y J :
T :
P

: base canonica
J : base de Jordan

Luego J = P 1 AP o equivalentemente AP = P J. Pero P es la matriz de


1
1
2
2
2
pasaje de la base can
onica a J = {v11
, v12
, v11
, v21
, v21
}. Es directo que:
1
1
2
2
2
P = (v11
, v12
, v11
, v12
, v21
)

y se tiene:

1
Av11
= P J1

2
Av11
= P J3

2
Av21
= P J5


8
0

1
= P 0 = 8v11
,

0
0

0
0

2
= P 0 = 0v11
,

0
0

0
0

2
= P 0 = 0v21

0
0

1
Av12
= P J2

2
Av12
= P J4


1
8

1
1
= P 0 = v11
+ 8v12
,

0
0

0
0

2
2
= P 1 = v11
+ 0v12
,

0
0

recuperandose la relaci
on (8.2).
Simplifiquemos por un momento la notaci
on. Si escribimos P = (v 1 , . . . , v n )
1
n
tal que = {v , . . . , v } es base de Jordan, se verifica:
i = 1, . . . , n

Av i = i v i o bien Av i = v i1 + v i .
190

Departamento de Ingeniera Matematica


- Universidad de Chile

Tenemos (J) = {1 = 8, 2 = 0} con multiplicidades 2 y 3 respectivamente.


V1 = V8 = {e1 } , V2 = V0 = {e3 , e5 }

Teorema 8.1. Una transformaci


on lineal arbitraria, TA = n
Ax, es reductible a la forma de Jordan, o de manera equivalente:

, x

A Mnn ( ), J Mnn ( )
matriz de Jordan, similar a la matriz A:
A = P JP 1
donde las columnas de P son los vectores de la base asociada a J .
n. La demostracion la omitimos aqu y no se cubrir
Demostracio
a en
clases, sin embargo se presenta en el apendice de la semana, s
olo por
completitud.

8.2.
8.2.1.

Aplicaciones de la forma de Jordan


Potencias de una matriz

Vimos anteriormente que la diagonalizaci


on de matrices nos entregaba una
forma facil de calcular las potencias de una matriz. Sin embargo, esto s
olo
es aplicable a matrices que admitan una diagonalizaci
on.
A continuaci
on veremos que la forma de Jordan tiene tambien utilidad para
el c
alculo de potencias, con la ventaja que cualquier matriz cuadrada admite
una forma de Jordan. Veamos primero que la forma de Jordan nos da una
descomposici
on especial, para cualquier matriz cuadrada.
Si J es la matriz de Jordan de A, cada bloque de J es

0 1
i 1
0

..
.
.
.
.

.
.
.
= i Ii +
Ji =

.
.. 1

0
0
i

de la forma:

..

.
,

..
. 1
0

en donde Ii es la identidad de la dimensi


on correspondiente. Llamemos Ni
a la segunda matriz de la suma. Esta matriz tiene la siguiente propiedad,
propuesta como ejercicio:

Departamento de Ingeniera Matematica


- Universidad de Chile

En el primer caso v i es un vector propio y en el segundo lo denominaremos


vector propio generalizado (existe una cola).
En estas condiciones se tiene el teorema siguiente:

Ejercicio

Ejercicio 8.1: Suponga que Ni Mss ( ), pruebe entonces por induccion que m , p, q {1, . . . , s},

1 si q = p + m,
m
(Ni )pq =

0 si q = p + m.

191

Luego, reescribiendola matriz A por bloques:

N1
0
...
0
1 I1

0
2 I2 . . .
0
0

A=P
.. + ..
..
..
..

.
. .
.
.

0
0
0
. . . r Ir

0
N2
..
.

...
...
..
.

...

P 1 .

Nr
0
0
..
.

Notar que los valores propios 1 , . . . , r son los valores propios de A con
posible repetici
on.
Se tiene que la matriz N es nilpotente, gracias al siguiente ejercicio:

Departamento de Ingeniera Matematica


- Universidad de Chile

Ademas deduzca que Nis = 0. Una matriz con esta propiedad, se dice
nilpotente.

Ejercicio

Ejercicio 8.2: Sea B una matriz diagonal

B1 0 . . .
0 B2 . . .

B= .
..
..
..
.
.
0

...

por bloques, es decir

0
0

..
.
Br

en donde B1 , . . . , Br son matrices cuadradas y el resto son matrices


cero.
Sea m , pruebe que entonces
m

B1
0 ...
0
0 B2m . . .
0

Bm = .
.
.. .
..
..
..
.
.

...

Brm

Concluya que la matriz N anterior es nilpotente.

Hemos probado entonces la siguiente propiedad:


Proposici
on 8.1. Dada A Mnn ( ), existen una matriz invertible P ,
una matriz diagonal D y una matriz nilpotente N , tales que
A = P (D + N )P 1 .

192

Debemos entonces estudiar (D + N )m , que gracias al Ejercicio 8.2 es equivalente a estudiar (i Ii + Ni )m , es decir cada bloque de la forma de Jordan.
Se puede probar que el Teorema del Binomio de Newton es tambien valido
para matrices, si la multiplicaci
on de
estas conmuta. Este es precisamente el caso de i Ii y Ni , que conmutan pues i Ii es ponderaci
on de la
identidad. Luego
m

m
(i Ii )mk Nik .
k

(i Ii + Ni )m =
k=0

Para k {0, . . . , m}, (i Ii )mk = mk


Ii . As, gracias al Ejercicio 8.1:
i

m
(i Ii )mk Nik =
k

m mk k

i
Ni =

...
..
.

m
k

mk
i

0
..

.
m
k

..

mk

..

.
0

mk
En donde los terminos m
est
an ubicados desde la posici
on (1, k)
k i
hasta la (k, n). Notar ademas que, si i + Ni Mss ( ), la matriz anterior
es nula para k s.

Finalmente, sumando sobre k, se obtiene:

(i Ii + Ni )m

m
i

= ...

.
..
0

m
1

m1
i
m
i
..
.

m2
i

m
1

m1
i
..
.

...
...

Y tenemos entonces que

(1 I1 + N1 )m

Am = P
..

.
0

m
2

...
m
2

m
s1

m2
i
..
.

..

m
1

m
i
0

0
...

m(s1)

i
..

m1
i
m
i

(8.3)
0
(2 I2 + N2 )m
..
.

...
...
..
.

0
0
..
.

...

(r Ir + Nr )m

con los bloques (i Ii + Ni )m como en (8.3).

193

1
P ,

Departamento de Ingeniera Matematica


- Universidad de Chile

Usaremos lo anterior para calcular potencias de una matriz. Sea A


Mnn ( ) y m . Queremos calcular Am . Por lo visto en la parte de
diagonalizaci
on:
Am = P (D + N )m P t .

Matriz exponencial

Otra aplicaci
on importante est
a relacionada con calcular la exponencial de
una matrix, la generalizaci
on de la funci
on exponencial real para matrices.
Dicha matriz exponencial tiene utilidad en ciertos metodos de resolucion
de ecuaciones diferenciales (que ver
as en cursos mas adelante).
Veamos primero la definici
on de la matriz exponencial.
Definici
on 8.2 (Matriz exponencial). Sea A Mnn ( ). La exponencial de A, denotada por eA , es la matriz en Mnn ( ) dada por la serie
de potencias

1 k
A .
eA =
k!
k=0

Esta serie siempre converge, por lo que eA est


a bien definida.
Observaci
on: El u
ltimo punto tratado en la definici
on, acerca de la
convergencia, lo aceptaremos aqu. Esto sale de los t
opicos a tratar en
el curso.
Veamos primero algunas propiedades de la exponencial, las cuales no probaremos aqu:
Proposici
on 8.2. Dadas matrices B, C Mnn ( ), se tiene
1. Si C es invertible, eCBC

= CeB C 1 .

2. Si BC = CB, entonces eB+C = eB eC = eC eB .


3. Si B es diagonal, B = diag(b1 , . . . , bn ), entonces
eB = diag(eb1 , . . . , ebn ).
on 8.1 se escribe como
Sea entonces A Mnn ( ), que gracias a la Proposici
A = P (D + N )P 1 , con D matriz diagonal con los vectores propios de A y
N una matriz nilpotente.
Calculamos entonces la exponencial de A, utilizando la Proposici
on 8.2 y
el hecho de que D y N conmutan (ya se sus bloques conmutan):
eA = P e(D+N ) P 1 = P (eD eN )P 1 .
Veamos eN ,
eN =

k=0

1 k
N .
k!

Gracias al Ejercicio 8.2 y sumando en k, se tiene que (este paso se puede


formalizar, pero no lo haremos aqu)
N1

0 ...
0
e
0 eN 2 . . .
0

eN = .
.
.. .
.
..
..
..
.
0
0 . . . eN r
194

Departamento de Ingeniera Matematica


- Universidad de Chile

8.2.2.

Matriz exponencial

0
0
..
.

...

er Ir

el i-esimo bloque de eD eN es:

ei Ii eNi = ei

k=0

...
...
..
.

1 k
N = ei
k! i

s1
k=0

1 k
N .
k! i

Ya que si suponemos Ni Mss ( ), como Ni es nilpotente, para k s se


tiene Nik = 0. As:
i 1 i 1 i
1
i
...
e
1! e
2! e
(s1)! e

..
1 i
1 i
0
.
ei

1! e
2! e

..
..
..
..
(8.4)
ei eNi = ...
.
.
.
.

.
1 i
..
...
0
ei
1! e
0
...
...
0
ei
Finalmente

e1 eN1
0

eA = P .
..

0
e2 eN2
..
.

...
...
..
.

0
0
..
.

...

er eNr

con cada bloque como en (8.4).


8.2.3.

1
P ,

Teorema de Cayley-Hamilton

El Teorema de Cayley-Hamilton se
nala que una matriz es siempre raiz de
su polinomio caracterstico. Para comprender a que nos referimos con esto,
notemos que dado un polinomio
p(x) = a0 + a1 x + a2 x2 + + an xn Pn ( ),
podemos asociarle naturalmente una funci
on de Mnn ( ) a Mnn ( ). Dada
X Mnn ( ):
p(X) = a0 I + a1 X + a2 X 2 + + an X n .
Enunciemos entonces el teorema:
Teorema 8.2 (Cayley-Hamilton). Dada una matriz A Mnn ( ) y
pA (x) su polinomio caracterstico, entonces
pA (A) = 0.
195

Departamento de Ingeniera Matematica


- Universidad de Chile

Ademas, por la Proposici


on 8.2,

0
e 1 I1
2
0
I2
e

eD = .
.
..
..
0
0

Cayley-Hamilton

Ahora, como J es triangular superior, pJ (x) puede ser calculado como:


pJ (x) = |J xI| = (x 1 )s1 (x 2 )s2 . . . (x r )sr ,
en donde cada termino (x i )si corresponde al bloque de Jordan Ji .
Calculemos entonces pA (A). Gracias a lo visto en la parte de diagonalizacion, no es difcil probar que:
pA (A) = pJ (A) = P pJ (J)P 1 = P (J1 I)s1 (J2 I)s2 . . . (Jr I)sr P 1 .
Ahora, mirando el bloque i-esimo del termino i de este producto (de dimensiones s s), tenemos que:
(Ji i Ii )s = Nis = 0,
ya que gracias al Ejercicio 8.1, la matriz Ni es nilpotente.
Luego, usando el Ejercicio 8.2, se concluye.
8.2.4.

Traza de una matriz

Una u
ltima utilidad de la forma de Jordan, que veremos, es permitir caracterizar la traza de una matriz.
Definici
on 8.3 (Traza). La traza es la funci
on tr : Mnn ( )
nida por:
n

A = (aij ) Mnn ( ),

tr(A) =

aii .
k=0

Es decir, es la suma de los elementos de la diagonal de la matriz.


Las siguientes propiedades quedan de ejercicio:
Proposici
on 8.3. Se tienen las siguientes propiedades:
1. La funci
on tr es lineal.
2. A, B Mnn ( ), tr(AB) = tr(BA).
n. Propuesta como ejercicio.
Demostracio
As, podemos probar el siguiente resultado:

196

, defi-

Departamento de Ingeniera Matematica


- Universidad de Chile

n. Consideremos A = P JP 1 , la forma de Jordan de A. SaDemostracio


bemos que dos matrices similares tienen el mismo polinomio caracterstico,
luego
pA (x) = pJ (x).

Traza

Ejercicio

tr(A) =
i=1

A (i ) i .

En donde recordemos que A (i ) es la multiplicidad algebraica de i .


n. Sea A = P JP 1 , la forma de Jordan de A, luego
Demostracio
tr(A) = tr(P JP 1 ) = tr(P 1 P J) = tr(J).
En donde ocupamos la Proposici
on 8.3, con P J y P 1 .
Ahora, en la diagonal de J est
an precisamente los valores propios de A,
repetidos tantas veces como su mutiplicidad algebraica. As,
r

tr(A) = tr(J) =
i=1

197

A (i ) i .

Departamento de Ingeniera Matematica


- Universidad de Chile

Proposici
on 8.4. Sea A Mnn ( ), con valores propios distintos 1 , . . . , r .
Entonces
r


Ingeniera Matematica

SEMANA 15: FORMA DE JORDAN


Probaremos el siguiente teorema:
Teorema 8.3. Una transformaci
on lineal arbitraria, TA = n
Ax, es reductible a la forma de Jordan, o de manera equivalente:

, x

A Mnn ( ), J Mnn ( )
matriz de Jordan, similar a la matriz A:
A = P JP 1
donde las columnas de P son los vectores de la base asociada a J .
n. Por inducci
Demostracio
on sobre la dimensi
on, n, del espacio. Es trivialmente cierto para n = 1 (verifique). Supongamos que el resultado se
cumple k n 1. Veremos primero:
Caso 1: La matriz A es singular (detA = 0).
En este caso r(A) = r < n, es decir dim Im(TA ) = r(A) = r < n. Sea:
T = T |ImTA : ImTA ImTA
Por hipotesis, como dim ImTA < n, existe la descomposici
on de Jordan.
Existe entonces una base de ImTA que verifica las hipotesis. M
as explcitamente: Si (T ) = {1 , . . . , m } y ademas los subespacios propios:
1
, . . . , vp11 1 } , . . . , Vm =
V1 = {v11

m
v11
, . . . , vpmm 1

obteniendose la base , de Jordan para T :


1
v11

vp11 1

1
v12
..
.

vp11 2
..
.

1
v1s(1,1)
..
.
m
v11

1
vps(1,p
1)
..
.
vpmm 1

m
v12
..
.

vpmm 2
..
.

m
v1s(m,1)

vpmm s(m,pm )

vectores propios de V1

colas asociadas
a los vectores propios de V1
..
.
vectores propios deVm

colas asociadas

s(i, j) y se verifica:

donde r = dim ImTA =


i,j

k
T (vij
)=

k
k vij
k
k
+ k vij
vij1

198

si j = 1
si j > 1

Departamento de Ingeniera Matematica


- Universidad de Chile

FACULTAD DE CIENCIAS

FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE

Algebra
Lineal 08-2

J =

J11

..

.
Jp1
J12

..

.
Jp2 2
..

.
J1m
..

.
Jpm m

y cada bloque:
Jik

1
..
.

..

..

1
k

k
k
es de dimensi
on s(k, i)s(k, i), asociado a los vectores de base vi1
, . . . , vis(k,i)
.

Subcaso 1: KerTA ImTA = {0}.


De acuerdo al Teorema del N
ucleo-Imagen (TNI), dim KerTA +dim ImTA =
a:
n, luego n = KerTA ImTA , de donde la base de Jordan ser
J = {w1 , . . . , wr } {z 1 , . . . , z nr }
nr
donde {wi }ri=1 es base de Jordan de ImTA y {z i }i=1
es una base del n
ucleo
de TA .

La matriz asociada es:

J11
..

J =

Jpm m
0

..

.
0

n r bloques

de 1 1 con
el valor propio 0

que verifica claramente:


TA wi = i wi
y ademas, TA z i = 0z i

TA wi = wi1 + i wi

1ir

1 i n r.

Subcaso 2: KerTA ImTA =


p 1.

u1 , . . . , up

199

, subespacio de dimensi
on

Departamento de Ingeniera Matematica


- Universidad de Chile

Donde:

1
v11

1
v21

1
vp1
..
.
..
.

1
v12
..
.

1
v22
..
.

1
v1s(1,1)

1
v2s(1,2)

vectores propios asociados a 1 = 0

1
vps(1,p)

que verifican la recurrencia:


1
1
= 0 v11
TA v11

1
1
1
= v11
+ 0 v12
TA v12
..
.
1
1
1
+ 0 v1s(1,1)
= v1s(1,1)1
TA v1s(1,1)

(8.5)

..
.

1
1
TA vp1
= 0 vp1
..
.
1
1
1
+ 0 vps(1,p)
= vps(1,p)1
TA vps(1,p)

Para completar la base de Jordan asociada a ImTA a una base de


elegimos el conjunto de vectores 2 = {y j }pj=1 tal que:

1
Ay 1 = v1s(1,1)
1
Ay 2 = v2s(1,2)

..
.
1
Ay p = vps(1,p)

Es decir, los vectores {y j }pj=1 son soluciones de los sistemas asociados al


u
ltimo vector de cada bloque del vector 1 = 0. Estos sistemas tienen
1
solucion ya que, por hip
otesis, vjs(1,j)
ImTA , j = 1, . . . , p.
p

Ademas, son vectores linealmente independientes. En efecto, si

cj y j = 0

j=1

entonces

cj Ay =

cj T A y =
j=1

1
cj vjs(1,j)
=0

j=1

j=1

1
{vjs(1,j)
}pj=1

como, por hip


otesis el conjunto
conclumos que cj = 0, j = 1, . . . , n.
200

es linealmente independiente,

Departamento de Ingeniera Matematica


- Universidad de Chile

Es decir ui KerTA y ui ImTA . Estos vectores son propios TA (ui ) =


0ui . Ademas, como ui ImTA estos son vectores propios de T = T |ImTA .
Por hipotesis de Jordan existen, para cada uno de los vectores ui , un bloque
(eventualmente de 11). Sin perdida de generalidad, supongamos que en la
base de Jordan asociada a T , se tiene 1 = 0. Luego obtenemos los bloques
siguientes:

TA (y j ) = Ay j = vjs(1,j) + 0y j

1 j p.

luego podemos redefinir el orden de los vectores en el conjunto 2 J para


obtener una descomposici
on en bloques de Jordan. Por ejemplo, veamos la
inclusi
on del vector y 1 .
Tenamos (ver Ecuaci
on (8.5)):
1
1
TA v11
= 0v11
..
.
1
1
1
TA v1s(1,1)
= v1s(1,1)1
+ 0v1s(1,1)
1
definiendo v1s(1,1)+1
= y 1 , se tiene que
1
1
1
+ 0v1s(1,1)+1
= v1s(1,1)
TA v1s(1,1)+1

y redefinimos el primer bloque:


1
1
1
= y1
, v1s(1,1)+1
v11
, . . . , v1s(1,1)

que satisface la recurrencia de Jordan.


1
En general, para cada bloque asociado a 1 , agregamos el vector vjs(1,j)+1
=
j
y , lo cual satisface la recurrencia de Jordan. Los nuevos bloques tienen la
forma:

0 1
0
..
..
..

.
.
.

..

. 1 0

0 1
0
0
Debemos verificar que el conjunto 2 J es .i.: Consideremos una
combinaci
on lineal nula, escrita por bloques:
1
1
1
= [111 v11
+ 112 v12
+ + 11s(1,1) v1s(1,1)
]+ ...

1
1
1
+ + [1p1 vp1
+ 1p2 vp2
+ + 1ps(1,p) v1s(1,p)
]+ ...

k
k
+ [k11 v11
+ + k1s(k,1) v1s(k,1)
] + ...

[kpk 1 vpk s(1,pk )


1

+ 1 y +

+ + kpk s(k,pk ) vpkk s(k,pk ) ]


2 y 2 + + p y p = 0

(8.6)
+ ...

Aplicando la transformaci
on TA a esta ecuaci
on obtenemos:
1
1
1
TA () = A = [111 Av11
+ 112 A2 v12
+ + 11s(1,1) Av1s(1,1)
] + ...
1
1
1
]+
+ [1p1 Avp1
+ 1p2 Avp2
+ + 1ps(1,p) Av1s(1,p)
k
k
+ [k11 Av11
+ + k1s(k,1) Av1s(k,1)
]+

+ [pk 1 Avpk s(1,pk ) + + kpk s(k,pk ) Avpkk s(k,pk ) ] + . . .

+ 1 Ay 1 + + p Ay p = 0
201

Departamento de Ingeniera Matematica


- Universidad de Chile

M
as a
un, los vectores {y j }pj=1 satisfacen:

1
1
1
]+ ...
A = [112 v11
+ 113 v12
+ + 11s(1,1) v1s(1,1)1
1
1
1
]+ ...
+ [1p2 vp1
+ 1p3 vp2
+ + 1ps(1,p) v1s(1,p)1

k
k
)]
+ [k11 k v11
+ + k1s(k,1) (k vpkt s(k,1) + v1s(k,1)1

+ [kpk 1 k vpkk 1 + + kpk s(k,pk ) (k vpkk s(k,pk ) + vpkk s(k,pk )1 )] + . . .


1
1
1
=0
+ + p vps(1,p)
+ 2 v2s(1,2)
+ 1 v1s(1,1)

Reordenando, agregamos cada vector asociado a los escalares j a su respectivo bloque:


1
1
1
]+ ...
+ 1 v1s(1,1)
+ + 11s(1,1) v1s(1,1)1
TA () = [112 v11
k
k
+ ...
+ (k12 k + k13 )v12
+ {(k11 k + k12 )v11

k
k
} + = 0
+ k1s(k,1) k v1s(k,1)
+ (k1s(k,1)1 k + k1s(k,1) )v1s(k,1)1

como los vectores son .i se tiene que


112 = 113 = = 11s(1,1) = 1 = 0
..
.

1p2 = 1p3 = = 1ps(1,p) = p = 0


y k 1 (bloques asociados a k ):
k11 k + k12 = 0
k12 k + k13 = 0
..
.
k1s(k,1)1 k + k1s(k,1) = 0
k1s(k,1) k = 0
como k = 0, reemplazando desde la u
ltima a la primera ecuaci
on, conclumos
kij = 0 k, i, j. Recordemos que, al aplicar TA , desaparecieron los coeficientes
111 , . . . , 1p1 , pero, como el resto de los coeficientes kij , j , es nulo se tiene
en (8.6):
1
1
111 v11
+ + 1p1 vp1
=0

1 p
Como {vj1
}j=1 es .i, conclumos 111 = = 1p1 = 0, luego el conjunto
2 o J es .i.
El conjunto anterior 2 J tiene r + p vectores, donde r = dim ImTA , es
decir | 2 J |= p + r n. Nos falta entonces considerar KerTA \ ImTA
KerTA . Pero esto es f
acil, sea:

KerTA =

u1 , . . . , up
202

{z1 , . . . , zq }

Departamento de Ingeniera Matematica


- Universidad de Chile

Reemplazando seg
un la recurrencia de Jordan y recordando que 1 = 0:

3 = {zi }qi=1 .

J = J 2 3 ,

Claramente estos n vectores son .i., pues si


q

j=1

j=1

j=1

j zj = 0

j y j +

j wj +

aplicando TA y recordando que zj KerTA obtenemos:


p

j T A y j = 0

j TA wj +
j=1

j=1

que corresponde al an
alisis de la independencia lineal de 2 J que hicimos
q

j zj = 0 de donde

previamente, luego j = j = 0. S
olo queda entonces

j=1

j = 0 pues {zj } es .i.


La matriz de Jordan, agregando los {zi }qi=1 al final de la base, es la siguiente:

J11

J =

..

.
Jp1
J12

..

.
Jp2 2
..

.
J1m

..

.
Jpm m
0

donde J11 , . . . , Jp1 son los bloques asociados a 1 = 0 con la cola agregada {yi }. El u
ltimo grupo de q bloques de 0s corresponde a la base del
suplementario de
ImTA KerTA en KerTA .
Con esto hemos demostrado que, si A es regular (no invertible), esta es
reductible a la forma de Jordan.
Veamos ahora el caso invertible: Como A Mnn ( ),
valor propio
asociado a A. Consideremos la matriz singular A = A I. Por el procedimiento desarrollado anteriormente existen matrices J y P invertible tal
203

Departamento de Ingeniera Matematica


- Universidad de Chile

donde {u1 , . . . , up } = ImTA KerTA y {z1 , . . . , zq } es un suplementario


en KerTA .
a dada por:
Afirmamos que la base de Jordan de n est

J = P 1 A P J = P 1 (A I)P

P J P 1 = A I

A = P J P 1 + I =

= P J P 1 + P P 1 = P (J + I)P 1

luego la matriz de Jordan asociada a TA es J = J + I, donde aparece


en la diagonal principal.

Departamento de Ingeniera Matematica


- Universidad de Chile

que:

Ejercicio

Ejercicio 8.3: La forma de Jordan es u


nica, salvo permutacion del
orden de la base.

204

FACULTAD DE CIENCIAS

FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE

Algebra
Lineal 08-2

Ejercicios
1. Sea Ni Mss ( ), definida por

0 1

..

0
..

..

1
0

Pruebe por inducci


on que m , p, q {1, . . . , s},

1 si q = p + m,
(Nim )pq =

0 si q = p + m.

Ademas deduzca que Nis = 0. Una matriz con esta propiedad, se dice
nilpotente.

2. Sea B una matriz diagonal por bloques, es decir

B1 0 . . . 0
0 B2 . . . 0

B= .
..
..
..
..
.
.
.
0
0 . . . Br

en donde B1 , . . . , Br son matrices cuadradas y el resto son matrices cero.


Sea m

, pruebe que entonces


Bm

B1m
0

= .
..

0
B2m
..
.

...
...
..
.

0
0
..
.

...

Brm

3. Pruebe las siguientes propiedades:


(a) La funci
on tr : Mnn ( )

es lineal.

(b) A Mmn ( ), B Mnm ( ), tr(AB) = tr(BA).


4. A Mnn ( ), una matriz no necesariamente diagonalizable tal que
(A) . Pruebe que
|eA | = etr(A) .

5. Calcule eA , A3 y A5 , para las siguientes

1 1
1 1 0
(a)
.
0 1 0
0 1

(b)
0 0 1/2
0 0 0
0 0 0
205

matrices:

0 0
2
0
0 0

(c)

0 0
. 0
4 1
0
0 4

1
2
0
0

0
1
2
0

0
0
.
0
1

Departamento de Ingeniera Matematica


- Universidad de Chile

Gua
Semana 15

Ingeniera Matematica

P1. Se define la siguiente recurrencia de n


umeros reales
xn+1 = 2xn xn1 , n 1
x1 = 1, x0 = 0.
(a) Para n
tal que

, defina vn = ( xx

n
n1

2. Encuentre A M22()

vn+1 = Avn .
(b) Pruebe que vn = An v0 , n

(c) Use lo anterior para resolver la recurrencia, obteniendo un valor


explcito para xn .
Indicaci
on: Use la forma de Jordan.

P2. (a) Sea

\ {0}. Pruebe por induccion que


1
0

(b) Considere

n
0

4 1
0 4
0 0

nn1
n

n 1.

3
1 .
2

Encuentre P invertible y J en forma de Jordan tal que A =


P JP 1 .
(c) Para la matriz A de la parte anterior y n 1 cualquiera calcule
An explcitamente, encontrando expresiones para los coeficientes
de An en funci
on de n.

206

Departamento de Ingeniera Matematica


- Universidad de Chile

Problemas

You might also like