Professional Documents
Culture Documents
FACULTAD DE CIENCIAS
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Algebra
Lineal 08-2
SEMANA 1: MATRICES
1.
1.1.
Matrices
Definiciones basicas
Definici
on 1.1 (Matriz). Una matriz A, de m filas y n columnas con
(en este apunte
ser
a
o
) es una tabla de
coeficientes en el cuerpo
doble entrada:
a11
..
A= .
am1
a1n
.. ,
.
aij
... amn
i = 1, . . . , m, j = 1, . . . , n.
Construimos una estructura algebraica sobre Mmn ( ) a partir de las operaciones definidas en el cuerpo . Se define la suma de dos matrices como
sigue:
A, B Mmn ( ), A + B = (aij + bij )
Por ejemplo, en ( , +, ):
1
2
3
0 1 2
0 1
3
1
2
2
1 1
3 0
5
.
0
Proposici
on 1.1. (Mmn ( ), +) tiene estructura de grupo Abeliano.
n. La suma es asociativa y conmutativa, como herencia de
Demostracio
las mismas propiedades en el cuerpo .
El neutro aditivo es
0 ... 0
...
Mmn ( )
Definici
on 1.2 (Igualdad de matrices). Dadas dos matrices A Mmn ( ), B
Mm n ( ), diremos que son iguales si y s
olo si:
matriz
A=B
vector de
A+B
0 Mmn ( )
=
Luego
ii
11
0+0
i + i
i
0 0
1 i 0
0+0
0+0
=
0
0
=
0 0
0 0
i 0 0
1 i 0
= 0.
Definici
on 1.3 (Producto de matrices). Dadas A = (aij ) Mmr ( ), B =
(bij ) Mrn ( ) se define el producto C = AB como aquella matriz
C Mmn ( ) tal que
cij =
aik bkj ,
i = 1, . . . , m, j = 1, . . . , n.
k=1
Claramente C Mmn ( ).
Ejemplos:
1. En ( , +, ),
A=
1
1
C = AB =
1
1
1 2
M23 ( ), B = 0 2
1 0
1 2 1 0
1 0
1 0
0 2 1 0 =
2 1
2 6
1 0 1 1
1 0
2 1
1 0
1 0 M34 ( )
1 0
0 0
4 1
2. En ( , +, ),
A = (i, i, 0) M13 ( )
i
B = 1 M31 ( )
0
C = AB = i i + i 1 + 0 0 = 1 + i M11 ( ).
Observaci
on: La multiplicaci
on de matrices no es conmutativa.
Por ejemplo en M22 ( ) :
1
0
0
0
0 0
2 0
0 0
,
0 0
0 0
2 0
1
0
0
0
0 0
.
2 0
M24 ( ).
i
0 0
i 0 0
+
1 i 0
1 i 0
AB
Proposici
on 1.2.
1. Asociatividad: Si A Mmn ( ), B Mnq ( ), C Mqs ( ), entonces:
A(BC) = (AB)C Mms ( ).
A(B + C) = AB + AC Mms ( ).
De igual manera se tiene la distributividad por el otro lado.
n. Demostremos la distributibidad, quedando la asociativiDemostracio
dad de ejercicio. Denominando E = A(B + C), se tiene:
n
eij =
Como la multiplicaci
on distribuye con respecto a la suma en
eij =
aik bkj +
k=1
aik ckj .
k=1
De la definici
on de multiplicaci
on matricial, se obtiene E = AB + AC.
1 0 0
0 1 0
= (ij ), con ij = 0 si i = j
I =
..
1 si i = j.
.
0 0 1
a11
..
AI =
.
an1
n
=(
1
a1n
0
..
... ann
0
...
0
1
..
.
0
0
0
k=1
Ejercicio
matriz cuadrada
I
Definici
on 1.4 (Matriz invertible). A Mnn ( ) es invertible si y
s
olo si existe B Mnn ( ) tal que:
AB = BA = I.
(1.1)
Proposici
on 1.3. De existir una matriz B que satisfaga (1.1), esta es
u
nica. Por ende la notaremos B = A1 .
Cabe se
nalar que para que A sea invertible se requiere que exista una matriz
B que sea a la vez inversa por izquierda y por derecha. Probaremos mas
adelante que es suficiente que A tenga inversa por un solo lado.
Ejemplos:
No todas las matrices cuadradas tienen inverso multiplicativo. En
1 2
no tiene inverso. En efecto, si existiese
M22 ( ), la matriz
2 4
el inverso,
x1 x2
, debera verificarse:
digamos
x3 x4
1 2
2 4
x1
x3
x1 + 2x3
2x1 + 4x3
x2
x4
x2 + 2x4
2x2 + 4x4
1
0
=
0
1
1
0
0
1
(Mnn ( ), +, ) es
anillo con unidad
invertible
A1
x2 + 2x4 = 0
2x1 + 4x3 = 0
2x2 + 4x4 = 1
De la primera ecuaci
on multiplicada por 2, obtenemos: 2(x1 + 2x3 ) =
2. Pero de la tercera ecuaci
on, 2x1 + 4x3 = 0. De esta contradicci
on
conclumos que el sistema no tiene solucion.
1
0
0 1
1 0
0 1
1 0
0 1
1 0
1
0
0
1
O bien, en M22 ( ),
i
0
0 i
i
0
0
i
lo que se verifica r
apidamente.
1.2.
Matrices Particulares
Definici
on 1.5. Diremos que A Mnn ( ) es:
i = j:
1. Diagonal si y s
olo si aij = 0
A=
a11
diagonal
0
a22
..
ann
a11
0
A=
...
0
a12
a22
..
.
a1n
a2n
.
..
.
ann
3. Triangular inferior si y s
olo si aij = 0 si i < j:
5
x1 + 2x3 = 1
triangular inferior
a11
a21
A=
an1
Ejemplos:
0
A = 0
0
1 2
A = 0 0
0 0
0
a22
..
.
..
.
an2
0
0
.
0
ann
0 0
1 0 0
2 0 , I = 0 1 0 son matrices diagonales
0 3
0 0 1
3
0 0 0
son matrices triangulares, superior e inferior
1, B = 1 2 0
respectivamente.
2
2 1 3
Ejercicio
Notaci
on:
Dada una matriz A Mmn ( ) notaremos su i-esima fila como:
a
1j
a2j
=
..
.
amj
A1
A2
A=
... ,
correspondiente a la notaci
on por filas.
Am
Ai
Aj
Ejercicio
Qu
e hay de las filas de AB?
Definici
on 1.6 (Matriz ponderada). Dada una constante
nimos la matriz A ponderada por :
, defi-
A = (aij ).
Ejemplo:
En M23 ( ):
3
1
2
1 0
2 1
3
6
3 0
6 3
2
0
0
3
1
2
1 2
0 1
2
6
2 4
0 3
2 0 0
1
1
2
=
0 1 0 = 2 1 6
AD
2 0 1
4 0 3
0 0 3
1
0
a
11
.
..
n
an1
0
..
1 a11
a1p
2 a21
.. =
. ..
.
anp
n an1
1 a1p
2 a2p
..
.
n anp
b11
...
bp1
b1n
1
..
.
bpn
0
..
1 b11
= ...
1 bp1
2 b12
..
.
2 bp2
n b1n
..
.
n bpn
Proposici
on 1.4. Si D = diag(1 , . . . , n ) Mnn ( ), A Mnp ( ), B
Mmn ( ), se tiene que
1 A1
DA = ... ,
(1.2)
n An
BD = (1 B1 , ..., n Bn ).
(1.3)
Sea
D=
0
..
luego,
= (dij );
con dij =
i
0
si i = j
si i = j
(DA)ij =
y por lo tanto
AD =
1 a11
...
..
.
1 a1p
n an1
n anp
a11
0
T1 =
...
0
a22
..
.
b11
a1n
a2n
0
, T2 =
..
...
.
0
ann
8
b22
..
.
b1n
b2n
.
..
.
bnn
Ejercicio
cij =
aik bkj +
k=1
aik bkj .
k=i
1.3.
Definimos por recurrencia las potencias de una matriz cuadrada, como sigue:
Definici
on 1.7 (Potencias de una matriz). Dada A Mnn ( )
A0 = I, An = AAn1 ,
n 1.
Ejemplo:
0 1
A = 2 0
1 1
se tendra
0 1
A2 = AA = 2 0
1 1
0
A3 = AA2 = 2
1
1
0
1
2
0,
2
2
0 1
02 0
2
1 1
2
4 2
00 2
2
4 3
2
4
0 = 0
2
4
2 4
2 4
3 6
4
8 8 16
4 = 8 4 8 .
6
12 10 20
Definici
on 1.8 (Traspuesta). Dada una matriz A = (aij ) Mmn ( ),
se define la traspuesta de A como aquella matriz de nm que denotaremos
por At tal que (At )ij = aji .
Esto corresponde a intercambiar el rol de las filas y columnas. M
as claramente, la primera fila de At es la primera columna de A y as sucesivamente.
An
At , traspuesta
1 2
A = 0 1
1 1
0 0
0 1,
0 1
1
2
t
A =
0
0
0
1
0
1
1
1
.
0
1
1
1
A = (1, 1, 0, 0, 1), At = 0 .
0
1
1 2 1
1 2 1
A = 2 0 1 , At = 2 0 1 .
1 1 4
1 1 4
En el u
ltimo caso vemos que A = At .
Definici
on 1.9 (Matriz sim
etrica). Diremos que una matriz A Mnn ( )
es sim
etrica si y s
olo si
A = At
Es f
acil verificar que A es simetrica si y s
olo si:
i, j = 1, .., n
aij = aji
2. (AB)t = B t At .
ajk bki
k=1
zij =
(B )ik (A )kj =
k=1
bki ajk =
k=1
sim
etrica
(AB)t = B t At
Ejemplo:
k=1
t
(A1 )1 = A
3. n 0, (An )1 = (A1 )n .
(AB)1 = B 1 A1
(An )1 = (A1 )n
(At )1 = (A1 )t
Ejercicio
Ejercicio 1.3: En general el problema de saber si una matriz es invertible o no es un problema difcil. Tendremos que esperar a saber
resolver ecuaciones lineales para obtener un algoritmo eficiente que nos
permitira decidir si una matriz en particular es invertible y obtener su
inversa.
Por el momento nos contentaremos con el siguiente resultado, propuesto
como ejercicio.
Sea A = (aij ) una matriz de permutaci
on, es decir una matriz de
n n con solo 0 y 1 tal que tiene un y s
olo un 1, por cada fila y
columna.
Se tiene que A es invertible y su inversa es A1 = At .
11
permutaci
on
FACULTAD DE CIENCIAS
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Algebra
Lineal 08-2
Ejercicios
1. Demuestre la asociatividad de la multiplicacion de matrices. Es decir, si
A Mmn ( ), B Mnq ( ), C Mqs ( ), entonces:
Problemas
d1
P1. Sea D =
..
dn
y A, B, M, S Mnn ( ).
Semana 1
Ingeniera Matematica
Proposici
on 1.2
Ejercicio 1.1
Ejercicio 1.2
Ejercicio 1.3
P3. (a) Sea A = (aij ) Mnn ( ) una matriz cualquiera. Se define la traza
de A, denotada por tr(A), como la suma de los elementos de la
diagonal principal, es decir,
n
aii .
tr(A) =
i=1
, donde
f (A) = tr(AA ).
Pruebe que:
(1) Dadas A, B Mnn ( ),
tr(AB) = tr(BA).
P = Im M (M t M )1 M t ,
13
1 1
0
0 ... ... 0
0 1
1
0 . . . . . . 0
..
.. . .
..
..
..
.
.
.
.
.
.
..
.
.
.
.
.
..
..
..
. . ..
.
C=
.
..
..
.
.
1
1
0
.. . . . . . . . . .
0
1 1
..
. ... ... ...
0
0 1
Ingeniera Matematica
SEMANA 2: MATRICES
1.4.
Matrices elementales
matrices elementales
Definici
on 1.10 (Matriz elemental de permutaci
on). Una matriz elemental de permutaci
on tiene la siguiente estructura:
1
0
..
.
0
fila p
0 1
..
..
.
1
.
Ipq =
1
..
..
.
1
.
fila q
1 0
..
.
0
0
de las filas p y q.
Ejemplo:
En M44 ( ):
I24
1
0
=
0
0
0
0
0
1
0
0
1
0
0
1
,
0
0
I13
0
0
=
1
0
0
1
0
0
1
0
0
0
0
0
.
0
1
Notemos que toda matriz elemental de permutacion es una matriz de permutacion, pero no al reves. Puedes dar un ejemplo?.
Veamos ahora lo que sucede al multiplicar una matriz A, por la derecha
o izquierda, por una matriz elemental de permutacion Ipq : En el ejemplo
a11
a21
I24
a31
a41
a12
a22
a32
a42
a13
1
a23 0
=
a33
0
a43
0
0
0
0
1
0
0
1
0
0
a11
1 a21
a31
0
0
a41
14
a12
a22
a32
a42
a13
a11
a23 a41
=
a33
a31
a43
a21
a12
a42
a32
a22
Ipq
Ejercicio
FACULTAD DE CIENCIAS
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Algebra
Lineal 08-2
a13
a43
.
a33
a23
B M34 ( ):
b11
b21
b31
b12
b22
b32
b13
b23
b33
1
b14
0
b24
0
b34
0
0
0
0
1
0
0
1
0
0
b
1 11
= b21
0
b31
0
b14
b24
b34
b13
b23
b33
b12
b22 .
b32
1 0
0 1
E2,4 () =
0 0
0
0
0
1
0
0
0
0
1
a11
a21
E2,4 ()
a31
a41
a12
a22
a32
a42
a13
1 0
a23 0 1
=
a33
0 0
a43
0
a11
a21
=
a31
a21 + a41
0
0
1
0
a12
a22
a32
a22 + a42
0
a11
0 a21
0
a31
1
a41
a12
a22
a32
a42
a13
a23
a33
a23 + a43
a13
a23
=
a33
a43
15
Ipq A
BIpq
Ep,q () =
0
.
..
..
.
0
col. p
..
col. q
0
1
..
..
.
..
.
..
.
0
.
1
1
1
..
0
.
1
.
p<q
0
a11
0
..
.
1
a
p1
..
..
.
1
.
aq1
1
..
1
.
..
.
an1
1
a11
a1s
..
..
.
.
ap11
ap1s
..
..
=
.
.
.
..
..
.
.
an1
ans
o, en notaci
on por filas:
1
..
C = Ep,q ()A =
Ep,q ()
Ep,q () A
Ci = Ai
i = q
Cq = Ap + Aq
Se tiene entonces que el efecto, sobre A, de la premultiplicacion por Ep,q ()
es una matriz que s
olo difiere de A en la fila q: Esta es la suma de la fila p
ponderada por y la fila q.
Es importante observar que la matriz Ep,q () es triangular inferior, que
tiene unos en la diagonal y ademas:
16
Definici
on 1.11 (Matriz elemental). Definimos la matriz elemental Ep,q ()
Mnn ( ) como:
a1s
..
.
aps
..
.
aqs
..
.
ans
= (0 . . . 0 0 . . . 0) + (0 . . . 0 . . . 0 1 0 . . . 0).
1.5.
+ x3 + x4 = 1
(1)
(2)
(3)
(Ep,q ())1 =
Ep,q ()
Proposici
on 1.8. Ep,q () es invertible. Su inversa es la siguiente:
1
..
.
0
..
..
1
(Ep,q ()) =
.
1
1
.
..
.
.
1
.
..
..
..
.
.
0
0
0 1
x1 + 2x2 + x3 + x4 = 2
7x2 + x3 + 2x4 = 3
x1
+ x3 + x4 = 1
= 1
x1 =
18
a11 x1 + + a1n xn = b1
..
..
..
.
.
.
am1 x1 + + amn xn = bm
en donde los coeficientes, aij , y el lado derecho, bj , son elementos del cuerpo
Definiendo la matriz:
a11
..
A=
.
am1
a1n
..
Mmn ( )
.
amn
x1
b1
..
..
m
, x=
b=
.
.
xn
bm
1 2 1 1 2
2 3 1 0 1
(A|b) =
1 0 1 1 1
1 2 1 1 2
1 2 1 1 2
(A|b) 0 7 1 2 3 0 7 1 2 3
1 0 1 1 1
0 2 0 0 1
1 2 1 1 2
b)
0 7 1 2 3 = (A|
2
1
4
0 0 7 7 7
19
Definici
on 1.12 (Sistema de ecuaciones). Un sistema de m ecuacionesy n inc
ognitas consiste en el siguiente conjunto de ecuaciones en las variables x1 , ..., xn :
sistema de ecuaciones
Ax = b
matriz aumentada,
(A|b)
De la definici
on de matrices elementales sabemos que esto es equivalente
a premultiplicar por la izquierda por la matriz Ep,q (). Veamos esto en el
mismo ejemplo.
Ejemplo:
1. Producir un cero en la posici
on
1 0
E1,2 (2)(A|b) = 2 1
0 0
1 2
= 0 7
1 0
(2,1) de (A|b):
0
1 2 1 1 2
0
2 3 1 0 1
1
1 0 1 1 1
1 1
1 2
1 1
2
3
1
1 0 0
1 2
E1,3 (1)E1,2 (2)(A|b) = 0 1 0 0 7
1 0 1
1 0
1 2 1
= 0 7 1
0 2 0
1 1
1 2
1 1
2
3
1
1 1
2 3
0 1
1 2 1 1 2
1 0 0
E2,3 ( 72 )E1,3 (1)E1,2 (2)(A|b) = 0 1 0 0 7 1 2 3
0 2 0 0 1
0 27 1
1
= 0
0
2
7
0
1
1
1
2
2
7
4
7
2
3
17
= b.
As, el sistema inicial es equivalente al sistema Ax
Conviene se
nalar que en el procedimiento anterior la operaci
on de base ha
sido:
1 0 0 0
1 1 1 1
1 1 1 1
0 0 0 10 0 1 1 0 2 0 1
I24 (A|b) =
=
,
0 0 1 0
0 1 0 1
0 1 0 1
0 1 0 0
0 2 0 1
0 0 1 1
..
A=
a
sis
a la matriz A, como
a
1n
a
2n
..
a
sn .
21
1 1 1 1
0 0 1 1
(A|b) =
0 1 0 1
0 2 0 1
matriz escalonada, A
pivotes
22
FACULTAD DE CIENCIAS
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Algebra
Lineal 08-2
Ejercicios
1. Encuentre un ejemplo de una matriz que sea de permutacion, pero no
sea matriz elemental de permutaci
on.
2x1 + 4x2 x3 + x5 = 0
x1 x3 x4 + 43 x5 = 1
x4 + x1 = 3
1
(x
x
)
+
x
x5 = 20
1
3
4
3
x1 ( 1)x2 + x3 x4 = 2
7x2 + x3 = + , con , .
(c)
= 3
3 x1 x2 + x4
2x1 = 1
4x2 = 2
(d)
9x3 = 0
3
2 x4 = 1
(a) I12 E13 (1, 1), en M44 ( ). (d) E23 (0, 3i)1 E12 (1, i)E34 ( 12 , 3),
en M44 ( ).
(b) I34 E23 (i, 2)I34 , en M44 ( ).
(c) E12 (2, 1)E13 (1, 1), en M33 ( ).
Problemas
1
..
P1. Sea J Mnn ( ) tal que J = .
..
.
(b) Sea =
(c) Sea =
1
n.
1
n,
1
1
.. y e = .. .
.
.
1
Gua
Semana 2
Ingeniera Matematica
Pag. 12
Propiedad 1.1
A = B x Mn1 ( ) xt Ax = xt Bx.
(b) Demuestre que si una matriz cuadrada A verifica Ak = I, para
alg
un natural k 1, entonces A es invertible y determine su
inversa.
x y
(c) Encuentre todas las matrices de la forma A =
que cum0 y
plen A2 = I (x, y, z ).
x2
2x2
4x2
+
+
+
+
x3
x3
x3
2x3
+
+
2x4
2x4
3x4
4x4
= 1,
= 1 ,
= 2,
= 5.
(a) Escriba el sistema de forma matricial Ax = b. Especifique claramente A, b y x, junto con sus dimensiones.
(b) Resuelva es sistema lineal escalonando la matriz aumentada (A|b).
P4. Considere el siguiente sistema lineal:
x1
x1
+
+
2x1
2x2
x2
3x2
x2
3x3
+
+
3x3
3x3
x4
x4
2x4
= 1,
= 1,
= 0,
= 2 .
(a) Escriba el sistema de forma matricial Ax = b. Especifique claramente A, b y x, junto con sus dimensiones.
(b) Resuelva es sistema lineal escalonando la matriz aumentada (A|b).
24
Indicaci
on: Calcule etj Aei donde ej = (Im )j y ei = (In )i . Im
y In son las identidades de tama
nos m y n respectivamente.
(2) Sean A, B matrices de nn simetricas con coeficientes reales.
Pruebe que
Ingeniera Matematica
SEMANA 3: MATRICES
1.6.
m, x n, al escalonarlo
a
11
a
1i2
0 0 a
2i2
..
..
..
..
.
.
.
.
b) =
(A|
0
0
0
a
sis
0 0
0
.
.
..
..
0
a
1n
..
.
..
.
a
sn
0
..
.
0
b1
..
.
..
.
bs .
bs+1
..
.
bm
calonada, A, un pelda
no de largo superior o igual a dos. De no ser as se
25
FACULTAD DE CIENCIAS
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Algebra
Lineal 08-2
sistema compatible
pelda
nos
escalones
de donde m = n.
a
11
0
.
A = ..
.
..
0
a
12
a
22
0
..
.
0
..
.
0
a
1n
a
2n
..
.
..
.
a
mn
sistema homog
eneo
Dimensiones
N
umero Soluciones
Sistema Homogeneo (b = 0)
nm
n>m
1,
Sistema no-Homogeneo (b = 0)
nm
n>m
0, 1,
0,
Ejemplo:
Resolvamos el sistema
1 1
1 2
0 1
1 1
Escalonando:
x1
1 1 1
1
x2
0 1 0 0
x =
1 0 1 3
0
x4
1 1 0
1
x5
1 1 1
1 1 1 1 1 1
0 1 1
0 3 1 0 1 1
0 1 0
0 0 23 0 32 31
0 0 23 0 13 32
0 1 0
1 1 1 1 1 1
0 3 1 0 1 1
0 0 32 0 23 13
0 0 0 0 1 1
Obtenemos que los pelda
nos medidos desda la fila 1 son sucesivamente:
1,1,2,1. De la u
ltima ecuaci
on despejamos x5 = 1.
Con esta informaci
on en la tercera ecuaci
on dejamos libre x4 y despejamos x3 . En la segunda ecuaci
on despejamos x2 y finalmente de la
primera despejamos x1 , para obtener.
1 1
0 3
(A|b)
0 1
0 2
x5 = 1
x4 :
1
1
1
0
libre
3 1 2
1
1
1
x3 = ( x5 ) = x5 = + 1 =
2 3 3
2
2
2
1
1
1
1
x2 = (1 x3 x5 ) = (1 + 1) =
3
3
2
2
1 1
x1 = 1 x2 x3 x4 x5 = 1 x4 + 1 = 1 x4
2 2
26
tendra
1.7.
Supongamos que el n
umero de ecuaciones es igual al n
umero de inc
ognitas
(n = m), en este caso el sistema se escribe:
Ax = b,
A Mnn ( ), x, b
a
11 a
1n
.
..
..
A =
.
0
a
nn
a
ii = 0.
3.
i=1
27
Algoritmo de Gauss
a
ii = 0, esto quiere decir que los elementos diai=1
a
11
0
.
..
..
D = ..
Ej A
=
Fk ,
.
.
j
k
0 a
nn
donde las matrices Fk son del mismo estilo que las matrices elementales
que hemos usado. Sabemos entonces que las matrices D, E = j Ej y F =
1
DF 1 concluimos que A tambien es
k Fk son invertibles y como A = E
invertible.
Como corolario importante de lo demostrado en esta parte es que:
a11
0
r
.
.
..
.. = (
Ej )A,
A = ..
.
j=1
0 ann
donde r es el n
umero de pasos tomados por el algoritmo y las matrices
elementales Ej son del tipo Epq (, 1). Notar que los pivotes son los
elementos de la diagonal de A. Como la inversa de cada Ej es del
mismo tipo se deduce que
1
(Ej )1 )A.
A=(
j=r
1 (
A1 = (A)
Ej ),
j=1
y por lo tanto la inversa de A es triangular inferior y ademas sus elementos diagonales son 1/aii i = 1, .., n. Notar que el producto de las
inversas en la expresi
on anterior est
a tomado en sentido opuesto:
1
(Ej )1 .
Ej )1 =
j=r
j=1
28
(3 1). Supongamos
1.8.
Calculo
de la inversa
AZi = ei ,
n el sistema Ax =
n1
bn
= b,
alg
un a
ii = 0. Consideremos las filas i e i + 1 de A:
..
.
A
A = i =
Ai+1
..
.
0
0
0
0
..
.
a
ii = 0 a
ii+1
0
a
i+1i+1
..
.
a
in
a
i+1n
Si a
ii+1 = 0, a
i+1i+1 = 0 habramos permutados las filas y por lo tanto
la matriz escalonada tendra un 0 en la posici
on (i + 1, i + 1), lo que es
una contradicci
on. Si a
ii+1 = 0 entonces podemos utilizar este elemento
para escalonar hacia abajo y por lo tanto a
i+1i+1 = 0. En cualquier caso
se deduce que a
i+1i+1 = 0, y por un argumento de inducci
on que a
nn = 0,
29
Pasando por la traspuesta podemos deducir que la inversa de una triangular superior tambien es triangular superior.
Definamos
de A a A.
0
0
.
.
b = C 1
. .
0
1
Si consideramos el sistema Ax = b tendremos que al escalonar la matriz
aumentada (A|b) se obtendr
a una matriz escalonada (usando las mismas
operciones elemementales)
..
.
0
b) = C(A|b) =
(A|
..
.
1
olo si todo
Corolario 1.4. Una matriz A Mnn ( ) es invertible si y s
sistema Ax = b tiene soluci
on.
Lo que a su vez es equivalente a todo sistema Ax = b tiene soluci
on
u
nica, por lo probado anteriormente.
esto es toda la u
ltima fila de A debe ser 0. Consideremos ahora la matriz
invertible C = Ej , donde A = CA, es decir la matriz que permite pasar
Ejercicio
Para saber si una matriz es invertible hemos entonces probado que basta
estudiar n sistemas lineales. Para el c
alculo de la inversa podemos ir un
poco mas lejos. Consideremos el siguiente ejemplo:
Ejemplo:
luego:
0 1 1
A = 1 1 2
1 1 0
0 1 1
(A|I) = 1 1 2
1 1 0
30
1 0
0 1
0 0
0
0
1
1 1 0 0 0 1
1 1 0 0
(A|I) 1 1 2 0 1 0 0 2 2 0
0 1 1 1 0 0
0 1 1 1
1 1 0 0 0 1
0 2 2 0 1 1
0 0 2 1 21 12
0 1
1 1
0 0
1 1 0 0 0 1
1 0 1 0 21 12
0 2 2 0 1 1 0 2 2 0 1 1
0 0 2 1 12 12
0 0 2 1 21 12
1 0 0 21 14 34
1 0 1 0 12 12
0 2 0 1 21 21 0 2 0 1 21 12
0 0 2 1 12 21
0 0 2 1 21 12
Finalmente, premultiplicando por la matriz invertible:
1 0 0
D = 0 21 0
0 0 12
Se tiene:
1 0
= 0 1
(I|I)
0 0
0 12 41 43
0 12 14 41
1 12 14 41
1
3
x11
2
x12
x13
4
4
I x21 = 12 , I x22 =
14 , I x23 = 14 ,
1
1
x31
14
x32
x33
2
4
de donde:
X = A1
1 1
2 4
= 12 41
1
2
En efecto:
AA1
3
4
1
4
1
1
4 4
1 1 3
0 1 1
2 4 4
1
= 1 1 2 12 41 14 = 0
1
1
1
1 1 0
0
2
4 4
0 0
1 0
0 1
Escalonando:
0 2 1 0 0
1
1 2 0 1 0 y 0
0 2 0 0 1
0
1
0
= 1 , Ax
= 0 son
y los sistemas Ax
1
1
1
(A|I) = 1
1
0 2 1 0
1 0 1 1
0 0 1 0
0
0
1
incompatibles.
1 1
1 1
1 0
1 1
0 0
0 0
0
1
0
0
1 1 1 1 0
0 0 0 1 1 1
1
0 1 1 1 0
0
0
1
Aca el elemento a
22 = 0, pero podemos, premultiplicando por la matriz
de permutaci
on I23 , intercambiar las filas 2 y 3 obteniendo:
1 1 1 1 0 0
1 0 0 0 0 1
1 0 0 0 0 1
0 1 1 1 0 1 0 1 1 1 0 1 0 1 0 0 1 1
0 0 1 1 1 0
0 0 1 1 1 0
0 0 1 1 1 0
1 0 0 0 0 1
0 0 1
0 1 0 0 1 1 A1 = 0 1 1 .
0 0 1 1 1 0
1 1 0
Ejemplo y ejercicio importante: Descomposici
on LDU .
Supongamos que al escalonar A Mnn ( ) no encontramos pivotes nulos
(no permutamos filas!). Se obtiene entonces
a
11 a
1p
..
= ( Ej )A
a
nn
1
..
.
0
..
.
0
1
32
Ejercicio
LU , LDU
1
..
.
21
1
( Ej ) = L = .
..
..
.
j
n1 nn1
0
..
.
..
.
1
Despejamos entonces A:
A=(
j
Ej )1
a
n
..
.
a
1n
a
nn
21
A= .
..
n1
..
n
i=1
a
ii = 0, demuestre que:
0
..
.
nn1
11
a
..
1
0
.
.
a
nn
a
12
a
11
..
a
1n
a
11
a
n1n
a
n1n
(1.4)
Es decir, A admite una factorizaci
on A = LDU , en donde L es
triangular inferior con unos en la diagonal, D es diagonal (formada por los pivotes del escalonamiento) y U es triangular superior
con diagonal de unos. Esta factorizaci
on se llama descomposici
on
LDU .
3. Demuestre que si A admite la descomposici
on LDU de (1.5), entonces la descomposici
on es u
nica.
4. Demuestre ademas que si A es simetrica, entonces L = U t .
5. Encuentre la descomposici
on LDU de
1 1 1
A = 0 1 1 .
1 2 0
33
..
.
FACULTAD DE CIENCIAS
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Algebra
Lineal 08-2
Ejercicios
1. Que puede decir de una matriz cuadrada A para la cual todo sistema
Ax = b tiene a lo mas una solucion?. Debe ser A invertible?. Pruebelo.
Ejercicio 1.4
a
11 a
1p
..
= ( Ej )A
.
0
LU, LDU
a
nn
1
..
.
21
( Ej )1 = L = .
..
..
.
j
n1 nn1
0
..
.
..
.
1
Despejamos entonces A:
A=(
j
a
n
Ej )1
..
.
a
1n
a
nn
21
A= .
..
n1
..
n
i=1
a
ii = 0, demuestre que:
0
..
.
nn1
a
11
0
0
..
.
a
nn
1
.
.
a
12
a
11
..
a
1n
a
11
a
n1n
a
n1n
(1.5)
Es decir, A admite una factorizaci
on A = LDU , en donde L es
triangular inferior con unos en la diagonal, D es diagonal (formada
por los pivotes del escalonamiento) y U es triangular superior con
diagonal de unos. Esta factorizaci
on se llama descomposici
on LDU .
34
Gua
Semana 3
Ingeniera Matematica
..
.
e) Encuentre la descomposici
on LDU de
1 1 1
A = 0 1 1 .
1 2 0
Problemas
1 1 1
P1. (a) Sea la matriz de coeficientes reales A = a b c . Demueste
a 2 b 2 c2
que si la ecuaci
on Ax = 0 tiene una u
nica solucion entonces (a =
b) (a = c) (b = c).
(b) Considere el sistema lineal a coeficientes reales siguiente
x1
x1
x1
+
+
x2
x2
x2
+
+
x3
x3
x3
+ x4
+ x4
=
=
=
=
0,
0,
0,
0.
P3. Considere
1
1
A=
0
2
2
1
3
1
3
1
0
1
3 3
b=
0 .
2
36
Ingeniera Matematica
SEMANA 4: GEOMETRIA
2.
Geometra lineal en
2.1.
Sea
Definiciones basicas
n
un cuerpo. Anotaremos
los vectores de como columnas, es decir,
x1
..
n
= Mn,1 ( ) = { . | xi , i = 1, . . . , n } .1
xn
Recordar que en n = Mn,1 ( ) tenemos una suma (de matrices columna)
definidapor:
y1
x1
x1 + y1
..
si x = ... , y = ...
, entonces x + y =
,y
.
yn
xn
n , +) es un
xn + yn
0
grupo Abeliano, con neutro 0 = ...
0
x1
.. .
.
x1
y opuestos x = ... =
xn
xn
Agregamos ahora la operaci
on Multiplicaci
on por Escalar definida como
sigue:
x1
on
Definici
on 2.1. Si x = ... y , entonces se define una funci
xn
x1
Observaci
on: Llamaremos vectores columna, o simplemente vectores,
a los elementos de n , y escalares a los elementos de . De aqu el
nombre de esta operaci
on.
37
FACULTAD DE CIENCIAS
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Algebra
Lineal 08-2
n = Mn,1 ()
Ponderaci
on
n ) 1 x = x
(1 , 2 ) (x n ) 1 (2 x) = (1 2 )x
(1 , 2 ) (x n ) (1 + 2 )x = 1 x + 2 x
( ) (x, y n ) (x + y) = x + y.
( ) (x n ) x = 0 = 0 x = 0.
1. (x
2.
3.
4.
5.
Ejemplos: Caso
= .
n = 2: El conjunto de vectores es
2 = 2, el plano x1 x2.
x=
x
x
1
2
Un vector x representar
a ambos, un punto del plano y una flecha
partiendo del origen que termina en dicho punto. La suma de elementos de 2 corresponde entonces a la suma usual de flechas en
el plano:
x+y
y
x
Proposici
on 2.1. Se tienen las siguientes propiedades:
Ejercicio
1/2 x
x
0 x=0
(-1) x
n = 3: La representacion de vectores en
3-dimensional:
3 se hace en el espacio
x
x= x
x
1
2
3
La ponderaci
on se representa de modo similar al caso
plano, y la suma de vectores
tambien corresponde a la diagonal del paralel
ogramo definido por los sumandos:
39
x+y
2x
x
y
v
y-x
2.2.
Rectas en
L2
Pasa por p
La misma
direcccion
Direccion
L1
No pasa por p
Definici
on 2.2 (Recta). Sean d n \ {0} un vector y p n un
punto dado. La recta L que pasa por p y va en la direcci
on de d es el
siguiente subconjunto de n :
L = Lp,d = {v
n | v = p + td, t }.
40
Observaci
on: A veces conviene (por ejemplo, para mayor claridad de
una figura) dibujar un vector como una flecha que parte de alg
un otro
punto distinto del origen. A modo de ejemplo consideremos x, y 2
y sea v = y x. Se ve f
acilmente que v ser
a una flecha partiendo en
el origen que tiene el mismo tama
no y apunta hacia el mismo lado que
una flecha que parta en x y termine en y. Dado esto, muchas veces
no nos molestamos en dibujar v partiendo del origen, sino que s
olo
dibujamos la flecha de x a y.
Recta
p
td
L
d
p +t d
posici
on de L
vector director de L
Ejercicio
Definici
on 2.3 (Vectores paralelos). Sean v, w n . El vector v se
dice paralelo a w (lo que se anota v w) ssi ( \ {0}) w = v.
paralelo
Ejercicio
Ejercicio 2.2:
1. Si A n y p n , definimos la traslaci
on de
A en el vector p por p + A = {p + x | x A}. Mostrar que las
rectas que pasan por p n son exactamente las traslaciones en
p de las rectas que pasan por el origen 0.
41
q
p
q-p
Observaci
on: La ecuaci
on
v = p + d,
2.3.
Planos en
42
ecuaci
on vectorial de la
recta
p
sd
d
Definici
on 2.4 (Plano). El plano que pasa por p y tiene vectores directores d1 y d2 es el subconjunto de n :
p,d1 ,d2 = {v
n | v = p + sd1 + td2 , s, t }
L
p+sd + td
Plano
ecuaci
on vectorial del
plano
Observaci
on:
1. v = p + sd1 + td2 , s, t
p,d1 ,d2 .
, la ecuaci
on vectorial queda
t
2
, s, t
,r
v = p + Er
= p+
d1
| d2
s
t
Ejercicio
Ejercicio 2.3: Se deja como ejercicio para el lector probar las siguientes propiedades:
1. q p,d1 ,d2 q,d1 ,d2 = p,d1 ,d2 . (Cualquier punto de un
plano sirve como su posici
on.)
43
d1
| d2
2.4.
Ecuaciones parametricas
y cartesianas de rectas y
planos
2.4.1.
Rectas
p1
d1
x1
xn
x1
x2
xn
=
=
..
.
p1 + td1
p2 + td2
pn + tdn
44
d1
| d2
2. Si p n , y d1 , d2 , d1 , d2
d1 no paralelo a d2 , entonces
ecuaciones
param
etricas
=
..
.
p1 + td1
xk = pk + tdk
xk+1 = pk+1
..
.
xn
= pn
Constantes.
d1
2
k
xk+1 = pk+1
..
xn
= pn
x1
xn
de L. Las ecuaciones se llaman ecuaciones Cartesianas de la recta L. Como
quedan las ecuaciones cuando k = 1?
Ejemplos:
n = 2: La ecuaci
on Cartesiana (notar que en este caso queda una
sola) de L = L p1 , d1 queda:
( p2 ) d2
x2 p2
x1 p1
=
, si d1 , d2 = 0,
d1
d2
x2 = p2 , si d2 = 0, y
x1 = p1 , si d1 = 0.
d,d =0
1
d =0
d =0
45
x1
ecuaciones Cartesianas
de L
Planos (caso n = 3)
Para simplificar el an
alisis veremos s
olo el caso n = 3 para las ecuaciones
Cartesianas
de
planos.
Sea
=
p,d1 ,d2 un plano en 3 , donde
p1
p = p2 3 es una posici
on de , y los vectores directores son los
p3
d11
d12
vectores no paralelos en 3 \ {0}, d1 = d21 y d2 = d22 . La
d31
d32
ecuaci
on vectorial de est
a dada por v = p + sd1 + td2 , s, t , y descomponiendola en sus 3 componentes resultan las ecuaciones parametricas
de :
x1 = p1 + sd11 + td12
x2 = p2 + sd21 + td22
, s, t .
x3 = p3 + sd31 + td32
Observaci
on: Si el plano hubiese estado en n , con n 3, habramos
obtenido un sistema de n 2 ecuaciones cartesianas para el plano.
Que pasa en el caso n = 2? Y que puede decir de n = 1?
Sabemos del captulo de Sistemas Lineales que, recprocamente, un sistema
de una ecuaci
on y tres inc
ognitas, como la ecuaci
on Cartesiana de , tiene
dos variables libres (digamos x2 y x3 ) y sus soluciones son de la forma:
1
1
x1
1
x2 = 0 + x2 1 + x3 0
, x2 , x3 ,
1
0
0
x3
1
1
con 1 y 0 claramente no paralelos (por que?), as el
0
1
conjunto de soluciones representa un plano en 3 . Tenemos entonces que
los planos en 3 son exactamente los conjuntos solucion de ecuaciones
cartesianas como la que escribimos arriba para .
Ejemplo:
1
El plano 3 que pasa por el punto p = 0 y con vectores direc0
1
1
tores d1 = 1 y d2 = 0 tiene por ecuaciones parametri0
1
46
2.4.2.
-1
0
1
x+x+x=1
1 2 3
1
0
0
2.5.
2.5.1.
1
-1
0
Geometra metrica
en
Definici
on 2.5 (Producto punto en
y1
x1
..
.
xn
, y=
..
.
). Sean x, y
n ,
con x =
yn
x y) como el real
x1 = 1 + s t
x2 =
s
cas
, s, t
de las que se puede facilmente
x3 =
t
eliminar s y t para obtener la ecuaci
on Cartesiana x1 + x2 + x3 = 1.
Por otra parte, si partimos de esta ecuaci
on, despejando x1 en terminos de x2 yx3 resulta
x1 = 1 x2 x3 , por lo que un punto cual
x1
quiera v = x2 3 que satisfaga esta ecuaci
on tendra la forma
x
1
1
1
1 x2 x3
x1
= 0 + x2 1 + x3 0 ,
x2 =
x2
0
0
1
x3
x3
tomando valores arbitrarios. El lector reconocer
a esto
con x2 , x3
como una ecuaci
on vectorial del mismo plano .
producto punto
x, y , x y
x, y =
i=1
xi yi = xt y = yt x
47
n n
<, > :
(x, y)
x, y
Proposici
on 2.2. Se tienen las siguientes propiedades:
1. (x, y
n )
x, y = y, x (Simetra).
2. (x, y, x, y n ) x + x, y = x, y + x, y x, y + y = x, y +
x, y (Biaditividad).
3. ( R) (x, y
4. (x
n )
n )
x, x 0
x, y = x, y = x, y (Bihomogeneidad).
x, x = 0 x = 0 (Positividad).
n
i=1
x2i , si
xn
facilmente que si n = 2
o n = 3,
x, x corresponde a la longitud de la
flecha representada por el vector x.
2
2
x1 + x2
+ x3
x1
+x2
x2
x3
x1
x1
n=2
x2
x1 + x2
n=3
Definici
on 2.6 (Norma Euclidiana). La norma Euclidiana (o, simplex1
..
.
xn
48
n como
x =
n
i=1
x2i =
Ejercicio
norma
n
x
x =
x, x
Proposici
on 2.3. Se tienen las siguientes propiedades:
n ) x 0 x = 0 x = 0
( ) (x n ) x = || x
(x, y n ) x + y x + y
(Desigualdad Triangular.)
1. (x
2.
3.
n) | x, y |
y .
Observaci
on: Notar que si y no es m
ultiplo de x, (t) > 0 para todo
t , luego b2 4ac < 0, de donde se desprende que | x, y | < x y .
De aqu que (a
un en el caso x = 0 y = 0) se verifica la igualdad en
CauchySchwartz ssi alguno de los dos vectores es m
ultiplo del otro.
De modo similar se tiene que x, y = x y ssi alguno de los dos
vectores es un m
ultiplo no negativo del otro.
49
Desigualdad
Triangular
Desigualdad de
CauchySchwartz
x+y
n. Tenemos:
x + y, x + y = x + 2 x, y + y
2
2
x + 2 | x, y | + y
C.Sch.
x 2+2 x y + y
( x + y )2
Observaci
on: De la observaci
on bajo la demostracion de la desigualdad de CauchySchwartz podemos concluir que en la desigualdad triangular vale la igualdad ssi alguno de los dos vectores es m
ultiplo no
negativo del otro.
Usaremos ahora la norma de
puntos de este conjunto.
Definici
on 2.7. Sean p, q dos puntos en n . La distancia entre p y q es
el n
umero real no negativo d(p, q) = q p .
Observaci
on:
1. Recordando que q p se puede visualizar como el vector (flecha)
que va de p hasta q, resulta que d(p, q) es la longitud de esta
flecha, es decir, como esperaramos, la longitud del trazo recto
entre p y q.
2. Podemos usar la distancia entre puntos para interpretar la desigualdad triangular. Sean p, q, r n tres puntos que forman
un tri
angulo en n . Entonces: q p = (q r) + (r p)
q r + r p , es decir d(p, q) d(r, q) + d(p, r). En el
tri
angulo pqr esto significa que la longitud del lado pq es inferior o igual a la suma de los otros dos lados ( rq + pr), lo que es
un viejo teorema de geometra plana.
q
p
q-r
r-p
q
q-p
p
50
q-p
distancia
d(p, q)
1:
Situacion
Consideremos el siguiente diagrama:
x-y
y
x+y
0
-y
xy = x+y
x y, x y = x + y, x + y
x 2 2 x, y + y 2 = x 2 + 2 x, y + y
4 x, y = 0
x, y = 0.
n :
Definici
on 2.8 (Perpendicularidad). Dos vectores x, y n se dicen
perpendiculares u ortogonales ssi x, y = 0. Lo anotaremos como x y.
perpendicularidad
xy
Ejercicio
A
b
a
C
51
y
0
Definici
on 2.9 (Angulo
entre vectores). Sean x, y n \ {0}. Definimos el a
ngulo entre x e y como aquel n
umero [0, ] tal que
cos =
x, y
.
x y
Observaci
on:
1. Notar que la desigualdad de CauchySchwartz asegura que 1
x,y
la definici
on anterior tiene sentido.
x y 1, as
2. Esta definici
on entrega de manera trivial la famosa formula
x, y = x y cos .
52
2:
Situacion
a
ngulo
2.6.1.
a Rectas en
Aplicacion
y Planos en
2 .
2 . Definamos el nuevo vector d =
.
3
Rectas en
x2
x1
2.
x1
x2
Es un ejercicio f
acil verificar que las siguientes propiedades se satisfacen:
Sea d =
1.
d = d .
2. d es ortogonal a d.
3. d
= d.
4. Si d = 0, entonces
5. Si d = 0, entonces
2) [v d ( ) v = d ].
(v 2 ) [v d (t ) v = td].
(v
Sea ahora p
que
2 y L = Lp,d =
vL
| v = p + td, t
. Tenemos
v = p + td, t
(t ) v p = td
v p d
v p, d = 0.
Si llamamos n = d (o cualquier otro vector paralelo a este), hemos concluido que v L v p, n = 0, es decir, L = v 2 | v p, n = 0 .
La ecuaci
on
v p, n = 0
se llama ecuaci
on normal de L. El vector n (es decir, d o cualquier otro
paralelo a el) se dice vector normal a L.
53
2.6.
ecuaci
on normal de L
vector normal a L
p
n
d
De la ecuaci
on normal de L sale f
acilmente una ecuaci
on Cartesiana. Sean
x1
p1
n1
. Desarrollando:
yv=
,p=
n=
x2
p2
n2
v p, n = 0 v, n p, n = 0 n1 x1 + n2 x2 + (n1 p1 n2 p2 ) = 0,
es decir
ax1 + bx2 + c = 0,
con a = n1 , b = n2 y c = p, n .
(2.1)
v-p
Ejercicio
2.6.2.
Planos en
3 .
as adelante se prueba
Sean d1 , d2 vectores no nulos y no paralelos en 3 . M
que existe un vector n = d1 d2 3 con las propiedades:
1. n = d1
2. n d1 n d2 .
3) [v d1 v d2 ( ) v = n].
4. (v 3 ) [v n (s, t ) v = sd1 + td2 ].
Con estas propiedades, sea = p,d ,d el plano en 3 que pasa por un
punto p 3 y de vectores directores d1 y d2 . Entonces el lector puede
demostrar facilmente que para cualquier v 3 , v v p, n = 0.
3. (v
p,d1 ,d2
vector normal a
v p, n = 0
se llamar
a ecuaci
on normal de .
on normal conduce diDe modo similar al caso de rectas en 2 , la ecuaci
rectamente a la ecuaci
on Cartesiana Ax1 + Bx2 + Cx3 + D = 0 para .
A
(Donde n = B y D = p, n .)
d2
d1
v
v-p
55
y la ecuaci
on
ecuaci
on normal de
FACULTAD DE CIENCIAS
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Algebra
Lineal 08-2
Ejercicios
1. Pruebe las siguientes propiedades de la ponderaci
on por escalar:
Proposici
on 2.1
) (x n) 1 (2 x) = (1 2 )x.
( ) (x, y n ) (x + y) = x + y.
( ) (x n ) x = 0 = 0 x = 0.
(a) (1 , 2
(b)
(c)
2. Pruebe que:
(a) (x, y, x, y n ) x + x, y = x, y + x, y
x, y + x, y (Biaditividad).
(b) ( R) (x, y
n )
) x, x 0
Proposici
on 2.2
(b)
x, y + y =
x, y = x, y = x, y (Bihomogeneidad).
x, x = 0 x = 0 (Positividad).
n ) x 0 x
( ) (x n ) x
(a) (x
traslaci
on
Ejercicio 2.3
(a) q p,d1 ,d2 q,d1 ,d2 = p,d1 ,d2 . (Cualquier punto de un plano
sirve como su posici
on.)
(c) (x
Gua
Semana 4
Ingeniera Matematica
= 0 x = 0.
= || x .
56
Proposici
on 2.3
2
1
2
,Q =
0
1
1
yR=
1
1
5
Verifique que L1 y L2 son paralelas y distintas y ecuentre la ecuacion vectorial (o parametrica) y Cartesiana del plano 2 que las
contiene.
(c) Encuentre la ecuaci
on vectorial de la recta L que se obtiene como
la interseccion de los plano 1 y 2 (L = 1 2 ).
(d) Encuentre el punto S de interseccion de las rectas L1 y L, y verifique que S satisface la ecuaci
on Cartesiana del plano 1 .
2
2
L2 : 4 + s 1 , s
6
5
se intersectan en un u
nico punto. Encuentrelo.
1
2
3
0
2
1
y d2 =
4
0
4
director d =
que pasa por el punto Q = 0 , donde a, b
0
Encuentre los valores de los par
ametros a, b tales que
L este contenida en (L ),
L y no tengan puntos en com
un (L = ). y
L contenga exactamente un solo punto.
1
0
0
57
Problemas
Ingeniera Matematica
FACULTAD DE CIENCIAS
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Algebra
Lineal 08-2
2.7.
1
0
0
i = 0 , j = 1 , k = 0 .
0
0
1
i = j = k =1
2. i j j k k i
3.
x =
x1
x2
x3
nica, es
x = x1 i + x2 j + x3 k, y esta escritura es u
decir, si x1 i + x2 j + x3 k = y1 i + y2 j + y3 k, entonces x1 = y1 x2 =
y2 x3 = y3 .
Observaci
on: Las propiedades 1. y 2. se abrevian diciendo que
i, j, k es un conjunto ortonormal en 3 .
xk
3
x
x= x
x
1
2
k
i
xi
xj
2
58
SEMANA 5: GEOMETRIA
bi, bj, k
b
b
d
i
x1
y1
j
x2
y2
k
x3
y3
x2
y2
3 :
xy =
x3
y3
x1
y1
x2 y3 x3 y2
x y = x3 y1 x1 y3
x1 y2 x2 y1
x3
y3
j+
x1
y1
x2
y2
k.
3.
(Obviamente, esta u
ltima f
ormula no es muy facil de recordar, y es preferible
usar la notaci
on de la definici
on dada primero, cuya operatoria est
a ah mismo definida, para memorizar y calcular x y.)
Hemos as definido una ley de composici
on interna en 3 :
3 3
(x, y)
.
x y
Proposici
on 2.4. Se tienen las siguientes propiedades
3 x y x x y y.
x, y 3 x y = y x ( es anticonmutativo).
x, y, z 3 x (y + z) = x y + x z (x+ y) z = x z+ y z
1. x, y
2.
3.
x x = 0.
=
=
=
=
(x1 i + x2 j + x3 k) (y1 i + y2 i + y3 k)
x1 y1 i i+x1 y2 i j+x1 y3 i k+x2 y1 j i+x2 y2 j j+x2 y3 j k
+x3 y1 k i+x3 y2 k j+x3 y3 k k
0 + x1 y2 k + x1 y3 (j) + x2 y1 (k) + 0 + x2 y3 i + x3 y1 j + x3 y2 (i) + 0
(x2 y3 x3 y2 )i + (x3 y1 x1 y3 )j + (x1 y2 x2 y1 )k.
59
Producto cruz
y1
x1
Definici
on 2.10 (Producto cruz). Si x = xx2 , y = yy2 3 ,
3
3
definimos el producto cruz o producto vectorial de x e y como el siguiente
vector de 3 :
xy
Ejercicio
(x y) z = x, z y y, z x
(2.2)
x (y z) + y (z x) + z (x y) = 0
(2.3)
3 \ {0}
xy = x
y |sen | ,
donde es el a
ngulo entre x e y.
n. Esto saldr
Demostracio
a de la siguiente identidad, la que pedimos al
lector que tenga la paciencia de verificar (es un c
alculo simple pero tedioso):
x, y
x, y
+ xy
= x
y cos(),
La siguiente propiedad muestra que el producto cruz representa a la direccion ortogonal a los vectores participantes.
Proposici
on 2.6. Sean x, y
Entonces
1. z x z y = (
2. z x y = (s, t
) z = x y.
) z = sx + ty.
60
La siguiente es una f
ormula para el producto cruz de 3 vectores. Su demostraci
on es un simple c
alculo que omitimos.
Identidad de Jacobi
Departamento de Ingeniera Matematica
- Universidad de Chile
Ejercicio
x
y
z
= 0 + sy + tz
= 0 + sx + tz
= 0 + sx + ty
) x + y + z = 0 = = = = 0.
(2.4)
(s, t,
) z = sx + ty + x y.
(2.5)
Observaci
on: La interpretaci
on geometrica del resultado anterior es:
Si x, y son vectores no nulos y no paralelos en 3 , x y define la lnea
recta (que pasa por 0) de vectores perpendiculares a x y a y. Por otra
parte los vectores perpendiculares a x y son exactamente aquellos del
plano que pasa por el origen y tiene a x e y como vectores directores.
61
y
0,x,y
L 0,x
Proposici
on 2.7.
1. Sean x, y 3 \ {0} vectores no paralelos. Entonces el a
rea del paralel
ogramo que definen es x y .
x y
z
H
h
0
x y
x y
Hay que indicar, sin embargo, que si alguien prefiriese dibujar los ejes como:
x1
x2
j
k
x3
63
Una u
ltima propiedad del producto cruz que es necesario indicar es la llamada regla de la mano derecha.
De x y conocemos que apunta en la lnea perpendicular al plano de x
e y, y que tiene por norma x y sen , con el angulo entre x e y.
Estos datos nos dejan a
un dos opciones posibles para x y: hacia un lado
del plano de x e y o hacia el otro. La verdad es que hacia cu
al de estos
dos lados se dibuja depende de c
omo dibujamos los vectores ortonormales
i, j, k (es decir, de c
omo dibujamos los tres ejes de coordenadas de 3 ).
Generalmente se conviene en dibujarlos de modo que si en el plano de i, j
(el plano x1 x2 ) hacemos los dedos de la mano derecha girar rotando de
i hacia j, k apunta en la misma direcci
on del pulgar.
regla de la mano
derecha
Definici
on 2.11 (Distancia puntoconjunto). Sea A n un subconjunto no vaco de n , y sea q n un punto. Definimos la distancia de q
al conjunto A como:
d(q, A) = nf {d(q, x) | x A} .
x
d(q,x)
d(q,y)
d(q,A)
z
d(q,z)
2.8.
d(q, A)
Ejercicio
Cabe notar que no tiene por que existir un punto r A tal que d(q, A) =
d(q, r), y si tal r llega a existir, no tiene por que ser u
nico (Construir
ejemplos de estas afirmaciones!).
Estudiemos a modo de ejemplo el caso en que A = L es una recta Lp,x en
z
q
64
w = | y, x | x = y
|cos()| = y cos(),
donde es el
angulo entre x e y (que lo supondremos en 0, 2 para no
preocuparnos del signo de cos(). Si este no es el caso, podemos usar x
en lugar de x como vector director de L.)
Este vector w es lo que llamaremos proyecci
on del vector y sobre la direccion definida por el vector x. Notar que si en vez de x usamos otro vector
director x de L, resulta exactamente el mismo vector w.
x
r
w
u
p
q
y = q-p
Sea u = y w = y y, x x. Nuestra intuici
on nos hara esperar que
u x. Verifiquemos que eso es correcto:
u, x = y y, x x, x = y, x y, x x, x = y, x y,
1
x
x
x = 0,
de donde u x.
Basta tomar ahora r = p + w =p + y, x x, es decir
r = p + q p, x x,
que tiene la propiedad deseada pues q r = q p w = y w = u x,
luego q r L.
Definici
on 2.12 (Proyecci
on ortogonal sobre una recta). Llamamos
proyecci
on ortogonal del punto q n sobre la recta L n , al punto
r L tal que q r L.
65
Proyecci
on ortogonal
sobre una recta
Ejercicio
Definici
on 2.13 (Proyecci
on ortogonal sobre un plano). Llamamos
proyecci
on ortogonal del punto q 3 sobre el plano 3 , al punto
r tal que q r .
v = q + tn,
(2.6)
= p, n t =
p q, n
n
66
p q, n
n
(2.8)
Sea L la recta que pasa por q y que es perpendicular a (es decir, que
tiene por vector director un vector normal a ). Veremos en un momento
que la interseccion entre y L consiste en un solo punto r. Nuestra intuici
on geometrica indica que d(q, ) = d(q, r), y la demostracion de este
hecho sigue exactamente las mismas lineas de lo que hicimos al estudiar la
proyeccion de un punto sobre una recta en n . (Se prueba la desigualdad
(z ) z = r q z > q r , etc.)
Proyecci
on ortogonal
sobre un plano
d(q, ) =
.
A2 + B 2 + C 2
A
B
C
ecuaci
on normal de ser
a v p, n = 0, donde v =
x1
x2
x3
es un punto que
= q p. Como d1 y
q + td1 d2 , o mejor d1 | d2 | d1 d2
t
d2 son no nulos y no paralelos, d1 , d2 y d1 d2 no son coplanares con el
origen, y entonces esta ecuaci
on tiene una solucion u
nica para , y t, lo
que entrega la proyeccion r = v.
Una tercera manera de proceder, tambien algo mas larga que la primera,
es utilizar la f
ormula r = p + d1 + d2 (que no dice mas que el hecho de
que la proyeccion r satisface la ecuaci
on vectorial de pues es un elemento
de este plano) y recordar que r q , es decir, r q d1 r q d2 .
d1 , p q + d1 + d2 = 0
, o,
Se obtiene el sistema de ecuaciones
d2 , p q + d1 + d2 = 0
en su forma matricial:
d1 , d1
d2 , d1
d1 , d2
d2 , d2
d1 , q p
d2 , q p
d1 , d1
d1 , d2
d2 , d1
d2 , d2
es invertible, luego el sistema anterior tiene una solucion u
nica para y ,
lo que entrega la proyeccion r.
Se puede probar que d1 no es paralelo a d2 ssi la matriz
67
como u
nica solucion de (2.6) y (2.7).
Hemos de paso encontrado una f
ormula (2.8) para la calcular la proyeccion
de q sobre en terminos de un punto p de y un vector normal n a
. Podemos tambien calcular la distancia de q a : d(q, ) = d(q, r) =
|
. De aqu sale una famosa formula para la distancia de
r q = | pq,n
n
a descrito por la ecuaci
on
un punto a un plano en 3 . Supongamos que est
q1
q
Cartesiana Ax1 + Bx2 + Cx3 + D = 0, y q = q2 . Entonces
f
ormula para d(q, )
1. Notemos que la f
ormula (2.8) era facil de adivinar, pues si n =
1
n
es
el
vector
unitario en la direcci
on de n, (2.8) se puede
n
escribir como r = q + p q, n n
q
p-q
<p-q,n>n
n
r
68
Observaci
on:
FACULTAD DE CIENCIAS
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Algebra
Lineal 08-2
Ejercicios
1. Demuestre las siguientes propiedades relacionadas con el produto cruz:
(a)
x1
x2
x3
x =
nica,
x = x1 i + x2 j + x3 k, y esta escritura es u
es decir, si x1 i + x2 j + x3 k = y1 i + y2 j + y3 k, entonces x1 = y1 x2 =
y2 x3 = y3 .
3 x y x x y y.
x, y, z 3 x(y+z) = xy+xz (x+y)z = xz+yz
(b) x, y
(c)
(e) x, y, z
x x = 0.
(x y) z = x, z y y, z x.
Ejercicio 2.6
Sean x, y
a)
b)
Para ello:
x
y
z
= 0 + sy + tz
= 0 + sx + tz
= 0 + sx + ty
) x + y + z = 0 = = = = 0.
(2.9)
es invertible.
69
Gua
Semana 5
Ingeniera Matematica
| z .
(s, t,
) z = sx + ty + x y.
(2.10)
Problemas
P1. Se definen las rectas
1
1
L1 : 2 + t 2 , t
1
2
3
0
L2 : 1 + s 1 , s
1
2
(b) En
0
1
L1 : 5 + t 3 , t
1
2
1
2
L2 : 2 + s 4 , s
3
1
70
(f ) Use la conclusi
on de la parte 2c para probar que
Ejercicio 2.8
on cartesiana x + z + y = 1 y sea P
(b) Sea el plano de 3 de ecuaci
etrico de P , con
el origen en 3 . Calcular el punto Q 3 sim
respecto a .
71
Ingeniera Matematica
3.
Espacios vectoriales
3.1.
Definicion
+ es ley de composici
on interna
+ es asociativa y conmutativa.
Existe un neutro, 0 V , tal que: x V, x + 0 = 0 + x = x.
x V , existe un inverso aditivo, x V , tal que
x + (x) = (x) + x = 0.
Sea
Definici
on 3.1 (Espacio vectorial). Dado un grupo abeliano (V, +) y
un cuerpo ( , +, ), con una ley de composici
on externa. Diremos que V es
un espacio vectorial sobre
si y s
olo si la ley de composici
on externa
satisface , K, x, y V :
(EV1) ( + )x = x + x.
(EV2) (x + y) = x + y.
(EV3) (x) = ()x.
.
En tal caso, los elementos de V se denominan vectores y los de , escalares.(EV4) 1 x = x, donde 1 es el neutro multiplicativo del cuerpo
FACULTAD DE CIENCIAS
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Algebra
Lineal 08-2
ley de composici
on
externa
Espacio vectorial
vectores
escalares
Observaci
on: Se
nalemos que en la definici
on anterior participan dos
estructuras algebraicas diferentes; un grupo Abeliano, (V, +), y un cuerolo si
po, . En tal sentido, dos espacios vectoriales son iguales si y s
ambos est
an definidos sobre los mismos grupos y cuerpos y, ademas
con una ley de composici
on externa identica.
72
1. Es directo de la definici
on anterior que
sobre .
n es un espacio vectorial
(, A) A = (aij )
Es f
acil verificar que se cumplen las propiedades (EV1) a (EV4).
Por ejemplo:
b11 . . . b1n
a11 . . . a1n
..
+ ...
(A + B) =
.
am1 . . . amn
bm1 . . . bmn
Ejemplos:
(a + b ) . . . (a + b )
a11 + b11 . . . a1n + b1n
11
11
1n
1n
..
..
..
..
=
=
.
.
.
.
am1 + bm1 . . . amn + bmn
(am1 + bm1 ) . . . (amn + bmn )
a11 . . . a1n
b11 . . . b1n
..
..
..
+
= A + B.
=
.
.
.
am1 . . . amn
bm1 . . . bmn
o bien, si p(x) =
(p)(x) = p(x)
n
ai xi , q(x) =
bi xi
i=0
i=0
(ai + bi )xi ,
(p + q)(x) =
(ai )xi .
(p)(x) =
i=0
i=0
73
(, v) v
donde es la multiplicaci
on en el cuerpo . Como es cuerpo,
se verifican las propiedades . Conclumos entonces que todo cuerpo,
, es espacio vectorial sobre si mismo. Dos ejemplos importantes
son
y .
(, a + bi) (a + bi) = a + bi
Ejercicio
. Probar que:
2. 0 = 0 = 0,
3.
3.2.
Subespacios vectoriales
Definici
on 3.2 (Subespacio vectorial). Sea un espacio vectorial V sobre un cuerpo . Diremos que U = , es un subespacio vectorial (s.e.v) de
V si y s
olo si:
1. u, v U, u + v U
2.
, u U,
u U.
, u1, u2 U,
74
1 u1 + 2 u2 U.
. U = ,
subespacio vectorial
(s.e.v.)
Observaci
on: Si U es un s.e.v. de V entonces 0 U (basta tomar
= 0). Luego el subespacio vectorial mas peque
no de V es {0}. El mas
grande es, obviamente, V .
Ejemplos:
2. En
1 (x1 , y1 ) + 2 (x2 , y2 ) = (1 x1 + 2 x2 , 1 y1 + 2 y2 )
Ademas, a(1 x1 +2 x2 )+b(1 y1 +2 y2 ) = 1 (ax1 +by1 )+2 (ax2 +
by2 ) = 1 0 + 2 0 = 0. Es decir, 1 (x1 , y1 ) + 2 (x2 , y2 ) U .
El subespacio vectorial U est
a compuesto de todos los vectores de
2
contenidos en la recta ax+by = 0. Es claro que, dado un vector
(x, y) de dicha recta, (x, y), est
a en la misma recta as como la
suma de dos vectores sobre ella. De esto conclumos que cualquiera
recta que pasa por el origen es un s.e.v. de 2 .
, se
U W es tambien s.e.v de V.
En efecto, si x, y U W, 1 , 2 K, entonces como U, W son s.e.v. de
V , 1 x + 2 y U y 1 x + 2 y W .
Sin embargo, la uni
on no es necesariamente un s.e.v de V .
Ejemplo:
75
U W es s.e.v.
3.3.
Combinaciones lineales
i vi = 1 v1 + ... + n vn
i=1
n
i vi V .
{v1 , ..., vn } = {v V /v =
i=1
i vi , i
}.
Proposici
on 3.2. Sean V e.v. y v1 , ..., vn V . Entonces {v1 , . . . , vn } es
un subespacio vectorial de V . Adem
as es el s.e.v. m
as peque
no que contiene los vectores v1 , . . . , vn . Es decir, si otro s.e.v U los contiene, entonces
{v1 , . . . , vn } U .
Por ende, {v1 , . . . , vn } es llamado subespacio vectorial generado por
{vi }ni=1 .
n. Para probar que es un subespacio vectorial de V , sean
Demostracio
n
i vi , v =
i=1
i=1
i vi ,
u + v =
i=1
Tomemos v = (1, 1) 2 , el subespacio {v} = {(1, 1)/ } corresponde a la recta que pasa por el orgen con direcci
on dada por el vector
(1,1). Sean v1 = (1, 0), v2 = (0, 1),
{v1 , v2 } = {(0, 1) + (1, 0) | ,
En efecto, dado un vector arbitrario (a, b)
como
(a, b) = a(1, 0) + b(0, 1).
76
} = 2.
Esta constataci
on nos llevar
a, mas adelante, a definir una operaci
on entre espacios vectoriales (la suma) tal que podamos hablar de uniones
compatibles con la estructura de espacio vectorial.
combinaci
on lineal
{v1 , ..., vn }
Definici
on 3.3. Sea {vi }ni=1 V , diremos que estos vectores son linealmente dependientes (.d.) si y solo si: existen escalares {1 , ..., n }, no
n
i vi =
i=1
i=1
, {0} es linealmente
i vi = 0.
i=1
on
Luego v V, {v} {vi }pi=1 es .d., ya que basta tomar la combinaci
lineal:
n
i vi = 0.
0v +
i=1
3.4.
linealmente
dependientes (.d.)
linealmente
independiente (.i.)
1 1
1 0
0 1
1 0
0
0
1
1
0
1
0
1 2 0
=
1
3
0
0
4
0
1
1
0
1
1
0
1
0
0
0
1
1
0
1
1
0
0
1 1 0
0
0 1 0
0
0 1 1
0
0 1 1
1 1 0 0
0 1 0 1
0 0 1 2
0 0 0 3
0
1
1
0
0
1 1 0 0
0
0 1 0 1
0
0 0 1 2
0
0 0 1 1
0
0
0
0
0
0
1 = 2 = 3 = 4 = 0.
0
0
0
v11
v12
v1m
.
v21
v22
v2m
..
1 .. + 2 .. + ... + m .. = .
..
.
.
.
vn1
vn2
vnm
0
v11
v21
...
vn1
v12
v22
..
.
vn2
v1m
v2m
..
.
vnm
78
0
1
.
2
..
=
..
.
. ..
m
0
m.
3. Los vectores en
son .i. En efecto:
Teorema 3.1. En
tes.
Observaci
on: Conviene se
nalar que en n siempre es posible determinar n vectores independientes. Basta tomar el conjunto {ei }ni=1 , ei =
(0, ..., 1, ..., 0), donde la componente no nula es la i-esima.
79
FACULTAD DE CIENCIAS
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Algebra
Lineal 08-2
Ejercicios
. Probar que:
0v = v0 = 0, v V, 0 , elemento neutro aditivo de .
0 = 0 = 0, , 0 V , elemento neutro aditivo de V .
v = 0 = 0 v = 0, , v V .
2. Determinar cu
ales de las siguientes estructuras son espacios vectoriales:
(a)
(b)
(c)
(d)
(e)
(a, b) =
(a, b).
2
con la suma usual y la siguiente ponderaci
on: , (a, b) =
(a, 0).
+
con la suma: x y = x y y la ponderaci
on: x = x .
El conjunto de las funciones de [a, b] en acotadas, con la suma y
poderaci
on (por escalares en ) usuales.
El conjunto de las funciones f : tales que f (1) = f (1), con
la suma y ponderaci
on usuales.
4. Indique cu
ales de los siguientes conjuntos son s.e.v. de P2 ( ) (considerado como en la parte anterior) y cu
ales no lo son. Pruebe su respuesta.
(a)
(b)
(c)
(d)
(e)
U
U
U
U
U
= {p(x) = a(x2 + x + 1) | a }.
= {p(x) = ax2 + bx + b) | a, b }.
= {p(x) = x2 + ax + b | a, b }.
= {p(x) = ax2 + b | a, b }.
= {p(x) = ax2 + b2 x + x + c | a, b, c
\ {0}}.
3
1
0
2
4
6
5
2
7
5
5
2
3.
(b) x + 1, x 1, x + x + 1 P2 ( ).
(c) {( 10 00 ) , ( 10 10 ) , ( 11 10 ) , ( 11 11 )} M22 ( )
6. (a) Sean a, b, c tres vectores de un espacio vectorial V . Determine si el
conjunto {a + b, b + c, c + a} es un conjunto l.i.
(b) Sea {u1 , u2 , . . . , uk } un subconjunto l.i. de un espacio vectorial V .
Pruebe que escalar, el conjunto:
{u1 + u2 , u3 , . . . , uk } es l.i.
80
Gua
Semana 6
Ingeniera Matematica
Ejercicio 3.1
p1 (x) = 1 + 6x2 ,
p2 (x) = 4x,
p3 (x) = 1 + 3 + 5x2 .
: T (x) = T (x).
(x, y) + (u, v) = (x + u, y + v)
, (x, y) E F,
este resulta ser un e.v. sobre .
E = {f | f :
81
es funcion}.
Problemas
n , f (n) + a1 f (n 1) + a2 f (n 2) = 0.
Pruebe que F0 es un s.e.v. de E.
82
(a) Sean a1 , a2
con a2 = 0 y F0 el conjunto de las funciones
f E que verifican la condicion:
Ingeniera Matematica
3.5.
{v1 , ..., vn } V
generan V
{v1 , ..., vn } = V
o de manera equivalente:
v V, {i }ni=1
tal que
i vi .
v=
i=1
Ejemplo:
Tomemos el conjunto {(1, 0), (0, 1), (1, 1)}. Este genera 2 . En efecto,
(x, y) = x(1, 0) + y(0, 1) + 0(1, 1). Es decir {(1, 0), (0, 1), (1, 1)} = 2 .
Pero, en este caso, la forma de escribir (x, y) no es u
nica:
Definici
on 3.4 (Base). Dado un espacio vectorial V sobre , diremos
que el conjunto de vectores {vi }ni=1 es una base de V si y s
olo s:
(1) {vi }ni=1 es un conjunto l.i.
(2) V = {v1 , ..., vn } .
Ejemplos:
n , x =
xi ei . Esta base de
i=1
83
FACULTAD DE CIENCIAS
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Algebra
Lineal 08-2
base
1 1 0 b1
1 1
1 0 1 b2 0 1
0 1 1 b3
0 1
0
b1
1 1 0
b1
1 b2 b1 0 1 1
b2 b1 ,
1
b3
0 0 2 b3 + b2 b1
(b1 , b2 , b3 ) =
Luego
3 =
b1 +b2 b3
.
2
Es decir,
b1 + b3 b2
b2 + b3 b1
b1 + b2 b3
(1, 1, 0)+
(1, 0, 1)+
(0, 1, 1).
2
2
2
B . Para determinar que el conjunto B es l.i. (y por
ai xi .
q(x) =
i=0
i xi = 0.
i=0
d
i xi ) = 1 + 22 x + ... + nn xn1 = 0
(
dx i=0
84
3
2. Estudiemos, en
, si el conjunto de vectores, B =
{(1, 1, 0), (1, 0, 1), (0, 1, 1)}, es base. Veamos primero si B es generador. Sea b = (b1 , b2 , b3 ) 3 y determinemos si existen escalares, {1 , 2 , 3 }, tales que: (b1 , b2 , b3 ) = 1 (1, 1, 0) + 2 (1, 0, 1) +
3 (0, 1, 1). Esto es equivalente a estudiar el sistema de 3 3:
1 1 0
1
b1
1 0 1 2 = b2 .
0 1 1
3
b3
..
.
dn
i xi ) = n!n = 0
(
dxn i=0
n = 0 n1 ... 1 = 0 0 = 0
4. Existen espacios vectoriales en los cuales ning
un conjunto finito de
vectores es base, por ejemplo, sea S el conjunto de las sucesiones,
es decir:
S = {(un )/un , n }.
(1)
85
d2
i xi ) = 22 + ... + n(n 1)n xn2 = 0
(
dx2 i=0
Proposici
on 3.3. Dado un espacio vectorial V , B = {vi }ni=1 V es una
base si y s
olo s v V, v se escribe de manera u
nica como combinaci
on
lineal de los vectores del conjunto B.
i vi .
i vi , v =
v=
i=1
i=1
n
Se tiene entonces
i=1
i vi = 0
i=1
Observaci
on: Por convenci
on el conjunto vaco es la base del espacio
vectorial {0}. Esto pues por definici
on diremos que es l.i. y ademas
el subespacio mas peque
no que lo contiene es {0}.
Otra propiedad importante es la siguiente:
Teorema 3.2. Si X = {v1 , . . . , vn } V es un conjunto generador, entonces es posible extraer un subconjunto B = {vi1 , . . . , vis } que es base de
V.
j = i1 , vj = j vi1 . Como V = X v V, v =
86
k vk =
k=1
Una caracterizaci
on de base, que nos ser
au
til mas adelante, es la siguiente:
/ B1 . Hacemos B2 =
Si no es cierto: Entonces vi2 X \ B1 , vi2
B1 {vi2 } y repetimos el procedimiento anterior.
vik
/ Bk1 .
j vij = 0.
j=1
Si k = 0 entonces vik = 1k
k1
j=1
dicci
on. Luego k = 0 y, como Bk1 es linealmente independiente,
j = 0 j = 1...k 1.
Finalmente, como el conjunto de vectores X es finito, en un n
umero finito de pasos determinamos un conjunto linealmente independiente Bs =
aloga a lo ya hecho se
{vi1 , ..., vis }, tal que X \ Bs Bs y de manera an
prueba que es generador y por lo tanto base de V .
En la demostracion anterior, elegimos el pr
oximo vector, vik , para entrar al conjunto Bk1 , exigiendo solamente: vik
/ Bk1 . Obviamente
pueden existir varios vectores con tal propiedad. Esto permite afirmar que,
en general, a partir de B podemos determinar varias bases (a menos claro
que B mismo sea una base).
Ejemplo:
Si
B
=
{(1, 0), (0, 1), (1, 1)},
los
subconjuntos
{(1, 0), (0, 1)}, {(1, 0), (1, 1)} y {(0, 1), (1, 1)} son todos bases de
2
.
1
(3.1)
k=i1
i [1i v1 + ... + ni vn ] = 0
i=1
m
ji vj = 0
i
i=1
n
j=1
m
i ji ) = 0
vj (
j=1
i=1
ji i = 0
i=1
1jn
1
11 12 1m
21 22 2m
2
A=
, =
..
..
...
.. .
.
.
.
n1 n2 nm
m
Del captulo anterior sabemos que para m > n el sistema anterior tiene
mas de una solucion (infinitas), luego al menos una no nula. Es decir existen
escalares 1 , ..., m , no todos nulos, solucion de la ecuaci
on 3.1. De donde
conclumos que X es l.d.
De este resultado se desprende directamente el corolario siguiente que es
suma importancia:
Corolario 3.1. Si {vi }ni=1 , y {ui }m
i=1 son bases de V , entonces n = m.
n. En efecto, si n > m, de la propiedad anterior conclumos
Demostracio
on.
{vi }ni=1 es l.d., lo cual es una contradicci
As, si existe una base finita, de cardinal n, entonces cualquier otra base
contiene exactamente n vectores.
Esto nos lleva a definir la dimensi
on de un espacio vectorial.
Definici
on 3.5 (Dimensi
on). Diremos que un espacio vectorial V sobre
n = n.
88
dimensi
on
dimensi
on infinita
3. dim P A = 2.
4. dim Mmn = m n.
Verifiquemos esta u
ltima. Tomemos el conjunto de matrices de 0 y 1:
] = (e ), e = 1 (, ) = (i, j) {1, ..., m}, {1, ..., n}}.
B = {E[,
ij
ij
Este conjunto corresponde a la base can
onica del espacio de las matrices.
Por ejemplo, para m = 2 y n = 3, el conjunto B est
a formado por las
matrices:
1 0
0 0
0
0
0
0
1 0
0 0
0
0
0 1
0 0
0 0
1 0
0
0
0 0
1 0
11 ...1n
0
.
.
=
E[, ] =
.
=1 =1
0
m1 ...mn
... 0
..
.
0
0
0 0
0 0
= 0
... 0
, .
a E[, ].
A=
=1 =1
Luego, el conjunto {E[, ]}, es base. Es decir dim Mmn (K) = mn.
Algunas propiedades de los espacios de dimensi
on finita son las siguientes:
Teorema 3.4.
1. Sea dim V = n. Si {vi }ni=1 es l.i. entonces {vi }ni=1 es base.
2. Sea U un s.e.v de V , luego dim U dim V m
as a
un se tiene que
dim U = dim V U = V .
n.
Demostracio
1. Basta probar que V = {v1 , ..., vn } . Supongamos u
/ {v1 , .., vn } ,
luego
B = {u, v1 , ..., vn } es l.i. y |B| = n + 1 > n. Lo que es una contradicci
on, pues todo conjunto de cardinal mayor que la dimensi
on debe
ser l.d.
89
0
1
2. dim S = .
Para probar la u
ltima parte supongamos U = V . Sea {ui }ni=1 una
base de U . Como U = V y {u1 , ..., un } = U,
v V \ U B = {v} {ui }ni=1 es l.i. en V y |B| > dim V , que al
igual que antes da una contradicci
on.
Un resultado importante es la posibilidad de que, en un espacio vectorial
V,
dim V = n, un conjunto de vectores linealmente independiente, pueda
completarse hasta formar una base de V .
i vi = 0
i=1
1
Si r+1 = 0 entonces, se concluye que vr+1 = r+1
r
i=1
i vi {v1 , ..., vr }
lo cu
al es una contradicci
on ya que vr+1
/ U . Si r+1 = 0 i = 0 i =
1, ..., r pues los vectores de X son l.i. Si {v1 , ..., vr+1 } = V hemos terminado, sino repetimos el procedimiento.
Ejemplo:
Consideremos, en
4 el conjunto
X = {(1, 1, 0, 0), (0, 1, 0, 0)}.
/
{(1, 1, 0, 0), (0, 1, 0, 0)} . Luego {(1, 1, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0)} es
l.i.
An
alogamente, el vector (0, 0, 0, 1)
/ {(1, 1, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0)}
luego el conjunto B = {(1, 1, 0, 0)(0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} es l.i.
y como contiene tantos vectores como dim 4 = 4, es base.
90
V
es
l.i.,
de
cardinal
mayor
que
la
dimensi
on,
i=1
lo cual contradice el hecho que el maximo conjunto de vectores l.i. es
de cardinalidad n.
Completaci
on de base
2, los subespacios U =
} = 2
U + W = {(x, y, 0) | x, y
} = 3.
luego
3.6.
suma de subespacios
vectoriales
U +W
suma directa
U W = Z
v = u + w,
u U, w W.
Sean, por ejemplo, los subespacios de 2 , V =< {(1, 0)} >, W =<
{(0, 1)} >
2
= U W, pues (x, y) = x(1, 0) + y(0, 1) es u
nica.
Una caracterizaci
on u
til de la suma directa es la siguiente:
Proposici
on 3.4. Dado V e.v. y U, W, Z s.e.v. de V , entonces
Z = U W (Z = U + W ) (U W = {0})
n. En efecto:
Demostracio
) Como Z es suma directa de U y W , v Z, ! u U, w W tal que
v = u + w v U + W , luego Z = U + W .
i wi = 0
i ui +
i=1
i=1
92
manera u
nica como
dim U W
i=1
i ui U,
i=1
u
nica en U + W como 0 = 0 + 0, obtenemos:
m
i wi = 0
i ui =
i=1
i=1
i ui ,
i wi , de donde,
w=
i=1
k
i wi , luego B = V .
i wi +
v=
i=1
i=1
i ui +
v=
i=1
i ui
i=k+1
Como u =
i=1
i ui U, w =
i=k+1
se escribe de manera u
nica como v = u + w.
Ejemplos:
Tomemos V =
3 y los subespacios
Como
sin embargo 3 = U + W =
{(1, 0, 0), (0, 1, 0), (0, 0, 1)} .
dim U + W
Ejercicio
94
FACULTAD DE CIENCIAS
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Algebra
Lineal 08-2
Ejercicios
1. Averigue si el conjunto de polinomios {1 + x3 , 1 x3 , x x3 , x + x3 }
constituye una base de F = {p P( ) | gr(p) < 4}. Donde P( ) el es
espacio de los polinomios a coeficientes reales.
1
1
, , 3 .
1 1 2
3
1
1
(a) Determine una base de W y su dimensi
on.
4 .
tales que
(1 w1 + ... + p wp ) = 1 z1 + ... + k zk .
(c) Demuestre que 1 = = p = 1 = = k = 0.
(d) Reemplace lo anterior en 3.2 y use que BU es base para probar que
1 = = k = 1 = = l = 0.
(e) Concluya que B es l.i. y por ende base de V .
(f ) Concluya el resultado buscado.
95
Gua
Semana 7
Ingeniera Matematica
Teorema 3.7
a
W = {M M33 ( ) | M = b
0
definidos por:
b 0
e c a+e+i = 0, a, b, c, e, i
c i
0 r s
U = {M M33 ( ) | M = r 0 0 , r, s }.
s 0 0
}.
(a)
(b)
(c)
(d)
V = {p(x) =
i=0
n, se define:
A(V ) = {Ax | x V }.
96
Problemas
Ingeniera Matematica
4.
Transformaciones lineales
4.1.
Introduccion
T :
n m
v Av
donde A Mmn ( )
Este tipo de transformaciones tiene dos propiedades fundamentales:
u, v
1. T (u + v) = T (u) + T (v)
2. T (v) = T (v)
, v n
4.2.
Tranformaciones lineales
Definici
on 4.1 (Tansformaci
on lineal). Sean U, V dos espacios vectoriales sobre el mismo cuerpo . Diremos que una funci
on T : U V es
una transformaci
on (o funci
on) lineal si y s
olo si satisface:
2. u U, K, T (u) = T (u)
(4.1)
Se
nalemos que la propiedad 4.1 establece un homomorfismo entre los grupos
(U, +) y (V, +).
97
FACULTAD DE CIENCIAS
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Algebra
Lineal 08-2
Transformaci
on lineal
n m, X AX, es lineal.
El caso particular, f : , x ax, a es lineal. En efecto,
1. Cualquier funci
on T :
2.
4. f : P3 ( ) 4 , p(x) = a0 + a1 x + a2 x2 + a3 x3 f (p) =
(a0 , a1 , a2 , a3 ), es lineal. En efecto; si q(x) = b0 + b1 x + b2 x2 + b3 x3 ,
obtenemos
f (p + q) = f ((a0 + b0 ) + (a1 + b1 )x + (a2 + b2 )x2 + (a3 + b3 )x3 ) =
= (a0 + b0 , a1 + b1 , a2 + b2 , a3 + b3 ) = (a0 , a1 , a2 , a3 ) + (b0 , b1 , b2 , b3 )
= f (p) + f (q)
f (p) = f (a0 + a1 x + a2 x2 + a3 x3 ) = (a0 , a1 , a2 , a3 )
= (a0 , a1 , a2 , a3 ) = f (p).
) F(, )
T : Fd ( ,
f T (f )
df
(x) es la funci
on derivada. Es directo, de las
donde T (f )(x) = dx
propiedades de derivaci
on que T es lineal.
S ea V e.v sobre
, V
= V1 V2 y sean:
P1 : V V1 ,
v = v1 + v2 P1 (v) = v1
P2 : V V2
v = v1 + v2 P2 (v) = v2
Ambas funciones (porque son funciones?) son lineales. Verifiquemos para P1 : sean , v = v1 + v2 , u = u1 + u2 , vi , ui Vi , i =
1, 2.
P1 (v + u) = P1 (v1 + u1 ) + (v2 + u2 )) =
= v1 + u1 = P1 (v) + P1 (u)
La funci
on, Pi , se denomina la proyeccion de V sobre Vi .
98
Ejemplos:
Proposici
on 4.1. Sea T : U V una transformaci
on lineal. Se tiene
entonces:
1. T (0) = 0 V .
2. T (u) = T (u).
3. T es lineal si y s
olo si 1 , 2 K, u1 , u2 U
T (1 u1 + 2 u2 ) = 1 T (u1 ) + 2 T (u2 ).
n. Demostremos estas propiedades:
Demostracio
1. T (u) = T (u + 0) = T (u) + T (0)
como V es espacio vectorial (V, +) es un grupo Abeliano, luego podemos cancelar T (u); de donde 0 = T (0).
2. T (u) = T (1u) = 1T (u) = T (u).
3. ) T (1 u1 + 2 u2 ) = T (1 u1 ) + T (2 u2 ) = 1 T (u1 ) + 2 T (u2 ).
) Tomando 1 = 2 = 1 se verifica la propiedad (1) de linealidad.
Considerando 2 = 0, se obtiene la propiedad (2).
Observaci
on: Note que las demostraciones de las propiedades 1 y 2
podran haber sido omitidas, ya que dichas propiedades son consecuencias de que T sea morfismo entre los grupos (U, +) y (V, +).
n
i=1
i xi U y la transformaci
on
i T (xi )
i xi ) =
T(
i=1
i=1
de manera u
nica, como u =
i=1
i T (ui )
i ui ) =
T (u) = T (
(4.2)
i=1
i=1
De este c
alculo se desprende que: basta definir la transformaci
on T sobre
una base de U , es decir calcular s
olo {T (vi )}ni=1 . Para determinar el efecto
de T sobre un vector u V arbitrario, basta aplicar la ecuaci
on 4.2.
4.3.
Ejercicio
99
u T (u)
f :U n
u f (u) = = (1 , ..., n )
que a cada vector u le asocia las coordenadas con respecto a una base fija
= {ui }ni=1 .
Es claro que f es funci
on (representacion u
nica de un vector con respecto
a una base). Ademas, es lineal. M
as a
un f es biyectiva (verifquelo). Esto
nos lleva a la siguiente definici
on.
Definici
on 4.2 (Isomorfismo). Sea T : U V una transformaci
on
lineal, diremos que es un isomorfsmo si T es biyectiva.
Adem
as diremos que U y V son isomorfos si existe un isomorfsmo entre
U y V , en cuyo caso lo denotaremos como U
= V.
0
.
..
1 = ei
f (ui ) = f (0u1 + + 1ui + + 0un ) =
.
..
4.4.
{ui }ni=1
es la base canonica de
n .
de funciones lineales
Composicion
Ejercicio 4.1: Pruebe que entonces dada una base = {ui }ni=1 de U
y n vectores X = {vi }ni=1 no necesariamente .i. de V existe una u
nica
transformaci
on lineal T
T :U V
Ejercicio
Isomorfismo
4.5.
lineal
Subespacios Asociados a una transformacion
Definici
on 4.3 (N
ucleo). Sea una transformaci
on lineal T : U V .
Definimos el n
ucleo de T como el conjunto:
KerT = {x U/T (x) = 0}.
Claramente, KerT = ya que como T (0) = 0 tenemos que siempre 0
KerT . M
as a
un, KerT es un s.e.v. de U . En efecto, sean x, y KerT, ,
;
T (x + y) = T (x) + T (y) = 0 + 0 = 0
luego, x + y KerT .
Otro conjunto importante en el estudio de transformaciones lineales es la
imagen:
Definici
on 4.4 (Imagen). Sea una transformaci
on lineal T : U V .
Definimos la imagen de T como el conjunto:
ImT = T (U ) = {v V /u U : v = f (u)}
ImT es un s.e.v de V . En efecto, sean v1 , v2 ImT , existen entonces
u1 , u2 U tales que vi = T (ui ), i = 1, 2. Dados , se tiene:
101
es un isomorfsmo. En efecto s
olo resta probar que T 1 es lineal, pues es
claro que es biyectiva (por que?). Tomemos v1 , v2 V, , . Sean
T 1 (v1 ) = u1 , T 1 (v2 ) = u2 por lo tanto
N
ucleo
Imagen
Rango y nulidad
4 3
x1
x2
x3
x4
x1 +x2
x2 x3
x1 +x3
o en terminos matriciales:
x1
0 0
x
1 0 2
x3
1 0
x4
1 1
T (x) = 0 1
1 0
1 1
0 1
1 0
x1
0 0
0
x
1 0 2 = 0
x3
1 0
0
x4
Escalonando:
1 1
0 0
1
1
0 0
1 1
0 1 1 0 0
1 1 0 0 1
1 0
1 0
0 1
1 0
0 0
De donde:
0 0
1 0 (4.3)
0 0
x1 = x2
x1 + x2 = 0
x2 x3 = 0
x2 = x3
x3 = x3
x4 = x4
1
0
x1
1
0
x2
= x3
+ x4
1
x3
0
0
1
x4
102
Ejemplo:
0
0
0
1
es un s.e.v de
y1
y2
y3
4 de dimension dos.
ImT , es decir:
x1
1
0 0
x
1 1 0 2
x3
0
1 0
x4
1
1
0
= x1 0 + x2 1 + x3 1
1
0
1
y1
1
y2 = 0
y3
1
0 , 1 , 1
.
Luego ImT =
1
0
1
Pero del resultado de escalonar la matriz que tiene como columnas a
0
0
1
1
los vectores 0 , 1 , 1 y 0 , en 4.3 podemos extraer una ba1
0 , 1 , 1
0 , 1 , 1 , 0
, tomando
=
se de
0
1
0
1
0
1
1
aquellos vectores asociados a columnas con pivotes de la matriz
escalonada (Importante: ver gua de ejercicios y problemas). Es decir,
1
0
1
1
1
0
1
1
1
0
Luego, KerT =
Ejercicio
1
0
1
1
1
0
es un s.e.v. de
3 de
3 .
103
n
i=1
n
i=1
i T (ui ) = 0 T (
i ui ) = 0
i=1
n
i ui KerT = {0}
i ui = 0
i=1
i=0
an
104
n+1
FACULTAD DE CIENCIAS
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Algebra
Lineal 08-2
Ejercicios
1. El objetivo de este ejercicio es formalizar la tecnica mencionada en la
tutora para extraer, de un conjunto generador de un cierto subespacio
vectorial, una base. Esto en el contexto de n .
v11 v12
0
0 0 v2j2
..
.
0
0
0
A =
vkjk
vk(jk +1)
vkjk
v(k+1)jk+1
y una matriz
Eu
105
.
0
0
..
.
vljl
0
vlm
..
.
(d) Use el resultado anterior para probar que, las columnas de A que
no est
an asociadas a pivotes, entre la columna del pivote k y la del
k + 1 (es decir vjk +1 , . . . , vjk+1 1 ), son combinaci
on lineal de los
vectores v1 , vj2 , . . . , vjk .
(e) Concluya que {v1 , vj2 , . . . , vjl } es base de U .
..
Gua
Semana 8
Ingeniera Matematica
n .
1
0
1
1
1
2
Problemas
(c) Si id es la transformaci
on identidad del espacio vectorial P3 ( )
pruebe que T 2 id, (T 2 id)2 , (T 2 id)3 y T id son transformaciones lineales.
Indicaci
on: Recuerde que dada una funci
on f , f k = f f f .
k veces
x
y
z
w
x
2x + 2y + z + w
y+w
.
x+y+z
0
0
3 2 se sabe que:
y
1
L 1 =
1
1
.
1
106
1
1
0
(v, w) + (v , w ) =
(v, w)
.
es un espacio vectorial sobre (no lo
(v, w) ,
(v, w), (v , w ) V W ,
(v, w) V W ,
{(v, w) V W : w = f (v)} .
107
Ingeniera Matematica
FACULTAD DE CIENCIAS
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Algebra
Lineal 08-2
4.6.
(TNI)
El prop
osito de est
a secci
on es probar el siguiente teorema.
Teorema 4.3 (N
ucleo-Imagen). Sean U, V espacios vectoriales sobre
on lineal, dim U < . Entonces:
un cuerpo , T : U V una transformaci
108
Teorema
N
ucleo-Imagen (TNI)
n. Probemos s
Demostracio
olo (2), el resto queda de ejercicio. Del TNI
se tiene que
dim U = dim KerT + dim ImT < dim V,
como dim KerT 0 se concluye que
dim ImT < dim V,
y por lo tanto ImT es un s.e.v. estrictamente mas peque
no que V , es decir
T no puede ser epiyectiva.
Es importante se
nalar que en (1c), la implicancia es consecuencia de (2)
y (3), mientras que se obtiene del hecho de que todo espacio de dimensi
on
finita n es isomorfo a n (ver ejemplo anterior a la Definicion 4.2).
Ejercicio
109
aij vi
T (uj ) =
i=1
1jp
o bien,
T (u1 ) = a11 v1 + a21 v2 + ... + aq1 vq
T (u2 ) = a12 v1 + a22 v2 + ... + aq2 vq
..
.
T (up ) = a1p v1 + a2p v2 + ... + aqp vq
Es claro que la informaci
on importante que define T est
a contenida en las
coordenadas, (a1j , a2j , ..., aqj ) de cada vector T (uj ), con respecto a la base
V , en el espacio de llegada. Esta informacion la guardamos en una matriz
de q filas y p columnas, denominada matriz representante de T , con
respecto a las bases U y V :
a
a12 ...
a
21 a22 ...
MU V (T ) =
..
..
.
.
aq1 aq2 ...
11
a1p
a2p
..
Mqp ( )
.
aqp
Aj
a2j
=
.. T (uj ) =
.
aqj
110
aij vi
i=1
Lineal
Matriz Representante de una Transformacion
4.7.
Matriz representante
de T
MU V (T )
Ejemplo:
Sea T :
4 3, definida por
1 1
T (x) = 0 1
0 0
x1
0 0
x
1 0 2 .
x3
1 1
x4
4 ,
1
1
0
T (e1 ) = T
T (e2 ) = T
T (e3 ) = T
T (e4 ) = T
de donde:
1
0
1
1
0
0
0
0
1
0
0
0
0
1
0
0
0
0
1
0
1
1
base de
1
0
0
1
1
0
=1
0
1
1
=0
0
0
1
M (T ) =
Tomemos ahora, en
1
1
0
1
1
0
1
1
0
1
2
1
0
1
1
0
1
+0
1
1
0
1
2
21
1 0
1
2
0 0
1
2
0 1
1
2
T (e2 ) =
T (e3 ) =
T (e4 ) =
1
0
0
1
1
0
0
1
1
0
0
1
1
0
1
+0
1
2
21
1
2
1
2
0
1
1
0
1
1
+0
+1
0
1
1
1
0
1
1
2
M34 ( )
3, la base canonica, =
T (e1 ) =
Luego,
1
2
3. Se tiene entonces:
0
1
1
1
0
0
0
1
0
0
0
1
1
M (T ) = 0
0
1 0
1 1
0 1
0
0
1
Observaci
on: Una pregunta interesante es: Que sucede con esta
matriz si cambiamos las bases?. Esto lo responderemos en breve.
Consideremos
TA :
p q
x Ax, A Mqp ( )
Se tiene entonces:
TA (ej ) = Aej =
a11 ...
..
.
a1j ...
..
.
aq1 ...
aqj ...
0
a
1j
..
a1p
.
a2j
.. 1 =
.
. ...
aqp ..
aqj
0
o bien:
aij ei
p
j=1
j=1
mij vi =
mij vi y por lo
T (u) =
q
i=1
j mij )vi .
i=1 j=1
i=1
j mqj ,
j m1j , . . . ,
j=1
j=1
Definici
on 4.6. Sea U, V espacios vectoriales sobre
dim U = p y dim V = q respectivamente.
Definimos
de dimensiones
L (U, V ) = {T : U V /T es transformaci
on lineal }
112
L (U, V )
= Mqp ( )
En efecto, sean U , V bases de U y V respectivamente y definamos la
funci
on.
: L (U, V ) Mqp ( )
T (T ) = MU V (T )
i=1
i=1
i=1
bij vi =
aij vi +
a1j + b1j
..
= Aj + Bj
.
aqj + bqj
Se concluye entonces:
..
..
(T + L) = MU V (T + L) = ...
.
.
aq1 + bq1 ...aqj + bqj ...aqp + bqp
= A + B = MU V (T ) + MU V (L) = (T ) + (L)
De manera an
aloga se prueba que
(T ) = MU V (T ).
113
L (U, V )
j=1
j uj , de donde u U, T (u) =
j T (uj ) =
j=1
j=1
j 0 = 0, concluyendo T 0, la transformaci
on
on lineal T , que
A = (aij ) Mqp ( ), le asociamos la transformaci
q
T (uk ) =
bjk vj
1kp
aij wi
1jq
j=1
r
L(vj ) =
i=1
Calculemos ahora:
q
j=1
j=1
aij wi )
bjk (
bjk L(vj ) =
i=1
bjk vj ) =
j=1
q
(
i=1 j=1
114
1kp
a
b
1j jp
j=1
j=1
..
MU W (L T ) =
q
q
j=1
j=1
= A B = MV W (L) MU V (T )
Hemos probado que la matriz representante de la composici
on de dos funciones lineales L T , es el producto de las matrices representantes.
115
obteniendo
Departamento de Ingeniera Matematica
- Universidad de Chile
Una aplicaci
on inmediata de este resultado es
Ejercicio
Esto nos permite, cuando se estudian transformaciones lineales sobre espacios vectoriales de dimensi
on finita, trabajar directamente en la estructura
matricial correspondiente, sumando o multiplicando matrices.
En base a lo anterior se tiene el resultado siguiente:
n n, v TA(v) = Av es un isomorfismo.
El conjunto {Aj}nj=1 es base de n .
2. TA :
3.
dim
116
..
..
P = P = (pij ) = ...
.
.
pn1 ... pnj ... pnn
j (
j vj =
j=1
j=1
v=
pij vi ) =
(
i=1 j=1
i=1
i vi .
Pero, ademas, v =
i=1
Como la representacion es u
nica, conclumos:
n
pij j
i =
j=1
matricialmente: = P .
117
1in
pij j )vi
4.8.
Matriz de pasaje o de
cambio de base
(4.4)
T
idV
idU
U, V,
Recorremos este diagrama de dos maneras distintas. para obtener la formula 4.4. Notemos que cuando hacemos el recorrido por abajo el orden que
aparecen las matrices es reverso: la matriz mas a la derecha en 4.4 es la que
actua primero y as sucesivamente.
an relacionadas por un par
Las matrices A = M (T ) y B = M (T ) est
de matrices invertibles que denotaremos por P, Q:
C = P AQ.
Diremos que entonces A y C son semejantes. Como ejercicio, probar que
esta es una relaci
on de equivalencia. Un caso importante es cuando Q =
P 1 , es decir
C = P AP 1 .
118
Esta ecuaci
on establece la relaci
on entre las coordenadas de un mismo vector v V con respecto a ambas bases.
matrices semejantes
Ejercicio
119
matrices similares
FACULTAD DE CIENCIAS
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Algebra
Lineal 08-2
Ejercicios
1. Sea T : U V una transformaci
on lineal. Pruebe que
(a) Si dim U = dim V entonces
T inyectiva T epiyectiva T biyectiva.
(b) Si dim U < dim V T no puede ser epiyectiva.
(c) U isomorfo a V dim U = dim V.
2. Probar que si T : U V es lineal y W es un subespacio de U entonces
(a) T (W ) es subespacio de V.
(b) dim T (W ) dim U .
3. T : U V es una transformaci
on lineal y , son bases de U y V
respectivamente entonces
(a) T es invertible ssi M (T ) es una matriz invertible.
(b) Si T es invertible,
(M (T ))1 = M (T 1 ).
Problemas
T:
M22 ( ) P2 ( )
a b
T ( ac db ) = (a + d) + (b + c)x + (a + b + 2c + d)x2 .
c d
P = {1, x, x2 }.
M
= ( 10 01 ) ,
1 0
0 1
, ( 01 10 ) ,
0 1
1 0
P = {1 + x, x + x2 , 1 + x2 }.
M
y P .
(d) Calule la dimensi
on del N
ucleo y la dimensi
on de la Imagen de T .
120
Gua
Semana 9
Ingeniera Matematica
Teorema 4.4
Ejercicio 4.2
Ejercicio 4.3
f : M22 ( )
g:
x g(x) =
x1 +x2 x3
2x1 +x3
y las bases
B1 =
1
3
Sea A =
2
1 0
0 3
2 5
,
,
,
4
1 2
0 1
2 4
0
1
2
B2 = 1 , 1 , 2 de
1
3
1
1 11 1
2 0 0 1
2 1 1 1
de M22 ( )
3.
0
Q = 1
1
1 3
0 0 .
0 1
[p] = Q[p]
p P2 ( ).
0 1 0
A = 0 0 2 .
0 0 0
121
Ingeniera Matematica
4.9.
FACULTAD DE CIENCIAS
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Algebra
Lineal 08-2
Rango de A
Ejercicio
Nuestro prop
osito es probar la recproca de lo anterior, esto es si dos matrices de igual dimensi
on tienen el mismo rango entonces son semejantes.
Para ello necesitaremos lo que se llama la forma normal de Hermitte.
Consideremos A Mqp ( ), ella induce de forma natural una aplicaci
on
lineal T mediante: T (x) = Ax. Es claro que A = M (T ) donde ,
son las bases can
onicas de p y q respectivamente. Construiremos ahora dos nuevas bases. Comencemos por una base de KerA: {u1 , ..., u }, y
extend
amosla a una base de p
1 v1 + ... + r vr = 0,
se tendra que
0 = 1 Aw1 + ... + r Awr = A(1 w1 + ... + r wr ),
122
1 w1 + ... + r wr = 1 u1 + ... + u ,
lo que implica que
1 w1 + ... + r wr 1 u1 ... u = 0,
y como los vectores son l.i. se tiene que 1 = ... = r = 0.
Extendamos ahora X a una base de q
Ir
0
0
0
Por otro lado si A, B Mqp ( ) tienen el mismo rango entonces se demuestra que existen matrices invertibles P, Q, R, S tal que
A = P HQ, B = RHS, y por lo tanto A = P R1 BS 1 Q,
como P R1 , S 1 Q son invertibles se deduce que A, B son semejantes.
El rango de una matriz es el n
umero maximo de columnas l.i., pero que
hay del n
umero maximo de filas l.i., o lo que es lo mismo, el rango de At .
Veremos acontinuaci
on que
r(A) = r(At ).
123
Forma normal de
Hermitte
A.
umero de filas no nulas en A.
Tomemos, por ejemplo, el escalonamiento siguiente:
1 1 1 1 1 0 0
1 1 1 1 1 0 0
1 1 1 1 1 0 1
0 2 0 2 2 0 1
A = 0 1 1 1 1 0 1 A = 0 0 1 0 2 0 12 ,
0 1 1 1 1 1 0
0 0 0 0 0 1 1
1 1 1 1 1 0 1
0 0 0 0 0 0 0
Usando la forma normal de Hermite, se deduce que existen matrices invertibles P, Q tal que
A = P HQ. At = Qt H t P t ,
Ejercicio
5.
En esta secci
on abordaremos el problema de saber cu
ando para una aplicacion lineal L : n n , es posible encontrar una base B con respecto
a la cual la matriz representante de L sea diagonal. En forma equivalente,
cu
ando una matriz A de n n puede descomponerse de la forma
A = P DP 1 con D diagonal ?
(5.1)
Este problema de naturaleza puramente algebraica, tiene muchas aplicaciones en otras ramas de la Matem
atica, por ejemplo en Ecuaciones Diferenciales, Estadstica, etc.
Tal vez el teorema mas importante de este captulo es el que dice que toda
matriz simetrica puede representarse en la forma (5.1).
Comenzamos con las nociones de valores y vectores propios de una aplicacion lineal L : V V donde V es un espacio vectorial sobre ( =
o ).
124
Diremos que x V es un
(i) x = 0
asociado a x.
Ax = x.
Proposici
on 5.1. Dada A Mnn ( ), son equivalentes:
(i) x = 0 Ax = x.
(ii) x soluci
on no trivial del sistema (A I)x = 0.
(iii) Ker(A I) = {0}
(iv) A I no es invertible.
Ejemplo:
1
A = 4
7
2
5
8
3
6
9
A11 =
5 6
.
8 9
Con esto podemos definir el determinante de una matriz por un procedimiento inductivo de la siguiente forma.
Definici
on 5.2 (Determinante). Definimos el determinante de A como
(i) Si A es de 1 1 |A| = a donde A = a.
125
Definici
on 5.1 (Vector y valor propio).
vector propio de L si:
Determinante
As, si A =
a
c
b
d
n
i=1
(ii) Si A es de n n |A| =
Ejercicio
126
t K, x, y
A1
..
.
: tx + y = t
.
..
An
A1
A1
..
..
.
.
x + y
.
.
..
..
An
An
|A| =
aii .
i=1
A1
A1
.
..
..
.
A
i1
Si B =
donde i = j y A = i1 entonces
Ai + tAj
Ai
.
..
..
.
An
An
|B| = |A|.
6. Si A = (
aij ) es una versi
on escalonada de A y N , el n
umero de
permutaciones de filas realizadas para escalonar A. Entonces:
n
= (1)N
|A| = (1)N |A|
a
ii .
i=1
7. A es invertible si y s
olo si |A| = 0.
8. Una permutaci
on del conjunto {1, 2, ..., n} es una funci
on : {1, 2, ..., n}
1
2 ... n
{1, 2, ..., n}, biyectiva. Se suele usar la notaci
on = (1)
(2) ... (n) .
Dada
una permutaci
on del conjunto {1, 2, ..., n}, se define signo() =
e(1)
e(2)
Proposici
on 5.2. Se tienen las siguiente propiedades:
permutaci
on
aii .
i=1
|A| =
i=1
(C
alculo de |A|, usando la columna j0 )
|A| =
j=1
(C
alculo de |A|, usando la fila i0 )
|A I| =
signo ()
i=1
(A I)i(i)
si es la permutaci
on identidad tendremos
n
signo ()
i=1
(A I)i(i) =
i=1
(aii )
i:(i)=i
i=1
(A I)i(i) =
(este u
ltimo producto debe contener por lo menos dos terminos por que?)
y por lo tanto
|A I| = (1)n n + n1 n1 + ... + 1 + 0 ,
donde n1 , . . . , 0 dependen de A. Por ejemplo evaluando en = 0 se
tiene |A| = 0 .
Cuanto vale el coeficiente de n1 ?.
Definici
on 5.3 (Polinomio caracterstico). P () = |A I| es llamado el polinomio caracterstico de A.
Ejemplo:
A=
4
2
128
5
3
Polinomio
caracterstico
A I =
5
3
4
2
4
5
2
3
0 1
1 0
|A I| =
1
1
= 2 + 1 = 0
De la definici
on v es vector propio si v = 0 y tal que Av = v. As,
es valor propio si y s
olo si existe una solucion no nula de la ecuaci
on
(A I)v = 0
Cualquier solucion no nula de esta ecuaci
on es entonces un vector propio
de A con valor propio .
Notemos que si v es vector propio tambien lo es 10v y en general v para
cualquier , = 0.
Ademas, si v es vector propio, el valor propio asociado es u
nico. Supongamos
que L(v) = 1 v = 2 v entonces (1 2 )v = 0 . Como v = 0 se tendra 1
2 = 0 y por lo tanto 1 = 2 .
129
Subespacio propio
A I = P BP 1 P P 1 = P (B I)P 1
|(A I)| = |(P (B I)P 1 )|
Sea A =
(A 2I)
x1
x2
2 5
2 5
x1
x2
0
0
x1
x2
/x1 =
5
2
5
x2 } =
2
5
2
= 0.
Para 2 = 1
5 5
5 5
130
1
1
Ingeniera Matematica
Apendice
Hemos definido el determinante de una matriz A de nn en forma recursiva
de la siguiente manera | A |= (1)j+1 aj1 | Aj1 |, donde Ak es la matriz
j
a11
..
.
A = ak1 + bk1
..
an1
entonces
a11
..
.
=
|A|
an1
.
..
an1
a1n
a11
..
akn + bk1
.
..
ann
an1
a1n
akn + bkn ,
ann
a1n
bkn
ann
= |A| + |B|.
| A |=
j=1
(1)j+1 a
j1 |Aj1 | =
j=1
j=k
a11
..
.
A = tak1
.
..
an1
131
a1n
..
.
takn ,
ann
FACULTAD DE CIENCIAS
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Algebra
Lineal 08-2
a11
..
.
| A |= t ak1
.
..
an1
a1n
akn .
ann
x, y
A1
A2
..
.
n
,t K :
tx + y
.
..
An
A1
A1
A2
A2
.
.
.
.
.
.
=t
.
+
y
x
.
.
..
..
An
An
A1
..
.
X i
.
A=
.
..
j
X
.
..
An
entonces
A1
..
.
Aj i
.
A =
.
..
j
Ai
.
.
.
An
Tomemos
A1
..
.
Ai + Aj
..
B=
,
Ai + Aj j
..
.
An
A1
..
.
A1
..
.
A1
A1
.. ..
. .
Ai Ai
. .
. + .. +
.
Ai Aj
. .
.. .
.
An
An
Aj
Ai
..
..
+
0 =| B |=
=
.
.
A +A
i
j
Ai + Aj
.
.
..
..
An
An
A
A1
1
..
..
.
.
A
j
Aj
.
..
+ 0,
+ .. + . = 0 + |A| + |A|
Aj
Ai
. ..
.
.
An
An
133
| A |= | A |
4. Sea In la identidad de n n entonces |In | = 1. En efecto
|In | = 1|In1 | = 1.
De manera mas general se prueba que si A es triangular superior entonn
ces |A| =
A1
..
.
Aj
.
..
A =
,
Ai + tAj i
..
.
An
entonces
A1
..
.
Aj
j
.
| A |=| A | +t ..
=| A |
Aj i
.
..
An
6. Las filas de A son l.d. | A |= 0. Supongamos que las filas de A son l.d.
es decir 1 , ..., n no todos nulos tal que 1 A1 +2 A2 +...+n An = 0
podemos suponer sin perdida de generalidad que 1 = 0
1 A1 + 2 A2 + ... + n An
A2
=
A =
..
An
0
A2
1+1
11
=
... = (1) 0 | A | +
An
134
n
j=2
(1)j+1 a
j1 |Aj1 |,
y por lo tanto
Ak
A2
A
A2
+....+k .2 +...+n
0 = 1 |A|+2
.
..
..
An
An
An
A2
. = 1 |A|,
..
An
a
11
0
.
A = ..
.
..
0
a
12
a
22
0
..
.
..
.
0
a
1n
a
2n
a
nn
a
ii = 0 (ver (4)), se
i=1
concluye que | A |= 0.
Falta probar que |A| = |At |. Esta proposici
on no es facil, para ello
necesitamos la siguiente f
ormula:
7. |A| =
e(1)
signo () = ... ,
e(n)
Ejemplo:
1 2
2 1
3
3
e(1) = e2
e(2) = e1
e(i) = ei
135
i2
n
n
pero para j 2 la primera fila de Aj1 es cero luego las filas de Aj1 son
l.d., por tanto | Aj1 |= 0. As | A |= 0. Ademas
0
0
0
0
1
..
.
0 1
1 0
0 0
signo() =
.
..
() = 1
ek
n
A2
| A |=
a1k
... .
k=1
An
a2 e , luego
An
alogamente A2 =
=1
ek
A2
. =
..
An
a2
=1
ek
e
A3 =
.
..
a2
=k
An
ek
e
A3 .
.
..
An
Por lo tanto
|A| =
a1k a2
k=
ek
e
Aj
..
.
a1k1 a2k2 ...ankn
k1 ,...,kn
todos
distintos
k1
ek2
ek1
1 2 n
lo que prueba la f
ormula deseada. Notemos que lo que se uso en probar
esta formula es que el determinante es n-lineal y alternada. Por esto
estudiaremos un poco como son este tipo de funciones.
136
no n. Este
donde F (I) es el valor que toma para la identidad de tama
resultado dice que toda funci
on n-lineal alternada debe ser un m
ultiplo
del determinante. De igual forma como lo hicimos para el determinante
se prueba que
e(1)
F (A) =
a1(1) ...an(n) F ... .
e(n)
Pero por ser F alternada se tendra
e(1)
F ... = F (I)
e(n)
e(1)
.
..
e(n)
F (I)|A|.
8. |AB| = |A||B|
Sea
F : Mnn ( )
A |AB|
A1
A1
..
..
.
.
C1 = X
C2 = Y
.
.
..
..
An
An
A1 B
A1
..
..
.
AB = XB + Y B ,
A = X +Y
.
.
..
..
An B
An
137
A1 B
A1 B
.. ..
. .
= |AB|
=
F (A)
XB + Y B = |C1 B|+|C2 B| = F (C1 )+F (C2 ).
. .
.. ..
An B
An B
A1
..
.
F tAi = tF
.
..
An
A1
..
.
Ai .
.
..
An
A1
..
.
Aj i
.
A =
..
Ai j
.
.
.
An
A1 B
..
.
Aj B
.
= . ,
AB
.
Ai B
.
.
.
An B
1
|A|
1
|A| .
Proposici
on 5.3. Sean y dos permutaciones entonces signo(
) = signo() signo( ).
n. Sean
Demostracio
e(1)
A = ...
e(n)
138
e (1)
B = ...
e (n)
y por lo tanto
1
0
(1) = 1 (j) ,
sino
es decir (BA)1 es un vector de la base canonica, lo que debemos averiguar es en que posici
on tiene el 1, pero esto se deduce de la ecuacion (1) = 1 (j) pues entonces j = ( (1)) = (1), luego
(B A)1 = eo (1) . As se obtiene:
e (1)
e (2)
BA =
..
.
e (n)
Por lo tanto C = B A, de donde |C| = |B||A| y entonces
pero
i=1
a(i)i =
i=1
139
e( (1))
e (1)
..
..
C=
.
=
.
.
e( (n))
e (n)
Sea F : Mnn ( )
F (A) =
n
i=1
j=1
1
(1)i+j |Aji |.
|A|
(AB)ij =
aik bkj =
k=1
k=1
(1)k+j
aik |Ajk |.
|A|
(AB)ii =
1
|A|
n
k=1
2. j = i (AB)ij =
k=1
ik
(1)k+j a|A|
|Ajk |, que corresponde al determinante
a11
..
.
ai1
.
.
.
ai1
|A|
.
..
an1
..
.
..
.
..
.
a1n
..
.
ain i
..
.
ain j
|A|
..
.
ann
a
c
140
b
d
jk
(1)k+j |A|
|Ajk | = 0,
k=1
Formula
para A1
|A| = ad bc
|A11 | = d |A12 | = c
A1 =
1
d c
|A| b a
141
|A21 | = b |A22 | = a
=
1
d b
|A| c a
Se tendra que
FACULTAD DE CIENCIAS
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Algebra
Lineal 08-2
Ejercicios
1. Suponga que A, B son semejantes, es decir, existen matrices invertibles
P, Q tal que A = P BQ. Pruebe que A y B tienen el mismo rango:
r(A) = r(B).
2. Probar que r(AB) r(A) y por lo tanto
r(AB) mnimo (r(A), r(B)).
3. Obtener la f
ormula del determinante de una matriz de 33.
2
0
0
3
1 0
0
2 0
0
0 3
0
0
3
1
0
1
0
3
0
0
3
2
2
3 2 1
0
2 1 6 2 1 1
0
1 1 4
2 6 4
3
Problemas
y n
(b) Si 0 , 1 , ..., n1
polinomio caracterstico de
0
1
A = 0
..
.
0 ... 0
0
0 ... 0
1
1 ... 0
2
..
.. .. ..
.
. . .
0 0
n1
es igual a: (1)n (
... 1
n1
k k + n ).
k=0
, 0 < < 1.
Gua
Semana 10
Ingeniera Matematica
143
Ingeniera Matematica
i i
Avi = i vi .
MB B (L) =
0
..
.
0
0
..
0
..
.
= D que es diagonal.
0
n
P 1
P.
D
B
Por lo tanto A = P DP 1
Algunas ventajas de conocer D:
(1) r(A) = r(D) = n
umero de valores propios no nulos.
(2) |A| = |P DP 1 | = |P ||D||P 1 | = |D| =
i .
i=1
En efecto,
D1 =
1
1
0
0
..
.
1
n
A1 = (P DP 1 )1 = (P 1 )1 D1 P 1 = P D1 P 1 ,
144
FACULTAD DE CIENCIAS
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Algebra
Lineal 08-2
pero D1 =
1
1
0
..
.
1
n
(4)
Am = (P DP 1 )m = (P DP 1 )(P DP 1 ) (P DP 1 )
m
1
0
1
..
= P Dm P 1 = P
P
.
m
n
Definici
on 5.4 (Matriz diagonalizable). Diremos que A Mnn ( ) es
diagonalizable si n admite una base de vectores propios de A.
Matriz diagonalizable
1
0
..
A = P DP 1 donde D =
.
0
n
y P = (v1 , . . . , vn ). Luego A es similar a una diagonal.
() Supongamos que A es similar a una diagonal, es decir existe P invertible tal que A = P DP 1 . De manera equivalente:
AP = P D.
d1
0
,
dn
..
A(v1 , . . . , vn ) = (v1 , . . . , vn )
..
.
dn
145
n. Por inducci
Demostracio
on sobre k. Para k = 1, la propiedad es obviamente cierta. Supongamos
1 v1 + + k vk = 0,
(5.2)
i=1
i=1
ui | i {1, . . . , k}, ui Ui
ui ,
v=
i=1
1. Z =
i=1
Ui Z =
+ Ui
i=1
j {1, . . . , k}, Uj
146
+ Ui = {0}.
i=1
i=j
+ Ui
i=1
+ Ui = U1 + U2 + + Uk
k
L
i=1
Ui
i=1
Ui .
(a) Z =
i=1
(c) La yuxtaposici
on de bases de los subespacios Ui es una base (y no
s
olo un generador) de Z.
k
dim(Ui ).
(d) dim(Z) =
i=1
wi ,
wi =
v=
i=1
i=1
con wi , wi Ui .
i=1
(wi wi ) = 0,
k
i=1
i ui = 0.
i=1
147
2. Si Z =
Ejercicio
En particular, A es diagonalizable si y s
olo si
n = W
W2 Wk .
n. Directa de la Proposici
Demostracio
on 5.4.
on 1.
1. Wi = Ker(A i I) es de dimensi
2. Sea vi Wi con vi = 0 entonces {v1 , . . . , vn } es una base de vectores
propios.
1 1 1
A=
1 1 1
1 1 1
1
1
1
p() = |A I| = 1
1
1
1
1 1
= (1 ){(1 )2 1} 1{(1 ) + 1} {1 + (1 )}
= (1 )3 (1 ) (1 ) 1 1 (1 )
= (1 3 + 32 3 ) 3 + 3 2
= 32 3 4
148
1 0 0
Consideremos A = 2 2 0 los valores propios son 1 = 1, 2 =
0 0 2
1
0
0
2
1,0
2, 3 = 2 y W1 =
W2 =
.
0
0
1
1 0 0
As 3 = W1 W2 , y A es diagonalizable similar a D = 0 2 0
0 0 2
Definici
on 5.6 (Multiplicidad geom
etrica). Sean A Mnn ( ) y
un valor propio de A. Definimos la multiplicidad geom
etrica de ,
A (), como la dimensi
on del espacio propio W = Ker(A I).
dim(W1 Wk ) =
A (i ).
k=1
Definici
on 5.7 (Multiplicidad algebraica). Sean A Mnn ( ) y un
valor propio de A. Definimos la multiplicidad algebraica de , A (),
como la m
axima potencia de (x ) que divide al polinomio caracterstico
de A, pA (x) = |A xI|.
Proposici
on 5.5. Sean A Mnn ( ) y 0 un valor propio de A, entonces:
1 A (0 ) A (0 ) n.
Ejemplo:
Multiplicidad
geom
etrica, A ()
Multiplicidad
algebraica, A ()
Ejercicio
149
pA () = cA ( 1 )A (1 ) ( 2 )A (2 ) . . . ( k )A (k ) ,
y adem
as, para todo valor propio de A, se tiene que A () = A ().
n. Supongamos que A es diagonalizable y sean 1 , . . . , k
Demostracio
sus valores propios. Entonces, gracias al Teorema 5.3 tenemos que n =
k
i=1 Wi .
del polinomio caracterstico de A:
Sea entonces la fatorizaci
on en
pA () = cA ( 1 )A (1 ) ( 2 )A (2 ) . . . ( k )A (k ) q(),
con q() un polinomio.
Pero, gracias a la Proposici
on 5.5,
n) = dim(
Wi ) =
i=1
i=1
De donde
k
i=1
n = dim(
A (i )
A (i ).
i=1
A (i ) = n.
Ahora
n = gr(pA ()) = gr(cA ( 1 )A (1 ) ( 2 )A (2 ) . . . ( k )A (k ) ) + gr(q())
k
A (i ) + gr(q()).
=
i=1
150
de la si-
pA () = cA ( 1 )A (1 ) ( 2 )A (2 ) . . . ( k )A (k ) .
De donde
implica que
k
i
A (i ).
A (i ) < n =
Wi ) =
i=1
dim(
i=1
i=1
151
FACULTAD DE CIENCIAS
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Algebra
Lineal 08-2
Ejercicios
1. Demostrar que dados V espacio vectorial y Z, U1 , . . . , Uk subespacios
vectoriales de V , entonces:
(a) Z =
i=1
Ui Z =
+ Ui
i=1
(b) Si Z =
j {1, . . . , k}, Uj
i=1
Ui .
(1) Z =
i=1
(4) dim(Z) =
dim(Ui ).
i=1
Problemas
152
Proposici
on 5.4
+ Ui = {0}.
i=1
i=j
Gua
Semana 11
Ingeniera Matematica
Proposici
on 5.5
Indicaci
on: Recuerde que la matriz representante de T 2n es
A2n .
(b) Encuentre los valores reales de
2
0 2
0 0
0 0
0 0
sea diagonalizable.
0 0 0
0 0
2 0 0
0 1
0 0 1
y ( 2
1 ) son vectores propios asociados a 1 y 2 , respectivamente.
n+1 n+1
(2) Para todo n se tiene que un = 1 1 22 .
(1)
153
1 0 2
A = 0 1 0 .
2 0 1
Ingeniera Matematica
FACULTAD DE CIENCIAS
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Algebra
Lineal 08-2
6.
Ortogonalidad
6.1.
uv
Definici
on 6.1 (Conjunto ortogonal/ortonormal). Un conjunto {v1 , . . . , vk }
Conjunto
1
ortogonal/ortonormal
n
2
se dice ortogonal si vi , vj = 0 i = j. Si adem
as vi = vi , vi =
de
1, diremos que el conjunto es ortonormal.
En el caso en que {v1 , . . . , vk } es adem
as base de un subespacio vectorial
W , diremos que se trata de una base ortonormal de W .
Base
ortogonal/ortonormal
Ejemplo:
La base can
onica de
i vi , vj
i=1
=0
i vi , vj = 0.
i=1
154
n y {u1, . . . , uk } una
x, ui ui .
x=
2. Si x
i=1
n y definimos
k
x, ui ui W,
z=
i=1
i ui .
x=
i=0
i ui , uj
x, uj =
i=0
k
i ui , uj .
=
i=0
x, ui ui .
x=
i=1
2. Sea x
n , z =
k
i=1
x, ui ui y w W , veamos:
k
x z, w = x, w z, w = x, w
w, uj uj
x, ui ui ,
i=1
j=1
la u
ltima igualdad gracias a que w W . As, usando las propiedades
del producto interno:
k
x z, w = x, w
x, ui w, uj
i=1 j=1
155
ui , uj
1. Si x W ,
x z, w = x, w
x, ui w, ui ui , ui
i=1
k
= x, w
x, ui w, ui
i=1
k
= x, w
= 0.
w, ui ui
x,
i=1
xz
Pero como w z
+ wz
= xw
> 0, luego
xz
< xw
De esta manera
w W, d(x, z) = x z < x w = d(x, w),
de donde se concluye.
6.2.
Proyecciones Ortogonales
La Proposici
on 6.2 motiva la definici
on proyeccion ortogonal sobre un subespacio vectorial de n . Asumiremos por ahora el siguiente resultado, el
cual demostraremos en la Secci
on 6.4, que asegura la existencia de una
base ortonormal de cualquier subespacio vectorial de n .
Proposici
on 6.3. Todo subespacio vectorial de
normal.
Definimos entonces:
Definici
on 6.2 (Proyecci
on ortogonal sobre un s.e.v.). Sea W un
subespacio vectorial n y {u1 , . . . , uk } una base ortonormal de W . Definimos la proyecci
on ortogonal sobre W como la funci
on
P:
x P (x) =
156
i=1
x, ui ui W.
Proyecci
on ortogonal
n y P su proyeccion
1. P es una transformaci
on lineal.
2. x
n, w W,
(x P (x))w.
6.3.
Subespacio Ortogonal
Definici
on 6.3 (Subespacio ortogonal). Sea W un subespacio de
definamos el ortogonal de W como:
W = {u
n | w W
w, u = 0}.
Proposici
on 6.5.
(i) W es un subespacio de
(ii)
n = W W .
n .
Observaci
on: Notemos que esta definici
on es correcta, es decir que
P no depende de la base ortonormal considerada y que es funci
on.
Gracias a la Proposici
on 6.2.2, sabemos que independiente de la base
ortonormal considerada para definirla, la proyeccion es aquella que minimiza la distancia de x a W . As, si hubiese dos proyecciones z1 , z2 ,
asociadas a bases distintas y fuesen distintas, luego:
Ejercicio
Subespacio ortogonal
W
n = W W
157
n ,
n = W W .
6.4.
Metodo
de Gram-Schmidt
n ,
{v0 , . . . , vm } = {u0 , . . . , uk } .
n. La demostracion de este teorema es precisamente el metoDemostracio
do Gram-Schmidt, que entrega un procedimiento algortmico para construir
el conjunto buscado. Sea entonces {v0 , . . . , vm } un conjunto de vectores y
definimos el conjunto {u0 , . . . , uk } mediante el Algoritmo 1.
Probemos que esta definici
on del {u0 , . . . , uk } cumple lo pedido. Lo haremos
por inducci
on en m.
Caso base. Para m = 0, si v0 = 0 luego w0 = 0 y el algoritmo
termina sin generar vectores uj . Esto es consistente con que la u
nica
base de {0} es el conjunto vaco.
Si v0 = 0, por ende w0 = 0, se tiene el resultado ya que
u0 =
v0
,
v0
M
etodo Gram-Schimdt
z2 = v2 , v1 u1
y restamos esta proyeccion a v2 :
w2 = v2 z2
3:
w2
w2
z3 = v3 , u1 u1 + v3 , u1 u2
w3 = v3 z3 ,
4:
w3
perpendicular a {u1 , u2 } y normalizamos, u3 = w
.
3
se sigue del mismo modo: una vez obtenidos {u1 , . . . , uk }, proyectamos
vk+1 sobre {u1 , . . . , uk } y definimos
k
vk+1 , ui ui
zk+1 =
i=0
wk+1
perpendicular a {u1 , . . . , uk } y normalizamos, uk+1 = w
.
k+1
El proceso termina cuando hemos procesado todos los vi .
159
Si wk = 0, se tiene que vm =
l=0
y por ende
Ahora si wk = 0, seg
un el algoritmo, uk estar
a definido por:
wk
1
uk =
=
wk
wk
k1
vm
vm , ul ul .
l=0
1
wk
1
wk
k1
vm
vm , ul ul
, ui
l=0
k1
vk , ui
vm , ul ul , ui
l=0
y por hip
otesis de inducci
on, l = i, ul , ui = 0 y ui , ui = 1, luego
1
( vm , ui vm , ui 1)
wk
= 0.
uk , ui =
k1
vm = wk uk +
vm , ul ul
l=0
es decir, vm es combinaci
on lineal de {u0 , . . . , uk }, lo que equivale a
vm {u0 , . . . , uk } . As, gracias a la hipotesis inductiva, se tiene que
{v0 , . . . , vm } {u0 , . . . , uk } .
(6.1)
k1
l=0
vm , ul
ul .
wk
tales que
m
l=0
l ul . As uk {v0 , . . . , vm } y luego
{u0 , . . . , uk } {v0 , . . . , vm } .
160
k1
l=0
vm ,ul
wk
ul =
Observaci
on:
Observar que si alguno de los vectores a normalizar, v1 o los wi , vale
0, significa que el vi correspondiente no aportar
a un nuevo vector a la
base, y simplemente se descarta, pas
andose a trabajar con vi+1 .
Esto trae como consecuencia que el n
umero de vectores ui sea menor
que el de los vj si estos u
ltimos son l.d.
En general, esto har
a que al procesar el k-esimo vk , estemos produciendo un ui , con i < k, pero no hemos introducido esto en la descripcion
del algoritmo para no confundir la notaci
on.
Ejemplo:
1
1
1
0
0 , 1 , 1 , 0 en
1
0
1
1
3 .
0
u0 = v0 / v0 , v0 , como v0 , v0 = 1 se tiene u0 = 0
1
1
1
0
0
1
w1 = 1 1 , 0 0 = 1 .
0
0
1
1
0
1
1
1
w1 , w1 = 2
u1 = w1 = 1
2
2 0
1
2
1
1
1
0
0
1
1
w2 = 1 1 , 0 0 1 , 1
2 0
1
1
1
1
1
1
0
1
0
1 1
= 1 0 21 = 0
2 2
0
0
1
1
161
1
1
1
2 0
Obteniendo lo buscado.
y redefinimos w2 .
1
1
1
0
0
1
1
1
1
w2 = 0 0 , 0 0 0 , 1 1
2 0
2 0
1
1
1
1
1
1
1
1
1
0
1
0
1
1
1
1
1 .
= 0 0 1 = 0 0 1 =
2
2
2 2 0
0
0
1
1
1
1
Como w2 , w2 =
1
4
1
4
= 21 , luego
1
1
u2 =
1 .
2 0
6.5.
Producto Hermtico
n n a
..
.
,v =
un
..
.
vn
,
n
u, v
uj vj .
v1
u1
Definici
on 6.4 (Producto Hermtico). Dados u =
n
j=1
1
1
1
Producto Hermtico,
u, v H
Ejercicio
= v, u
2. u + v, w
3. u, u
H.
= u, w
, mas aun
+ v, w
u, u
H.
0 y u, u
= 0 u = 0.
u, v
=
+ u, w
Observaci
on: Los conceptos de ortogonalidad, proyeccion ortogonal,
subespacio ortogonal y el metodo de Gram-Schmidt, pueden desarrollarse tambien en n , como espacio vectorial sobre .
162
FACULTAD DE CIENCIAS
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Algebra
Lineal 08-2
Ejercicios
1. Dado W un s.e.v. de n y P :
da. Probar que P es lineal.
= v, u
(b) u + v, w
(c) u, u
H.
= u, w
, mas aun
+ v, w
u, u
H.
0 y u, u
= 0 u = 0.
Problemas
1
1
3
, , 3 .
1 1 1 2
3
1
1
3
1
2
3
4
en W + W .
n de simen-
n | u U, Ax, Ay = 0}.
Probar que W es s.e.v. de n y probar que W U = {0}.
Sea V = {v n | u U, v = Au}. Pruebe que V es s.e.v. de
n.
W = {y
(a)
(b)
n entonces z =
i=1
1
, 1
P3. (a) Sea W =
1 1 .
0
1
163
Gua
Semana 12
Ingeniera Matematica
Proposici
on 6.4
Ejercicio 6.1
x1
x2
x3
x4
y1
y2
y3
y4
on lineal para la
donde T : 4 4 es una transformaci
cual Ker(T ) = W y, para todo x W , T (x) = x.
(U + V ) = U V .
(U ) = U .
(U V ) = U + V .
U V = n U V =
164
n. Demuestre que
n.
Ingeniera Matematica
6.6.
Au, v = u, Av .
t
(6.2)
Aei , ej = aji .
(6.3)
n es simetrico.
1
i
2+i 3
A =
1 2i
i
3
Au, v
= u, Av
si y s
olo si A es hermtica. As, en particular, u, v
u, Av H si A Mnn ( ) y A es simetrica.
Au, v
/|A I| = 0}
al conjunto de las raices del polinomio caracterstico. Este conjunto lo llamaremos el espectro de A. Como Mnn ( ) Mnn ( ) podemos definir de
igual manera el espectro de A, para A Mnn ( ).
En general el espectro de A es un subconjunto de , a
un cuando A
Mnn ( ), como lo muestra el proximo ejemplo.
165
FACULTAD DE CIENCIAS
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Algebra
Lineal 08-2
Adjunta, A
Hermtica
espectro, (A)
0 1 0
B = 1 0 0
0 0 1
1
0
B I = 1
0
|B I| = (1 ){2 + 1}
0 0 1
= v, v
= v, v
pero
Av, v
= v, Av
= v, v
v, v
=
n. Consideremos Av1 , v2 H = 1 v1 , v2 H = 1 v1 , v2
Demostracio
pero Av1 , v2 H
2 v1 , v2
y por tanto
= v1 , Av2 H = v1 , 2 v2 H =
H pero 2
(1 2 ) v1 , v2 H = 0, como 1 = 2 , v1 , v2 H = 0.
166
H,
Ejemplo:
= u, v , por lo tanto se
n y L : W
u, v W L(u), v = u, L(v)
Lema 2. L : n n es simetrica si y s
olo si la matriz representante
con respecto a la base can
onica de n es simetrica.
u, L(v) = u, Av ,
luego L es simetrica si y s
olo si A es simetrica.
Transformaci
on
sim
etrica
Ejercicio
n y L : W W lineal,
k
i=0
i ui
(x) =
..
.
167
L(v) W = {v} ,
luego existe
tal que L(v) = v. Es decir, es un valor propio de L
y v vector propio de L.
Definiendo
1
v,
v =
v
se tendra L
v =
v y ademas {
v } es una base ortonormal de W . Esto prueba
el caso en que la dimensi
on sea 1.
Supongamos que la propiedad es cierta para espacios de dimensi
on k1, por
demostrar que es cierta para espacios de dimensi
on k. Sea W subespacio
de dimensi
on k y L : W W lineal simetrica. Sea B = {w1 , . . . , wk }
base ortonormal de W , gracias al Ejercicio 6.2 la matriz MBB (L) k es
simetrica, por lo que tiene todos sus valores propios reales.
Sea 0 un valor propio cualquiera, por lo tanto existe un vector z =
(z1 , . . . , zk )t = 0, tal que MBB (L)z = 0 z.
L
),
(la restricci
on de L a W
u = Lu
uL
es lineal y simetrica. Verifiquemos que L
es simetrica. Consientonces L
deremos u, w W
L(u),
w = L(u), w = u, L(w) = u, L(w)
,
es simetrica en W
. Como dim W
= k 1 se tiene por hipotesis
es decir L
de vectores propios de
de inducci
on que existe una base ortonormal de W
{w
w
L:
1 , . . . , w
k1 }, es decir L(wi ) = L(
i ) = i w
i luego w
1 , . . . , w
k1 son
vectores propios de L. Finalmente, consideremos
B =
v
,w
1 , . . . ., w
k1
v
168
n. Por inducci
Demostracio
on sobre la dimensi
on de W . Si dim W = 1.
Entonces W = {v} , con v = 0. Notemos que
0
n
(P t P )ij = vit vj = vi , vj =
1
0
i=j
,
i=j
por lo tanto P t P = I.
Una matriz que satisface P 1 = P t se denomina ortogonal o unitaria.
A = P DP t
Matriz ortogonal o
unitaria
Ejercicio
P u, P v = u, v .
Ejercicio
cos
sen
sen
cos
Ejemplo:
2
A = 0
0
0 0
2 0
0 1
169
es unitaria en
2 .
2
|A I| = 0
0
0
0
2
0 = (2 )2 (1 ).
0
1
0 0 0
x
0 = (A 2I)u = 0 0 0 y ,
0 0 1
z
luego W2 = y | z = 0 . Determinemos W1 :
1 0 0
x
0 = (A I)u = 0 1 0 y ,
0 0 0
z
z
propios es:
1
0
1
B = 0 , 1 , 0
0
0
1
1 1 0
1 1 0
P = 0 1 0 P 1 = 0 1 0
0 0 1
0 0 1
1 1 0
2 0 0
1 1 0
A = 0 1 00 2 00 1 0
0 0 1
0 0 1
0 0 1
0
0
1
1 0 0
2 0 0
1 0 0
A = 0 1 00 2 00 1 0.
0 0 1
0 0 1
0 0 1
Observaci
on: Cabe se
nalar que en el caso de que si no hubiese sido
sencillo obtener a simple vista una base ortonormal del subespacio propio
asociado a = 2, podemos utilizar el metodo de Gram-Schmidt en dicho
subespacio. En general, la base ortonormal de vectores propios de n
(que sabemos existe en el caso de A simetrica) puede obtenerse utilizando
Gram-Schmidt en cada subespacio propio.
170
Ejemplo:
Veamos el caso de las proyecciones ortogonales.
Dado W subespacio de n consideremos W el ortogonal de W . Entonces n = W W . Sea ademas P : n n , la proyeccion ortogonal
sobre W .
Esta funcion P verifica
1. P 2 = P .
En efecto: P (u) = w W luego w = w + 0 es la u
nica descomposici
on, de donde
P P (u) = P (w) = w.
Se tiene ademas P (I P ) = 0.
2. Im(P ) = W y Ker(P ) = W .
En efecto, es claro que Im(P ) W . Por otro lado, si w
W P (w) = w, luego Im(P ) = W . Ahora si v W v = 0 + v es
la descomposici
on u
nica y por tanto P (v) = 0, as W Ker(P ).
Sea v Ker(P ), luego P (v) = 0 y por tanto v = 0 + v es decir
v W .
3. P es sim
etrica.
En efecto sean u1 = w1 + v1 , u2 = w2 + v2 , luego
P (u1 ), u2 = w1 , w2 + v2 = w1 , w2 + w1 , v2 = w1 , w2 =
w1 + v1 , w2 = u1 , P (u2 )
4. Los valores propios de P son 0
o 1.
Sea P (u) = u, u = 0, entonces como P 2 = P se tiene P (u) =
P 2 (u) = P (P (u)) = P (u) = P (u) = 2 u. De donde (2 )u =
0. Como u = 0 2 = 0 entonces = es 0 o 1.
Identificaremos P con su matriz representante respecto a la base canonica. Dado que P es simetrica P = Dt con ortogonal y D satisface:
1
..
Ir 0
D=
=
0
0
0
..
.
0
Como P y D son similares tienen el mismo rango, as r = r(P ) =
dim(Im(P )) = dim(W ). puede construirse de la siguiente forma: =
171
172
FACULTAD DE CIENCIAS
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Algebra
Lineal 08-2
Ejercicios
1. Sea W subespacio vectorial de
: W
k
i=0
x=
(x) =
i ui
..
.
cos
sen
es ortogonal en
2 .
Ejercicio 6.4
Problemas
2
A = 1
1
siguiente,
1
1
2 1 .
1 2
P3. Sean v1 , . . . , vk
\ {0}, y
Ejercicio 6.2
Ejercicio 6.3
P u, P v = u, v .
sen
cos
Gua
Semana 13
Ingeniera Matematica
(b) Sea {w1 , . . . wnk } base ortonormal del Ker(A). Demuestre que
{v1 , . . . , vk , w1 , . . . wnk } es una base de n de vectores propios
de A. Especifique cu
al es el valor propio correspondiente a cada
uno de estos vectores propios.
5/4 3/4
A = 1 v1 v1t + 2 v2 v2t .
174
Ingeniera Matematica
Formas cuadraticas
7.
7.1.
Formas cuadraticas
y matrices definidas positivas
En esta secci
on estudiaremos las formas cuadraticas inducidas por una matriz simetrica. Las formas cuadraticas aparecen en varias aplicaciones en
matematicas. Una de ellas es la caracterizacion de mnimos o maximos
para funciones de varias variables. Nosotros nos interesaremos en la caracterizacion de matrices definidas positivas. Al final del captulo estudiaremos
las c
onicas en 2 .
Definici
on 7.1 (Forma cuadr
atica).
definimos:
q: n
x q(x) = xt Ax.
n .
enea de grado 2,
Notemos que una forma cuadratica en n es homog
es decir, x n q(x) = 2 q(x). En efecto, q(x) = (x)t A(x) =
xt Ax = 2 xt Ax = 2 q(x).
Ejemplo:
q:
2 ,
1 1
1 1
x1
.
x2
Definici
on 7.2 ((Semi)Definida positiva/negativa). Sea A Mnn ( ),
simetrica diremos que
A es definida positiva si x = 0
xt Ax > 0.
A es semidefinida positiva si x xt Ax 0.
A es definida negativa x = 0 xt Ax < 0.
A es semidefinida negativa x xt Ax 0.
Notar que A es definida (semidefinida) positiva ssi A es definida (semidefinida) negativa.
175
FACULTAD DE CIENCIAS
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Algebra
Lineal 08-2
Forma cuadr
atica,
xt Ax
(Semi)Definida
positiva,
(Semi)Definida
negativa
2
1
1
2
x1
x2
2 1
es definida positiva, en efecto, si q(x) = 0
1 2
2
0, x2 = 0, luego x1 = x2 = 0.
A =
x21 =
a11
a21
A=
...
an1
A(1) = [a11 ]
A(2) =
a11
a21
a12
a22
an2
a12
a22
A(3)
a1n
a2n
ann
a11
= a21
a31
a12
a22
a32
a13
a23 . . .
A33
. . . A(n) = A
entonces |A(1) | = a11 > 0
|A| > 0
n. (1) (2).
Demostracio
Sea un valor propio de A y v = 0 un vector propio correspondiente al
valor propio .
0 < v t Av = v t (v) = v t v = v
176
>0
Ejemplo:
xt Ax = xt P DP t x = (P t x)t DP t x,
entonces si definimos z = P t x se tendra que en terminos de estas nuevas
variables la forma cuadratica queda
xt Ax = z t Dz = 1 z12 + + n zn2 0,
pues los valores propios son positivos. M
as a
un la u
nica forma en que esta
suma de cuadrados sea cero es que z1 = = zn = 0 es decir z = 0, pero
entonces P t x = 0 x = P 0 = 0 (recordemos que P 1 = P t ).
a
0
..
.
0 < xt Ax =
, entonces
aij xj
xi
xi (Ax)i =
j=1
i=1
i=1
xt Ax =
vi vj aij = v t A(k) v
xi xj aij =
i,j=1
i,j=1
a11 a
12
22
0 a
.
..
Ai =
0
.
..
0
a
1i a
1n
..
..
.
.
..
..
. a
i1i1
.
B1 B2
..
0
a
ii
. =
B3 B4
..
.
0
a
ii+1
..
..
..
..
.
.
.
.
a
in
177
a
nn
1 C2
As si C = C
C3 C4 donde C1 : ii, C2 : ini, C3 : nii, C4 : nini,
se tendra C2 = 0 y ademas C1 es triangular inferior con diagonal 1, y por
lo tanto |C1 | = 1. Luego:
A=
C1
C2
C3
B1
B2
B3
B4
C1 B1
C1 B2
C2 B1 + C3 B3
C2 B2 + C3 B4
a
jj , pero
j=1
a
11 , a
22 , . . . , a
i1i1 > 0 se concluye, a
ii > 0. As el metodo de Gauss no
necesita intercambiar filas y ademas todos los pivotes son > 0.
(4) (1).
Como todos los pivotes son positivos y no hay que hacer intercambios de
filas se tendra que A = LDU , con L triangular inferior D diagonal y U
triangular superior. U y L tienen 1 en la diagonal y dii = a
ii . Como A es
simetrica U = Lt entonces
a
11
D=
0
a
22
..
a
nn
=a
Dado que |A| = |A|
11 a
22 , . . . , a
nn > 0 entonces 0 < |A| = |RRt | = |R|2
luego |R| = 0, y por lo tanto R es invertible y as su traspuesta.
xt Ax = xt (RRt )x = (Rt x)t Rt x = Rt x 2 .
Si x = 0 Rt x = 0 pues Rt es invertible luego Rt x
xt Ax > 0 si x = 0 es decir A es definida positiva.
> 0 de donde
Hemos probado de paso la que toda matriz definida positiva tiene la siguiente descomposici
on.
Definici
on 7.3 (Descomposici
on de Cholesky). Decimos que A Mnn ( ) Descomposicion de
Cholesky
admite una descomposici
on de Cholesky si existe R matriz triangular inferior, con diagonal estrictamente positiva tal que
A = RRt .
178
Observaci
on: Hay que hacer una precisi
on sobre la propiedad 4 del
teorema anterior. Es f
acil ver que la matriz
A=
2
1
1
2
7.2.
Formas canonicas
1
0
2
,
D=
..
.
0
i yi2
xt Ax = xt P DP t x = y t Dy =
i=1
q(x) =
x21
2x22
+ 3x1 x2 = xt
179
3
2
3
2
x.
3
2
A=
3
2
|A I| =
3
2
3
2
= (1 )(2 )
3
= 0.
4
2 3 +
cuyas raices son
=
32
95
=
=
2
2
3
2
5
2
3
2
5
A I =
2
5
2
1 =
2 =
23
3
2
5
2
1
2
3
2
21
3
5
3
v2 = 0 v2 = 3v1 .
(A I)v = 0 v1 +
2
2
2
1
2
1
3
1
2
1
2
3
2
1
A I =
2
3
2
3
2
y por lo tanto
3
1
1
(A I)v = 0
v1 +
v2 = 0 v1 = 3v2 .
2
2
2
Un vector propio de largo uno es:
1 3
,
w2 =
1
2
y una base de ortonormal de vectores propios est
a formada por {w1 , w2 }.
Se tiene que
t
A = P DP =
3
2
3
2
1
2
3
2
180
3
2
1
2
5
2
0
1
2
1
2
23
3
2
1
2
y1
y2
y=
3
2
1
2
1
2
23
=P x=
x1
x2
i yi2
q(y) =
r
i=p+1
i=1
i=1
i yi2
i yi2 +
donde:
1 , . . . , p son > 0,
r+1 = = n = 0.
Definamos
zi =
zi =
es decir,
1
z=
i yi
i yi
zi = yi
i = 1, . . . , p
i = p + 1, . . . , r
i = r + 1, . . . , n
2
..
.
p
p+1
..
..
y = Qy.
5
2 y1
z2 =
181
1
2 y2
5
1
1 2
y2 ) = y12 + y22
2
2
2
Para ubicar el nuevo sistema, con respecto al inicial, consideremos el problema en dos etapas. En el cambio y = P t x, el eje correspondiente a y1
est
a en la direcci
on x tal que
1
1
0
0
P tx =
... luego x = P ... = v1 ,
0
7.3.
Conicas
en
Una c
onica en
o en forma matricial
(x, y)
a
c
c
b
x
y
+ (d, f )
A=
a
c
c
b
donde
, v=
x
y
= e = v t Av + g t v = e,
x
y
1
0
, g=
0
2
d
f
y P = (v1 v2 ). Entonces
la ecuaci
on de la c
onica es:
e = v t P DP t v + g t v = v t P DP t v + gP P t v.
182
5 2
y1 ) + (
2
z12 + z22 = (
La expresi
on que toma la c
onica es entonces
2
e = 1 u21 + 2 u22 + fu1 + du
1. 1 = 2 = 0 ( a = b = c = 0)
El conjunto solucion es {(x, y)/dy + f x = e} que en general es una
recta (pudiendo ser vaco si d = f = 0 y e = 0).
2. El caso interesante es cuando 1 = 0 o 2 = 0, llamemos
u1 = u1
u2 = u2
+ ) = e
1 (u1 + )2 + 2 (u2 + )2 + f(u1 + ) + d(u
2
= e
1 (u1 )2 + 2 (u2 )2 + u1 {21 + f} + u2 {22 + d}
con e = e (1 2 + 2 2 + f + d)
on
Si 1 = 0 (2 = 0) tomemos: = 2d2 , = 0 se llega a la ecuaci
2 (u2 )2 + fu1 = e.
Si f = 0 (u2 )2 =
paralelas:
u2
o ser
a vaco si
e (u )2
2 .
< 0. Si f = 0
si
2
2
, que corresponde a una par
abola, en las coordenada
u1 =
f
u1 , u2 . El caso 1 = 0 2 = 0 es totalmente an
alogo.
183
184
FACULTAD DE CIENCIAS
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Algebra
Lineal 08-2
Ejercicios
t
1. Escriba
x1 en forma x Ax las siguientes formas cuadraticas, en donde x =
x2
. :
..
xn
2. Se
nale si las matrices siguientes son definidas positivas/negativas, o ninguna de las dos:
1
1
1
0
(b)
0
0
0
(a)
0
2
0
0
0
1
.
1
0
0
1/2
0
0
3 1
.
1 1
(c)
0
0
0
1
0
0
0
0
.
0
4
1
2
(d)
1
1
2
1
1
1
1
1
0
1
1
1
.
1
1
Problemas
P1. Considere la c
onica de ecuaci
on 5x2 + 5y 2 + 6xy + 16x + 16y = 15.
Realice el cambio de variables que permite escribir la c
onica de manera centrada y escriba la nueva expresi
on (escribir explcitamente el
cambio de variables). Identifique la c
onica resultante y dib
ujela.
2 , c y f : 2
Se quiere minimizar f .
(a) Sea x0 = 21 A1 b. Pruebe que f (x) = (xx0 )t A(xx0 )xt0 Ax0 +c.
(b) Concluya que el u
nico mnimo de f se alcanza en x0 , i.e., que
f (x) f (x0 ) para todo x 2 y que la igualdad se alcanza
solamente cuando x = x0 -
185
Gua
Semana 14
Ingeniera Matematica
y considere la ecuacion
x2 + y 2 + 2( 1)xy
2x + 2y = 0.
(d) Par
abola.
(g) Un punto.
(e) Hiperbola.
(f ) Conjunto vaco.
186
P3. Sea
Ingeniera Matematica
8.
8.1.
Forma de Jordan
Definicion
0 2 1
0 0 2
2 1
J =
0 2
(2)
5 1
0 5
(6)
Es claro que (A) = {2, 5, 6}, con multiplicidades algebraicas 6, 2, 1 respectivamente.
La base J la notaremos como sigue:
1
1
1
1
1
1
2
2
3
J = {v11
, v12
, v13
, v21
, v22
, v31
, v11
, v12
, v11
}
De la definici
on de matriz representante, obtenemos:
1
1
TA (v11
) = 2v11
1
1
1
TA (v12
) = v11
+ 2v12
1
1
1
TA (v13
) = v12
+ 2v13
1
1
TA (v21
) = 2v21
1
1
1
TA (v22
) = v21
+ 2v22
1
1
TA (v31
) = 2v31
2
2
TA (v11
) = 5v11
2
2
2
TA (v12
) = v11
+ 5v11
3
3
TA (v11
) = 6v11
187
FACULTAD DE CIENCIAS
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Algebra
Lineal 08-2
1
..
.
1
1
..
1
..
.
1
1
..
1
..
.
1
r
..
1
..
.
p1
s(r, j),
s(1, j), . . . ,
j=1
j=1
1
v11
1
v21
1
v12
1
v22
..
.
..
.
1
v1s(1,1)
1
v2s(2,1)
vp11 1
vp11 2
..
.
vp11 s(1,p1 )
188
r
v11
r
v21
r
v12
r
v22
..
.
..
.
r
v1s(r,1)
r
v2s(r,2)
vprr 1
vprr 2
..
.
vprr s(r,pr )
(8.1)
1
Vemos que v11
es vector propio (cabeza de serie) asociado al valor propio
1
1
1
1
1 = 2, v12 es una cola asociada a v11
y v13
es cola asociada a v12
.
Posteriormente obtenemos otro vector propio asociado a 1 = 2 con una
cola y finalmente un tercer vector propio asociado a 1 = 2. Luego se
repite el mismo esquema: un vector propio y una cola asociados a 2 = 5 y
finalmente un vector propio asociado a 3 = 6.
En general la matriz J que nos interesa en este p
arrafo tiene la forma:
1
r
vectores de la base
asociados a r
k
k
TA (vij
) = Avij
=
1
v11
, . . . , vp11 1
, dim V1 = p1
V2 =
..
.
2
v11
, . . . , vp22 1
, dim V2 = p2
Vr =
r
v11
, . . . , vprr 1
, dim Vr = pr
Ji =
1
..
.
..
..
.
.
1
i
Definici
on 8.1 (Forma de Jordan). Una transformaci
on lineal
n
x TA (x) = Ax
TA :
donde J1 =
8
0
8
0
J = 0
0
0
1
8
1
8
0
0
0
0
0
0
0
0
0
0
1
0
0
, J2 =
0
0
1
0
0
J1
0 =
0
0
, J3 = (0).
189
J2
J3
vectores de la base
asociados a 1
Base de Jordan
Forma de Jordan
1
v11
2
v11
1
v12
2
v12
asociados a
V1
2
v21
asociados a
V2
: base canonica
J : base de Jordan
y se tiene:
1
Av11
= P J1
2
Av11
= P J3
2
Av21
= P J5
8
0
1
= P 0 = 8v11
,
0
0
0
0
2
= P 0 = 0v11
,
0
0
0
0
2
= P 0 = 0v21
0
0
1
Av12
= P J2
2
Av12
= P J4
1
8
1
1
= P 0 = v11
+ 8v12
,
0
0
0
0
2
2
= P 1 = v11
+ 0v12
,
0
0
recuperandose la relaci
on (8.2).
Simplifiquemos por un momento la notaci
on. Si escribimos P = (v 1 , . . . , v n )
1
n
tal que = {v , . . . , v } es base de Jordan, se verifica:
i = 1, . . . , n
Av i = i v i o bien Av i = v i1 + v i .
190
, x
A Mnn ( ), J Mnn ( )
matriz de Jordan, similar a la matriz A:
A = P JP 1
donde las columnas de P son los vectores de la base asociada a J .
n. La demostracion la omitimos aqu y no se cubrir
Demostracio
a en
clases, sin embargo se presenta en el apendice de la semana, s
olo por
completitud.
8.2.
8.2.1.
0 1
i 1
0
..
.
.
.
.
.
.
.
= i Ii +
Ji =
.
.. 1
0
0
i
de la forma:
..
.
,
..
. 1
0
Ejercicio
Ejercicio 8.1: Suponga que Ni Mss ( ), pruebe entonces por induccion que m , p, q {1, . . . , s},
1 si q = p + m,
m
(Ni )pq =
0 si q = p + m.
191
N1
0
...
0
1 I1
0
2 I2 . . .
0
0
A=P
.. + ..
..
..
..
.
. .
.
.
0
0
0
. . . r Ir
0
N2
..
.
...
...
..
.
...
P 1 .
Nr
0
0
..
.
Notar que los valores propios 1 , . . . , r son los valores propios de A con
posible repetici
on.
Se tiene que la matriz N es nilpotente, gracias al siguiente ejercicio:
Ademas deduzca que Nis = 0. Una matriz con esta propiedad, se dice
nilpotente.
Ejercicio
B1 0 . . .
0 B2 . . .
B= .
..
..
..
.
.
0
...
0
0
..
.
Br
B1
0 ...
0
0 B2m . . .
0
Bm = .
.
.. .
..
..
..
.
.
...
Brm
192
Debemos entonces estudiar (D + N )m , que gracias al Ejercicio 8.2 es equivalente a estudiar (i Ii + Ni )m , es decir cada bloque de la forma de Jordan.
Se puede probar que el Teorema del Binomio de Newton es tambien valido
para matrices, si la multiplicaci
on de
estas conmuta. Este es precisamente el caso de i Ii y Ni , que conmutan pues i Ii es ponderaci
on de la
identidad. Luego
m
m
(i Ii )mk Nik .
k
(i Ii + Ni )m =
k=0
m
(i Ii )mk Nik =
k
m mk k
i
Ni =
...
..
.
m
k
mk
i
0
..
.
m
k
..
mk
..
.
0
mk
En donde los terminos m
est
an ubicados desde la posici
on (1, k)
k i
hasta la (k, n). Notar ademas que, si i + Ni Mss ( ), la matriz anterior
es nula para k s.
(i Ii + Ni )m
m
i
= ...
.
..
0
m
1
m1
i
m
i
..
.
m2
i
m
1
m1
i
..
.
...
...
(1 I1 + N1 )m
Am = P
..
.
0
m
2
...
m
2
m
s1
m2
i
..
.
..
m
1
m
i
0
0
...
m(s1)
i
..
m1
i
m
i
(8.3)
0
(2 I2 + N2 )m
..
.
...
...
..
.
0
0
..
.
...
(r Ir + Nr )m
193
1
P ,
Matriz exponencial
Otra aplicaci
on importante est
a relacionada con calcular la exponencial de
una matrix, la generalizaci
on de la funci
on exponencial real para matrices.
Dicha matriz exponencial tiene utilidad en ciertos metodos de resolucion
de ecuaciones diferenciales (que ver
as en cursos mas adelante).
Veamos primero la definici
on de la matriz exponencial.
Definici
on 8.2 (Matriz exponencial). Sea A Mnn ( ). La exponencial de A, denotada por eA , es la matriz en Mnn ( ) dada por la serie
de potencias
1 k
A .
eA =
k!
k=0
= CeB C 1 .
k=0
1 k
N .
k!
0 ...
0
e
0 eN 2 . . .
0
eN = .
.
.. .
.
..
..
..
.
0
0 . . . eN r
194
8.2.2.
Matriz exponencial
0
0
..
.
...
er Ir
ei Ii eNi = ei
k=0
...
...
..
.
1 k
N = ei
k! i
s1
k=0
1 k
N .
k! i
..
1 i
1 i
0
.
ei
1! e
2! e
..
..
..
..
(8.4)
ei eNi = ...
.
.
.
.
.
1 i
..
...
0
ei
1! e
0
...
...
0
ei
Finalmente
e1 eN1
0
eA = P .
..
0
e2 eN2
..
.
...
...
..
.
0
0
..
.
...
er eNr
1
P ,
Teorema de Cayley-Hamilton
El Teorema de Cayley-Hamilton se
nala que una matriz es siempre raiz de
su polinomio caracterstico. Para comprender a que nos referimos con esto,
notemos que dado un polinomio
p(x) = a0 + a1 x + a2 x2 + + an xn Pn ( ),
podemos asociarle naturalmente una funci
on de Mnn ( ) a Mnn ( ). Dada
X Mnn ( ):
p(X) = a0 I + a1 X + a2 X 2 + + an X n .
Enunciemos entonces el teorema:
Teorema 8.2 (Cayley-Hamilton). Dada una matriz A Mnn ( ) y
pA (x) su polinomio caracterstico, entonces
pA (A) = 0.
195
eD = .
.
..
..
0
0
Cayley-Hamilton
Una u
ltima utilidad de la forma de Jordan, que veremos, es permitir caracterizar la traza de una matriz.
Definici
on 8.3 (Traza). La traza es la funci
on tr : Mnn ( )
nida por:
n
A = (aij ) Mnn ( ),
tr(A) =
aii .
k=0
196
, defi-
Traza
Ejercicio
tr(A) =
i=1
A (i ) i .
tr(A) = tr(J) =
i=1
197
A (i ) i .
Proposici
on 8.4. Sea A Mnn ( ), con valores propios distintos 1 , . . . , r .
Entonces
r
Ingeniera Matematica
, x
A Mnn ( ), J Mnn ( )
matriz de Jordan, similar a la matriz A:
A = P JP 1
donde las columnas de P son los vectores de la base asociada a J .
n. Por inducci
Demostracio
on sobre la dimensi
on, n, del espacio. Es trivialmente cierto para n = 1 (verifique). Supongamos que el resultado se
cumple k n 1. Veremos primero:
Caso 1: La matriz A es singular (detA = 0).
En este caso r(A) = r < n, es decir dim Im(TA ) = r(A) = r < n. Sea:
T = T |ImTA : ImTA ImTA
Por hipotesis, como dim ImTA < n, existe la descomposici
on de Jordan.
Existe entonces una base de ImTA que verifica las hipotesis. M
as explcitamente: Si (T ) = {1 , . . . , m } y ademas los subespacios propios:
1
, . . . , vp11 1 } , . . . , Vm =
V1 = {v11
m
v11
, . . . , vpmm 1
vp11 1
1
v12
..
.
vp11 2
..
.
1
v1s(1,1)
..
.
m
v11
1
vps(1,p
1)
..
.
vpmm 1
m
v12
..
.
vpmm 2
..
.
m
v1s(m,1)
vpmm s(m,pm )
vectores propios de V1
colas asociadas
a los vectores propios de V1
..
.
vectores propios deVm
colas asociadas
s(i, j) y se verifica:
k
T (vij
)=
k
k vij
k
k
+ k vij
vij1
198
si j = 1
si j > 1
FACULTAD DE CIENCIAS
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Algebra
Lineal 08-2
J =
J11
..
.
Jp1
J12
..
.
Jp2 2
..
.
J1m
..
.
Jpm m
y cada bloque:
Jik
1
..
.
..
..
1
k
k
k
es de dimensi
on s(k, i)s(k, i), asociado a los vectores de base vi1
, . . . , vis(k,i)
.
J11
..
J =
Jpm m
0
..
.
0
n r bloques
de 1 1 con
el valor propio 0
TA wi = wi1 + i wi
1ir
1 i n r.
u1 , . . . , up
199
, subespacio de dimensi
on
Donde:
1
v11
1
v21
1
vp1
..
.
..
.
1
v12
..
.
1
v22
..
.
1
v1s(1,1)
1
v2s(1,2)
1
vps(1,p)
1
1
1
= v11
+ 0 v12
TA v12
..
.
1
1
1
+ 0 v1s(1,1)
= v1s(1,1)1
TA v1s(1,1)
(8.5)
..
.
1
1
TA vp1
= 0 vp1
..
.
1
1
1
+ 0 vps(1,p)
= vps(1,p)1
TA vps(1,p)
1
Ay 1 = v1s(1,1)
1
Ay 2 = v2s(1,2)
..
.
1
Ay p = vps(1,p)
cj y j = 0
j=1
entonces
cj Ay =
cj T A y =
j=1
1
cj vjs(1,j)
=0
j=1
j=1
1
{vjs(1,j)
}pj=1
es linealmente independiente,
TA (y j ) = Ay j = vjs(1,j) + 0y j
1 j p.
0 1
0
..
..
..
.
.
.
..
. 1 0
0 1
0
0
Debemos verificar que el conjunto 2 J es .i.: Consideremos una
combinaci
on lineal nula, escrita por bloques:
1
1
1
= [111 v11
+ 112 v12
+ + 11s(1,1) v1s(1,1)
]+ ...
1
1
1
+ + [1p1 vp1
+ 1p2 vp2
+ + 1ps(1,p) v1s(1,p)
]+ ...
k
k
+ [k11 v11
+ + k1s(k,1) v1s(k,1)
] + ...
+ 1 y +
(8.6)
+ ...
Aplicando la transformaci
on TA a esta ecuaci
on obtenemos:
1
1
1
TA () = A = [111 Av11
+ 112 A2 v12
+ + 11s(1,1) Av1s(1,1)
] + ...
1
1
1
]+
+ [1p1 Avp1
+ 1p2 Avp2
+ + 1ps(1,p) Av1s(1,p)
k
k
+ [k11 Av11
+ + k1s(k,1) Av1s(k,1)
]+
+ 1 Ay 1 + + p Ay p = 0
201
M
as a
un, los vectores {y j }pj=1 satisfacen:
1
1
1
]+ ...
A = [112 v11
+ 113 v12
+ + 11s(1,1) v1s(1,1)1
1
1
1
]+ ...
+ [1p2 vp1
+ 1p3 vp2
+ + 1ps(1,p) v1s(1,p)1
k
k
)]
+ [k11 k v11
+ + k1s(k,1) (k vpkt s(k,1) + v1s(k,1)1
k
k
} + = 0
+ k1s(k,1) k v1s(k,1)
+ (k1s(k,1)1 k + k1s(k,1) )v1s(k,1)1
1 p
Como {vj1
}j=1 es .i, conclumos 111 = = 1p1 = 0, luego el conjunto
2 o J es .i.
El conjunto anterior 2 J tiene r + p vectores, donde r = dim ImTA , es
decir | 2 J |= p + r n. Nos falta entonces considerar KerTA \ ImTA
KerTA . Pero esto es f
acil, sea:
KerTA =
u1 , . . . , up
202
{z1 , . . . , zq }
Reemplazando seg
un la recurrencia de Jordan y recordando que 1 = 0:
3 = {zi }qi=1 .
J = J 2 3 ,
j=1
j=1
j=1
j zj = 0
j y j +
j wj +
j T A y j = 0
j TA wj +
j=1
j=1
que corresponde al an
alisis de la independencia lineal de 2 J que hicimos
q
j zj = 0 de donde
previamente, luego j = j = 0. S
olo queda entonces
j=1
J =
..
.
Jp1
J12
..
.
Jp2 2
..
.
J1m
..
.
Jpm m
0
donde J11 , . . . , Jp1 son los bloques asociados a 1 = 0 con la cola agregada {yi }. El u
ltimo grupo de q bloques de 0s corresponde a la base del
suplementario de
ImTA KerTA en KerTA .
Con esto hemos demostrado que, si A es regular (no invertible), esta es
reductible a la forma de Jordan.
Veamos ahora el caso invertible: Como A Mnn ( ),
valor propio
asociado a A. Consideremos la matriz singular A = A I. Por el procedimiento desarrollado anteriormente existen matrices J y P invertible tal
203
J = P 1 A P J = P 1 (A I)P
P J P 1 = A I
A = P J P 1 + I =
= P J P 1 + P P 1 = P (J + I)P 1
que:
Ejercicio
204
FACULTAD DE CIENCIAS
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Algebra
Lineal 08-2
Ejercicios
1. Sea Ni Mss ( ), definida por
0 1
..
0
..
..
1
0
1 si q = p + m,
(Nim )pq =
0 si q = p + m.
Ademas deduzca que Nis = 0. Una matriz con esta propiedad, se dice
nilpotente.
B1 0 . . . 0
0 B2 . . . 0
B= .
..
..
..
..
.
.
.
0
0 . . . Br
B1m
0
= .
..
0
B2m
..
.
...
...
..
.
0
0
..
.
...
Brm
es lineal.
1 1
1 1 0
(a)
.
0 1 0
0 1
(b)
0 0 1/2
0 0 0
0 0 0
205
matrices:
0 0
2
0
0 0
(c)
0 0
. 0
4 1
0
0 4
1
2
0
0
0
1
2
0
0
0
.
0
1
Gua
Semana 15
Ingeniera Matematica
, defina vn = ( xx
n
n1
2. Encuentre A M22()
vn+1 = Avn .
(b) Pruebe que vn = An v0 , n
(b) Considere
n
0
4 1
0 4
0 0
nn1
n
n 1.
3
1 .
2
206
Problemas