Professional Documents
Culture Documents
UNLP
Matematica C
VI Transformaciones Lineales
2016
Temario:
1. Clase 1: Introduccion. Definicion. Ejemplos basicos. Proyeccion. Reflexion. Rotacion.
Casos especiales. Imagen y espacio nulo de una transformacion lineal. Propiedades
fundamentales. Isomorfismos.
2. Clase 2: Representacion matricial. Ejemplos. Diferentes representaciones de acuerdo
a las bases consideradas (cambio de base). Representacion matricial y caractersticas
de la transformacion. Matrices Semejantes. Propiedades. Composicion de transformaciones lineales. Ejemplos. Aplicaciones.
6.1. INTRODUCCION
6.1.
Introducci
on
v V, w W
6.1.1.
Definici
on general
Definici
on.
Una funcion L : V W de un espacio vectorial V en otro espacio vectorial W (ambos
sobre el mismo conjunto de escalares) es una transformaci
on lineal si satisface
L (v1 + v2 ) = L (v1 ) + L (v2 )
para todo par de vectores v1 y v2 de V y todo par de escalares , . Es decir,
L (v1 + v2 ) = L (v1 ) + L (v2 ) para todo v1 y v2 en V
L (v) = L (v) para todo v en V y escalar
En particular, para = 0 la u
ltima ecuacion implica que toda transformacion lineal
L : V W satisface
L(0V ) = 0W
con 0V y 0W los vectores nulos de V y W , ya que L(0V ) = L(0v) = 0L(v) = 0W .
LHxL
x+y
LHxL+ LHyL
L:VW
4
Ejemplos 6.1.1: Transformaciones lineales de <2 en <2
Comenzaremos con algunos ejemplos basicos:
1. Transformaci
on de dilataci
on (escalamiento):
x1
Si x = x1 e1 + x2 e2 =
es un vector de R2 , definimos, como primer ejemplo,
x2
3x1
L (x) = 3x =
3x2
L es una transformacion lineal, ya que
L (x) = 3 (x) = (3x) = L (x)
L (x + y) = 3 (x + y) = 3x + 3y = L (x) + L (y)
verificandose que L(0) = 0. Geometricamente, L tiene el efecto de dilatar el vector
x, multiplicando su longitud por un factor 3 y conservando su direccion y sentido:
x2
LHxL = 3x
x
x1
6.1. INTRODUCCION
5
x2
x1
LHxL = x1e1
L (x) = x1 e1 x2 e2 =
x1
x2
x1 + y1
L (x + y) =
(x2 + y2 )
y1
x1
+
=
y2
x2
= L (x) + L (y)
L es un operador lineal.
Geometricamente, L (x) es la reflexion del vector x respecto (o a traves) del eje x1 .
x2
x1
LHxL
Podemos expresar L(x) en forma matricial como (verificar)
1 0
x1
L(x) =
0 1
x2
6
4. Rotaci
on de
angulo /2 antihorario:
x1
Si x = x1 e1 + x2 e2 =
definimos
x2
L (x) = x2 e1 + x1 e2 =
x2
x1
(x2 + y2 )
x2
y2
L (x + y) =
=
+
x1 + y1
x1
y1
= L (x) + L (y)
L es una transformacion lineal.
Geometricamente, L (x) representa la rotacion de angulo = /2 (en sentido antihorario) del vector x:
x2
LHxL
x
x1
6.1. INTRODUCCION
Si c = 1, la transformacion resultante
L1 (x) = x
se denomina operador identidad y se la denota como I: I(x) = x x V .
I no modifica ning
un vector.
Si c = 0, la transformacion resultante
L0 (x) = 0
se denomina operador nulo. Enva a todos los vectores de V al vector nulo 0 0V .
Si c < 0, Lc tendra el efecto de invertir el sentido del vector, dilatandolo si c < 1,
contrayendolo si 1 < c < 0 y conservando su longitud si c = 1, en cuyo caso
coincide con el operador de inversion.
Podemos expresar Lc (x) en forma matricial como
c 0
x1
L(x) =
0 c
x2
6. Inversi
on:
Corresponde a
L (x) = x =
x1
x2
La linealidad de L es inmediata:
(x1 + y1 )
x1
y1
L (x + y) =
=
+
(x2 + y2 )
x2
y2
= L (x) + L (y)
Geometricamente, L (x) es el vector opuesto a x.
x2
x
x1
LHxL = -x
Podemos expresar L(x) en forma matricial como
1 0
x1
L(x) =
0 1
x2
Observar que el operador de inversion puede obtenerse como caso particular de otras
transformaciones. Por ejemplo,
8
1. La transformacion de escala con c = 1
2. Una rotacion de angulo (en sentido anti-horario o sentido horario)
Esta u
ltima puede tambien lograrse mediante dos rotaciones sucesivas de angulo /2 (por
ejemplo, ambas en sentido antihorario): Si R rota al vector x en /2 antihorario, entonces
R (R (x)) = R
x2
x1
x1
=
= x
x2
6.1. INTRODUCCION
x2
2. Sea L : R2 R3 definida por L (x) = x1
x1 + x2
Se verifica facilmente que L es lineal (probar!) y que puede ser escrita tambien como
0 1
x
L(x) = 1 0 1
x2
1 1
6.1.2.
10
2. La transformacion nula 0 : V W se define por
para todo v V
0 (v) = 0W
f (x) dx
a
L es oviamente una transformacion lineal, ya que si f y g son dos vectores cualesquiera de C[a,b] , entonces
Z b
L (f + g) =
(f + g) (x) dx
a
Z b
Z b
g (x) dx
=
f (x) dx +
a
= L (f ) + L (g)
A diferencia de las anteriores, esta transformacion lineal, cuyo dominio es un espacio
vectorial de dimension infinita, no puede representarse mediante una matriz.
5. Sea D : C C el operador derivada en el espacio C de funciones reales
f : R R derivables a todo orden, definida por
D(f ) = f 0
es decir, D(f )(x) = f 0 (x). Se la suele denotar directamente como D =
D es obviamente un operador lineal, ya que si f y g C ,
D(f + q) = (f + g)0 = f 0 + g 0 = D(f ) + D(g)
Notese que D2 es el operador derivada segunda
d2
:
dx2
D2 (f ) = D(D(f )) = D(f 0 ) = f 00
d
.
dx
LINEAL
6.2. IMAGEN Y NUCLEO
DE UNA TRANSFORMACION
11
6.2.
Imagen y n
ucleo de una transformaci
on lineal
12
NuHLL
S
0W
0V
L:VW
LHSL
0V
0W
L:VW
Teorema.
Si L : V W es una transformacion lineal, entonces
1. Nu (L) es un subespacio de V
2. Si S es un subespacio de V , L (S) es un subespacio de W . Esto implica en particular
que la imagen Im(L) = L(V ) es un subespacio de W .
3. Si V es de dimension finita, la suma de la dimension de la imagen Im(L) y la
dimension del n
ucleo Nu(L) es la dimension del espacio V :
dim Im (L) + dim Nu (L) = dim V
Demostracion de 1. En primer lugar, L(0V ) = 0W , por lo que 0V Nu(L). Ademas,
si v1 y v2 Nu (L),
L (v1 + v2 ) = L (v1 ) + L (v2 ) = 0W + 0W = 0W
L (v1 ) = L (v1 ) = 0W
por lo que v1 + v2 y v1 Nu (L). El n
ucleo es pues cerrado por la suma y multiplicacion
por un escalar, siendo entonces un subespacio.
Demostracion de 2. L(S) contiene al 0W pues L(0V ) = 0W . Ademas, si w1 y w2 son
vectores en L (S), existen v1 y v2 en S tales que w1 = L(v1 ), w2 = L(v2 ). Entonces
w1 = L (v1 ) = L (v1 ) para v1 S
w1 + w2 = L (v1 ) + L (v2 ) = L (v1 + v2 )
para v1 y v2 S
Como S es un subespacio, ambos v1 y v1 + v2 pertenecen tambien a S, por lo que
w1 L(S) y w1 + w2 L(S). Luego, L (S) es cerrado por la suma y multiplicacion por
un escalar, siendo entonces un subespacio.
Demostracion de 3. Partiendo de una base B = {v1 , . . . , vk , vk+1 , . . . , vn } de V tal que
{vk+1 , . . . , vn } es una base de Nu(L) (L(vk+1 ) = . . . = L(vn ) = 0W ), todo v V puede
escribirse como v = 1 v1 + . . . + k vk + k+1 vk+1 + . . . + n vn . Entonces,
L(v) = L(1 v1 + . . . + k vk + k+1 vk+1 + . . . + n vn )
= 1 L(v1 ) + . . . + k L(vk ) + k+1 L(vk+1 ) + . . . + n L(vn )
= 1 L(v1 ) + . . . + k L(vk )
por lo que {L(v1 ), . . . , L(vk )} genera Im(L). Ademas, {L(v1 ), . . . , L(vk )} es linealmente
independiente, pues si 0W = 1 L(v1 ) + . . . + k L(vk ) = L(1 v1 + . . . + k vk )
1 v1 + . . . + k vk Nu(L) y entonces 1 v1 + . . . + k vk = 1 vk+1 + . . . + n vn . Pero por
ser los vi linealmente independientes, 1 = . . . = k = k+1 = . . . = n = 0. Por lo tanto,
dim Im(L) + dim Nu(L) = k + (n k) = n = dim V
LINEAL
6.2. IMAGEN Y NUCLEO
DE UNA TRANSFORMACION
13
Ejemplos 6.2
1. Sea L : R2 R2 definida por
x1
L (x) =
0
(operador
de proyeccion). Es obvio que L (x) = 0 si y solo si x1 = 0, es decir,
x1
x =
Nu (L) si y solo si x1 = 0. Por lo tanto, Nu (L) es el subespacio
x2
0
1-dimensional de R2 generado por el vector e2 =
, es decir, es el eje x2 , como
1
es obvio geometricamente (graficar!):
0
Nu(L) =
1
Por otra parte, dado que L(x) = x1 e1 , la imagen Im(L) = L(V ) es el conjunto de
vectores proporcionales a e1 , es decir, el subespacio 1-dimensional de R2 generado
por el vector e1 , que geometricamente es el eje x1 :
1
Im(L) =
0
Se verifica que dim Im(L) + dim Nu(L) = 1 + 1 = 2 = dim V (V = R2 ).
Notese que L(x) = Ax, con A = (10 00 ), y que Nu(L) coincide con el espacio nulo de
A = (10 00 ), mientras que Im(L) coincide con el espacio columna de A.
2. Sea L : R3 R2 definida por
x1 + x2
L (x) =
x2 + x3
x1 + x 2 = 0
Si x Nu (L), entonces
. Resolviendo el sistema, si la variable
x2 + x 3 = 0
t
1
0 1 1
14
Problemas 6.2
1. Verificar que las siguientes transformaciones L : R3 R2 son lineales, y determinar
Nu(L), la
imagen
Im(L) y sus dimensiones,junto
con una base de los mismos:
x
x
x
2x + y
(a) L y =
(b) L y =
x+y+z
4x 2y
z
z
2
2
2. Idem 1. para
transformaciones
las siguientes
L: R R :
x
y
x
0
(a) L
=
(b) L
=
y
x
y
y
Interpretelas geometricamente.
3. Importante: Sea L : Rn Rm la transformacion lineal definida por una matriz A
de m n:
L(x) = Ax
Probar que:
a) El n
ucleo Nu(L) es el espacio nulo de la matriz A.
b) La imagen Im(L) es el espacio generado por las columnas de la matriz A (o
sea, el espacio columna de la matriz).
c) La igualdad dim Im(L) +dim Nu(L) = dim V es equivalente a
rango (A) + nulidad (A) = n
d) Verifique estos resultados para las transformaciones del ejercicio 2., escribiendolas
en la forma L(x) = Ax.
4. Determinar si son lineales las siguientes transformaciones L : R22 R. En caso
de que lo seanhalle su n
ucleo e imagen.
a b
(a) L(
) = a + d (Traza de la matriz)
c d
a b
(b) L(
) = ad bc (Determinante de la matriz)
c d
5. a) Determine si la traza de una matriz cuadrada A de n n, definida por
T r(A) =
n
X
i=1
15
x2
, determine la imagen por L del segmento de recta entre
x1
6.3.
1. Si L : V W es una transformacion lineal, con V un espacio vectorial de dimension finita n y B = {v1 , . . . , vn } una base arbitraria de V , entonces L queda
completamente determinada por los n vectores {L(v1 ), . . . , L(vn )}, es decir, por las
n imagenes de los vectores de la base.
En efecto, si v V , entonces
v = 1 v 1 + . . . + n vn
y por lo tanto
L(v) = L(1 v1 + . . . + n vn ) = 1 L(v1 ) + . . . + n L(vn )
16
es decir, L(v) es una combinacion lineal de los n vectores L(v1 ), . . . , L(vn ).
La imagen L(V ) es entonces el espacio generado por estos n vectores:
L(V ) = hL(v1 ), . . . , L(vn )i
Notese, no obstante, que el conjunto {L(v1 ), . . . , L(vn )} puede ser linealmente dependiente (por ej., algunos vectores L(vi ) puden ser nulos), en cuyo caso no sera
una base de L(V ).
2. Una transformacion lineal L : V W es inyectiva (o monomorfismo) si
L(v1 ) 6= L(v2 ) v1 6= v2 . Es facil ver que es inyectiva si y s
olo si Nu(L) = {0V }.
En efecto, L inyectiva L(v) 6= L(0V ) = 0W v 6= 0V , por lo que Nu(L) = {0V }.
Y si Nu(L) = {0V } L(v1 ) L(v2 ) = L(v1 v2 ) 6= 0W v1 6= v2 , por lo que L
es inyectiva.
3. Si Nu(L) = {0V } y {v1 , . . . , vk } V es linealmente independiente, el conjunto
{L(v1 ), . . . , L(vk )} es linealmente independiente. En otras palabras, si la transformacion lineal L es inyectiva, conserva la independencia lineal.
En efecto, si
0W = 1 L(v1 ) + . . . + k L(vk ) = L(1 v1 + . . . + k vk )
entonces 1 v1 + . . . + k vk Nu(L), por lo que 1 v1 + . . . + k vk = 0V . Pero esto
implica 1 = 2 = . . . = k = 0 por ser {v1 , . . . , vk } linealmente independiente. Por
lo tanto, {L(v1 ), . . . , L(vk )} es linealmente independiente.
En particular, si {v1 , . . . , vn } es una base de V {L(v1 ), . . . , L(vn )} es una base
de la imagen Im(L) = L(V ), pues por lo anterior, es linealmente independiente y
por la propiedad 1, genera la imagen. Por lo tanto, para L : V W inyectiva,
dim Im(L) = n y dim Nu(L) = 0, verificandose que
dim Im(L) + dim Nu(L) = n + 0 = n = dim V
Esto tambien implica que si L : V W es inyectiva, necesariamente
dim V dim W pues Im(V ) W .
4. Si L : V W es una transformacion lineal y L(V ) = W L es sobreyectiva
(epimorfismo). En este caso la imagen L(V ) es todo el codominio W , es decir, cubre
todo W , por lo que el conjunto {L(v1 ), . . . , L(vn )} genera W .
Ademas, en este caso se cumple que
dim V = dim Im(L) + dim Nu(L) = dim W + dim Nu(L)
por lo que necesariamente dim V dim W .
17
Isomorfismos:
5. Si L : V W es una transformacion lineal biyectiva, es decir, que es a la vez
inyectiva (Nu(L) = {0V }) y sobreyectiva (L(V ) = W ) se dice que L es un
isomorfismo. Si V = W al isomorfismo se lo denota automorfismo.
Si L es un isomorfismo y dim V = n, con B = {v1 , . . . , vn } una base de V
{L(v1 ), . . . , L(vn )}
es una base de W , pues son linealmente independientes (por ser L inyectiva) y
generan W (por ser L sobreyectiva). Un isomorfismo transforma entonces cualquier
base de V en una base de W .
Por lo tanto, V y W deben tener la misma dimensi
on n (cuando son de dimension finita). Para un isomorfismo se verifica entonces que
dim Im(L) + dim Nu(L) = n + 0 = dim V = dim W
6. Una funcion L : V W tiene inversa L1 : W V si y solo si L es biyectiva.
Por lo tanto, si L : V W es una transformacion lineal, L tendra inversa
L1 : W V si y s
olo si L es un isomorfismo:
L(v) = w v = L1 (w)
cumpliendose que
L(L1 (w)) = L(v) = w w W
L1 (L(v)) = L1 (w) = v
vV
es decir,
LL1 = IW ,
L1 L = IV
18
1
1
con L(e1 ) =
, L(e2 ) =
, por lo que basta conocer L(e1 ) y L(e2 ) para determinar
1
1
L(x) para cualquier x R2 .
Se comprueba tambien que Nu(L) = 0, pues si x1 +x2 = 0 y x1 x2 = 0 x1 = x2 = 0
(verificar!). Por lo tanto L es inyectiva. Y finalmente, vemos que la imagen de L es
1
1
1
1
L(V ) = {x1
+ x2
, x1 , x2 R} =
,
= R2
1
1
1
1
por lo que L es tambien sobreyectiva. Este resultado puede tambien obtenerse directamente de
dim Im(L) = dim V dim Nu(L) = 2 0 = 2
L es entonces un automorfismo, es decir, un isomorfismo entre V y V , con V = R2 .
L tendra entonces inversa L1 : R2 R2 , dada por (verificar!)
1 x1 + x2
1 x1
=
L
x2
2 x1 x2
Notemos finalmente que podemos expresar L(x) como
1 1
x1
L(x) =
1 1
x2
y L1 (x) como
1
L (x) =
2
1
1 1
x1
1 1
x2
19
20
6.4.
Representaci
on matricial de transformaciones
lineales
Veremos ahora que cualquier transformacion lineal L entre espacios vectoriales de dimension finita V y W se puede representar mediante una matriz A, que dependera de las
bases que se consideren en V y W .
En primer lugar consideramos transformaciones de Rn en Rm :
L : Rn Rm
Asumimos primero que la base en V = Rn es la base can
onica Bc = {e1 , . . . , en }.
n
Dado x R , podemos representarlo como
x1
..
x = . = x1 e 1 + . . . + xn e n
xn
Como L es lineal,
L (x) = x1 L (e1 ) + . . . + xn L (en )
Luego si para cada ej , j = 1, . . . , n, se tiene
a1j
L (ej ) = aj = ...
amj
entonces
a11
a1n
a11 . . . a1n
x1
..
.
...
.. ...
= .
am1 . . . amn
xn
es decir,
L(x) = Ax
con A la matriz de m n
a11
..
A = (L(e1 ), . . . , L(en )) = .
am1
. . . a1n
..
..
.
.
. . . amn
c
A = [L]B
Bc
a1 = L (e1 ) = L 0 =
, a2 = L 1 =
, a3 = L 0 =
0
1
1
0
0
1
3
Por lo tanto,
1 1 0
A = (a1 , a2 , a3 ) =
0 1 1
Verificaci
on:
Ax =
x1
1 1 0
x1 + x2
x2 =
= L (x)
0 1 1
x2 + x3
x3
a11 . . . a1j
..
..
..
L(ej ) = Aej = .
.
.
am1 . . . amj
. . . a1n ...
a
1j
.. 1 = .. = a
..
.
j
.
.
. . . amm ..
amj
0
con aj la columna j-
esima de A, por lo que la representacion matricial de L en
las bases canonicas de Rn y Rm es precisamente A:
c
[L]B
Bc = (L(e1 ), . . . , L(e2 )) = A
a b
Por ejemplo, si A =
,
c d
a b
x1
ax1 + bx2
L(x) =
=
c d
x2
cx1 + dx2
y entonces
1
a
a b
L(e1 ) =
=
= a1
c d
0
c
a b
0
b
L(e2 ) =
=
= a2
c d
1
d
por lo que (a1 , a2 ) = A.
El problema 6.2.3 implica entonces que la imagen Im(L) de una transformacion
c
lineal L : Rn Rm es el espacio columna de A = [L]B
Bc (es decir, el espacio generado
por los vectores columna de A) mientras que el n
ucleo Nu(L) es espacio nulo de A.
22
3. Rotacion general en R2 . Tomemos la transformacion L : R2 R2 , tal que a cada
vector x lo hace rotar un angulo , en sentido antihorario:
x2
x2
LHe2L
LHxL
e2
LHe1L
x1
Tenemos
Por lo tanto
cos
L (e1 ) =
sin
e1
y L (e2 ) =
sin
cos
x1
cos sin
A = (L (e1 ) , L (e2 )) =
sin cos
6.4.1.
Caso general:
Consideremos una transformacion lineal general L : V W entre espacios vectoriales V y W de dimension n y m respectivamente. Sean
BV = (v1 , . . . , vn ) ,
BW = (w1 , . . . , wm )
x1
= ... = x el vector de coordenadas de v con respecto a la base BV .
xn
siendo [v]BV
j = 1, . . . , m
y1
a1j
a11
a1n
= x1 ... + . . . + xn ...
am1
amn
x1
a11 . . . a1n
..
.
.
..
.. ...
= .
am1 . . . amn
= Ax
xn
es decir,
[L(v)]BW = A[v]BV
donde A es la matriz de m n
a11 . . . a1n
..
..
A = ([L(v1 )]BW , . . . , [L(vn )]BW ) = ...
.
.
am1 . . . amn
Esta matriz A se denomina representaci
on matricial de L respecto de las bases
V
BV de V y BW de W . La denotaremos tambien como A = [L]B
BW .
El resultado se puede resumir en el siguiente esquema grafico:
24
W
L:VW
x=@vDBV
w=LHvL
y=Ax
=@LHvLDBW
A Rmxn
Rn
Rm
Ejemplos 6.4.1
1. Sea L : R3 R2 la transformacion lineal definida por
L(x) = x1 b1 + (x2 + x3 ) b2
donde x = x1 e1 + x2 e2 + x3 e3 y
1
b1 =
,
1
1
b2 =
1
Tenemos
L (e1 ) = b1 = 1b1 + 0b2
L (e2 ) = L(e3 ) = b2 = 0b1 + 1b2
Por lo tanto, la representacion matricial de L con respecto a las bases Bc = (e1 , e2 , e3 )
de V = R3 y BW = (b1 , b2 ) de W = R2 es
1 0 0
Bc
A = [L]BW = ([L(e1 )]BW ), [L(e2 )]BW , [L(e3 )]BW ) =
0 1 1
As,
[L(x)]BW
x1
1 0 0
x1
x2 =
=
0 1 1
x2 + x 3
x3
0 1 0
2
0 0 2
A = [D]B
B = ([D(1)]B , [D(x)]B , [D(x )]B ) =
0 0 0
a0
2
0 1 0
a0
a1
a1 = 2a2
[D(p)]B = A[p]B = 0 0 2
0 0 0
a2
0
que implica D(p) = a1 + 2a2 x + 0x2 = a1 + 2a2 x. Al ser P2 de dimension 3, todo
operador lineal en P2 puede entonces ser representado por una matriz de 3 3, tal
como un operador en R3 .
Relaci
on entre las propiedades de L y la matriz de representaci
on
Sea L : V W una transformacion lineal, con dim V = n, dim W = m, y
V
A = [L]B
BW
26
Los vectores Rm de una base del espacio columna de A son las coordenadas en la
base BW de los vectores de una base de la imagen Im(L), mientras que los vectores Rn
de una base del espacio nulo de A son las coordenadas en la base BV de los vectores
de una base del n
ucleo Nu(L). Por lo tanto, pueden obtenerse bases de estos espacios
mediante los metodos ya conocidos para obtener bases de los espacios columna y nulo de
una matriz. Y la ecuacion L(v) = w es equivalente al sistema lineal A[v]BV = [w]BW .
Problemas 6.4 (continuacion)
1. 3. A partir de consideraciones
tricas, encontrar la representacion matricial [L]B
B
geom
e
1
1
2
2
respecto de la base B = (
,
) de la transformacion lineal L : R R que
1
1
refleja todo vector respecto de la recta y = x. Mostrar que dicha matriz es diagonal.
c
Comparar con la matriz que la representa en la base canonica [L]B
Bc .
2. 4. Sea D : P3 P3 el operador derivada en el espacio de polinomios de grado 3.
a) Determine su representacion matricial A en la base B = (1, x, x2 , x3 ).
b) Halle el n
ucleo y la imagen de D en este espacio, y su relacion con el espacio
columna y nulo de A.
6.5.
Cambio de base
Determinaremos ahora en forma explcita la relacion entre las representaciones matriciales de una transformacion lineal L en distintas bases. La ventaja de cambiar de base
es la posibilidad de encontrar una base en la que la matriz representativa de L sea simple
(por ejemplo, diagonal) y por lo tanto sus propiedades esenciales (rango, imagen, etc.)
resulten evidentes.
Consideremos primero un operador lineal L : V V , con V de dimension finita n.
Recordemos que si B = (v1 , . . . , vn ) y B 0 = (v10 , . . . , vn0 ) son dos bases de V , podemos
escribir cualquier vector v V en las formas
v = x1 v 1 + . . . + xn v n
= x01 v10 + . . . + x0n vn0
x1
x01
Las coordenadas x = [v]B = ... y x0 = [v]B 0 = ... en estas bases se relacionan
x0n
xn
por
x0 = S 1 x
o en forma equivalente,
x = Sx0
donde
S = [v10 ]B , . . . , [vn0 ]B
27
Si A = [L]B
on de L en la base B y A0 = [L]B
on en la
B es la representaci
B 0 su representaci
0
0
base B , las matrices A y A se relacionan por
A0 = S 1 AS
donde S = [v10 ]B . . . [vn0 ]B es la matriz de cambio de base.
Notar que si se conoce A0 , la relacion anterior permite obtener A como (probar!)
A = SA0 S 1
Podemos resumir el resultado en el siguiente esquema grafico:
vV
x=@vDB
Rn
L:VV
A Rnxn
y=Ax
=@wDB
S-1
S
x'=@vDB'
Rn
w=LHvL
y'=A'x'
=@wDB'
28
y su inversa S 1
1
1
= 21
. Luego
1 1
1 1
1 0
1/2 1/2
0 1
A = SA S
=
1 1
0 1
1/2 1/2
0 1
=
1 0
6.5.1.
Matrices semejantes
det(S 1 AS)
det(S 1 )det(A)det(S)
(det(S))1 det(A)det(S)
det(A)
Esto implica que el determinante det(A) es una propiedad del operador lineal L
representado por A, permaneciendo invariante frente a cambios de base.
As, comprobamos en el ejemplo 6.5.1 que det(A0 ) = det(A) = 1.
29
Pn
i=1
n
n X
m
m X
n
m
X
X
X
X
(AB)ii =
(
aij bji ) =
(
bji aij ) =
(BA)jj = TrBA
i=1
i=1 j=1
j=1 i=1
j=1
Luego
Tr A0 = Tr (SAS 1 ) = Tr ((AS 1 )S) = Tr (A(S 1 S)) = Tr A
Este resultado implica que la traza es tambien una propiedad del operador L representado
por A, permaneciendo invariante frente a cambios de base.
As, comprobamos en el ejemplo 6.5.1 que Tr (A0 ) = Tr(A) = 0.
Finalmente, mencionemos una tercera propiedad relacionada con 1.:
3. Si A y A0 son matrices semejantes de n n e In es la matriz identidad, entonces
det (A0 In ) = det(A In )
para cualquier escalar .
Este determinante (que es un polinomio de grado n en denominado polinomio caracterstico) juega un rol central en la teora de autovalores, como veremos luego.
Demostracion:
det(A0 In ) = det(S 1 A0 S In ) = det[S 1 (A In )S]
= (det(S 1 )det(A In )det(S)
= det(A In )
As, comprobamos en el ejemplo 6.5.1 que
1
0
0
= (1 )(1 ) = 2 1
det(A I2 ) =
0
1
1
= 2 1 = det(A0 I2 )
det(A I2 ) =
1
30
Problemas 6.5
1. Dada L : R3 R3 definida por
2 2 0
L(x) = Ax , A = 1 1 2
1 1 2
x1
a) Obtener la expresion explcita de L(x) para un vector x = x2 .
x2
1
2
1
b) Hallar su representacion A0 en la base B 0 =1 , 1 , 1.
0
1
1
Verificar que L(v10 ) = 0, L(v20 ) = v20 , y L(v30 ) = 4v30 , y que por lo tanto, A0 es
diagonal.
c) Usar esta representacion diagonal para hallar su n
ucleo e imagen.
d) Usar esta representaciondiagonal
para interpretar L geometricamente.
cos
sin
,
sin
cos
6.6.
Composici
on de transformaciones (operaciones
sucesivas)
(6.1)
6.6.1.
Representaci
on matricial de la composici
on
32
por lo que la representacion matricial de la composicion G L con respecto a las bases
canonicas de V y U es el producto AG AL de las matrices que representan a G y a L:
AGL = AG AL
(6.2)
y =
L y
=
0 1 1
y+z
z
z
x+y
x
1 1
x
=
=
G
2x 2y
y
2 2
y
Por lo tanto,
x
x
1 1
1 1 0
y
(GL) y =
2 2
0 1 1
z
z
x
1 2 1
y
=
2 0 2
z
x + 2y + z
=
2x 2z
o sea, AGL = AG AL =
1 2 1
2 0 2
(6.3)
, con (G L)(x, y, z) = (x + 2y + z, 2x 2z).
6.6.2.
(6.5)
(6.6)
1
1 2x + y
x
2
1
x
=
=
y
y
3 1 2
3 x 2y
34
Problemas 6.6.2
1. Si L : R3 R3 queda definido por L(x, y, z) = (y, x, z),
i) mostrar que en la base canonica,
0 1 0
AL = 1 0 0
0 0 1
ii) Hallar A2L y verificar que L2 es el operador identidad.
2. Sea P2 el subespacio de los polinomios reales de grado 2.
d
),
Si D : P2 P2 denota el operador derivada (D = dx
i) Hallar las representaciones matriciales AD y AD2 de D y la derivada segunda D2
en las base canonica (1, x, x2 ) y verificar que
AD2 = AD AD = A2D
6.6.3.
Composici
on de transformaciones lineales en R2
x2
LHvL
y=x
RHvL
v
x1
v
x1
0 1
1 0
.
x2
v
RLHvL
v
x1
x1
LRHvL
Por lo tanto, vemos que el resultado final depende del orden de la composici
on, lo
que se refleja en la no conmutatividad del producto matricial asociado.
Se define el conmutador de dos operadores L : V V , G : V V como
[G, L] = GL LG
que es en general un operador no nulo. La matriz que lo representa en una base de V es
el conmutador de las matrices que representan a G y L en dicha base:
A[G,L] = AG AL AL AG . En el ejemplo anterior se obtiene
1 0
1 0
1 0
AR AL AL AR =
=2
0 1
0 1
0 1
36
que implica RL LR = 2RL, es decir, LR = RL.
Recordemos finalmente que la proyeccion ortogonal de un vector sobre el eje x esta dada
por (graficar!)
x
1 0
x
x
Px
=
=
y
0 0
y
0
y la proyeccion ortogonal de un vector sobre el eje y esta dada por
x
0 0
x
0
Py
=
=
y
0 1
y
y
Problemas 6.6.3
1. a) Hallar la representacion matricial en la base canonica de la inversa de los operadores R y L anteriores.
b) Tienen Px y Py inversa?
c) Encuentre la representacion matricial de Px Py y Py Px . Justificar el resultado.
2. Sea F : R2 R2 el operador lineal que primero rota todo vector un angulo /2
en sentido antihorario y luego lo proyecta sobre el eje x. Hallar su representacion
matricial en la base canonica y una expresion para F (xy ).
3. Sea G : R2 R2 el operador lineal que primero proyecta todo vector sobre el eje
x y luego lo rota un angulo /2 en sentido antihorario. Hallar su representacion
matricial en la base canonica y una expresion para G(xy ).
4. Recordando que la representacion matricial en la base canonica de una reflexion
respecto de la recta y = mx, con m = tan , es
cos 2 sin 2
sin 2 cos 2
a) Halle su determinante.
b) Muestre que la composicion de dos reflexiones es una rotacion.
5. Recordando que la representacion matricial en la base canonica de una rotacion de
angulo antihorario es
cos sin
sin cos
a) Halle su determinante.
b) Muestre que la composicion de dos rotaciones es otra rotacion.
c) Muestre que la composicion de una reflexion con una rotacion es otra reflexion.
6. Encuentre, a partir de las figuras, la representacion matricial en la base canonica de
las siguientes transformaciones lineales L : R2 R2 :
x2
LHCL
LHCL
2
C
C
a)
x1
1,5
x1
b)
x2
x2
LHCL
C
1
LHCL
c)
d
c
x1
d)
x1
Matematica C
Transformaciones Lineales: Apendice
As si se tienen p vertices (xi; yi) para i = 1; : : : ; p, se almacenan como una matriz T
de 2 (p + 1)
x x x x
1
T= 1 2
p
y1 y2 yp y1
0
1 1 0
0 1 ;1 0
A~nadimos la cuarta columna para indicar que el ultimo punto (1; ;1) debe ser conectado (mediante un procedimiento de dibujo computacional) al primer punto (0; 0) para
completar el triangulo
Para transformar una gura, hay que cambiar de posicion de los vertices y \redibujar" la
gura. Si la \transformacion" es lineal, se puede hacer esto mediante una multiplicacion
de matrices (en R 2 ).
...
Animacion: Viendo una sucesion de estos dibujos, realizados de manera muy rapida
en tiempo real, produce el efecto de una \animacion".
dilatacion
contraccion
Ly (x) =
;x
y
x
Ay =
;1 0
0 1
T 0 = Ax:T
T 00 = Ay :T
(3) Rotaciones: Para rotar un vector un angulo en sentido contrario a las agujas del
reloj, multiplicamos cada vector por la matriz
cos ; sin
A = sin cos (operador rotacion)
Para obtener la rotacion del triangulo...
T0
=
=
cos ; sin 0 1 1 0
A :T = sin cos : 0 1 ;1 0
0 (cos ; sin ) (cos + sin ) 0
Ahora, una transformacion muy usada, pero que \no es lineal" (vericar que no
cumple las propiedades de linealidad)...
x0 = A:x =
cos ; sin
:x
sin cos
x = B:x0
=
=
Pero ...
0 1
x2
x2
... Si de nuevo re
ejamos x0 sobre el eje x2 , deberamos recobrar nuestro vector original
Esto es ...
A;1 = A
Efectivamente ...
A =
2
;1 0 ;1 0
0 1 : 0 1
1 0
0 1
Ejemplo 3 Para invertir el sentido de x, multiplicamos x por la matriz A
x0
= A:x =
;1
;x
0 : x1
0 ;1
x2
1
;x2 = ;x
... Si ahora invertimos el sentido de x0 , recobramos x
x = A:x0 = A: (A:x)
= A
2;:x1 0 ;1 0
= 0 ;1 : 0 1 :x
1 0
= 0 1 :x
A;1 = A
Ejemplo 4 Para rotar x en sentido antihorario mediante el angulo = =2, multiplicamos x por A
cos ; sin
0
x = A:x =
:x
=
... o, rotamos x en sentido antithorario primero mediante =3, y luego rotamos mediante =6 ...
x0
:x
A1 :A2 =
A2 :A1 =
0 0 x 0
: 1 =
0 1
x2
x2
A:x0 = A (A:x) =
esto es
0 0 0 0
0
0 1 : x2 = x2 = x
0 0 0 0 0 0
A = 0 1 : 0 1 = 0 1 =A
2
Todos los vectores que tengan la misma coordenada x2 tendran la misma proyeccion
sobre el eje x2 . O sea, seran transformados al mismo vector x0 .
El operador proyeccion no tiene inversa, debido a que el vector x0 no puede ser retornado sobre un unico vector x.
De hecho ...
0 0
det A = det 0 1 = 0
... y por tanto A es singular (no invertible).
La matriz A que representa a un operador lineal es \singular" (no invertible) si la
operacion \ no puede deshacerse o invertirse" para recobrar el vector inicial unico .
x
x= y
0 x1
! @y A = x^
1
Para dibujar un punto representado por estas \ coordenadas homogeneas" x^, solo hay
que \ignorar" el tercer coeciente y simplemente dibujar (x; y).
Con esta denicion articial (y aparentemente arbitraria), los \cuatro tipos" de operaciones gracas descriptas, a pesar que la 4ta. no es lineal, podran ser representadas
mediante matrices de 3 3, si se las quiere combinar con traslaciones. Recuerden que si no
usan traslaciones, no hay necesidad de usar ningun articio ya que las transformaciones
1-2-3, cada una tiene su matriz de representacion.
Para el caso, cuando aparecen traslaciones, en las coordenadas homogeneas se agrega
la \tercer la" y la \tercer columna" de la matriz identidad I3 , de 3 3:
As en esta situacion ....
0c 0 01
A la matriz de dilatacion c:I2: se le agrega... @0 c 0A Observar que no es c:I3.
0 0 1
3
Esa sera una dilatacion en < , que no es la dada en 2- variables.
De igual manera....
01 0 01
A la matriz de re
exion A : @0 ;1 0A
0 0 1
0cos ; sin 01
A la Matriz de rotacion A : @ sin cos 0A
x
0
0 1
Luego, por ejemplo, la aplicacion de una re
exion respecto del eje \x" a un vector
arbitrario (x,y):
Axx^ =
=
01 0 01 0x1
@0 ;1 0A : @yA
00x 10 1 1
x
@;yA !; al eliminar la tercer componente ..... ;y
1
01
Aa = @0
0 ax
1 ay A
0 0 1
Se tiene entonces que la aplicacion de esa matriz a un vector arbitrario (x,y), con la
tercer componente 1 ...
Aa:x^ =
=
x + a
01 0 a 1 0x1
@0 1 a A : @y A
00x +0a 11 1
@y + a A ! eliminado la tercer componente se obtiene:
x
y
y + ay =x+a
x
En el ejemplo del triangulo, su aplicacion, a cada vector o vertice con la tercer componente agregada ...
00
T^ = @0
1 1 0
1 ;1 0A
1 1 1 1
T^0 =
=
01 0 a 1 00 1 1 01
Aa:T^ = @0 1 a A : @0 1 ;1 0A
0a (1 +0a 0) (11 + a )1 a11 1 1
@a (1 + a ) (1 + a ) a A
x
y
x
y
x
y
0a 1
Los vectores columnas de T^, se trasladan mediante @a A = a.
x
y
T^0 = AaT^
T^0 = AaT^
0x x x 1 0x x x x 1
1
2
1
2
1
T^ = @ y1 y2 y A o @y1 y2 y y1 A
n
1 1 1
1 1 1 1
Otra transformacion \lineal" conocida...
Observaci
on 7 El operador \proyeccion" tambien puede ser tratado de esta manera,
y es muy importante para representaciones gracas en 2-dimensiones, con perspectiva
espacial, de un objeto tridimensional.
Ejemplo 8 Para dilatar un gura mediante un factor c > 1, y luego trasladarla mediante
un vector a, multiplicamos la matriz de vertices T^ por el producto de dos matrices
01
T^0 = (Aa) : (c:I2) :T^ = @0
10
0 ax
c 0 0
c 0 ax
1 ay A : @0 c 0A :T^ = @0 c ay A :T^
0 0 1
0 0 1
0 0 1
... y para rotar la imagen resultante en sentido antihorario mediante el angulo , multiplicamos T^0 por A
T^00 =
=
0cos ; sin 01 0c 0 a 1
A :T^0 = @ sin cos 0A : @0 c a A :T^
0c cos ;c0sin (0a cos1 ; a 0sin0)11
@ c sin c cos (a sin + a cos )A :T^
x
y
T 0 = A :T
T 00 = Aa:T 0 = Aa:A :T
10
Ahora ...
Traslaci
on... y luego rotacion :
T 0 = Aa:T
T 00 = A :T 0 = A :Aa:T
Aa:A 6= A :Aa
... y por tanto, el \orden" de las operaciones es importante.
Un programa simple de computadora en dos dimensiones es una secuencia de estas
operaciones, calculadas y expuestas muy rapidamente, en tiempo real.
11
Facultad de Ingeniera
UNLP
Matematica C
Proyeccion ortogonal. Bases ortogonales
1 Proyecci
on
En secciones previas hemos usado la proyeccion ortogonal de vectores de R3 sobre el
plano xy (subespacio). Asumiendo que el vector esta por encima del plano xy, esta proyeccion es la sombra (al medioda) del vector sobre este plano:
z
PxyHvL
1.1 Proyecci
on Ortogonal sobre una recta
Primero consideramos de nuevo la proyeccion ortogonal sobre una recta que pasa por
el origen, dirigida por un vector ~s.
Proyectar ortogonalmente un vector ~v sobre una recta dirigida por ~s da un punto p~
sobre la recta tal que el segmento que une p~ con ~v es perpendicular a la recta. Un observador que camine sobre esa recta y se detenga en el punto p~, al mirar hacia arriba (o hacia
abajo, seg
un la posicion del vector) en forma perpendicular a la recta, vera el extremo de ~v :
s
x
Es decir, ha caminado sobre la recta {c~s, c R} hasta hallar el punto p~ = cp~s determinado por un coeficiente cp , con la propiedad de que el vector ~v cp~s es ortogonal a cp~s.
v-c p s
cp s
x
Para determinar cp , basta con observar que la diferencia ~v cp~s debe ser ortogonal al
propio vector ~s (no nulo) que genera la recta. Por lo tanto, el producto escalar de estos
dos vectores debe ser nulo:
(~v cp~s) ~s = 0
De aqu obtenemos
~v ~s
~s ~s
|~v |
es decir, cp = |~s| cos , donde es el angulo entre ~v y ~s. Estas consideraciones son aplicables
tanto a R2 o R3 como tambien a Rn (y tambien a todo espacio vectorial en el que se ha
definido un producto escalar!), siendo el plano del dibujo el subespacio de dimension 2
generado por ~v y ~s.
cp =
Definici
on. Sea ~v Rn . La proyeccion ortogonal de ~v sobre la recta (que pasa por el
origen) generada por el vector no nulo ~s Rn es el vector
P~s (~v ) =
~v ~s
~s
~s ~s
Es decir, P~s (~v ) = (|~v | cos ) |~~ss| . El resultado depende solo de la direccion de ~s y no de
su longitud (o sentido): P(~s) (~v ) = P~s (~v ) 6= 0. De esta forma, el vector ~v P~s (~v ) es
perpendicular a ~s:
[~v P~s (~v )] ~s = 0
Ejemplo. Para proyectar ~v = (x, y) R2 ortogonalmente sobre la recta y = 2x,
primero obtenemos un vector que indique la direccion de la recta. Por ejemplo,
1
~s =
2
Luego
1
(x, y)
2
x + 2y 1
1
P~s (~v ) =
=
2
2
5
1
(1, 2)
2
3
0x1
@y A
z
sobre el eje- y es
01
;x y z @01A 0 1 0 1
0
0
0001 @1A = @yA
;0 1 0 @1A 0
0
0
lo cual se corresponde con lo esperado por nuestra intuicion. Gracar.
Otra forma de pensar la proyeccion de v sobre la recta...
Desde el dibujo que precede a la denicion observamos que el vector ~v se ha descompuesto en dos partes:
(1) La parte sobre la recta: p~ = cp~s), que es el vector proyectado; y
...
(2) la parte que es ortogonal a la recta: ~v ; cp~s.
As la proyeccion ortogonal de ~v sobre la recta generada por ~s es la parte del ~v que
yace en la direccion del vector ~s.
Una forma util de pensar la proyeccion ortogonal de ~v sobre la recta indicada ...
... es pensar que la proyeccion de ~v es el vector o punto en la recta que esta mas cerca
a ~v . Es decir hallar en la recta el punto cuya distancia al v es mnima. Repasar el dibujo.
Problema.
Dada una recta que no pasa por el origen.
... La proyeccion de ~v sobre esa recta es el vector o punto en la recta que esta mas
cerca a ~v. Es decir, se debe hallar en la recta el punto cuya distancia al v es mnima.
Gracar.
... > Como puede hallar el punto sobre esa recta que esta mas cerca de v ?.
Ejercicios
X 1.1 Proyectar el primer vector ortogonalmente sobre la recta que pasa por el origen
generada por el segundo vector.
011 0 3 1
011 0 1 1
2 3
2 3
(a) 1 , ;2 (b) 1 , 0 (c) @1A, @ 2 A (d) @1A, @ 3 A
;1
4
X 1.2 Proyectar el vector dado ortogonalmente sobre la recta indicada.
4
12
3
2
(a) 1 , = c 1 | c
3
4
(b)
1
1
, la recta y = 2x
1.3 Aunque lo desarrollado ha sido guiado por representaciones graficas, no nos restringimos a espacios que podemos dibujar. Por ejemplo, en 4 , proyectar ~v sobre la recta ,
con
1
1
~v =
|c
= c
1
1
1
3
1
2
.
1.4 Consideremos en la proyeccion ortogonal sobre la recta generada por ~s =
3
1
sobre la direccion de ~s.
(a) Proyectar ~v =
2
x
sobre la direccion de ~s es
(b) Mostrar que la proyeccion de un vector general ~v =
y
x + 3y
x
/10
=
proj [~s]
3x + 9y
y
(c) Encontrar la representacion matricial en la base canonica de esta proyeccion.
1.5 Al proyectar un vector ~v , la proyeccion separa a ~v en dos partes: proj [~s] (~v ) y
~v proj [~s] (~v ), que son vectores ortogonales.
(a) Mostrar que si son no nulos, forman un conjunto linealmente independiente.
(b) Que es la proyeccion ortogonal de ~v sobre una recta que pasa por el origen si ~v
esta contenido en esa recta? Como es ~v proj [~s] (~v ) en este caso?
(c) Mostrar que si ~v no esta en la recta y no es perpendicular a ~s entonces el conjunto
{~v , ~v proj [~s] (~v ) } es linealmente independiente.
1.6 Mostrar que la proyeccion de ~v en la recta generada por ~s tiene longitud igual al
valor absoluto del n
umero ~v ~s dividido por la longitud del vector ~s .
1.7 Encontrar la formula para la distancia de un punto a una recta que pasa por el origen.
1.8 Encontrar el escalar c tal que c~s = (cs1 , cs2 ) este a mnima distancia del punto (v1 , v2 ),
utilizando minimizacion de funciones. Generalizar a n .
1.9 Probar que la longitud de la proyeccion ortogonal de un vector ~v sobre una recta es
mas corta que la del vector ~v .
1.2 Ortogonalizaci
on de Gram-Schmidt
En la seccion previa se sugirio que al proyectar sobre la recta (que pasa por el origen),
dirigida por un vector ~s, se descompone al vector ~v en dos vectores que son ortogonales:
~v = proj [~s] (~v ) + ~v proj [~s] (~v )
Luego, ~v es suma de dos vectores ortogonales. Si ambas partes son no nulas (cuando
podra ocurrir otra cosa?) son dos vectores linealmente independientes por ser ortogonales.
Ahora, trabajamos sobre esa idea ...
5
Denicion Los vectores ~v1; : : : ;~vk 2 <n son mutuamente ortogonales si todo par de
vectores son ortogonales: Si i =
6 j entonces el producto escalar ~vi ~vj es cero, para todo
par i , j .
As ...
Teorema Si los vectores de un conjunto f~v1 ; : : : ;~vk g <n son no nulos y mutuamente
ortogonales entonces el conjunto es linealmente independiente.
muestra, como ~vi es no nulo, que ci es cero. Vale para cada i = 1; :::k. Luego, los k
vectores son linealmente independientes.
Sin embargo, podemos alcanzar una recproca \parcial" en el sentido que \ para todo
subespacio de <n existe al menos una base de vectores mutuamente ortogonales".
4 1
B=h 2 ; 3 i
... Sin embargo, podemos encontrar desde B una \ nueva base" para el mismo espacio
cuyos vectores sean \mutuamente" ortogonales. Para el primer vector de la nueva base
usamos el mismo de B , usamos ~ 1 . As
4
~1 = 2
1
3
proj
[~1 ] (
)=
... y sera , ~2 (la parte del vector ~ 2 que es ortogonal a ~1 )
Notar que, por el corolario, f~1 ;~2 g es una base para <2.
Denicion Una base ortogonal para un espacio vectorial es una base de vectores \
mutuamente ortogonales".
Ejemplo Para pasar de una base de <3
011 001 011
h@1A ; @2A ; @0Ai
1
1
3
a una base ortogonal, como antes tomamos como primer vector el primer vector de la base
dada.
011
~1 = @1A
1
Para obtener el segundo ~2 , comenzamos con el segundo vector de la base dada ~ 2 y le
sustraemos la parte de el que es la proyeccion sobre ~1 .
001
001 001 02=31 0;2=31
~2 = @2A ; proj[~1 ](@2A) = @2A ; @2=3A = @ 4=3 A
0
0
0
2=3
;2=3
Finalmente, para obtener ~3 tomamos el tercer vector dado y le sustraemos la parte de el
en la direccion de ~1 , y tambien la parte del mismo en la direccion de ~2 .
011
011
011 0;11
~3 = @0A ; proj[~1 ](@0A) ; proj[~2 ](@0A) = @ 0 A
3
3
3
1
... El corolario dice que ....
011 0;2=31 0;11
h@1A ; @ 4=3 A ; @ 0 Ai
1
;2=3
1
es una base de <3 .
Para generalizar...
El resultado proximo verica que el procedimiento dado en los ejemplos genera una
base ortogonal, para un subespacio de <n, a partir de una base dada. Nos restringimos a
<n porque no hemos dado una denicion de ortogonalidad general para otros espacios.
...
...
~k = ~ k ; proj[~1 ](~ k ) ; ; proj[~ ;1](~ k )
k
Demostracion. Se usa induccion para chequear que cada ~i es no- cero, y esta en
el subespacio generado por h~ 1; : : : ~ ii y es ortogonal a todos los vectores precedentes:
~1 ~i = = ~i;1 ~i = 0.
Con eso, tendremos que h~1; : : :~k i es una base para el mismo espacio como lo es
h~ 1 ; : : : ~ k i.
Cubrimos los casos hasta i = 3, lo cual da sentido a los argumentos. Para completar
detalles ver la bibliografa.
El caso para i = 1 es inmediato o trivial ya que ~1 es igual a ~ 1, lo hace un vector no
nulo (~ 1 6= 0), y es la misma direccion y subespacio.
Para el caso i = 2, desde la denicion de ~2 .
~
~
~2 = ~ 2 ; proj[~1](~ 2) = ~ 2 ; ~2 ~~1 ~1 = ~ 2 ; ~2 ~~1 ~ 1
1 1
1 1
Esta expansion muestra que ~2 no es cero, o sino habra una dependencia lineal entre los
vectores ~ 's (es no trivial porque el coeciente de ~ 2 es 1) y tambien muestra que ~2 esta
en el subespacio generado. Finalmente, ~2 es ortogonal al unico vector precedente
~1 ~2 = ~1 (~ 2 ; proj[~1](~ 2 )) = 0
porque esta proyeccion es ortogonal.
El caso i = 3 es el mismo que para i = 2, excepto por un detalle. Como en el caso
i = 2, expandiendo la denicion
~
~
~3 = ~ 3 ; ~3 ~~1 ~1 ; ~3 ~~2 ~2
1 1
2 2
~
~
; ~
= ~ 3 ; ~3 ~~1 ~ 1 ; ~3 ~~2 ~ 2 ; ~2 ~~1 ~ 1
1 1
2 2
1 1
muestra que ~3 no es cero y esta en el subespacio generado. El calculo muestra que ~3 es
ortogonal al precedente vector ~1.
;
~1 ~3 = ~1 ~ 3 ; proj[~1](~ 3 ) ; proj[~2 ](~ 3)
;
= ~1 ~ 3 ; proj[~1](~ 3 ) ; ~1 proj[~2 ](~ 3 )
=0
La diferencia con el caso i = 2 | es que la segunda linea tiene dos clases de terminos. El
primero, es cero porque la proyeccion es ortogonal, como en el caso i = 2. El segundo
termino es cero porque ~1 es ortogonal a ~2, y es ortogonal a cualquier vector en la recta
generada por ~2.) El chequeo que ~3 es tambien ortogonal al otro precedente vector ~2 es
similar.
Una vez que se tiene la base de vectores ortogonales, se puede pasar a una base donde
ademas cada vector tiene longitud unitaria. Para eso, cada vector de la base ortogonal se
divide por su propia longitud (se normalizan las longitudes).
Ejemplo Normalizar la longitud de cada vector de la base ortogonal del ejemplo previo
produce la base ortonormal .
01=p31 0;1=p61 0;1=p21
p
p
h@1=p3A ; @ 2= p6 A ; @ 0p Ai
1= 2
1= 3
;1= 6
Una base ortonormal simplica muchos calculos como se vera en algunos ejercicios.
Ejercicios
2.1 Realizar el procedimiento de Gram-Schmidt sobre cada base de <2 , para obtener
bases ortonormales.
1 2
0 ;1
0 ;1
(a) h ; i (b) h ;
i (c) h ;
i
1
1
1
3
1
0
3
X 2.2 Idem0el ejercicio
1 0 1 1previo
001para las siguientes
0 1 1bases
001de0<21.
2
(a) h@2A ; @ 0 A ; @3Ai (b) h@;1A ; @1A ; @3Ai
2
;1
1
0
0
1
Luego normalizar los vectores.
X 2.3 Encontrar una base ortonormal para el subespacio de <3: el plano x ; y + z = 0.
Ayuda: parametrizar
0x1 el plano usando los
011parametros
0;1y1, z.
f@y A x = y ; zg = f@1A y + @ 0 A z y; z 2 <g
z
0
1
Considerar esa base.
011 0;11
h@1A ; @ 0 Ai
0
1
2.4 Encontrar bases ortonormales
0 x 1 para el subespacio de <4.
B y CC x ; y ; z + w = 0 and x + z = 0g
fB
@z A
w
Reduciendo el sistema lineal
1 +2 x ; y ; z + w = 0
x ; y ; z + w = 0 ;;!
x +z
=0
y + 2z ; w = 0
y parametrizando da la descripcion del subespacio, hallar una base.
2.5 Mostrar que cualquier subconjunto linealmente independiente de <n puede ser
ortonormalizado sin cambiar el subespacio
1generado.
3 Por ejemplo , con
S=f 2 ; 6 g
alcanzaramos
1
3
3 0
~1 = 2
~2 = 6 ; proj[~1]( 6 ) = 0
2.6 Encontrar un vector en <3 que0es ortogonal
1 0a21ambos vectores dados:
1
@ 5 A @2 A
;1
0
9
X 2.7 Una ventaja de las bases ortonormales es que ellas simplican la representacion de
(se lee \S perp"). La proyeccion ortogonal sobre un subespacio S projS (~v ) de un vector
es la proyeccion sobre S a lo largo de S ?.
10
As ...
... N (A) es ortogonal al subespacio generado por las las de A.
Otra forma de decir lo mismo ...
... N (A) <n es \ortogonal" al subespacio generado por las columnas de AT . Se
acostumbra a denotar R(AT ) al subespacio generado por las columnas de AT (o las de
A), y satisface R(AT ) <n).
... Sabemos que dim(N (A)) + dim(R(AT )) = n, que es la dimension de <n . Luego ...
... N (A) es el \ complemento ortogonal" del subespacio generado por las las de A ,
o lo que es igual, es el complemento ortogonal al subespacio generado por las columnas
de AT , denominado R(AT ). El unico elemento en comun entre ellos es el 0 vector, y la
suma de sus dimensiones es n, que es la dimension del espacio total <n .
... Entonces N (A) = (R(AT ))?.
Ademas...
... el espacio generado por las columnas de A (m n), son todos los vectores de <m
que son combinaciones de lasPcolumnas de A, se denota:
R(A) = fb : b 2 <m : b = nj=1 aj xj = Axg <m .
... Y el \ complemento ortogonal de ese subespacio R(A) es el conjunto ortogonal a
las columnas de A. Es el anulador o espacio nulo de las columnas de A. Si ahora se
considera AT , el complemento ortogonal de las las de AT es el N (AT ) <m . Entonces
...
... dim(N (AT )) + dim(R(A)) = m, ...
... (R(A))? = N (AT ). As para obtener el subespacio ortogonal complementario de
R(A), se calcula el N (AT ) = fy : y 2 <m; tal que AT y = 0g.
11
Veamos....
0x1
P = f@y A 3x + 2y ; z = 0g
z
011 001
A = h@0A ; @1Ai
3
;1
0v 1
1
3 @v2 A = 0
v3
;0
0v 1
1
2 cdot @v2A = 0
v3
... Podemos expresar estas condiciones mas compactamente como un sistema lineal...
0v 1
1
P ? = f@v2A 10
v3
0
1
0v 1
3 @ v1 A = 0 g
2
2
0
v3
As ... basta con encontrar el espacio nulo de la aplicacion representada por la matriz.
As ... calculando la solucion del sistema homogeneo ...
0v 1
0;31
1 v
3v3 = 0 g = fk @;2A k 2 <g
P ? = f@v2A 1 v +
2 + 2v3 = 0
1
v3
12
011 001
@1A 6? @3A
0
= arccos(
p p ) 0:94 rad
2 13
1 0+1 3+0 2
0 1=2
=@ 0
0 ;1=2
1 0 A
;1=2 0 1=2
Con esta matriz, calcular la projeccion ortogonal sobre S de cualquier vector es facil.
0 1=2 0 ;1=21 0 1 1 0 0 1
projS (~v) = @ 0 1 0 A @;1A = @;1A
;1=2 0 1=2
1
0
Ejercicios
;x + 3y + z = 0g (g) S = f y x = 0 and y + z = 0g
z
z
3.2 Formas distintas para proyectar ortogonalmente: Compararlas, considerando el
plano P especicado por 3x + 2y ; z = 0 en <3.
(a) Encontrar una base para P .
(b) Encontrar P ? y una base para P ?.
(c) Representar el vector siguiente con respecto a la base de <3 proveniente de ambas
bases.
011
~v = @1A
2
(d) Encontrar la proyeccion ortogonal de ~v en P dejando la parte sobre P desde el
previo item.
(e) Chequear usando la forma matricial
X 3.3 Chequear las tres formas diferentes para proyectar un vector sobre una recta.
1
x
(a) ~v = ;3 ; M = f y x + y = 0g
001
0x1
(b) ~v = @1A ; M = f@y A x + z = 0 and y = 0g
2
z
3.4 Que es la proyeccion ortogonal en el subespacio S = f0g.
3.5 Mostrar que si S <n es un subespacio con base ortonormal h~1; : : : ;~ni entonces
la proyeccion ortogonal de ~v en S es :
(~v ~1 ) ~1 + + (~v ~n) ~n
~v = proj[~1 ](~v ) + + proj[~ ](~v ) = ~~v ~~1 ~1 + + ~~v ~~n ~n
1 1
n n
X 3.6 Mostrar que si un vector es perpendicular a un conjunto entonces es perpendicular
a todo vector en el subespacio generado por ese conjunto.
3.7 Es verdadero o falso : la interseccion de un subespacio y su complemento ortogonal
es el f0g.
3.8 (a) Mostrar que si las columnas de A forman un conjunto linealmente independiente entonces AT A es invertible
(b) Mostrar que si las columnas de Ason mutuamente ortogonales y no nulas entonces
AT A es la matriz identidad
3.9 Mostrar que la matrix de proyeccion A(AT A);1AT es simetrica.
n
15
1.4 Proyecci
on ortogonal y aproximaci
on de cuadrados mnimos
La proyeccion ortognal de un vector ~v Rn sobre un subespacio S Rn puede
tambien verse como la mejor aproximacion al vector v basada en un vector de S. Si se
desea aproximar ~v mediante un vector w
~ S S, la mejor aproximacion se lograra eligiendo
w
~ S como el vector de S m
as cercano a ~v , y tal vector es entonces la proyeccion ortogonal
~vS = projS (~v ) .
En efecto, la distancia al cuadrado de ~v a un vector arbitrario w
~ S de S es
D2 = |~v w
~ S |2 = |(~v ~vS ) (w
~ S ~vS )|2
= |~v ~vS |2 + |~vS w
~ S |2 2(~v ~vS ) (w
~ S ~vS )
2
2
= |~v ~vS | + |~vS w
~S|
donde |~u|2 = ~u ~u es la longitud al cuadrado de un vector ~u y en el u
ltimo paso hemos
utilizado que ~v ~vS es ortogonal a todo vector de S, por lo que (~v ~vS ) (w
~ S ~vS ) = 0.
Por lo tanto, el valor mnimo de D2 se obtiene para w
~ S = ~vS , con
2
Dmin
= |~v ~vS |2 = |~v |2 |~vS |2
(1)
(2)
i=1
i=1
2
f HxL
f HxiL
-1.5
-1.0
-0.5
0.5
1.0
1.5
f HxiL
-1.5
-1.0
-0.5
0.5
1.0
1.5
(A A)jl =
n
X
i=1
n
X
gj (xi )f (xi ) .
i=1
Ejercicios
1. Verifique que la minimizacion de D2 (2) respecto de los coeficientes cj conduce a la
solucion (1).
2. Determine el polinomio P2 (x) = c0 + c1 x + c2 x2 que minimiza D2 si los datos son
f (1,5) = 8,5, f (0,9) = 2,5, f (0,3) = 1, f (0) = 0,5, f (0,3) = 0,6, f (0,9) = 1,5,
f (1,5) = 3 (Utilice PC). Estos corresponden a la posicion (en una cierta escala) en distintos
tiempos de un movil con aceleracion variable. Si la aceleracion fuese constante, como sera
el ajuste con este polinomio?
17