You are on page 1of 66

Facultad de Ingeniera

UNLP
Matematica C
VI Transformaciones Lineales

2016

Temario:
1. Clase 1: Introduccion. Definicion. Ejemplos basicos. Proyeccion. Reflexion. Rotacion.
Casos especiales. Imagen y espacio nulo de una transformacion lineal. Propiedades
fundamentales. Isomorfismos.
2. Clase 2: Representacion matricial. Ejemplos. Diferentes representaciones de acuerdo
a las bases consideradas (cambio de base). Representacion matricial y caractersticas
de la transformacion. Matrices Semejantes. Propiedades. Composicion de transformaciones lineales. Ejemplos. Aplicaciones.


6.1. INTRODUCCION

6.1.

Introducci
on

Estudiaremos aqu una clase de funciones denominadas transformaciones lineales,


que transforman un vector v de un espacio vectorial V en otro vector w de un espacio
vectorial W , cumpliendo con ciertas condiciones. Es decir, son casos especiales de funciones
F : V W entre dos espacios vectoriales. Se las puede puede pensar como funciones de
una sola variable, donde el argumento de la funcion es un vector del espacio vectorial
V , y el valor de la funcion es un vector del espacio vectorial W .
Si V = W , de modo que transforma un vector v de V en otro vector w del mismo
espacio V , la transformacion lineal se denomina usualmente operador lineal.
Usaremos la notacion L : V W para describir una transformacion lineal:
L (v) = w,

v V, w W

Veremos que una transformacion lineal L de un espacio vectorial n-dimensional V en


otro espacio vectorial m-dimensional W podra representarse por una matriz A de m n.
Esto permitira trabajar con la matriz A para discutir las caractersticas y propiedades de
la transformacion L, como as tambien, en ciertos casos, determinar las propiedades de la
matriz A a partir de las propiedades de la transformacion lineal que representa.

6.1.1.

Definici
on general

Definici
on.
Una funcion L : V W de un espacio vectorial V en otro espacio vectorial W (ambos
sobre el mismo conjunto de escalares) es una transformaci
on lineal si satisface
L (v1 + v2 ) = L (v1 ) + L (v2 )
para todo par de vectores v1 y v2 de V y todo par de escalares , . Es decir,
L (v1 + v2 ) = L (v1 ) + L (v2 ) para todo v1 y v2 en V
L (v) = L (v) para todo v en V y escalar
En particular, para = 0 la u
ltima ecuacion implica que toda transformacion lineal
L : V W satisface
L(0V ) = 0W
con 0V y 0W los vectores nulos de V y W , ya que L(0V ) = L(0v) = 0L(v) = 0W .

LHxL

x+y

LHxL+ LHyL

L:VW

4
Ejemplos 6.1.1: Transformaciones lineales de <2 en <2
Comenzaremos con algunos ejemplos basicos:
1. Transformaci
on de dilataci
on (escalamiento):
 
x1
Si x = x1 e1 + x2 e2 =
es un vector de R2 , definimos, como primer ejemplo,
x2
 
3x1
L (x) = 3x =
3x2
L es una transformacion lineal, ya que
L (x) = 3 (x) = (3x) = L (x)
L (x + y) = 3 (x + y) = 3x + 3y = L (x) + L (y)
verificandose que L(0) = 0. Geometricamente, L tiene el efecto de dilatar el vector
x, multiplicando su longitud por un factor 3 y conservando su direccion y sentido:
x2

LHxL = 3x

x
x1

Podemos expresar L(x) en forma matricial como (verificar!)



 
3 0
x1
L(x) =
0 3
x2
2. Proyecci
on ortogonal sobre el eje x1 :
Definimos ahora
 
x1
L (x) = x1 e1 =
0
 
 


x1
y1
x1 + y1
Si x =
,y=
, entonces x + y =
. Luego
x2
y2
x2 + y2
L (x + y) = (x1 + y1 ) e1 = (x1 e1 ) + (y1 e1 )
= L (x) + L (y)
lo que prueba que L es una transformacion lineal.
Geometricamente, L (x) es la proyeccion del vector x sobre el eje x1


6.1. INTRODUCCION

5
x2

x1

LHxL = x1e1

Podemos expresar L(x) en forma matricial como (verificar!)



 
1 0
x1
L(x) =
0 0
x2
3. Reflexi
on respecto del eje x1 :
Definimos


L (x) = x1 e1 x2 e2 =

x1
x2

Esta tranformacion satisface





x1 + y1
L (x + y) =
(x2 + y2 )




y1
x1
+
=
y2
x2
= L (x) + L (y)
L es un operador lineal.
Geometricamente, L (x) es la reflexion del vector x respecto (o a traves) del eje x1 .
x2

x1

LHxL
Podemos expresar L(x) en forma matricial como (verificar)

 
1 0
x1
L(x) =
0 1
x2

6
4. Rotaci
on de
angulo /2 antihorario:
 
x1
Si x = x1 e1 + x2 e2 =
definimos
x2

L (x) = x2 e1 + x1 e2 =

x2
x1

Vemos que cumple









(x2 + y2 )
x2
y2
L (x + y) =
=
+
x1 + y1
x1
y1
= L (x) + L (y)
L es una transformacion lineal.
Geometricamente, L (x) representa la rotacion de angulo = /2 (en sentido antihorario) del vector x:
x2

LHxL

x
x1

Podemos expresar L(x) en forma matricial como (verificar)



 
0 1
x1
L(x) =
1 0
x2
5. Transformaci
on de escalamiento general
En general, el operador Lc definido por
 
cx1
Lc (x) = cx =
cx2
con c un escalar fijo, es una transformacion lineal, como podra el lector probar
facilmente.
Si c > 0, Lc tiene el efecto de multiplicar la longitud del vector x por el factor de
escala c, dilatando el vector un factor c si c > 1 y contrayendo el vector un factor c
si 0 < c < 1, pero siempre conservando su direccion y sentido.


6.1. INTRODUCCION

Si c = 1, la transformacion resultante
L1 (x) = x
se denomina operador identidad y se la denota como I: I(x) = x x V .
I no modifica ning
un vector.
Si c = 0, la transformacion resultante
L0 (x) = 0
se denomina operador nulo. Enva a todos los vectores de V al vector nulo 0 0V .
Si c < 0, Lc tendra el efecto de invertir el sentido del vector, dilatandolo si c < 1,
contrayendolo si 1 < c < 0 y conservando su longitud si c = 1, en cuyo caso
coincide con el operador de inversion.
Podemos expresar Lc (x) en forma matricial como

 
c 0
x1
L(x) =
0 c
x2
6. Inversi
on:
Corresponde a

L (x) = x =

x1
x2

La linealidad de L es inmediata:






(x1 + y1 )
x1
y1
L (x + y) =
=
+
(x2 + y2 )
x2
y2
= L (x) + L (y)
Geometricamente, L (x) es el vector opuesto a x.
x2

x
x1

LHxL = -x
Podemos expresar L(x) en forma matricial como

 
1 0
x1
L(x) =
0 1
x2
Observar que el operador de inversion puede obtenerse como caso particular de otras
transformaciones. Por ejemplo,

8
1. La transformacion de escala con c = 1
2. Una rotacion de angulo (en sentido anti-horario o sentido horario)
Esta u
ltima puede tambien lograrse mediante dos rotaciones sucesivas de angulo /2 (por
ejemplo, ambas en sentido antihorario): Si R rota al vector x en /2 antihorario, entonces

R (R (x)) = R

x2
x1





x1
=
= x
x2

Si definimos el cuadrado L2 de un operador L (transformacion de V en V ) mediante


L2 (x) L (L (x))
entonces el operador de inversion L puede expresarse en terminos del operador de rotacion
previo como
L = R2
Ejemplos de transformaciones no lineales:
1. Si


x1 x2
F (x) = x1 x2 e1 + x2 e2 =
x2
obtenemos


x1 x2
F (x) = (x1 ) (x2 ) e1 + (x2 ) e2 =
x2
6= F (x) (excepto para = 0 o 1 o x1 x2 = 0)
F no es una transformacion lineal.
2. Traslaci
on:
La traslacion Ta suma a todo vectir x un vector fijo a:
Ta (x) = x + a
Si a 6= 0, Ta no es una transformacion lineal, ya que por ejemplo, Ta (0) = a 6= 0 y
Ta (x1 + x2 ) = a + x1 + x2 6= Ta (x1 ) + Ta (x2 ).
As, no podra representarse directamente mediante una matriz aplicada a x.
Problemas 6.1.1
1. (i) Definir la proyeccion ortogonal en R3 sobre el plano-xy y mostrar que es una
transformacion lineal. Graficar.
(ii) Definir la proyeccion ortogonal en R3 sobre el eje x y mostrar que es una transformacion lineal. Graficar.
(iii) Que es la proyeccion al origen? Puede considerarse una transformacion lineal?


6.1. INTRODUCCION

2. Considerar la transformacion L : R2 R2 dada por


  

x
x/2
L
=
y
y/3
i) Verificar que es lineal. Expresarla en la forma matricial L(x) = Ax.
ii) Hallar las imagenes L(v) de los vectores (10 ), (01 ), (11 )
iii) Dar una interpretacion geometrica de L.
iv) La imagen por L de un conjunto de vectores C se define como
L(C) = {L(v), v C}. Probar que la imagen L(C) bajo esta aplicacion de la elipse
 

x
2
2
C=
| (x /4) + (y /9) = 1
y
es una circunferencia de radio 1.
Ejemplos de Transformaciones de Rn en Rm
 
x1
1. Sea x =
y L : R2 R1 , definida por
x2
L (x) = x1 + x2
L es una transformacion lineal, ya que
L (x + y) = (x1 + y1 ) + (x2 + y2 )
= (x1 + x2 ) + (y1 + y2 ) = L (x) + L (y)
L asocia a cada vector x R2 un escalar
 dado por x1 + x2 . Puede ser expresada en
 x1
.
forma matricial como L(x) = 1 1
x2

x2
2. Sea L : R2 R3 definida por L (x) = x1
x1 + x2

Se verifica facilmente que L es lineal (probar!) y que puede ser escrita tambien como

0 1  
x
L(x) = 1 0 1
x2
1 1

6.1.2.

Ejemplos de transformaciones lineales en otros espacios

1. Dado un espacio vectorial V arbitrario, el operador identidad I : V V se define


por
I (v) = v para todo v V
Es, obviamente, una transformacion lineal (verificar!).
Notar que no existe I : V W si W =
6 V , aun si V y W tienen la misma
dimension.

10
2. La transformacion nula 0 : V W se define por
para todo v V

0 (v) = 0W

Es, obviamente, una transformacion lineal (verificar!), que generaliza el operador


nulo L0 visto anteriormente.
3. Transformaci
on definida por una matriz A.
Dada una matriz A de m n, se puede definir una transformacion lineal asociada
L : Rn Rm dada por
L (x) = A x
Es facil ver que L cumple las propiedades de linealidad:
L (x + y) = A (x + y)
= Ax + Ay
= L (x) + L (y)
Por lo tanto, cualquier matriz A de m n puede verse como asociada a una transformacion lineal L : Rn Rm . Mas aun, veremos luego que toda transformacion
lineal L : Rn Rm es de la forma anterior (para alguna matriz A de m n).
4. Sea L : C[a,b] R1 definida por
Z
L (f ) =

f (x) dx
a

L es oviamente una transformacion lineal, ya que si f y g son dos vectores cualesquiera de C[a,b] , entonces
Z b
L (f + g) =
(f + g) (x) dx
a
Z b
Z b
g (x) dx
=
f (x) dx +
a

= L (f ) + L (g)
A diferencia de las anteriores, esta transformacion lineal, cuyo dominio es un espacio
vectorial de dimension infinita, no puede representarse mediante una matriz.
5. Sea D : C C el operador derivada en el espacio C de funciones reales
f : R R derivables a todo orden, definida por
D(f ) = f 0
es decir, D(f )(x) = f 0 (x). Se la suele denotar directamente como D =
D es obviamente un operador lineal, ya que si f y g C ,
D(f + q) = (f + g)0 = f 0 + g 0 = D(f ) + D(g)
Notese que D2 es el operador derivada segunda

d2
:
dx2

D2 (f ) = D(D(f )) = D(f 0 ) = f 00

d
.
dx


LINEAL
6.2. IMAGEN Y NUCLEO
DE UNA TRANSFORMACION

11

Dado que C tiene dimension infinita, D no puede representarse mediante una


matriz (pero si se restringe el dominio a un subespacio de C de dimension finita, tal
como el espacio Pn de polinomios de grado n, D s podra representarse mediante
una matriz, como veremos luego).
Importante: Si L : V W es una transformacion lineal, se cumplen siempre las siguientes reglas o propiedades:
1. L (0V ) = 0W
2. Si v1 , . . . , vn V , entonces
L (1 v1 + + n vn ) = 1 L (v1 ) + + n L (vn )
3.
L (v) = L (v) v V
Se dejan las demostraciones para el lector.
Problema 6.1.2
1. Sea L : V W una transformacion lineal y sean w1 = L(v1 ), . . . , wk = L(vk ) las
imagenes de k vectores v1 , . . . , vk de V .
a) Mostrar que si el conjunto de los vectores {v1 , . . . , vk } es linealmente dependiente
{w1 , . . . , wk } es linealmente dependiente.
b) Mostrar que si {v1 , . . . , vk } es linealmente independiente el conjunto {w1 , . . . , wk }
no es necesariamente independiente. Dar un ejemplo (considere proyecciones ortogonales sobre un cierto eje o la transformacion nula).

6.2.

Imagen y n
ucleo de una transformaci
on lineal

Sea L : V W una transformacion lineal


1. N
ucleo de L: es el conjunto de vectores v de V que son transformados o enviados
al vector nulo 0W de W . Es decir,
Nu (L) = {v V : L (v) = 0W }
2. Imagen de un subespacio S de V : es el conjunto de vectores w de W que son
imagen por L de vectores v de S, es decir,
L (S) = {w W : w = L (v) para alg
un v S} = {L(v), v S}
3. Imagen de L: Es la imagen L (V ) de todo el espacio vectorial V :
Im(L) = L(V ) = {L(v), v V } W
Notar que la imagen por L del Nu(L) es el vector nulo 0W de W : L(Nu(L)) = {0W }.
Cada uno de estos conjuntos de vectores es un subespacio en los respectivos
espacios vectoriales:

12

NuHLL

S
0W

0V

L:VW

LHSL
0V

0W

L:VW

Teorema.
Si L : V W es una transformacion lineal, entonces
1. Nu (L) es un subespacio de V
2. Si S es un subespacio de V , L (S) es un subespacio de W . Esto implica en particular
que la imagen Im(L) = L(V ) es un subespacio de W .
3. Si V es de dimension finita, la suma de la dimension de la imagen Im(L) y la
dimension del n
ucleo Nu(L) es la dimension del espacio V :
dim Im (L) + dim Nu (L) = dim V
Demostracion de 1. En primer lugar, L(0V ) = 0W , por lo que 0V Nu(L). Ademas,
si v1 y v2 Nu (L),
L (v1 + v2 ) = L (v1 ) + L (v2 ) = 0W + 0W = 0W
L (v1 ) = L (v1 ) = 0W
por lo que v1 + v2 y v1 Nu (L). El n
ucleo es pues cerrado por la suma y multiplicacion
por un escalar, siendo entonces un subespacio.
Demostracion de 2. L(S) contiene al 0W pues L(0V ) = 0W . Ademas, si w1 y w2 son
vectores en L (S), existen v1 y v2 en S tales que w1 = L(v1 ), w2 = L(v2 ). Entonces
w1 = L (v1 ) = L (v1 ) para v1 S
w1 + w2 = L (v1 ) + L (v2 ) = L (v1 + v2 )
para v1 y v2 S
Como S es un subespacio, ambos v1 y v1 + v2 pertenecen tambien a S, por lo que
w1 L(S) y w1 + w2 L(S). Luego, L (S) es cerrado por la suma y multiplicacion por
un escalar, siendo entonces un subespacio.
Demostracion de 3. Partiendo de una base B = {v1 , . . . , vk , vk+1 , . . . , vn } de V tal que
{vk+1 , . . . , vn } es una base de Nu(L) (L(vk+1 ) = . . . = L(vn ) = 0W ), todo v V puede
escribirse como v = 1 v1 + . . . + k vk + k+1 vk+1 + . . . + n vn . Entonces,
L(v) = L(1 v1 + . . . + k vk + k+1 vk+1 + . . . + n vn )
= 1 L(v1 ) + . . . + k L(vk ) + k+1 L(vk+1 ) + . . . + n L(vn )
= 1 L(v1 ) + . . . + k L(vk )
por lo que {L(v1 ), . . . , L(vk )} genera Im(L). Ademas, {L(v1 ), . . . , L(vk )} es linealmente
independiente, pues si 0W = 1 L(v1 ) + . . . + k L(vk ) = L(1 v1 + . . . + k vk )
1 v1 + . . . + k vk Nu(L) y entonces 1 v1 + . . . + k vk = 1 vk+1 + . . . + n vn . Pero por
ser los vi linealmente independientes, 1 = . . . = k = k+1 = . . . = n = 0. Por lo tanto,
dim Im(L) + dim Nu(L) = k + (n k) = n = dim V


LINEAL
6.2. IMAGEN Y NUCLEO
DE UNA TRANSFORMACION

13

Ejemplos 6.2
1. Sea L : R2 R2 definida por
 
x1
L (x) =
0
(operador
 de proyeccion). Es obvio que L (x) = 0 si y solo si x1 = 0, es decir,
x1
x =
Nu (L) si y solo si x1 = 0. Por lo tanto, Nu (L) es el subespacio
x2
 
0
1-dimensional de R2 generado por el vector e2 =
, es decir, es el eje x2 , como
1
es obvio geometricamente (graficar!):
 
0
Nu(L) =
1
Por otra parte, dado que L(x) = x1 e1 , la imagen Im(L) = L(V ) es el conjunto de
vectores proporcionales a e1 , es decir, el subespacio 1-dimensional de R2 generado
por el vector e1 , que geometricamente es el eje x1 :
 
1
Im(L) =
0
Se verifica que dim Im(L) + dim Nu(L) = 1 + 1 = 2 = dim V (V = R2 ).
Notese que L(x) = Ax, con A = (10 00 ), y que Nu(L) coincide con el espacio nulo de
A = (10 00 ), mientras que Im(L) coincide con el espacio columna de A.
2. Sea L : R3 R2 definida por


x1 + x2
L (x) =
x2 + x3

x1 + x 2 = 0
Si x Nu (L), entonces
. Resolviendo el sistema, si la variable
x2 + x 3 = 0


t
1

independiente es x3 = t, se tiene x2 = x3 , x1 = x3 , es decir, x = t = t 1:


t
1
* 1 +
Nu(L) = 1
1

Por otro lado, vemos que


 
 
 
1
0
1
L(x) = x1
+ x3
+ x2
0
1
1
con x1 , x2 , x3 arbitrarios, por lo que la imagen sera R2 :
         
1
0
1
1
0
Im(L) =
,
,
=
,
= R2
0
1
1
0
1
3
Se verifica que dim Im(L) + dim Nu(L)
otese
 = 2+ 1 = 3 = dim V (V = R ). N
1 1 0
tambien que L(x) = Ax, con A =
, coincidiendo Nu(L) con el espacio

0 1 1

nulo de A y Im(L) con el espacio columna de A (ver problema 6.2.7).

14
Problemas 6.2
1. Verificar que las siguientes transformaciones L : R3 R2 son lineales, y determinar
Nu(L), la
imagen
Im(L) y sus dimensiones,junto
con una base de los mismos:




x
x
x
2x + y

(a) L y =
(b) L y =
x+y+z
4x 2y
z
z
2
2
2. Idem 1. para
transformaciones
 las siguientes
 
   L: R R :
x
y
x
0
(a) L
=
(b) L
=
y
x
y
y

Interpretelas geometricamente.
3. Importante: Sea L : Rn Rm la transformacion lineal definida por una matriz A
de m n:
L(x) = Ax
Probar que:
a) El n
ucleo Nu(L) es el espacio nulo de la matriz A.
b) La imagen Im(L) es el espacio generado por las columnas de la matriz A (o
sea, el espacio columna de la matriz).
c) La igualdad dim Im(L) +dim Nu(L) = dim V es equivalente a
rango (A) + nulidad (A) = n
d) Verifique estos resultados para las transformaciones del ejercicio 2., escribiendolas
en la forma L(x) = Ax.
4. Determinar si son lineales las siguientes transformaciones L : R22 R. En caso
de que lo seanhalle su n
ucleo e imagen.
a b
(a) L(
) = a + d (Traza de la matriz)
c d 
a b
(b) L(
) = ad bc (Determinante de la matriz)
c d
5. a) Determine si la traza de una matriz cuadrada A de n n, definida por
T r(A) =

n
X

aii = a11 + . . . + ann

i=1

es una transformacion lineal T : Rnn R.


b) Indique si el determinante det(A) de una matriz cuadrada A de n n, es una
transformacion lineal det : Rnn R.
6. Halle el n
ucleo e imagen del operador identidad I : V V , y del operador nulo
0:V V.
7. Mostrar que una funcion f : < < cuya grafica es una recta no es necesariamente
una transformacion lineal L : < < (considere por ejemplo la recta y = mx + 1).
8. Mostrar que k 1, la derivada k-esima Dk = dk /dtk en el espacio P de polinomios
(de grado arbitrario) es una transformacion lineal. Cual es su n
ucleo e imagen?

6.3. PROPIEDADES FUNDAMENTALES. ISOMORFISMOS

15

9. Importante: Propiedades geom


etricas de una transformaci
on lineal.
a) Pobar que toda transformacion lineal L : R2 R2 con Nu(L) = {0V } transforma rectas R = {r0 +tn, t R}, n 6= 0, en rectas, y segmentos Q = {r0 +tn, t
[t0 , t1 ]}) en segmentos. Que puede suceder si dim Nu(L) 1? Siguen siendo
validos estos resultados en R3 ? y en Rn ?
b) Probar que toda transformacion lineal L : R2 R2 con Nu(L) = {0V } transforma rectas y segmentos paralelos (caracterizados por un mismo vector n 6= 0
pero distintos r0 ) en rectas y segmentos paralelos. Generalizar a R3 y Rn . Puede extenderse el resultado a planos paralelos en R3 ?


x2
c) Si L(x) =
, determine la imagen por L de las rectas paralelas y = 2x y
x1

y = 2x + 1. Grafique e interprete el resultado.


d ) Dados u, v R2 , i) probar que el segmento de recta que los conecta es el
conjunto Q = {tv + (1 t)u, t [0, 1]}. Verifquelo para u = (1, 0), v = (0, 1).
ii) Mostrar que su imagen L(Q) bajo una transformacion lineal L : R2 R2 es
el segmento derectaentre L(u) y L(v). Generalizar a R3 y Rn .
iii) Si L(x) =

x2
, determine la imagen por L del segmento de recta entre
x1

u = (1, 0) y v = (0, 1). Graficar.


e) Un subconjunto C Rn es convexo si para cualquier par de puntos de C el
segmento de recta que los conecta yace enteramente en C, es decir,
u C, v C tv + (1 t)u C t [0, 1]
Por ejemplo, todo subespacio de Rn es un conjunto convexo (probar!). Pero un
conjunto convexo no necesariamente es un subespacio. Por ejemplo, en R2 un
crculo lleno C = {(x, y) R2 , x2 + y 2 1} es un conjunto convexo (probar!). En cambio, el crculo {(x, y) R2 , x2 +y 2 = 1} no es un conjunto convexo.
Probar que toda transformacion lineal L : Rn Rm transforma un conjunto
convexo en un conjunto convexo. De un ejemplo.

6.3.

Propiedades fundamentales. Isomorfismos

1. Si L : V W es una transformacion lineal, con V un espacio vectorial de dimension finita n y B = {v1 , . . . , vn } una base arbitraria de V , entonces L queda
completamente determinada por los n vectores {L(v1 ), . . . , L(vn )}, es decir, por las
n imagenes de los vectores de la base.
En efecto, si v V , entonces
v = 1 v 1 + . . . + n vn
y por lo tanto
L(v) = L(1 v1 + . . . + n vn ) = 1 L(v1 ) + . . . + n L(vn )

16
es decir, L(v) es una combinacion lineal de los n vectores L(v1 ), . . . , L(vn ).
La imagen L(V ) es entonces el espacio generado por estos n vectores:
L(V ) = hL(v1 ), . . . , L(vn )i
Notese, no obstante, que el conjunto {L(v1 ), . . . , L(vn )} puede ser linealmente dependiente (por ej., algunos vectores L(vi ) puden ser nulos), en cuyo caso no sera
una base de L(V ).
2. Una transformacion lineal L : V W es inyectiva (o monomorfismo) si
L(v1 ) 6= L(v2 ) v1 6= v2 . Es facil ver que es inyectiva si y s
olo si Nu(L) = {0V }.
En efecto, L inyectiva L(v) 6= L(0V ) = 0W v 6= 0V , por lo que Nu(L) = {0V }.
Y si Nu(L) = {0V } L(v1 ) L(v2 ) = L(v1 v2 ) 6= 0W v1 6= v2 , por lo que L
es inyectiva.
3. Si Nu(L) = {0V } y {v1 , . . . , vk } V es linealmente independiente, el conjunto
{L(v1 ), . . . , L(vk )} es linealmente independiente. En otras palabras, si la transformacion lineal L es inyectiva, conserva la independencia lineal.
En efecto, si
0W = 1 L(v1 ) + . . . + k L(vk ) = L(1 v1 + . . . + k vk )
entonces 1 v1 + . . . + k vk Nu(L), por lo que 1 v1 + . . . + k vk = 0V . Pero esto
implica 1 = 2 = . . . = k = 0 por ser {v1 , . . . , vk } linealmente independiente. Por
lo tanto, {L(v1 ), . . . , L(vk )} es linealmente independiente.
En particular, si {v1 , . . . , vn } es una base de V {L(v1 ), . . . , L(vn )} es una base
de la imagen Im(L) = L(V ), pues por lo anterior, es linealmente independiente y
por la propiedad 1, genera la imagen. Por lo tanto, para L : V W inyectiva,
dim Im(L) = n y dim Nu(L) = 0, verificandose que
dim Im(L) + dim Nu(L) = n + 0 = n = dim V
Esto tambien implica que si L : V W es inyectiva, necesariamente
dim V dim W pues Im(V ) W .
4. Si L : V W es una transformacion lineal y L(V ) = W L es sobreyectiva
(epimorfismo). En este caso la imagen L(V ) es todo el codominio W , es decir, cubre
todo W , por lo que el conjunto {L(v1 ), . . . , L(vn )} genera W .
Ademas, en este caso se cumple que
dim V = dim Im(L) + dim Nu(L) = dim W + dim Nu(L)
por lo que necesariamente dim V dim W .

6.3. PROPIEDADES FUNDAMENTALES. ISOMORFISMOS

17

Isomorfismos:
5. Si L : V W es una transformacion lineal biyectiva, es decir, que es a la vez
inyectiva (Nu(L) = {0V }) y sobreyectiva (L(V ) = W ) se dice que L es un
isomorfismo. Si V = W al isomorfismo se lo denota automorfismo.
Si L es un isomorfismo y dim V = n, con B = {v1 , . . . , vn } una base de V
{L(v1 ), . . . , L(vn )}
es una base de W , pues son linealmente independientes (por ser L inyectiva) y
generan W (por ser L sobreyectiva). Un isomorfismo transforma entonces cualquier
base de V en una base de W .
Por lo tanto, V y W deben tener la misma dimensi
on n (cuando son de dimension finita). Para un isomorfismo se verifica entonces que
dim Im(L) + dim Nu(L) = n + 0 = dim V = dim W
6. Una funcion L : V W tiene inversa L1 : W V si y solo si L es biyectiva.
Por lo tanto, si L : V W es una transformacion lineal, L tendra inversa
L1 : W V si y s
olo si L es un isomorfismo:
L(v) = w v = L1 (w)
cumpliendose que
L(L1 (w)) = L(v) = w w W
L1 (L(v)) = L1 (w) = v

vV

es decir,
LL1 = IW ,

L1 L = IV

donde IW y IV son los operadores identidad en W y V .


La inversa L1 : W V de un isomorfismo L es tambi
en un isomorfismo
(probar!), es decir, una transformacion lineal biyectiva.
7. Se dice que dos espacios vectoriales V , W son isomorfos si existe un isomorfismo
L : V W entre ellos. Si V y W son de dimension finita V y W son isomorfos
si y s
olo si tienen la misma dimensi
on (probar!).
Ejemplo 6.3 Sea L : R2 R2 la transformacion dada por


x1 + x2
L(x) =
x1 x 2
 
x1
Se verifica en primer lugar que L es lineal y que x =
= x1 e1 + x2 e2 R2 ,
x2
  

 
 
x1
x2
1
1
L(x) =
+
= x1
+ x2
= x1 L(e1 ) + x2 L(e2 )
x2
x2
1
1

18
 
 
1
1
con L(e1 ) =
, L(e2 ) =
, por lo que basta conocer L(e1 ) y L(e2 ) para determinar
1
1
L(x) para cualquier x R2 .
Se comprueba tambien que Nu(L) = 0, pues si x1 +x2 = 0 y x1 x2 = 0 x1 = x2 = 0
(verificar!). Por lo tanto L es inyectiva. Y finalmente, vemos que la imagen de L es
 
 
   
1
1
1
1
L(V ) = {x1
+ x2
, x1 , x2 R} =
,
= R2
1
1
1
1
por lo que L es tambien sobreyectiva. Este resultado puede tambien obtenerse directamente de
dim Im(L) = dim V dim Nu(L) = 2 0 = 2
L es entonces un automorfismo, es decir, un isomorfismo entre V y V , con V = R2 .
L tendra entonces inversa L1 : R2 R2 , dada por (verificar!)
 


1 x1 + x2
1 x1
=
L
x2
2 x1 x2
Notemos finalmente que podemos expresar L(x) como

 
1 1
x1
L(x) =
1 1
x2
y L1 (x) como
1
L (x) =
2
1

 
1 1
x1
1 1
x2

siendo la matriz que representa a L1 la inversa de la matriz que representa a L.


Problemas 6.3
1. Si L : V V es un operador lineal y {v1 , . . . , vn } es una base de V , probar
(a) Si L(vi ) = 0 para cada elemento de la base entonces L es la transformacion
lineal nula.
(b) Si L(vi ) = vi para cada vector de la base entonces L es la identidad.
(c) Si existe un escalar r tal que L(vi ) = rvi para cada vector de la base entonces
L(v) = rv para todo los vectores en V .
2. Sea L : V W una transformacion lineal y supongamos que L(v1 ) = w1 , . . . ,
L(vk ) = wk para vectores v1 , . . . , vk de V .
(a) Si {w1 , . . . , wk } genera W , debe {v1 , . . . , vk } generar V ? Pensar, por ejemplo,
en transformaciones de <3 , sobre <2 .
(b) Si {v1 , . . . , vk } genera V , debe {w1 , . . . , wk } generar W ? Pensar por ejemplo
en L : <2 <3 .
(c) Si ahora L es un isomorfismo (que implica dim V = dim W en espacios de
dimension finita) cual es la respuesta a (a) y (b)?
3. Si L : V W es inyectiva, mostrar que la imagen L(S) de un subespacio de
dimension m de V es un subespacio de dimension m de W .

6.3. PROPIEDADES FUNDAMENTALES. ISOMORFISMOS

19

4. Importante: Sea L : Rn Rm la transformacion lineal definida por una matriz A


de m n:
L(x) = Ax
probar que:
a) L es inyectiva si y solo si rango(A) = n. Esto implica n m.
b) L es sobreyectiva si y solo si rango(A) = m. Esto implica n m.
c) L es biyectiva (isomorfismo) si y solo si rango(A) = m = n, es decir, si y solo si
A es una matriz cuadrada no singular.
d) Probar que en c), L1 : Rn Rn esta dada por
L1 (x) = A1 (x)
e) Discuta las implicancias de los resultados anteriores para el sistema de ecuaciones
lineales (de m n)
L(x) = b
En particular, muestre que
i) Es compatible si y solo si b Im(L).
ii) Es compatible b Rm si y solo si L es sobreyectiva
iii) La solucion, cuando existe, es u
nica si y solo si L es inyectiva
iv) La solucion existe y es u
nica b Rm si y solo si L es biyectiva (isomorfismo),
es decir si y solo si m = n y A es no singular.
5. Importante: Sea V un espacio vectorial de dimension n, con (v1 , . . . , vn ) una base
(ordenada) de V , tal que si v V ,
v = x1 v 1 + . . . + xn v n
Sea L : V Rn la transformacion lineal definida por

x1
..
L(v) = .
xn
Es decir, L(v) = [v]B es el vector columna de coordenadas de v en la base B.
a) Mostrar que L esta bien definida, es decir, que [v]B existe y es u
nico v V .
b) Mostrar que L es una transformacion lineal.
c) Mostrar que L es un isomorfismo (es decir, Nu(L) = {0V }, Im(L) = Rn ).
Este resultado muestra en forma explcita que todo espacio V de dimension n (con
escalares reales) es isomorfo a Rn , es decir, que existe una correspondencia biyectiva
entre ambos.
d) Cual es la inversa L1 ?
6. Mostrar que dos espacios V , W son isomorfos si y solo si tienen la misma dimension.
7. Mostrar que la inversa de un isomorfismo L : V W es un isomorfismo, es decir,
que L1 es lineal y biyectiva.

20

6.4.

Representaci
on matricial de transformaciones
lineales

Veremos ahora que cualquier transformacion lineal L entre espacios vectoriales de dimension finita V y W se puede representar mediante una matriz A, que dependera de las
bases que se consideren en V y W .
En primer lugar consideramos transformaciones de Rn en Rm :
L : Rn Rm
Asumimos primero que la base en V = Rn es la base can
onica Bc = {e1 , . . . , en }.
n
Dado x R , podemos representarlo como

x1
..
x = . = x1 e 1 + . . . + xn e n
xn
Como L es lineal,
L (x) = x1 L (e1 ) + . . . + xn L (en )
Luego si para cada ej , j = 1, . . . , n, se tiene

a1j

L (ej ) = aj = ...
amj
entonces

a11
a1n

L(x) = x1 ... + . . . + xn ...


am1
amn

a11 . . . a1n
x1
..

.
...
.. ...
= .

am1 . . . amn
xn
es decir,
L(x) = Ax
con A la matriz de m n

a11
..
A = (L(e1 ), . . . , L(en )) = .
am1

. . . a1n
..
..
.
.
. . . amn

La matriz A se denomina representaci


on matricial de L en la bases canonicas de
m
R y R . Queda completamente determinada por las n imagenes L(ej ) de los vectores de
la base canonica. Se emplea tambien la notacion
n

c
A = [L]B
Bc

o simplemente A = [L]Bc . La representacion de L con respecto a otras bases sera una


matriz diferente, pero tambien de m n.

MATRICIAL DE TRANSFORMACIONES LINEALES 21


6.4. REPRESENTACION
Ejemplos 6.4

x1 + x2
1. Sea L : R R , definida por L (x) =
(ejemplo anterior). Tenemos
x2 + x3



 
 
 
1
0
0
1
1
0

a1 = L (e1 ) = L 0 =
, a2 = L 1 =
, a3 = L 0 =
0
1
1
0
0
1
3

Por lo tanto,


1 1 0
A = (a1 , a2 , a3 ) =
0 1 1
Verificaci
on:

Ax =


 x1


1 1 0
x1 + x2
x2 =
= L (x)
0 1 1
x2 + x3
x3

2. Dada A de m n, consideremos la transformacion lineal L : Rn Rm dada por


L(x) = Ax
Es facil ver que

a11 . . . a1j
..
..
..
L(ej ) = Aej = .
.
.
am1 . . . amj

. . . a1n ...
a
1j

.. 1 = .. = a
..

.
j
.
.
. . . amm ..
amj
0

con aj la columna j-
esima de A, por lo que la representacion matricial de L en
las bases canonicas de Rn y Rm es precisamente A:
c
[L]B
Bc = (L(e1 ), . . . , L(e2 )) = A


a b
Por ejemplo, si A =
,
c d

  

a b
x1
ax1 + bx2
L(x) =
=
c d
x2
cx1 + dx2

y entonces


   
1
a
a b
L(e1 ) =
=
= a1
c d
0
c

   
a b
0
b
L(e2 ) =
=
= a2
c d
1
d
por lo que (a1 , a2 ) = A.
El problema 6.2.3 implica entonces que la imagen Im(L) de una transformacion
c
lineal L : Rn Rm es el espacio columna de A = [L]B
Bc (es decir, el espacio generado
por los vectores columna de A) mientras que el n
ucleo Nu(L) es espacio nulo de A.

22
3. Rotacion general en R2 . Tomemos la transformacion L : R2 R2 , tal que a cada
vector x lo hace rotar un angulo , en sentido antihorario:
x2

x2

LHe2L

LHxL

e2

LHe1L

x1

Tenemos

Por lo tanto



cos
L (e1 ) =
sin

e1


y L (e2 ) =

sin
cos

x1



cos sin
A = (L (e1 ) , L (e2 )) =
sin cos

Entonces, para rotar un angulo un vector x de R2 en sentido antihorario, se debe


multiplicar A por x:


  
x1 cos x2 sin
cos sin
x1
=
y = L(x) = Ax =
x2
x1 sin + x2 cos
sin cos
Problemas 6.4
1. Hallar la matriz que representa, respecto de las bases canonicas, las siguientes transformaciones lineales y escribir la forma explcita de L(x):
(a) La aplicacion L : R2 R2 que representa una dilatacion con factor c1 a lo largo
del eje x y c2 a lo largo del eje y.
(b) La reflexion L : R2 R2 respecto de la recta y = x.
(c) La rotacion L : R2 R2 de angulo /4 antihorario.
(d) La rotacion L : R3 R3 de angulo antihorario alrededor del eje z.
(e) Idem anterior pero alrededor del eje y.
(f ) La proyeccion L : R3 R3 sobre 
el plano
 xy.
    
1
1
0
2
2
2
(g) L : R R lineal, definida por L
=
,L
=
.
0
1
2
2



 
 
 
1
1
1
1
1
0
3
2
(h) L : R R lineal, definida por L 0 =
, L 1 =
, L 1 =
.
1
1
0
0
0
1

(i) Determinar la imagen y n


ucleo de las transformaciones anteriores.
2. Mostrar, determinando las imagenes L(e1 ) y L(e2 ), que la siguiente matriz


cos(2) sin(2)
A=
sin(2) cos(2)
representa en la base canonica la reflexion L : R2 R2 respecto de la recta y = mx
que forma un angulo con el eje x (m = tan ). Verificar resultados previos.

MATRICIAL DE TRANSFORMACIONES LINEALES 23


6.4. REPRESENTACION

6.4.1.

Caso general:

Consideremos una transformacion lineal general L : V W entre espacios vectoriales V y W de dimension n y m respectivamente. Sean
BV = (v1 , . . . , vn ) ,

BW = (w1 , . . . , wm )

bases ordenadas de V y W . Cualquier vector v V puede escribirse en terminos de los


vectores de la base BV :
v = x1 v 1 + . . . + xn v n

x1

= ... = x el vector de coordenadas de v con respecto a la base BV .
xn

siendo [v]BV

Por lo tanto, para L lineal,


L(v) = x1 L(v1 ) + . . . + xn L(vn )
Si ahora escribimos L(v) y L(vj ) en terminos de los vectores de la base BW ,
L(v) = y1 w1 + . . . + ym wm
L(vj ) = a1j w1 + . . . + amj wm ,

j = 1, . . . , m

tal que sus vectores de coordenadas en la base BW son


y1
a1j

[L(v)]BW = ... = y , [L(vj )]BW = ... = aj


ym
amj
obtenemos
y = [L(v)]BW = x1 [L(v1 )]BW + . . . + xn [L(vn )]BW

a11
a1n

= x1 ... + . . . + xn ...
am1
amn


x1
a11 . . . a1n
..

.
.
..
.. ...
= .

am1 . . . amn
= Ax

xn

es decir,
[L(v)]BW = A[v]BV
donde A es la matriz de m n

a11 . . . a1n

..
..
A = ([L(v1 )]BW , . . . , [L(vn )]BW ) = ...
.
.
am1 . . . amn
Esta matriz A se denomina representaci
on matricial de L respecto de las bases
V
BV de V y BW de W . La denotaremos tambien como A = [L]B
BW .
El resultado se puede resumir en el siguiente esquema grafico:

24

W
L:VW

x=@vDBV

w=LHvL

y=Ax
=@LHvLDBW

A Rmxn
Rn

Rm

Ejemplos 6.4.1
1. Sea L : R3 R2 la transformacion lineal definida por
L(x) = x1 b1 + (x2 + x3 ) b2
donde x = x1 e1 + x2 e2 + x3 e3 y
 
1
b1 =
,
1

 
1
b2 =
1

Tenemos
L (e1 ) = b1 = 1b1 + 0b2
L (e2 ) = L(e3 ) = b2 = 0b1 + 1b2
Por lo tanto, la representacion matricial de L con respecto a las bases Bc = (e1 , e2 , e3 )
de V = R3 y BW = (b1 , b2 ) de W = R2 es


1 0 0
Bc
A = [L]BW = ([L(e1 )]BW ), [L(e2 )]BW , [L(e3 )]BW ) =
0 1 1
As,
[L(x)]BW



 x1


1 0 0
x1
x2 =
=
0 1 1
x2 + x 3
x3

que implica justamente L(x) = x1 b1 + (x2 + x3 )b2 .


En cambio, en la base canonica de R2 obtenemos (probar!)


1 1 1
Bc
Ac = [L]Bc = (L(e1 ), L(e2 ), L(e3 )) =
1 1
1
con


 x1


1 1 1
x1 x2 x3
x2 =
[L(x)]Bc =
1 1
1
x1 + x2 + x3
x3
es decir, L(x) = (x1 x2 x3 )e1 +(x1 +x2 +x3 )e2 , que coincide con x1 b1 +(x2 +x3 )b2 .

MATRICIAL DE TRANSFORMACIONES LINEALES 25


6.4. REPRESENTACION
d
2. Sea D : P2 P2 el operador derivada D = dx
en el espacio de polinomios de grado
2. Como base ordenada de P2 consideramos B = (1, x, x2 ). Tenemos

D(1) = 0, D(x) = 1, D(x2 ) = 2x


Por lo tanto, su representacion matricial en la base B es

0 1 0
2
0 0 2
A = [D]B
B = ([D(1)]B , [D(x)]B , [D(x )]B ) =
0 0 0

a0
2

Para p(x) = a0 + a1 x + a2 x P2 tenemos [p]B = a1 y entonces


a2


0 1 0
a0
a1

a1 = 2a2
[D(p)]B = A[p]B = 0 0 2
0 0 0
a2
0
que implica D(p) = a1 + 2a2 x + 0x2 = a1 + 2a2 x. Al ser P2 de dimension 3, todo
operador lineal en P2 puede entonces ser representado por una matriz de 3 3, tal
como un operador en R3 .
Relaci
on entre las propiedades de L y la matriz de representaci
on
Sea L : V W una transformacion lineal, con dim V = n, dim W = m, y
V
A = [L]B
BW

la matriz que la representa con respecto a bases BV de V y BW de W . El rango y la


nulidad de A no dependen de las bases elegidas, pues coinciden, respectivamente, con
la dimension de la imagen y del n
ucleo de L (los que no dependen de la representacion).
En efecto, los n vectores columna aj Rm de A son las coordenadas de las n imagenes
L(vj ) W en la base BW . Como la correspondencia entre vectores y sus coordenadas en
una base es un isomorfismo (Problema 6.3.5), la dimension del subespacio de Rm generado
por las n columnas de A (es decir, el rango de A) es la misma que la del subespacio
de W generado por las n imagenes L(vj ), es decir, la misma que la dimension de la
imagen Im(L). Analogamente, los vectores x Rn del espacio nulo de A (Ax = 0) son
las coordenadas de los vectores v V del n
ucleo Nu(L) (L(v) = 0W ), y por lo tanto la
dimension del espacio nulo de A (la nulidad de A) coincidira con la del n
ucleo de L.
Se cumple entonces que
rango(A) = dim Im(L) , nulidad(A) = dim Nu(L)
W
para cualquier representaci
on matricial A = [L]B
on
BV de L. Por lo tanto, la relaci

dim Im(L) + dim Nu(L) = dim V


resulta equivalente a
rango (A) + nulidad (A) = n

26
Los vectores Rm de una base del espacio columna de A son las coordenadas en la
base BW de los vectores de una base de la imagen Im(L), mientras que los vectores Rn
de una base del espacio nulo de A son las coordenadas en la base BV de los vectores
de una base del n
ucleo Nu(L). Por lo tanto, pueden obtenerse bases de estos espacios
mediante los metodos ya conocidos para obtener bases de los espacios columna y nulo de
una matriz. Y la ecuacion L(v) = w es equivalente al sistema lineal A[v]BV = [w]BW .
Problemas 6.4 (continuacion)
1. 3. A partir de consideraciones
tricas, encontrar la representacion matricial [L]B
B
 geom
 e
1
1
2
2
respecto de la base B = (
,
) de la transformacion lineal L : R R que
1
1
refleja todo vector respecto de la recta y = x. Mostrar que dicha matriz es diagonal.
c
Comparar con la matriz que la representa en la base canonica [L]B
Bc .
2. 4. Sea D : P3 P3 el operador derivada en el espacio de polinomios de grado 3.
a) Determine su representacion matricial A en la base B = (1, x, x2 , x3 ).
b) Halle el n
ucleo y la imagen de D en este espacio, y su relacion con el espacio
columna y nulo de A.

6.5.

Cambio de base

Determinaremos ahora en forma explcita la relacion entre las representaciones matriciales de una transformacion lineal L en distintas bases. La ventaja de cambiar de base
es la posibilidad de encontrar una base en la que la matriz representativa de L sea simple
(por ejemplo, diagonal) y por lo tanto sus propiedades esenciales (rango, imagen, etc.)
resulten evidentes.
Consideremos primero un operador lineal L : V V , con V de dimension finita n.
Recordemos que si B = (v1 , . . . , vn ) y B 0 = (v10 , . . . , vn0 ) son dos bases de V , podemos
escribir cualquier vector v V en las formas
v = x1 v 1 + . . . + xn v n
= x01 v10 + . . . + x0n vn0


x1
x01


Las coordenadas x = [v]B = ... y x0 = [v]B 0 = ... en estas bases se relacionan
x0n
xn
por
x0 = S 1 x
o en forma equivalente,
x = Sx0
donde
S = [v10 ]B , . . . , [vn0 ]B

es la matriz de cambio de base (o matriz de transicion), de n n y no singular, formada


por las coordenadas de los vectores de la base B 0 en la base B. Por lo tanto, escribiendo
L(v) = y1 v1 + . . . + yn vn
= y10 v10 + . . . + yn0 vn0

6.5. CAMBIO DE BASE

27

con y = [L(v)]B = Ax = A[v]B , y0 = [L(v)]B 0 = A0 x0 = A0 [v]B 0 , obtenemos


y0 = S 1 y
= S 1 Ax
= S 1 ASx0
es decir,
0

Si A = [L]B
on de L en la base B y A0 = [L]B
on en la
B es la representaci
B 0 su representaci
0
0
base B , las matrices A y A se relacionan por
A0 = S 1 AS

donde S = [v10 ]B . . . [vn0 ]B es la matriz de cambio de base.
Notar que si se conoce A0 , la relacion anterior permite obtener A como (probar!)
A = SA0 S 1
Podemos resumir el resultado en el siguiente esquema grafico:

vV

x=@vDB
Rn

L:VV

A Rnxn

y=Ax
=@wDB
S-1

S
x'=@vDB'
Rn

w=LHvL

A' = S-1AS Rnxn

y'=A'x'
=@wDB'

Ejemplo 6.5.1 Consideremos


la reflexion L : R2 R2respecto
de la recta
  nuevamente
 

1
1
1
y = x. En la base B 0 = (
,
), formada por el vector v10 =
perteneciente a
1
1
1
 
1
la recta y el vector v20 =
perpendicular a la recta, la representacion es obvia, ya
1
que L(v10 ) = v10 mientras que L(v20 ) = v20 (vease problema 6.4.3):


1 0
0
A =
0 1
   
1
0
Para hallar la representacion matricial A de L en la base canonica B = (
,
),
0
1
determinamos primero la correspondiente matriz de cambio de base,


1 1
0
0
S = ([v1 ]B , [v2 ]B ) =
1 1

28
y su inversa S 1


1
1
= 21
. Luego
1 1




1 1
1 0
1/2 1/2
0 1
A = SA S
=
1 1
0 1
1/2 1/2


0 1
=
1 0

Este resultado coincide con el hallado previamente (problema 6.4.1 (b)).

6.5.1.

Matrices semejantes

Dos matrices A y A0 de n n son semejantes si y solo si existe una matriz no singular


S tal que
A0 = S 1 AS
Si A0 es semejante a A, entonces, multiplicando la igualdad anterior por S a izquierda y
por S 1 a derecha, obtenemos
SA0 S 1 = S(S 1 AS)S 1 = (SS 1 )A(SS 1 )
= A
es decir, A = R1 A0 R , con R = S 1 , por lo que A es tambien semejante a A0 .
Por lo tanto, las matrices A y A0 que representan a un operador lineal L en dos bases
distintas son semejantes.
Dos propiedades fundamentales sobre matrices semejantes son las siguientes:
1. Las matrices semejantes tienen el mismo determinante:
det(A0 ) = det(A)
En efecto,
det(A0 ) =
=
=
=

det(S 1 AS)
det(S 1 )det(A)det(S)
(det(S))1 det(A)det(S)
det(A)

Esto implica que el determinante det(A) es una propiedad del operador lineal L
representado por A, permaneciendo invariante frente a cambios de base.
As, comprobamos en el ejemplo 6.5.1 que det(A0 ) = det(A) = 1.

6.5. CAMBIO DE BASE

29

2. Las matrices semejantes tienen la misma traza:


Tr A0 = Tr A
donde la traza Tr(A) =

Pn

i=1

aii es la suma de los elementos diagonales.

En efecto, probemos primero que para matrices A de n m y B de m n, se cumple


Tr (AB) = Tr (BA)
Demostracion:
TrAB =

n
n X
m
m X
n
m
X
X
X
X
(AB)ii =
(
aij bji ) =
(
bji aij ) =
(BA)jj = TrBA
i=1

i=1 j=1

j=1 i=1

j=1

Luego
Tr A0 = Tr (SAS 1 ) = Tr ((AS 1 )S) = Tr (A(S 1 S)) = Tr A
Este resultado implica que la traza es tambien una propiedad del operador L representado
por A, permaneciendo invariante frente a cambios de base.
As, comprobamos en el ejemplo 6.5.1 que Tr (A0 ) = Tr(A) = 0.
Finalmente, mencionemos una tercera propiedad relacionada con 1.:
3. Si A y A0 son matrices semejantes de n n e In es la matriz identidad, entonces
det (A0 In ) = det(A In )
para cualquier escalar .
Este determinante (que es un polinomio de grado n en denominado polinomio caracterstico) juega un rol central en la teora de autovalores, como veremos luego.
Demostracion:
det(A0 In ) = det(S 1 A0 S In ) = det[S 1 (A In )S]
= (det(S 1 )det(A In )det(S)
= det(A In )
As, comprobamos en el ejemplo 6.5.1 que


1

0
0
= (1 )(1 ) = 2 1
det(A I2 ) =
0
1


1

= 2 1 = det(A0 I2 )
det(A I2 ) =
1

30
Problemas 6.5
1. Dada L : R3 R3 definida por

2 2 0
L(x) = Ax , A = 1 1 2
1 1 2


x1
a) Obtener la expresion explcita de L(x) para un vector x = x2 .
x2


1
2
1
b) Hallar su representacion A0 en la base B 0 =1 , 1 , 1.
0
1
1

Verificar que L(v10 ) = 0, L(v20 ) = v20 , y L(v30 ) = 4v30 , y que por lo tanto, A0 es
diagonal.
c) Usar esta representacion diagonal para hallar su n
ucleo e imagen.
d) Usar esta representaciondiagonal
para interpretar L geometricamente.

e) Indique si el vector v = 1 pertenece a la imagen de L.


1

f) Verifique que la traza y determinante permanecen invariantes frente al cambio de


base: Tr(A) =Tr(A0 ), det (A) = det (A0 ).
2. Si la matriz A del problema anterior representa ahora una transformacion L : P2 P2
en la base canonica de P2 , con P2 el espacio de polinomios reales de grado 2 (y su
base canonica dada por (1, x, x2 )), de una expresion para L(p) y determine la base
B 0 de P2 donde la representacion A0 es diagonal (utilice resultados previos).
3. Considere la reflexion L : R2 R2 respecto de una recta que pasa por el origen y
que forma un angulo con el eje x, dada por y = mx, con m = tan (graficar).
a) Determine, a partir
etricas, su representacion matricial
 de consideraciones
 
 geom
A0 en la base B 0 =

cos
sin
,
sin
cos

formada por un vector perteneciente a la

recta y otro perpendicular a dicha recta (verificar!). Muestre que A0 es diagonal.


b) Utilice a) y cambio de base para obtener la representacion matricial A en la base
canonica. Verifique que se obtiene el resultado del problema 6.4.2.
       
1
2
0
1
4. Sea L : R R definida por L
=
,L
=
.
0
2
1
1
2

a) Encuentre su representacion matricial en la base canonica de R2 y de una expresion para L(x).


   
1
1
0
b) Encuentre su representacion matricial en la base B =(
,
), y verifique
2

que es diagonal. c) Determine su n


ucleo e imagen.
5. a) Muestre que la representacion matricial A = [I]B
B del operador identidad I : V V
con respecto a una base arbitraria B de un espacio vectorial V de dimension n, es
siempre la matriz identidad In .
b) Muestre que la representacion matricial del operador nulo 0 : V V en cualquier
base B de V es la matriz nula de n n.

DE TRANSFORMACIONES (OPERACIONES SUCESIVAS) 31


6.6. COMPOSICION
6. Muestre que si una matriz B es semejante a una matriz A, entonces:
i) B 2 es semejante a A2 .
ii) Si A no singular, B es no singular y B 1 es semejante a A1 .
7. Dada L : V W y A su representacion matricial respecto de bases BV de V y
BW de W (con dimV = n, dimW = m) muestre que su representacion matricial A0
0
respecto de bases BV0 de V y BW
de W es
A0 = R1 AS
con S = ([v10 ]BV , . . . , [vn0 ]BV ) la matriz de cambio de base en V (de n n, no
singular) y R = ([v10 ]BW , . . . , [vn0 ]BW ) la matriz de cambio de base en W (de m m,
no singular).

6.6.

Composici
on de transformaciones (operaciones
sucesivas)

Consideremos dos transformaciones lineales L : V W , G : W U , con V , W ,


U espacios vectoriales. Supongamos que primero aplicamos L sobre un vector v V , y
luego aplicamos G sobre el vector resultante w = L(v) W . El resultado es el vector
u = (G L)(v) = G(L(v))

(6.1)

que pertenece al espacio vectorial U :


vwu
L

En (6.1), G L : V U denota la composicion de G con L (tambien escrita como


G L), que es tambien una transformacion lineal.
Problemas 6.6.1
1. Demostrar que si L : V W y G : W U son transformaciones lineales, entonces
G L : V U definida por (6.1) es tambien una transformacion lineal (probar que
satisface (G L)(v1 + v2 ) = (G L)(v1 ) + (G L)(v2 )).
2. Si L : R3 R2 esta definida por L(x, y, z) = (x + y, y + z),
y G : R2 R2 esta definida por G(x, y) = (x + y, 2x 2y), encontrar una expresion
para (G L)(x, y, z) = G(L(x, y, z)).

6.6.1.

Representaci
on matricial de la composici
on

Consideremos primero que V = Rn , W = Rm y U = Rp , y sean AL (de mn) y AG (de


p m) las representaciones matriciales de L y G en las bases canonicas correspondientes,
tal que L(v) = AL (v), G(w) = AG w. Entonces
GL(v) = G(L(v)) = G(AL v) = AG (AL v) = (AG AL )v

32
por lo que la representacion matricial de la composicion G L con respecto a las bases
canonicas de V y U es el producto AG AL de las matrices que representan a G y a L:
AGL = AG AL

(6.2)

Observar que la matriz AG se aplica a la izquierda de la matriz AL . El producto esta as


bien definido.
Ejemplo 6.4: En el ejercicio 6.6.2, en las bases canonicas de R3 y R2 , obtenemos las
representaciones matriciales (verificar!)




1 1 0
1 1
AL =
, AG =
0 1 1
2 2
tal que



 x


x
1 1 0
x+y

y =
L y
=
0 1 1
y+z
z
z

  

 
x+y
x
1 1
x
=
=
G
2x 2y
y
2 2
y

Por lo tanto,




 x
x
1 1
1 1 0
y
(GL) y =
2 2
0 1 1
z
z


 x
1 2 1
y
=
2 0 2
z


x + 2y + z
=
2x 2z

o sea, AGL = AG AL =

1 2 1
2 0 2

(6.3)


, con (G L)(x, y, z) = (x + 2y + z, 2x 2z).

En el caso general, para representaciones matriciales en bases arbitrarias BV , BW y


BU de V , W , U , se obtiene tambien (se deja la demostracion para el lector)
BV
BW
V
[GL]B
BU = AG AL con AL = [L]BW , AG = [G]BU

Este resultado es valido para espacios vectoriales generales de dimension finita.

6.6.2.

Potencias de operadores lineales

Recordemos que si W = V , la transformacion lineal L : V V se denomina tambien


operador lineal o endomorfismo. Queda en este caso definido el cuadrado L2 = L L como
la composicion de L con L:
L2 (v) = L(L(v))
(6.4)

DE TRANSFORMACIONES (OPERACIONES SUCESIVAS) 33


6.6. COMPOSICION
Si AL es la representacion matricial de L en una cierta base de V , los resultadoa anteriores
implican que la representacion matricial de L2 es el cuadrado de la matriz AL :
AL2 = AL AL = A2L

(6.5)

En general, la potencia Lk k 2 queda definida por


Lk (v) = L(Lk1 (v)), k 2
y su representacion matricial es
ALk = AL ALk1 = AkL
es decir, la potencia k de la matriz AL . Por definicion, L0 = I, con I el operador identidad.
Y si L es un operador lineal inversible (o sea un automorfismo: un isomorfismo de V en
V ), de forma que existe la transformacion inversa L1 (tal que L1 L = IV ) entonces
AL1 = A1
L

(6.6)

ya que AL1 AL = In . La representacion matricial de la inversa L1 es la inversa de la


matriz AL que representa a L, como se vio previamente.
 


x
2x + y
2
2
Ejemplo: Si L : R R esta dado por L
=
, su representacion
y
x 2y
matricial en la base canonica es (probar!)


2
1
AL =
1 2
La representacion matricial de L2 es entonces


 

2
1
2
1
3 0
2
AL2 = AL =
=
1 2
1 2
0 3
de forma que
  
   
 
x
3 0
x
3x
x
L
=
=
=3
y
0 3
y
3y
y
2

es decir, L2 (x) = 3x, lo que equivale a L2 = 3I, con I el operador identidad.


Ademas, como AL es no singular, L es inversible y la representacion matricial de su
inversa esta dada por


1
2
1
1
AL1 = AL =
3 1 2
de forma que
1

 

 


1
1 2x + y
x
2
1
x
=
=
y
y
3 1 2
3 x 2y

o sea, L1 = L/3. Se verifica entonces L1 L = I.

34
Problemas 6.6.2
1. Si L : R3 R3 queda definido por L(x, y, z) = (y, x, z),
i) mostrar que en la base canonica,

0 1 0
AL = 1 0 0
0 0 1
ii) Hallar A2L y verificar que L2 es el operador identidad.
2. Sea P2 el subespacio de los polinomios reales de grado 2.
d
),
Si D : P2 P2 denota el operador derivada (D = dx
i) Hallar las representaciones matriciales AD y AD2 de D y la derivada segunda D2
en las base canonica (1, x, x2 ) y verificar que
AD2 = AD AD = A2D

6.6.3.

Composici
on de transformaciones lineales en R2

Consideremos ahora algunos ejemplos de operadores lineales L : R2 R2 . La reflexion


de un vector v respecto de la recta y = x esta dada por (recordar!)
  
   
x
0 1
x
y
L
=
=
y
1 0
y
x


0 1
siendo su representacion matricial en la base canonica AL =
.
1 0
Es evidente de la definicion que L2 (xy ) = L(L(xy )) = (xy ) x, y, o sea, L2 = I (operador
identidad), verificandose que (probar!)


1 0
2
AL =
0 1
Es, decir, la inversa de una reflexion L es la misma reflexion L, como es obvio geometricamente.
x2

x2

LHvL

y=x

RHvL

v
x1

v
x1

La rotacion de angulo /2 en sentido antihorario de un vector v esta dada por


  
   
x
0 1
x
y
R
=
=
y
1 0
y
x

DE TRANSFORMACIONES (OPERACIONES SUCESIVAS) 35


6.6. COMPOSICION


0 1
1 0

siendo su representacion matricial en la base canonica AR =


.

Consideremos ahora la transformacion lineal R L que primero refleja un vector respecto de


la recta y = x y luego lo rota un angulo de /2 en sentido antihorario. Su representacion
matricial en la base canonica sera


 

0 1
0 1
1 0
A(R L) = AR AL =
=
1 0
1 0
0 1
y por lo tanto,
  
   
x
1 0
x
x
RL
=
=
y
0 1
y
y
Esto representa una reflexi
on respecto del eje y (mostrar!).
Por otro lado, la transformacion lineal L R, que primero rota un vector un angulo de
/2 en sentido antihorario y luego lo refleja respecto de la recta y = x, queda representada por la matriz


 

0 1
0 1
1 0
A(L R) = AL AR =
=
1 0
1 0
0 1
y por lo tanto,
  
   
x
1 0
x
x
LR
=
=
y
0 1
y
y
Esto representa una reflexi
on respecto del eje x (mostrar!).
x2

x2

v
RLHvL

v
x1

x1

LRHvL
Por lo tanto, vemos que el resultado final depende del orden de la composici
on, lo
que se refleja en la no conmutatividad del producto matricial asociado.
Se define el conmutador de dos operadores L : V V , G : V V como
[G, L] = GL LG
que es en general un operador no nulo. La matriz que lo representa en una base de V es
el conmutador de las matrices que representan a G y L en dicha base:
A[G,L] = AG AL AL AG . En el ejemplo anterior se obtiene

 



1 0
1 0
1 0
AR AL AL AR =

=2
0 1
0 1
0 1

36
que implica RL LR = 2RL, es decir, LR = RL.
Recordemos finalmente que la proyeccion ortogonal de un vector sobre el eje x esta dada
por (graficar!)
  
   
x
1 0
x
x
Px
=
=
y
0 0
y
0
y la proyeccion ortogonal de un vector sobre el eje y esta dada por
  
   
x
0 0
x
0
Py
=
=
y
0 1
y
y
Problemas 6.6.3
1. a) Hallar la representacion matricial en la base canonica de la inversa de los operadores R y L anteriores.
b) Tienen Px y Py inversa?
c) Encuentre la representacion matricial de Px Py y Py Px . Justificar el resultado.
2. Sea F : R2 R2 el operador lineal que primero rota todo vector un angulo /2
en sentido antihorario y luego lo proyecta sobre el eje x. Hallar su representacion
matricial en la base canonica y una expresion para F (xy ).
3. Sea G : R2 R2 el operador lineal que primero proyecta todo vector sobre el eje
x y luego lo rota un angulo /2 en sentido antihorario. Hallar su representacion
matricial en la base canonica y una expresion para G(xy ).
4. Recordando que la representacion matricial en la base canonica de una reflexion
respecto de la recta y = mx, con m = tan , es


cos 2 sin 2
sin 2 cos 2

a) Halle su determinante.
b) Muestre que la composicion de dos reflexiones es una rotacion.
5. Recordando que la representacion matricial en la base canonica de una rotacion de
angulo antihorario es


cos sin
sin cos
a) Halle su determinante.
b) Muestre que la composicion de dos rotaciones es otra rotacion.
c) Muestre que la composicion de una reflexion con una rotacion es otra reflexion.
6. Encuentre, a partir de las figuras, la representacion matricial en la base canonica de
las siguientes transformaciones lineales L : R2 R2 :

DE TRANSFORMACIONES (OPERACIONES SUCESIVAS) 37


6.6. COMPOSICION
x2

x2

LHCL

LHCL
2

C
C

a)

x1

1,5

x1

b)

x2

x2

LHCL
C
1

LHCL

c)

d
c

x1

d)

x1

Matematica C
Transformaciones Lineales: Apendice

1 Aplicaciones. Gra cos y animaciones en computadoras


Para dibujar las guras (gra cos, objetos,...) en un espacio bi-dimensional, como aparecen en el monitor de una computadora:
1. Se almacenan en la memoria como un conjunto de vertices (puntos)
2. Se dibujan los vertices y luego se los une mediante lneas rectas para obtener la
gura.

As si se tienen p vertices (xi; yi) para i = 1; : : : ; p, se almacenan como una matriz T
de 2  (p + 1)

x x    x x 
1
T= 1 2
p

y1 y2    yp y1

Por ejemplo, para dibujar un triangulo...


... con vertices (0; 0), (1; 1) y (1; ;1), almacenamos los vertices como

0

1 1 0
0 1 ;1 0

A~nadimos la cuarta columna para indicar que el ultimo punto (1; ;1) debe ser conectado (mediante un procedimiento de dibujo computacional) al primer punto (0; 0) para
completar el triangulo

Para transformar una gura, hay que cambiar de posicion de los vertices y \redibujar" la
gura. Si la \transformacion" es lineal, se puede hacer esto mediante una multiplicacion
de matrices (en R 2 ).
...

Animacion: Viendo una sucesion de estos dibujos, realizados de manera muy rapida
en tiempo real, produce el efecto de una \animacion".

1.1 Usando cuatro transformaciones basicas

(1) Dilataciones y contracciones: L (x) = c:x (operador de escala)


c > 1:
0 < c < 1:

dilatacion
contraccion

L se representa por la matriz c:I2 , donde I2 es la matriz identidad de 2  2.


Por ejemplo ...
... para dilatar el triangulo anterior por un factor 3, construimos un nuevo triangulo
mediante su matriz de vertices
3 0 0 1 1 0 0 3 3 0
0
T = (3:I2 ) :T = 0 3 : 0 1 ;1 0 = 0 3 ;3 0

(2) Re exion respecto de un eje:


Lx (x) =
Otra:

Ly (x) =

;x
y

x

;y re exion sobre el ejex)

(re exion sobre el ejey)

Ambas \transformaciones son lineales", y respecto de la base canonica e1 y e2 se


representan mediante las matrices...
La re exion sobre el eje \x", que es la recta y = 0:

Ay =

;1 0
0 1

Siguiendo con el ejemplo del triangulo ...


... La re exion del \triangulo" respecto del eje x ...
Hay que aplicar la matriz de esta transformacion a cada vertice + el vertice nal
agregado:
1 0  0 1 1 0 0 1 1 0
0
T = Ax:T = 0 ;1 : 0 1 ;1 0 = 0 ;1 1 0
De igual manera, respecto del eje \y", la re exion del triangulo:
;1 0 0 1 1 0 0 ;1 ;1 0
00
T = Ay :T = 0 1 : 0 1 ;1 0 = 0 1 ;1 0
... As dibujando los puntos transformados ...

T 0 = Ax:T

T 00 = Ay :T

(3) Rotaciones: Para rotar un vector un angulo  en sentido contrario a las agujas del
reloj, multiplicamos cada vector por la matriz
cos  ; sin 
A = sin  cos  (operador rotacion)
Para obtener la rotacion del triangulo...

T0

=
=

cos  ; sin  0 1 1 0
A :T = sin  cos  : 0 1 ;1 0
0 (cos  ; sin ) (cos  + sin ) 0


0 (sin  + cos ) (sin  ; cos ) 0


T 0 = A :T

Ahora, una transformacion muy usada, pero que \no es lineal" (veri car que no
cumple las propiedades de linealidad)...

(4) Traslaciones: L (x) = x + a


Si a 6= 0, sabemos que no es una transformacion lineal, y por tanto, no puede ser
representada mediante una matriz.
... Pero, a pesar de no ser lineal, se puede hacer un arti cio para poder usar una matriz. Para eso se de ne un \nuevo sistema" de coordenadas, denominadas \coordenadas
homogeneas" que permite el uso de una matriz...

1.2 Inversas, composicion y conmutacion de operaciones


La inversa de una de estas operaciones deshace la transformacion y retorna al vector
original x.

Ejemplo 1 Para rotar x en sentido antihorario mediante el angulo , multplicamos x


por A

x0 = A:x =

cos  ; sin 
:x
sin  cos 

Para deshacer esta operacion y recobrar el vector original x, rotamos x0 en sentido


horario mediante el angulo , o en forma equivalente ...
... en sentido antihorario mediante el angulo ; ...

x = B:x0

=
=

cos (;) ; sin (;)


0
sin (;) cos (;) :x
 cos  sin  
0
; sin  cos  :x

Pero ...

x = B:x0 = B: (A:x) = B:A:x


=) B:A = I
... B es la inversa de A. De hecho
 cos  sin   cos  ; sin 
B:A = ; sin  cos  : sin  cos 
 cos2  + sin2 

;
cos

sin

+
sin

cos

= ; sin  cos  + cos  sin 
cos2  + sin2 
1 0
= 0 1

Otro caso ...


4

Ejemplo 2 Para re ejar x sobre el eje x2 , multiplicamos x por A


;1 0 x  ;x 
1
0
x = A:x =
: 1 =
x.

0 1
x2
x2
... Si de nuevo re ejamos x0 sobre el eje x2 , deberamos recobrar nuestro vector original
Esto es ...

x = A:x0 = A: (A:x) = A2:x


=) A2 = I
la inversa de A es A

A;1 = A
Efectivamente ...

A =
2

;1 0 ;1 0
0 1 : 0 1
1 0

0 1
Ejemplo 3 Para invertir el sentido de x, multiplicamos x por la matriz A

x0

= A:x =

;1

;x 

 

0 : x1
0 ;1
x2

1
;x2 = ;x
... Si ahora invertimos el sentido de x0 , recobramos x
x = A:x0 = A: (A:x)
= A
2;:x1 0  ;1 0
= 0 ;1 : 0 1 :x
1 0
= 0 1 :x

por tanto ...

A;1 = A

Ejemplo 4 Para rotar x en sentido antihorario mediante el angulo  = =2, multiplicamos x por A
cos  ; sin 
0
x = A:x =
:x
=

0 ;1sinx cos ;x 


1
2
1 0 : x2 = x1
5

... o, rotamos x en sentido antithorario primero mediante =3, y luego rotamos mediante =6 ...

x0

cos =6 ; sin =6 cos =3 ; sin =3


A2: (A1 :x) = sin =6 cos =6 : sin =3 cos =3 :x
p3=2 ;1=2  1=2 ;p3=2
p

3=2 : 3=2 1=2


1=2
0 ;1 x  ;x 
= 1 0 : x1 = x 2
2
1

:x

As componer la rotacion A2 :A1 es equivalente a la secuencia de rotaciones A1 , y A2


(A1 seguida por A2 ). Esta composicion de dos rotaciones sucesivas es equivalente a una
rotacion de =2.
... En este caso, una rotacion de =6 (A1 ) seguida por una rotacion de =3 (A2 ) es
equivalente a una de =3 seguida de una de =6

A1 :A2 =
A2 :A1 =

 1=2 ;p3=2 p3=2 ;1=2 0 ;1


p
p
3=2 1=2 : 1=2
3=2 = 1 0
0 ;1
1 0

El ejemplo de las dos rotaciones sucesivas muestra ...


Las matrices que representan operadores lineales conmutan (A:B = B:A) si las dichas
operaciones dan el mismo resultado cuando se las realiza en orden inverso.

Ejemplo 5 Para proyectar x sobre el eje x2 , multiplicamos x por A


x0 = A:x =

0 0 x   0 
: 1 =
0 1

x2

x2

Si ahora proyectamos x0 sobre el eje x2 , obtendremos el mismo resultado, ya que x0 se


encuentra sobre el eje x2

A:x0 = A (A:x) =
esto es

0 0  0   0 

0
0 1 : x2 = x2 = x

0 0 0 0 0 0

A = 0 1 : 0 1 = 0 1 =A
2

De hecho Ak = A para todo k = 1; 2; : : : para todo tipo de operador proyeccion.

Observacion 6 Un operador proyeccion no tiene inversa

Todos los vectores que tengan la misma coordenada x2 tendran la misma proyeccion
sobre el eje x2 . O sea, seran transformados al mismo vector x0 .
El operador proyeccion no tiene inversa, debido a que el vector x0 no puede ser retornado sobre un unico vector x.
De hecho ...
0 0
det A = det 0 1 = 0
... y por tanto A es singular (no invertible).
La matriz A que representa a un operador lineal es \singular" (no invertible) si la
operacion \ no puede deshacerse o invertirse" para recobrar el vector inicial unico .

1.3 Traslaciones y Coordenadas homogeneas

De nicion Las coordenadas homogeneas se forman al asociar cada vector x en R 2 el


vector x^ en R 3 correspondiente a

x

x= y

0 x1
! @y A = x^
1

Para dibujar un punto representado por estas \ coordenadas homogeneas" x^, solo hay
que \ignorar" el tercer coe ciente y simplemente dibujar (x; y).
Con esta de nicion arti cial (y aparentemente arbitraria), los \cuatro tipos" de operaciones gra cas descriptas, a pesar que la 4ta. no es lineal, podran ser representadas
mediante matrices de 3  3, si se las quiere combinar con traslaciones. Recuerden que si no
usan traslaciones, no hay necesidad de usar ningun arti cio ya que las transformaciones
1-2-3, cada una tiene su matriz de representacion.
Para el caso, cuando aparecen traslaciones, en las coordenadas homogeneas se agrega
la \tercer la" y la \tercer columna" de la matriz identidad I3 , de 3  3:
As en esta situacion ....
0c 0 01
A la matriz de dilatacion c:I2: se le agrega... @0 c 0A Observar que no es c:I3.
0 0 1
3
Esa sera una dilatacion en < , que no es la dada en 2- variables.
De igual manera....

01 0 01
A la matriz de re exion A : @0 ;1 0A
0 0 1
0cos  ; sin  01
A la Matriz de rotacion A : @ sin  cos  0A
x

0
0 1
Luego, por ejemplo, la aplicacion de una re exion respecto del eje \x" a un vector
arbitrario (x,y):

Axx^ =
=

01 0 01 0x1
@0 ;1 0A : @yA
00x 10 1 1
x
@;yA !; al eliminar la tercer componente ..... ;y
1

Para las operaciones o transformaciones, Tipo: 1, 2 y 3, el agregado de una coordenada


" cticia" es super uo, pues son lineales y tienen su matriz de representacion.
.... Pero, para la traslacion (que no es lineal), ahora s podremos construir una \matriz
de representacion con respecto a las coordenadas homogeneas" ...
Para eso, reemplazamos en la matriz I3, los dos primeros coe cientes de la columna
" cticia" por los coe cientes del vector de traslacion a ...

01
Aa = @0

0 ax
1 ay A
0 0 1

Se tiene entonces que la aplicacion de esa matriz a un vector arbitrario (x,y), con la
tercer componente 1 ...

Aa:x^ =
=

x + a 

01 0 a 1 0x1
@0 1 a A : @y A
00x +0a 11 1
@y + a A ! eliminado la tercer componente se obtiene:
x
y

y + ay =x+a
x

En el ejemplo del triangulo, su aplicacion, a cada vector o vertice con la tercer componente agregada ...

00
T^ = @0

1 1 0
1 ;1 0A
1 1 1 1

T^0 =
=

01 0 a 1 00 1 1 01
Aa:T^ = @0 1 a A : @0 1 ;1 0A
0a (1 +0a 0) (11 + a )1 a11 1 1
@a (1 + a ) (1 + a ) a A
x
y

x
y

x
y

0a 1
Los vectores columnas de T^, se trasladan mediante @a A = a.
x
y

T^0 = AaT^

T^0 = AaT^

En general, para \n" vertices se considera ...

0x x    x 1 0x x    x x 1
1
2
1
2
1
T^ = @ y1 y2    y A o @y1 y2    y y1 A
n

1 1  1
1 1  1 1
Otra transformacion \lineal" conocida...
Observaci
on 7 El operador \proyeccion" tambien puede ser tratado de esta manera,
y es muy importante para representaciones gra cas en 2-dimensiones, con perspectiva
espacial, de un objeto tridimensional.

1.4 Operaciones sucesivas o composicion de transformaciones


Las sucesivas aplicaciones de estas operaciones (rotaciones, re exiones, traslaciones(no
lineal)) pueden lograrse mediante sucesivas multiplicaciones, o equivalentemente mediante
la multiplicacion \una matriz" que es el \producto de las matrices de representacion", en
el orden correspondiente de cada operacion.

Ejemplo 8 Para dilatar un gura mediante un factor c > 1, y luego trasladarla mediante
un vector a, multiplicamos la matriz de vertices T^ por el producto de dos matrices

01
T^0 = (Aa) : (c:I2) :T^ = @0

10

0 ax
c 0 0
c 0 ax
1 ay A : @0 c 0A :T^ = @0 c ay A :T^
0 0 1
0 0 1
0 0 1

... y para rotar la imagen resultante en sentido antihorario mediante el angulo , multiplicamos T^0 por A

T^00 =
=

0cos  ; sin  01 0c 0 a 1
A :T^0 = @ sin  cos  0A : @0 c a A :T^
0c cos  ;c0sin  (0a cos1 ; a 0sin0)11
@ c sin  c cos  (a sin  + a cos )A :T^
x
y

El ORDEN DE LAS OPERACIONES ES CRITICO.


Por ejemplo, una rotacion seguida por una traslacion produce un resultado distinto
que una traslacion seguida por una rotacion.
Rotaci
on... y luego traslacion :

T 0 = A :T

T 00 = Aa:T 0 = Aa:A :T
10

Ahora ...
Traslaci
on... y luego rotacion :

T 0 = Aa:T

T 00 = A :T 0 = A :Aa:T

Observacion 9 Las composiciones no son equivalentes ya que las matrices Aa y A no


conmutan

Aa:A 6= A :Aa
... y por tanto, el \orden" de las operaciones es importante.
Un programa simple de computadora en dos dimensiones es una secuencia de estas
operaciones, calculadas y expuestas muy rapidamente, en tiempo real.

11

Facultad de Ingeniera
UNLP
Matematica C
Proyeccion ortogonal. Bases ortogonales

1 Proyecci
on
En secciones previas hemos usado la proyeccion ortogonal de vectores de R3 sobre el
plano xy (subespacio). Asumiendo que el vector esta por encima del plano xy, esta proyeccion es la sombra (al medioda) del vector sobre este plano:
z

PxyHvL

En otras palabras, la proyeccion de v sobre el plano xy es un vector p = Pxy (v) tal


que si alguien camina sobre el plano y se detiene sobre el extremo de p mirando hacia
arriba en lnea recta, ve el extremo del vector v.
En esta seccion se generalizara este concepto a otras proyecciones.

1.1 Proyecci
on Ortogonal sobre una recta
Primero consideramos de nuevo la proyeccion ortogonal sobre una recta que pasa por
el origen, dirigida por un vector ~s.
Proyectar ortogonalmente un vector ~v sobre una recta dirigida por ~s da un punto p~
sobre la recta tal que el segmento que une p~ con ~v es perpendicular a la recta. Un observador que camine sobre esa recta y se detenga en el punto p~, al mirar hacia arriba (o hacia
abajo, seg
un la posicion del vector) en forma perpendicular a la recta, vera el extremo de ~v :

s
x

Es decir, ha caminado sobre la recta {c~s, c R} hasta hallar el punto p~ = cp~s determinado por un coeficiente cp , con la propiedad de que el vector ~v cp~s es ortogonal a cp~s.

v-c p s

cp s
x

Para determinar cp , basta con observar que la diferencia ~v cp~s debe ser ortogonal al
propio vector ~s (no nulo) que genera la recta. Por lo tanto, el producto escalar de estos
dos vectores debe ser nulo:
(~v cp~s) ~s = 0
De aqu obtenemos
~v ~s
~s ~s
|~v |
es decir, cp = |~s| cos , donde es el angulo entre ~v y ~s. Estas consideraciones son aplicables
tanto a R2 o R3 como tambien a Rn (y tambien a todo espacio vectorial en el que se ha
definido un producto escalar!), siendo el plano del dibujo el subespacio de dimension 2
generado por ~v y ~s.
cp =

Definici
on. Sea ~v Rn . La proyeccion ortogonal de ~v sobre la recta (que pasa por el
origen) generada por el vector no nulo ~s Rn es el vector
P~s (~v ) =

~v ~s
~s
~s ~s

Es decir, P~s (~v ) = (|~v | cos ) |~~ss| . El resultado depende solo de la direccion de ~s y no de
su longitud (o sentido): P(~s) (~v ) = P~s (~v ) 6= 0. De esta forma, el vector ~v P~s (~v ) es
perpendicular a ~s:
[~v P~s (~v )] ~s = 0
Ejemplo. Para proyectar ~v = (x, y) R2 ortogonalmente sobre la recta y = 2x,
primero obtenemos un vector que indique la direccion de la recta. Por ejemplo,
 
1
~s =
2
Luego
 
1
 
 
(x, y)
2
x + 2y 1
1
 
P~s (~v ) =
=
2
2
5
1
(1, 2)
2
3

Ejemplo En <3, la proyeccion ortogonal de un vector arbitrario

0x1
@y A
z

sobre el eje- y es

01
;x y z  @01A 0 1 0 1
0
0
0001  @1A = @yA
;0 1 0  @1A 0
0

0
lo cual se corresponde con lo esperado por nuestra intuicion. Gra car.
Otra forma de pensar la proyeccion de v sobre la recta...
Desde el dibujo que precede a la de nicion observamos que el vector ~v se ha descompuesto en dos partes:
(1) La parte sobre la recta: p~ = cp~s), que es el vector proyectado; y
...
(2) la parte que es ortogonal a la recta: ~v ; cp~s.
As la proyeccion ortogonal de ~v sobre la recta generada por ~s es la parte del ~v que
yace en la direccion del vector ~s.
Una forma util de pensar la proyeccion ortogonal de ~v sobre la recta indicada ...
... es pensar que la proyeccion de ~v es el vector o punto en la recta que esta mas cerca
a ~v . Es decir hallar en la recta el punto cuya distancia al v es mnima. Repasar el dibujo.
Problema.
Dada una recta que no pasa por el origen.
... La proyeccion de ~v sobre esa recta es el vector o punto en la recta que esta mas
cerca a ~v. Es decir, se debe hallar en la recta el punto cuya distancia al v es mnima.
Gra car.
... > Como puede hallar el punto sobre esa recta que esta mas cerca de v ?.

En la seccion proxima vemos como la proyeccion de un vector en la direccion de


otro nos da un procedimiento para construir \bases de espacios vectoriales" con vectores
ortogonales entre si.

Ejercicios

X 1.1 Proyectar el primer vector ortogonalmente sobre la recta que pasa por el origen
generada por el segundo vector.
011 0 3 1
011 0 1 1
2  3 
2 3
(a) 1 , ;2 (b) 1 , 0 (c) @1A, @ 2 A (d) @1A, @ 3 A
;1
4
X 1.2 Proyectar el vector dado ortogonalmente sobre la recta indicada.
4

12

3
2

(a) 1 , = c 1 | c

3
4

(b)

1
1

, la recta y = 2x

1.3 Aunque lo desarrollado ha sido guiado por representaciones graficas, no nos restringimos a espacios que podemos dibujar. Por ejemplo, en 4 , proyectar ~v sobre la recta ,
con

1
1

~v =
|c
= c
1
1

1
3
 
1
2
.
1.4 Consideremos en la proyeccion ortogonal sobre la recta generada por ~s =
3
 
1
sobre la direccion de ~s.
(a) Proyectar ~v =
2
 
x
sobre la direccion de ~s es
(b) Mostrar que la proyeccion de un vector general ~v =
y

  
x + 3y
x
/10
=
proj [~s]
3x + 9y
y
(c) Encontrar la representacion matricial en la base canonica de esta proyeccion.
1.5 Al proyectar un vector ~v , la proyeccion separa a ~v en dos partes: proj [~s] (~v ) y
~v proj [~s] (~v ), que son vectores ortogonales.
(a) Mostrar que si son no nulos, forman un conjunto linealmente independiente.
(b) Que es la proyeccion ortogonal de ~v sobre una recta que pasa por el origen si ~v
esta contenido en esa recta? Como es ~v proj [~s] (~v ) en este caso?
(c) Mostrar que si ~v no esta en la recta y no es perpendicular a ~s entonces el conjunto
{~v , ~v proj [~s] (~v ) } es linealmente independiente.
1.6 Mostrar que la proyeccion de ~v en la recta generada por ~s tiene longitud igual al
valor absoluto del n
umero ~v ~s dividido por la longitud del vector ~s .
1.7 Encontrar la formula para la distancia de un punto a una recta que pasa por el origen.
1.8 Encontrar el escalar c tal que c~s = (cs1 , cs2 ) este a mnima distancia del punto (v1 , v2 ),
utilizando minimizacion de funciones. Generalizar a n .
1.9 Probar que la longitud de la proyeccion ortogonal de un vector ~v sobre una recta es
mas corta que la del vector ~v .

1.2 Ortogonalizaci
on de Gram-Schmidt
En la seccion previa se sugirio que al proyectar sobre la recta (que pasa por el origen),
dirigida por un vector ~s, se descompone al vector ~v en dos vectores que son ortogonales:

~v = proj [~s] (~v ) + ~v proj [~s] (~v )

Luego, ~v es suma de dos vectores ortogonales. Si ambas partes son no nulas (cuando
podra ocurrir otra cosa?) son dos vectores linealmente independientes por ser ortogonales.
Ahora, trabajamos sobre esa idea ...
5

De nicion Los vectores ~v1; : : : ;~vk 2 <n son mutuamente ortogonales si todo par de
vectores son ortogonales: Si i =
6 j entonces el producto escalar ~vi  ~vj es cero, para todo
par i , j .

As ...

Teorema Si los vectores de un conjunto f~v1 ; : : : ;~vk g  <n son no nulos y mutuamente
ortogonales entonces el conjunto es linealmente independiente.

Demostracion. Considerar la combinacion lineal c1~v1 + c2~v2 +    + ck~vk = ~0. Si i 2 [1::k]


entonces tomando el producto escalar de ~vi a ambos lados de la igualdad
~vi  (c1~v1 + c2~v2 +    + ck~vk ) = ~vi  ~0
ci  (~vi  ~vi) = 0

muestra, como ~vi es no nulo, que ci es cero. Vale para cada i = 1; :::k. Luego, los k
vectores son linealmente independientes.

Corolario Si hay p vectores no nulos que son mutuamente ortogonales en un espacio


p dimensional ) ese conjunto es una \base" para ese espacio.
Demostracion. Todo conjunto de p vectores linealmente independientes de un espacio
de dimension p es una base.
Por supuesto, la recproca del teorema no vale, ya que \ | No toda base de un subespacio de dimension p de <n tiene sus p vectores mutuamente ortogonales".

Sin embargo, podemos alcanzar una recproca \parcial" en el sentido que \ para todo
subespacio de <n existe al menos una base de vectores mutuamente ortogonales".

Ejemplo Los vectores ~ 1 y ~ 2 de esta base de <2 no son ortogonales.

4 1

B=h 2 ; 3 i
... Sin embargo, podemos encontrar desde B una \ nueva base" para el mismo espacio

cuyos vectores sean \mutuamente" ortogonales. Para el primer vector de la nueva base
usamos el mismo de B , usamos ~ 1 . As

4

~1 = 2

Para construir el segundo de la \nueva" base, tomamos uno ortogonal al primero...


... tomamos desde ~ 2 la \parte" que es ortogonal a la direccion del ~1 ,
~2 =

1 
3

proj

[~1 ] (

1 1 2 ;1


3

)=

... y sera , ~2 (la parte del vector ~ 2 que es ortogonal a ~1 )
Notar que, por el corolario, f~1 ;~2 g es una base para <2.

De nicion Una base ortogonal para un espacio vectorial es una base de vectores \

mutuamente ortogonales".
Ejemplo Para pasar de una base de <3
011 001 011
h@1A ; @2A ; @0Ai
1
1
3
a una base ortogonal, como antes tomamos como primer vector el primer vector de la base
dada.
011
~1 = @1A
1
Para obtener el segundo ~2 , comenzamos con el segundo vector de la base dada ~ 2 y le
sustraemos la parte de el que es la proyeccion sobre ~1 .
001
001 001 02=31 0;2=31
~2 = @2A ; proj[~1 ](@2A) = @2A ; @2=3A = @ 4=3 A
0
0
0
2=3
;2=3
Finalmente, para obtener ~3 tomamos el tercer vector dado y le sustraemos la parte de el
en la direccion de ~1 , y tambien la parte del mismo en la direccion de ~2 .
011
011
011 0;11
~3 = @0A ; proj[~1 ](@0A) ; proj[~2 ](@0A) = @ 0 A
3
3
3
1
... El corolario dice que ....
011 0;2=31 0;11
h@1A ; @ 4=3 A ; @ 0 Ai
1
;2=3
1
es una base de <3 .
Para generalizar...
El resultado proximo veri ca que el procedimiento dado en los ejemplos genera una
base ortogonal, para un subespacio de <n, a partir de una base dada. Nos restringimos a
<n porque no hemos dado una de nicion de ortogonalidad general para otros espacios.
...

Teorema ( Ortogonalizacion de Gram-Schmidt ) Si h~ 1 ; : : : ~ k i es una base para


un subespacio de <n entonces
~1 = ~ 1
~2 = ~ 2 ; proj[~1 ](~ 2 )
~3 = ~ 3 ; proj[~1 ](~ 3 ) ; proj[~2 ](~ 3)

...
~k = ~ k ; proj[~1 ](~ k ) ;    ; proj[~ ;1](~ k )
k

Los ~ 's forman una base ortogonal para el mismo subespacio.

Demostracion. Se usa induccion para chequear que cada ~i es no- cero, y esta en
el subespacio generado por h~ 1; : : : ~ ii y es ortogonal a todos los vectores precedentes:
~1  ~i =    = ~i;1  ~i = 0.
Con eso, tendremos que h~1; : : :~k i es una base para el mismo espacio como lo es
h~ 1 ; : : : ~ k i.

Cubrimos los casos hasta i = 3, lo cual da sentido a los argumentos. Para completar
detalles ver la bibliografa.
El caso para i = 1 es inmediato o trivial ya que ~1 es igual a ~ 1, lo hace un vector no
nulo (~ 1 6= 0), y es la misma direccion y subespacio.
Para el caso i = 2, desde la de nicion de ~2 .
~
~
~2 = ~ 2 ; proj[~1](~ 2) = ~ 2 ; ~ 2  ~~1  ~1 = ~ 2 ; ~ 2  ~~1  ~ 1
1 1
1 1
Esta expansion muestra que ~2 no es cero, o sino habra una dependencia lineal entre los
vectores ~ 's (es no trivial porque el coe ciente de ~ 2 es 1) y tambien muestra que ~2 esta
en el subespacio generado. Finalmente, ~2 es ortogonal al unico vector precedente
~1  ~2 = ~1  (~ 2 ; proj[~1](~ 2 )) = 0
porque esta proyeccion es ortogonal.
El caso i = 3 es el mismo que para i = 2, excepto por un detalle. Como en el caso
i = 2, expandiendo la de nicion
~
~
~3 = ~ 3 ; ~ 3  ~~1  ~1 ; ~ 3  ~~2  ~2
1 1
2 2
~
~
; ~

= ~ 3 ; ~ 3  ~~1  ~ 1 ; ~ 3  ~~2  ~ 2 ; ~ 2  ~~1  ~ 1
1 1
2 2
1 1
muestra que ~3 no es cero y esta en el subespacio generado. El calculo muestra que ~3 es
ortogonal al precedente vector ~1.
;

~1  ~3 = ~1  ~ 3 ; proj[~1](~ 3 ) ; proj[~2 ](~ 3)
;

= ~1  ~ 3 ; proj[~1](~ 3 ) ; ~1  proj[~2 ](~ 3 )
=0
La diferencia con el caso i = 2 | es que la segunda linea tiene dos clases de terminos. El
primero, es cero porque la proyeccion es ortogonal, como en el caso i = 2. El segundo
termino es cero porque ~1 es ortogonal a ~2, y es ortogonal a cualquier vector en la recta
generada por ~2.) El chequeo que ~3 es tambien ortogonal al otro precedente vector ~2 es
similar.
Una vez que se tiene la base de vectores ortogonales, se puede pasar a una base donde
ademas cada vector tiene longitud unitaria. Para eso, cada vector de la base ortogonal se
divide por su propia longitud (se normalizan las longitudes).

Ejemplo Normalizar la longitud de cada vector de la base ortogonal del ejemplo previo
produce la base ortonormal .
01=p31 0;1=p61 0;1=p21
p
p
h@1=p3A ; @ 2= p6 A ; @ 0p Ai
1= 2
1= 3
;1= 6
Una base ortonormal simpli ca muchos calculos como se vera en algunos ejercicios.

Ejercicios
2.1 Realizar el procedimiento de Gram-Schmidt sobre cada base de <2 , para obtener
bases ortonormales.
1 2
0 ;1
0 ;1
(a) h ; i (b) h ;
i (c) h ;
i

1
1
1
3
1
0
3
X 2.2 Idem0el ejercicio
1 0 1 1previo
001para las siguientes
0 1 1bases
001de0<21.
2
(a) h@2A ; @ 0 A ; @3Ai (b) h@;1A ; @1A ; @3Ai
2
;1
1
0
0
1
Luego normalizar los vectores.
X 2.3 Encontrar una base ortonormal para el subespacio de <3: el plano x ; y + z = 0.
Ayuda: parametrizar
0x1 el plano usando los
011parametros
0;1y1, z.


f@y A x = y ; zg = f@1A  y + @ 0 A  z y; z 2 <g
z
0
1
Considerar esa base.
011 0;11
h@1A ; @ 0 Ai
0
1
2.4 Encontrar bases ortonormales
0 x 1 para el subespacio de <4.
B y CC x ; y ; z + w = 0 and x + z = 0g
fB
@z A
w
Reduciendo el sistema lineal
1 +2 x ; y ; z + w = 0
x ; y ; z + w = 0 ;;!
x +z
=0
y + 2z ; w = 0
y parametrizando da la descripcion del subespacio, hallar una base.
2.5 Mostrar que cualquier subconjunto linealmente independiente de <n puede ser
ortonormalizado sin cambiar el subespacio
1generado.
3 Por ejemplo , con
S=f 2 ; 6 g
alcanzaramos
1
3
3 0
~1 = 2
~2 = 6 ; proj[~1]( 6 ) = 0
2.6 Encontrar un vector en <3 que0es ortogonal
1 0a21ambos vectores dados:
1
@ 5 A @2 A
;1
0
9

X 2.7 Una ventaja de las bases ortonormales es que ellas simpli can la representacion de

un vector con respecto a esa base.


(a) Representar el vector respecto
2de la base indicada
1 1de <2
~v = 3
B=h 1 ; 0 i
Primero representar el vector con respecto a la base. Luego proyectar el vector sobre
cada elemento de la base. [~ 1] y [~ 2].
(b) Con la base ortogonal dada para <2   
K = h 11 ; ;11 i
representar el mismo vector ~v con respecto de esa base. Luego proyectar el vector
sobre cada elemento de esta base. Notar que los coe cientes en la representacion y
en la proyeccion son los mismos.
(c) Dada una base ortogonal K = h~1; : : : ;~k i para un subespacio de <n. Probar
que para cualquier ~v en el subespacio, la i-th componente de la representacion de v
en esa base es el coe ciente escalar (~v  ~i)=(~i  ~i ) de la proj[~ ](~v ).
(d) Probar que ~v = proj[~1](~v ) +    + proj[~ ](~v ).
2.8 Mostrar que las columnas de una matriz n  n forman una base ortonormal si y
solo si la inversa de la matriz es su transpuesta.
Este es un ejemplo:
0 1=p2 1=p2 01
@;1=p2 1=p2 0A
0
0 1
Para generalizar ...
i

1.3 Subespacios ortogonales. Proyeccion sobre un Subespacio.


Al proyectar un vector sobre una recta se lo ha descompuesto en dos partes: la parte
que yace sobre la recta proj[~s ] (~v ), y lo que resta ~v ; proj[~s ](~v ) que es ortogonal a la recta.
Para generalizar a arbitrarios subespacios, se sigue la misma idea.
Para eso de nimos...
De nicion Dos dos subespacios S1 y S2 de <n, son ortogonales si para todo x 2 S1 y
todo y 2 S2 se cumple que el producto escalar x  y = 0.
Ejemplo:(a) En <3 , el eje x es un subespacio ortogonal al eje y.
... Otro ejemplo:
(b) El eje z es ortogonal al subespacio determinado por el plano xy.
( c) Pensar otros.

Con mas condiciones ...


De nicion El complemento ortogonal de un subespacio S de <n es

S ? = f~v 2 <n ~v es perpendicular a todos los vectores en S g

(se lee \S perp"). La proyeccion ortogonal sobre un subespacio S projS (~v ) de un vector
es la proyeccion sobre S a lo largo de S ?.

10

Veamos como obtener el subespacio \ ortogonal complementario" de un subespacio S


dado.
... Se obtendra a partir de analizar lo que sigue.

Observacion Consideremos ... las matrices A de m  n


... El espacio nulo de ellas es N (A) = fx : x 2 <n : Ax = 0g  <n
Por tanto, el subespacio N (A) es \ortogonal" a cada la de A,...
... es \ortogonal a cualquier combinacion" de las las de A.

As ...
... N (A) es ortogonal al subespacio generado por las las de A.
Otra forma de decir lo mismo ...
... N (A)  <n es \ortogonal" al subespacio generado por las columnas de AT . Se
acostumbra a denotar R(AT ) al subespacio generado por las columnas de AT (o las de
A), y satisface R(AT )  <n).
... Sabemos que dim(N (A)) + dim(R(AT )) = n, que es la dimension de <n . Luego ...
... N (A) es el \ complemento ortogonal" del subespacio generado por las las de A ,
o lo que es igual, es el complemento ortogonal al subespacio generado por las columnas
de AT , denominado R(AT ). El unico elemento en comun entre ellos es el 0 vector, y la
suma de sus dimensiones es n, que es la dimension del espacio total <n .
... Entonces N (A) = (R(AT ))?.

Ademas...
... el espacio generado por las columnas de A (m  n), son todos los vectores de <m
que son combinaciones de lasPcolumnas de A, se denota:
R(A) = fb : b 2 <m : b = nj=1 aj xj = Axg  <m .
... Y el \ complemento ortogonal de ese subespacio R(A) es el conjunto ortogonal a
las columnas de A. Es el anulador o espacio nulo de las columnas de A. Si ahora se
considera AT , el complemento ortogonal de las las de AT es el N (AT )  <m . Entonces
...
... dim(N (AT )) + dim(R(A)) = m, ...
... (R(A))? = N (AT ). As para obtener el subespacio ortogonal complementario de
R(A), se calcula el N (AT ) = fy : y 2 <m; tal que AT y = 0g.

11

Veamos....

Ejemplo En <3, para encontrar el complemento ortogonal del plano

0x1

P = f@y A 3x + 2y ; z = 0g
z

comenzamos con una base de P .

011 001
A = h@0A ; @1Ai
3

Cualquier ~v perpendicular a todo vector en la base A es perpendicular a todo vector del


subespacio generado por esa base B
Por tanto,...
... el subespacio P ? consiste de los vectores que satisfacen las dos (2) condiciones ...

;1

0v 1
 1
3  @v2 A = 0
v3

;0

0v 1
1

2 cdot @v2A = 0
v3

... Podemos expresar estas condiciones mas compactamente como un sistema lineal...

0v 1 
1
P ? = f@v2A 10
v3

0
1

0v 1  

3 @ v1 A = 0 g
2
2
0
v3

As ... basta con encontrar el espacio nulo de la aplicacion representada por la matriz.
As ... calculando la solucion del sistema homogeneo ...

0v 1
0;31
1 v
3v3 = 0 g = fk @;2A k 2 <g
P ? = f@v2A 1 v +
2 + 2v3 = 0
1
v3
12

Problema Si S es el subespacio dado por plano-xy de <3 , que es S ??


Un primer intento de respuesta es que S ? es el plano yz-plane, ...
... pero eso no es cierto !!!.
Algunos vectores del plano yz no son perpendiculares a todo vector del plano xy.

011 001
@1A 6? @3A
0

 = arccos(

 p p  )  0:94 rad
2  13

1 0+1 3+0 2

... Ciertamente S ? es el eje-z, ya que considerando la base natural en el plano-xy se


obtiene ...
0x1 
0x1   0x1



S ? = f@y A 10 01 00 @y A = 00 g = f@y A x = 0 and y = 0g
z
z
z
Los dos ejemplos que hemos visto ilustran la primer sentencia de la de nicion de
subespacios ortogonales complementarios.
Sigamos con subespacios de <n....
... Hemos visto que si S es un subespacio para hallar su complemento ortogonal basta
formar una matriz A con columnas dadas por una base de S , y luego hallar el N (AT ).
Ademas dim(N (AT )) + dim(R(A)) = n. Se ve claramente que ambos subespacios son
complementarios.
... Si se tiene una base de S (de dimension k): fv1 ; v2 ; :::vk g; y una base de S ? (de
dimension n ; k): fu1 ; u2; :::un;k g, entonces la union de ellas es una base de <n.
... As cada vector de x 2 <n se puede escribir un vocamente como combinacion de
esos vectores, y se ve que x se separa en una suma de dos vectores:
x = xS + xS? .
Luego... <n = S  S ?.
El resultado siguiente justi ca la segunda sentencia.

Lema Si S es un subespacio de <n. El complemento ortogonal de S es tambien un


subespacio.
Ademas, paraLcualquier ~v 2 <n, se puede descomponer ~v = projS (~v ) + projS (~v )?.
As <n = S S ?.

Para encontrar la proyeccion ortogonal sobre un subespacio...


... el siguiente resultado da una forma de hacerla.

Teorema Sea ~v un vector en <n y sea S un subespacio de <n con base h~ 1; : : : ; ~ k i. Si


A es la matriz cuyas columnas son los ~ 's entonces projS (~v ) = c1~ 1 +    + ck~ k donde los
coe cientes ci son las coordenadas del vector (AT A)AT ~v. As projS (~v ) = A(AT A);1 AT ~v.
Demostracion. El vector projS (~v) es un elemento de S y as es una combinacion lineal
de una base de ese subespacio c1  ~ 1 +    + ck  ~ k . Como las columnas de A son los
~ 's, eso puede expresarse : existen coe cientes ~c 2 <k tal que projS (~v ) = A~c (expresado
compactamente por medio de la multiplicacion matriz por vector).
13

Como ~v ; projS (~v ) es perpendicular a cada elemento de la base, tenemos (expresando


compactamente).
~0 = AT ;~v ; A~c = AT ~v ; AT A~c
Resolviendo para ~c ( mostrando que AT A es invertible como ejercicio)
; 
~c = AT A ;1AT  ~v
da la formula matricial de la proyeccion ... projS (~v ) = A  ~c = A(AT A);1AT :c, si las
columnas de A son una base de S .
Ejemplo Proyectar ortogonalmente este vector en el subespacio que se indica:
011
0x1

~v = @;1A
S = f@y A x + z = 0g
1
z
Primero, formar una matriz cuyas columnas son una base del subespacio
00 1 1
A = @1 0 A
0 ;1
... y luego calcular
00 1 1 
1 0 ;1
;

0
1
;1 T @
T
A A A A = 1 0 A 1=2 0 0 1 0
0 ;1

0 1=2
=@ 0

0 ;1=2
1 0 A
;1=2 0 1=2
Con esta matriz, calcular la projeccion ortogonal sobre S de cualquier vector es facil.
0 1=2 0 ;1=21 0 1 1 0 0 1
projS (~v) = @ 0 1 0 A @;1A = @;1A
;1=2 0 1=2
1
0

La proyeccion sobre un subespacio es una generalizacion, el esquema muestra como


de nir proyeccion ortogonal sobre cualquier subespacio de <n, de cualquier dimension.
14

Ejercicios

X 3.1 Encontrar S? siendo


S:
x

x

(a) S = f y x + y = 0g (b) S = f y ;2x + 3y = 0g
x
 x
(c) S = f y x ; y = 0g (d) S = f~0 g (e) S = f y x = 0g
0x1
0x1

@ A
@ A
(f) S = f y

;x + 3y + z = 0g (g) S = f y x = 0 and y + z = 0g
z
z
3.2 Formas distintas para proyectar ortogonalmente: Compararlas, considerando el
plano P especi cado por 3x + 2y ; z = 0 en <3.
(a) Encontrar una base para P .
(b) Encontrar P ? y una base para P ?.
(c) Representar el vector siguiente con respecto a la base de <3 proveniente de ambas
bases.
011
~v = @1A
2
(d) Encontrar la proyeccion ortogonal de ~v en P dejando la parte sobre P desde el
previo item.
(e) Chequear usando la forma matricial
X 3.3 Chequear las tres formas diferentes para proyectar un vector sobre una recta.

1
x
(a) ~v = ;3 ; M = f y x + y = 0g
001
0x1

(b) ~v = @1A ; M = f@y A x + z = 0 and y = 0g

2
z
3.4 Que es la proyeccion ortogonal en el subespacio S = f0g.
3.5 Mostrar que si S  <n es un subespacio con base ortonormal h~1; : : : ;~ni entonces
la proyeccion ortogonal de ~v en S es :
(~v  ~1 )  ~1 +    + (~v  ~n)  ~n
~v = proj[~1 ](~v ) +    + proj[~ ](~v ) = ~~v ~~1  ~1 +    + ~~v ~~n  ~n
1 1
n n
X 3.6 Mostrar que si un vector es perpendicular a un conjunto entonces es perpendicular
a todo vector en el subespacio generado por ese conjunto.
3.7 Es verdadero o falso : la interseccion de un subespacio y su complemento ortogonal
es el f0g.
3.8 (a) Mostrar que si las columnas de A forman un conjunto linealmente independiente entonces AT A es invertible
(b) Mostrar que si las columnas de Ason mutuamente ortogonales y no nulas entonces
AT A es la matriz identidad
3.9 Mostrar que la matrix de proyeccion A(AT A);1AT es simetrica.
n

15

1.4 Proyecci
on ortogonal y aproximaci
on de cuadrados mnimos
La proyeccion ortognal de un vector ~v Rn sobre un subespacio S Rn puede
tambien verse como la mejor aproximacion al vector v basada en un vector de S. Si se
desea aproximar ~v mediante un vector w
~ S S, la mejor aproximacion se lograra eligiendo
w
~ S como el vector de S m
as cercano a ~v , y tal vector es entonces la proyeccion ortogonal
~vS = projS (~v ) .
En efecto, la distancia al cuadrado de ~v a un vector arbitrario w
~ S de S es
D2 = |~v w
~ S |2 = |(~v ~vS ) (w
~ S ~vS )|2
= |~v ~vS |2 + |~vS w
~ S |2 2(~v ~vS ) (w
~ S ~vS )
2
2
= |~v ~vS | + |~vS w
~S|
donde |~u|2 = ~u ~u es la longitud al cuadrado de un vector ~u y en el u
ltimo paso hemos
utilizado que ~v ~vS es ortogonal a todo vector de S, por lo que (~v ~vS ) (w
~ S ~vS ) = 0.
Por lo tanto, el valor mnimo de D2 se obtiene para w
~ S = ~vS , con
2
Dmin
= |~v ~vS |2 = |~v |2 |~vS |2

Si S es generado por un conjunto linealmente independiente de vectores (w


~ 1, . . . , w
~ k ),
k n, el resultado dado en la u
ltima seccion asegura que ~vS = c1 w
~ 1 + . . . ck w
~ k , con
~c = (c1 , . . . , ck )T dado por
~c = (AT A)1 AT ~v

(1)

es decir, ~c es la solucion del sistema


(AT A)~c = AT ~v
donde A = (w
~ 1, . . . , w
~ k ) es una matriz de n k y AT A de k k es no singular.
Un ejemplo corriente de aplicacion es el ajuste de los valores f (xi ) de una funcion
f : R R para un conjunto de puntos (x1 , . . . , xn ), por un polinomio de grado k,
P (x) = c0 + c1 x + c2 x2 + . . . + ck xk
con k normalmente menor o mucho menor que n, y c0 , . . . , ck los coeficientes a ajustar.
Lo que se desea es elegir el polinomio que minimiza la suma de la diferencia de cuadrados
n
X
D =
[f (xi ) P (xi )]2
2

(2)

i=1

ya que en general no existira un polinomio de grado k < n1 que reproduzca exactamente


los n datos f (xi ), es decir, que satisfaga P (xi ) = f (xi ) para i = 1, . . . , n.
Definiendo el vector ~v = (f (x1 ), . . . , f (xn )) Rn , y los k + 1 vectores w
~ 0 = (1, . . . , 1),
w
~ 1 = (x1 , . . . , xn ), w
~ 2 = (x21 , . . . , x2n ), . . . w
~ k = (xk1 , . . . , xkn ) tambien Rn , se puede escribir
D como la longitud del vector ~v w
~ S , con w
~ S = (P (x1 ), . . . , P (xn )):
D2 = |~v w
~ S |2
w
~ S = (P (x1 ), . . . , P (xn )) = c0 w
~ 0 + c1 w
~ 1 + . . . + ck w
~k
16

El problema de encontrar los coeficientes c0 , . . . , ck que minimizan D2 es pues el mismo


problema de encontrar el vector w
~ S de S mas cercano a ~v , siendo S el subespacio de Rn
generado por los vectores w
~ 0, . . . , w
~ k . La solucion para ~c = (c0 , c1 , . . . , ck )T estara entonces
dada por (1), siendo ahora A una matriz de n (k + 1) de elementos Aij = xji para
j = 0, . . . , k, y AT A una matriz de (k + 1) (k + 1), con
n
n
X
X
j l
T
T
(A A)jl =
xi xi , (A ~v )j =
xji f (xi ) , j, l = 0, . . . , k .
i=1

i=1
2

Si k = 2, P (x) = c0 + c1 x + c2 x es un polinonio de grado 2 y AT A es de 3 3.


f HxL
8

f HxL

f HxiL

c0+c1 xi+c2 x2i

-1.5

-1.0

c0+c1 xi+c2 x2i +c3 x3i +c4 x4i

-0.5

0.5

1.0

1.5

f HxiL

-1.5

-1.0

-0.5

0.5

1.0

1.5

Se muestra en la figura la aproximacion de 11 datos f (xi ) por medio de un polinomio


de grado 2 y uno de grado 4. No obstante, debe tenerse en cuenta que si los datos no
exhiben un comportamiento polinomial, el ajuste puede presentar oscilaciones, cuya magnitud puede aumentar al incrementarse el grado k del polinomio. La matriz AT A se torna
tambien mal condicionada al aumentar k. Notese que la dimension de AT A depende solo
del grado del polinomio y no del n
umero de puntos a ajustar.
El formalismo anterior puede extenderse a un ajuste basado en la combinacion lineal
de funciones linealmente independientes gj (x), reemplazando P (x) por
G(x) = c0 + c1 g1 (x) + . . . + ck gk (x)
En este caso Aij = gj (xi ), y el formalismo puede aplicarse si AT A es no singular, con
T

(A A)jl =

n
X

gj (xi )gl (xi ) , (A ~v )j =

i=1

n
X

gj (xi )f (xi ) .

i=1

Ejercicios
1. Verifique que la minimizacion de D2 (2) respecto de los coeficientes cj conduce a la
solucion (1).
2. Determine el polinomio P2 (x) = c0 + c1 x + c2 x2 que minimiza D2 si los datos son
f (1,5) = 8,5, f (0,9) = 2,5, f (0,3) = 1, f (0) = 0,5, f (0,3) = 0,6, f (0,9) = 1,5,
f (1,5) = 3 (Utilice PC). Estos corresponden a la posicion (en una cierta escala) en distintos
tiempos de un movil con aceleracion variable. Si la aceleracion fuese constante, como sera
el ajuste con este polinomio?
17

You might also like