Professional Documents
Culture Documents
Prlogo
F
a
cu
lt
a
d
d
e
In
g
en
ie
r
a
-
U
B
A
Prlogo
Estas notas tienen por objetivo cubrir todos los temas tericos correspondientes a la asignatura lgebra 2, tal y como se dicta
A
actualmente en la Facultad de Ingeniera de la Universidad de Buenos Aires. Para que resulten de utilidad a los alumnos que
B
las usen, consideramos oportuno hacer algunas aclaraciones y advertencias:
U
Estos apuntes consisten, a grandes rasgos, de una exposicin de los temas tericos junto con algunos ejemplos y ejer-
cicios. Hemos intentado dar algunas motivaciones y justificaciones de los teoremas expuestos, abarcando las demos-
-
traciones que consideramos ms formativas para los estudiantes.
a
r
Quienes quieran profundizar tanto en las aplicaciones del lgebra lineal como en los detalles tcnicos de las demos-
ie
traciones ms exigentes, encontrarn a lo largo del texto indicaciones bibliogrficas de los textos que consideramos
en
Aunque sea una obviedad decirlo, un texto de matemtica no se lee como una novela. Un texto de matemtica se estudia
In
de maneras diversas que cada lector debe encarar, explorar y evolucionar. Una primera lectura podra ser ms super-
ficial, omitiendo las demostraciones y concentrndose en las definiciones y resultados importantes. Una segunda (o
e
tercera) lectura podra detenerse en los detalles de las demostraciones. Creemos que el estudio de las demostraciones
d
es formativo y permite madurar los conceptos involucrados, lo cual las hace relevantes aun para quienes no estudian
d
la matemtica como una profesin. Adems, la lectura atenta de las demostraciones suele echar luz sobre los alcances
a
de un teorema: para un ingeniero es importante, por ejemplo, distinguir si un teorema tan solo prueba la existencia de
lt
una solucin o brinda adems un mtodo para calcularla efectivamente. Esta es la clase de habilidades que deseamos
cu
Para facilitar la lectura, hemos incorporado recuadros para destacar las ideas principales, como las definiciones y los
F
Definicin 0.1
Teorema 0.1
Ejemplo 0.1
IV
Toda vez que se aluda a un teorema, frmula, etc. como por ejemplo
A lo largo del texto aparecen algunos ejercicios breves para reforzar los conceptos que se exponen:
A
B
Ejercicio.
U
-
Muchas de las respuestas se encuentran al final.
a
Al realizar este trabajo, hemos intentado aportar nuestra experiencia en la asignatura y nuestro conocimiento de las dificul-
r
tades que atraviesan los estudiantes al cursarla. Como esperamos sinceramente que les resulte de utilidad, invitamos a todos
ie
nuestros lectores a compartir cualquier aporte, correccin o crtica que nos permita mejorarlo.
en
g
Por ltimo, agradecemos la generosidad del profesor Jos Luis Mancilla Aguilar que puso a nuestra disposicin sus valiosos
In
A
1.2 Subespacios 7
B
1.3 Combinaciones lineales 10
U
1.4 Independencia lineal y bases 13
-
1.5 Subespacios fundamentales de una matriz 20
a
1.6 Coordenadas r 24
1.7 Matriz de Cambio de Base 28
ie
2
In
A
B
6
U
D ESCOMPOSICIN EN VALORES SINGULARES PGINA 151
6.1 Introduccin 151
-
6.2 Descomposicin en valores singulares 159
a
6.3 La DVS y los subespacios fundamentales de una matriz
r 163
ie
6.4 Matriz seudoinversa. Cuadrados mnimos. 166
en
g
7
In
E CUACIONES DIFERENCIALES Y
SISTEMAS DE ECUACIONES DIFERENCIALES PGINA 171
e
A
B
U
1.1 Introduccin
-
a
El concepto de vector, que usualmente comienza por estudiarse en R2 y R3 , se generaliza mediante la siguiente definicin.
r
ie
Definicin 1.1
en
Un espacio vectorial es un conjunto no vaco V en el que estn definidas una ley de composicin interna denominada
g
In
suma, que a cada par de elementos u, v V le asigna un elemento w V denotado w = u+v, y una ley de composicin
externa denominada producto por escalares, que a cada nmero K (siendo K = R C) y a cada elemento u V les
asigna un elemento v V denotado v = u, de manera tal que se verifican las siguientes condiciones para todos
e
d
u, v, w V , , K :
d
1 conmutatividad: u + v = v + u
a
lt
2 asociatividad: u + (v + w) = (u + v) + w
cu
8 1u=u
A los elementos del espacio vectorial V se los denomina vectores, mientras que a los nmeros del conjunto K se los
denomina escalares.
En el caso de que sea K = R, se dice que V es un espacio vectorial real o un R-espacio vectorial, mientras que si K = C se
dice que V es un espacio vectorial complejo o un C-espacio vectorial. Diremos simplemente que V es un espacio vectorial o
un K-espacio vectorial cuando no sea preciso distinguir el conjunto de escalares. La notacin habitual para los vectores ser
4 Espacios vectoriales
con las letras latinas minsculas u, v, w, ..., mientras que para los escalares se usarn las letras griegas , , .... En ocasiones
se notar mediante 0 al vector nulo 0V : el contexto debe permitir al lector saber a qu se est aludiendo en cada caso.
Al conjunto de n-uplas (x 1 , ..., x n ) con x i R para todo i = 1, ..., n lo denotaremos Rn . Definiendo la suma de dos
n-uplas arbitrarias mediante
(x 1 , ..., x n ) + y 1 , ..., y n = x 1 + y 1 , ..., x n + y n
se obtiene un espacio vectorial. Queda como ejercicio para el lector identificar el neutro, los opuestos y comprobar
A
que se cumplen todas las condiciones de un espacio vectorial.
B
U
-
Ejemplo 1.2 Vectores en Cn
a
Si en lugar de n-uplas de nmeros reales consideramos n-uplas de nmeros complejos (z 1 , ..., z n ) con z i C, defi-
r
niendo las operaciones de manera anloga al espacio anterior obtenemos en este caso un C-espacio vectorial, al que
ie
denotamos Cn .
en
g
In
Muchas de las propiedades conocidas para los vectores de R2 y R3 se conservan para el caso general. A partir de la definicin
de espacio vectorial se deducen las siguientes propiedades elementales.
e
d
El elemento neutro 0V V es nico. Tambin es nico el elemento opuesto que corresponde a cada u V
a
1
lt
2 u V : 0u = 0V
cu
3 K : 0V = 0V
a
F
4 Si u 6= 0V u = u =
5 Si 6= 0 u = v u = v
6 u V : (1)u = u
Demostracin:
Para probar la unicidad del neutro, se considera que existen dos neutros 01 y 02 en V . Entonces, por la misma definicin de
neutro resulta que 01 + 02 = 01 , a la vez que 02 + 01 = 02 . Adems, la propiedad conmutativa garantiza que 01 + 02 = 02 + 01 de
donde se deduce que 01 = 02 .
Para probar 2 , consideramos que
u = 1u = (1 + 0)u = 1u + 0u = u + 0u
(el lector deber explicar qu propiedad justifica cada paso). Entonces 0u es el neutro del espacio vectorial, con lo cual
0u = 0V .
Espacios vectoriales 5
Dejamos la demostracin del resto de las propiedades como ejercicio para el lector.
Veamos algunos ejemplos ms de espacios vectoriales que sern frecuentes a lo largo del curso.
Kmn es el conjunto de matrices de m filas y n columnas cuyas componentes son elementos de K, con las definiciones
de suma y producto por escalar usuales:
a 11 a 1n b 11 b 1n a 11 + b 11 a 1n + b 1n
.. .. ..
+ .. .. ..
= .. .. ..
. . . . . . . . .
a m1 a mn b m1 b mn a m1 + b m1 a mn + b mn
a 11 a 1n
A
a 11 a 1n
.. .. .. .. .. ..
B
=
. . . . . .
U
a m1 a mn a m1 a mn
El elemento neutro es la matriz nula, que es aquella cuyos elementos son todos nulos. El opuesto de una matriz A con
-
elementos de la forma a i j es la matriz A con elementos de la forma a i j .
a
r
ie
en
Un espacio vectorial real que aparece frecuentemente en las aplicaciones es el de las funciones f : I R definidas en
In
un intervalo I de la recta real, que denotaremos RI , con la suma y producto por escalar como usualmente se definen
e
para funciones:
d
El elemento neutro para la suma es la funcin idnticamente nula, es decir, la funcin h tal que para todo x I verifica
h(x) = 0 (es crucial distinguir a la funcin nula de las funciones que eventualmente se anulan para algn x I ). Por
otra parte, el opuesto de una funcin f RI es la funcin f definida mediante ( f )(x) = ( f (x)) para todo x I .
Por ejemplo, si consideramos el intervalo abierto I = (0, 1), las funciones f (x) = x + x1 y g (x) = x1
1
son efectivamente
I
elementos de R y quedan definidas
1 1 x 3 x 2 + 2x 1
( f + g )(x) = x + + =
x x 1 x2 x
3
(3 f )(x) = 3x +
x
6 Espacios vectoriales
(a) suma de funciones (b) producto por escalar, funcin nula y opuesta
A
B
Figura 1.1: las funciones como vectores
U
Ejemplo 1.5 Espacio de funciones continuas
-
a
Consideremos un intervalo I de la recta real y denominemos C (I ) al conjunto formado por todas las funciones
r
f : I R continuas. C (I ) es un espacio vectorial real con las operaciones de suma y producto por escalar definidas
ie
en el ejemplo anterior. Ntese que ambas operaciones son cerradas en C (I ), en el sentido de que sus resultados son
elementos de C (I ), porque tanto la suma como el producto de funciones continuas son funciones continuas.
en
g
La funcin nula, que es continua y por ende pertenece a C (I ), es el elemento neutro para la suma. Por otra parte, el
In
Otro espacio vectorial real que se usar con frecuencia es el de los polinomios a coeficientes reales
cu
Queda como ejercicio para el lector comprobar que los polinomios, junto con las operaciones indicadas, satisfacen la
definicin de espacio vectorial, e identificar los elementos neutro y opuesto.
Los espacios vectoriales reales o complejos que mencionamos hasta aqu son algunos de los que aparecen con ms frecuen-
cia en las aplicaciones del lgebra lineal a la ingeniera. El ejercicio que sigue tiene por objeto repasar la definicin de espacio
vectorial y mostrar que existen muchas ms posibilidades que las que convencionalmente se usan.
Ejercicio.
1.1 Considere V = R2+ , donde R2+ es el conjunto de pares ordenados compuestos por nmeros reales positivos. Por
ejemplo (1; 1, 5) R2+ , mientras que (1, 0) R2+ y (1, 5) R2+ . En V definimos las siguientes operaciones de suma y pro-
ducto para (x 1 , x 2 ), (y 1 , y 2 ) V y R:
Espacios vectoriales 7
(x 1 , x 2 ) + (y 1 , y 2 ) = (x 1 y 1 , x 2 y 2 )
(x 1 , x 2 ) = x 1 , x 2
N Luego de haber visto algunos ejemplos de espacios vectoriales, es importante notar lo siguiente: todo espacio
vectorial complejo es a su vez un espacio vectorial real si se considera la misma operacin suma y el producto
por escalares se restringe a nmeros reales (por qu?). Por ende, ser importante dejar siempre en claro cul es el
conjunto de escalares que se considera.
A
Ejemplo 1.7
B
C2 es un espacio vectorial complejo y, por lo dicho recin, tambin es un espacio vectorial real. Sin embargo, si consi-
U
deramos a C2 como espacio vectorial real, el producto (2+i )(1, i ) carece de sentido, pues = (2+i ) no es un nmero
-
real. Tampoco es vlida la descomposicin
a
r
(1 + 2i , i ) = (1 + 2i )(1, 0) + i (0, 1)
ie
(que s vale si consideramos a C2 como espacio vectorial complejo). Una descomposicin posible en este caso es
en
Veremos ms adelante que, a pesar de tratarse del mismo conjunto de vectores, sus propiedades como espacio vecto-
rial real sern diferentes de sus propiedades como espacio vectorial complejo.
e
d
d
a
Convencin
lt
De aqu en ms, por comodidad, vamos a convenir en identificar Rn y Cn con Rn1 y Cn1 respectivamente. Es
cu
x1
F
.
u= ..
xn
en lugar de u = (x 1 , ..., x n ).
A menos que se especifique lo contrario, siempre consideraremos tanto a Cn como a Cmn como C-espacios
vectoriales.
1.2 Subespacios
Algunos de los espacios vectoriales que hemos estudiado estn relacionados entre s. Por ejemplo, C (I ) es un subconjunto
de RI . A su vez, P puede pensarse como subconjunto de C (R), ya que cada polinomio define una funcin continua en R.
8 Espacios vectoriales
Por cierto, las operaciones definidas en RI y en C (R) valen para elementos de los subconjuntos C (I ) y P respectivamente.
Esta situacin - la de tener un subconjunto de un espacio vectorial V que, con las operaciones definidas en V , tambin es un
espacio vectorial - es muy comn y tiene consecuencias importantes. Esto motiva la siguiente definicin.
Definicin 1.2
Ejemplo 1.8
De acuerdo con las observaciones hechas al comienzo de esta seccin y con la definicin de subespacio, es inmediato
que C (I ) es un subespacio de RI y que P es un subespacio de C (R).
A
B
U
En principio, para comprobar que cierto subconjunto S de cierto espacio vectorial V es un subespacio, debera comprobarse
formalmente que se cumplen en S todas las propiedades exigidas en la definicin de espacio vectorial 1.1. Sin embargo,
-
las propiedades 1 8 se cumplen para todos los elementos de V : luego se cumplen en particular para los elementos del
a
subconjunto S. Slo resta probar que S no es vaco y es cerrado para las operaciones con sus elementos. Resumimos esta
r
observacin en el teorema siguiente.
ie
en
Sea S un subconjunto de un espacio vectorial V . Entonces S es subespacio de V si y slo si se verifican las siguientes
In
condiciones:
e
1 S no es vaco
d
2 u, v S u + v S
d
a
3 u S, K u S
lt
cu
a
Claramente S = {0V } (el conjunto que solamente contiene al vector nulo del espacio) y S = V son subespacios de V . A
estos subespacios se los denomina subespacios triviales .
Ejemplo 1.10
En R2 toda recta que pasa por el origen es un subespacio. Esta afirmacin puede justificarse mediante el teorema del
subespacio apelando a las interpretaciones geomtricas de la adicin de vectores en el plano (regla del paralelogra-
mo) y del producto de vectores por escalares. En efecto, S no es vaco porque el origen de coordenadas pertenece
a S; si sumamos dos vectores contenidos en la recta S el vector resultante pertenece a la misma recta y, por ltimo,
si multiplicamos un vector cualquiera de S por un escalar, el vector que obtenemos tiene la misma direccin que el
primero y por lo tanto tambin pertenece a S.
Espacios vectoriales 9
Mediante argumentos similares tambin se puede justificar que en R3 toda recta o plano que contenga al origen es un
subespacio.
A
B
U
-
a
r
ie
en
S = x Kn : Ax = 0
(1.1)
lt
cu
2. Sean u, v S. Entonces, por la misma definicin de S se cumple que Au = 0 y Av = 0. Por lo tanto A(u + v) =
Au + Av = 0 + 0 = 0, de donde se deduce que u + v S.
3. Sea u S: luego Au = 0. Dado un escalar arbitrario K, tenemos que A(u) = (Au) = 0 = 0. Vale decir que
u S.
A partir de este resultado se puede probar formalmente lo que se enunci en el ejemplo anterior. En efecto, si S es
una recta en R2 que contiene al origen, sus puntos verifican una ecuacin de la forma ax 1 + bx 2 = 0. Es decir que
S = x R2 : ax 1 + bx 2 = 0 . Definiendo la matriz A = [a b], la recta se adapta a la forma general caracterizada por
(1.1). De manera similar se demuestra que en R3 las rectas y planos que pasan por el origen son subespacios (los
detalles quedan como ejercicio).
10 Espacios vectoriales
Ejemplo 1.12
Dado un nmero n N0 , denominamos P n al subconjunto de P compuesto por los polinomios de grado menor o
igual a n junto con el polinomio nulo a :
Ejemplo 1.13
A
Dado un intervalo I de la recta real, consideremos el conjunto C 1 (I ) formado por todas las funciones f : I R
B
derivables con continuidad. Evidentemente C 1 (I ) es un subconjunto de C (I ), pues toda funcin derivable es
U
continua. Afirmamos que C 1 (I ) es un subespacio de C (I ). En efecto, la funcin nula es derivable y su derivada, que
es la misma funcin nula, es continua. Esto prueba que C 1 (I ) no es vaco. Por otra parte, dadas f , g C 1 (I ), resulta
-
que f + g C 1 (I ) porque ( f + g )0 = f 0 + g 0 es continua por ser continuas f 0 y g 0 . Similarmente, si f C 1 (I ) y es un
a
nmero real cualquiera, ( f )0 = f 0 es continua y, por lo tanto, f C 1 (I ).
r
ie
De manera semejante se puede probar que C k (I ) , el conjunto compuesto por las funciones definidas en I que son k
en
1.3
d
Combinaciones lineales
d
a
lt
Las operaciones de un espacio vectorial consisten en multiplicar vectores por escalares y en sumar vectores. Queda entonces
cu
Definicin 1.3
Dados v 1 , v 2 , ...v r vectores de un espacio vectorial V , una combinacin lineal de ellos es cualquier expresin de la
forma
1 v 1 + 2 v 2 + ... + r v r
Por otra parte, se dice que un vector v V es una combinacin lineal de (o que depende linealmente de) v 1 , v 2 , ...v r
si existen escalares 1 , 2 , ..., r tales que v = 1 v 1 + 2 v 2 + ... + r v r
Espacios vectoriales 11
Ejemplo 1.14
0V = 0v 1 + 0v 2 + ... + 0v r
Ejemplo 1.15
w = 1v 1 + (1)v 2
A
B
Ejercicio.
U
1.2 Considere en C2 los vectores v 1 = (1, 0), v 2 = (0, 1) y w = (1 + i , 2). Demuestre que si se considera a C2 como C
-
espacio vectorial, w es combinacin lineal de v 1 y v 2 , mientras que si se considera a C2 como R espacio vectorial, w no
a
es combinacin lineal de v 1 y v 2 . r
ie
Ejercicio.
en
1.3 Demuestre que en C (R) el vector f (x) = sen x + 4 es combinacin lineal de los vectores f 1 (x) = cos x y
g
f 2 (x) = sen x.
In
e
Definicin 1.4
d
Dados los vectores v 1 , v 2 , ..., v r V , se denomina gen {v 1 , v 2 , ..., v r } al conjunto de todas sus posibles combinaciones
d
a
lineales. Es decir
lt
N Es conveniente destacar la diferencia fundamental entre las notaciones {v 1 , v 2 , ..., v r } y gen {v 1 , v 2 , ..., v r }, que sue-
len confundirse. La primera alude a un conjunto finito de r vectores, mientras que la segunda alude al conjunto de
las infinitas combinaciones lineales de dichos vectores.
Queda como ejercicio para el lector demostrar que gen {v 1 , v 2 , ..., v r } es subespacio.
Definicin 1.5
Al subespacio S = gen {v 1 , v 2 , ..., v r } se lo denomina subespacio generado por los vectores v 1 , v 2 , ..., v r , y a estos
ltimos generadores de S.
Ejemplo 1.16
En R2 , gen {(1, 1)} es el conjunto de todos los mltiplos del vector (1, 1), el cual coincide con la recta de pendiente 1
que pasa por el origen.
Ejemplo 1.17
A
x S 2x 1 + x 2 + x 3 = 0 x 3 = 2x 1 x 2
B
Entonces los x S son de la forma x = (x 1 , x 2 , 2x 1 x 2 ) = x 1 (1, 0, 2) + x 2 (0, 1, 1) con x 1 , x 2 R.
U
En otras palabras, S = gen {v 1 , v 2 } donde v 1 = (1, 0, 2) y v 2 = (0, 1, 1).
-
a
r
ie
en
N En el ltimo ejemplo, lo correcto es referirse a {(1, 0, 2), (0, 1, 1)} como un conjunto generador de S, y no como el
conjunto generador. Esto es as porque existen otros conjuntos generadores de S, tales como {(2, 0, 4), (0, 2, 2)} y
g
Ejemplo 1.18
d
a
Con mayor generalidad, se prueba que Rn = gen {e 1 , e 2 , ..., e n } siendo e 1 = (1, 0, ..., 0), e 2 = (0, 1, ..., 0), ..., e n = (0, 0, ..., 1).
F
Ejemplo 1.19
Ejemplo 1.20
P n = gen 1, t , ..., t n .
Espacios vectoriales 13
Ejemplo 1.21
En el caso general, Kmn = gen {E 11 , E 12 , ..., E 1n , ..., E m1 , ..., E mn } donde E i j es la matriz que tiene todos sus elementos
nulos, salvo el correspondiente a la posicin i j que es 1.
Ejemplo 1.22
A
P no es un espacio vectorial finitamente generado.
B
U
Para demostrarlo consideramos cualquier conjunto finito de polinomios no nulos p 1 , p 2 , ..., p N y llamamos g i al
-
grado del polinomio p i . Sea entonces G el mximo entre los grados de los p i , es decir
a
r
G = max g 1 , g 2 , ..., g N
ie
Entonces cualquier combinacin lineal de los polinomios p 1 , p 2 , ..., p N ser un polinomio nulo o un polinomio de
en
Como ya sealamos en la nota del ejemplo 1.17, es posible que un subespacio finitamente generado tenga diferentes con-
cu
juntos generadores, incluso con diferentes cantidades de vectores. Por ejemplo cada uno de los conjuntos {(1, 0), (0, 1)},
{(1, 1), (1, 1)} y {(1, 1), (1, 1), (1, 0)} genera R2 . En el caso de los dos primeros conjuntos generadores, para cada vector de
a
F
R2 hay una nica combinacin lineal adecuada que lo genera. En cambio, existen distintas combinaciones lineales de los
elementos del tercero que generan un mismo vector, como se aprecia en la figura 1.3. (Dejamos la demostracin formal de
esta afirmacin como ejercicio para el lector).
Usualmente ser preferible trabajar con conjuntos de generadores tales que la combinacin lineal que hay que efectuar para
obtener cada vector del espacio es nica.
Consideremos ahora el caso de un subespacio S generado por un solo vector v. Si v 6= 0, entonces combinaciones lineales
diferentes darn origen a diferentes vectores. En efecto, usando la propiedad 4 del teorema 1.1, si v = v = . De
manera equivalente: 6= v 6= v. Obviamente, si v = 0, distintas combinaciones lineales de v producen el mismo re-
sultado; por ejemplo 1v = 2v = 0.
La definicin siguiente nos permitir caracterizar a los conjuntos de generadores para los cuales cada vector del subespacio
generado se alcanza con una nica combinacin lineal.
14 Espacios vectoriales
A
B
Definicin 1.6
U
Un conjunto de vectores {v 1 , v 2 , ..., v r } de un espacio vectorial V se dice linealmente independiente si la nica solucin
-
de la ecuacin
1 v 1 + 2 v 2 + ... + r v r = 0V
a
r (1.2)
A su vez, {v 1 , v 2 , ..., v r } se dice linealmente dependiente si existe una solucin no trivial de la ecuacin (1.2); es decir si
existen escalares 1 , 2 , ..., r no todos nulos para los cuales se verifica (1.2).
g
In
e
Ejemplo 1.23
d
d
Apliquemos la definicin de independencia lineal a los conjuntos de vectores {(1, 1), (1, 1)} y {(1, 1), (1, 1), (1, 0)}
a
(1 + 2 , 1 2 ) = (0, 0)
1 + 2 = 0
1 2 = 0
cuya nica solucin es 1 = 2 = 0, por lo que afirmamos que el conjunto de vectores {(1, 1), (1, 1)} es linealmente
independiente.
En cuanto al conjunto {(1, 1), (1, 1), (1, 0)}, el planteo de la ecuacin 1.2 es
1 + 2 + 3 = 0
1 2 = 0
cuyo conjunto solucin es gen {(1, 1, 2)}. Afirmamos entones que el conjunto {(1, 1), (1, 1), (1, 0)} es linealmente de-
pendiente.
Ejemplo 1.24
con v 1 = 1, v 2 = t 1, v 3 = t 2 + 2t + 1:
A
1 1 + 2 (t 1) + 3 (t 2 + 2t + 1) = 0
B
U
(1 2 + 3 ) + (2 + 23 ) t + 3 t 2 = 0
-
Como un polinomio es nulo si y slo si todos sus coeficientes los son, necesariamente
a
r
1 2 + 3 = 0
ie
2 + 23 = 0
en
3 = 0
g
In
Ejercicio.
d
a
1.4 Demuestre que un conjunto {v 1 , v 2 , ..., v r } con r 2 es linealmente dependiente si y slo si hay un vector que es
lt
Ejemplo 1.25
sen x, cos x, sen x + 4 es linealmente dependiente en C (R) ya que, como mencionamos en el ejercicio 1.3, la fun-
Ejemplo 1.26
{sen x, cos x} es linealmente independiente en C (R). Para probarlo, supongamos que 1 y 2 son escalares tales que
1 sen x + 2 cos x = 0 x R
Como suponemos que la igualdad vale para todo x R, en particular vale para x = 0, con lo cual
1 sen 0 + 2 cos 0 = 0 2 = 0
16 Espacios vectoriales
Considerando ahora x = 2 y teniendo en cuenta que 2 = 0, resulta
1 sen = 0 1 = 0
2
Con esto hemos demostrado que necesariamente 1 = 2 = 0, y con ello que el conjunto es linealmente independien-
te. Para finalizar, destaquemos que no nos hubiese servido elegir como segundo punto x = (por qu?).
La definicin 1.6 se puede reformular diciendo que un conjunto de vectores es linealmente independiente si hay una sola
combinacin lineal que da el vector nulo. Veremos en el teorema siguiente que con esto basta para caracterizar a los conjun-
tos de vectores con una nica combinacin lineal para cada elemento del espacio que generan.
Teorema 1.3
A
Sea {v 1 , v 2 , ..., v r } un conjunto generador de un subespacio S del espacio vectorial V . Entonces son equivalentes:
B
U
1 Para cada v S existen escalares nicos 1 , 2 , ..., r tales que v = 1 v 1 + 2 v 2 + ... + r v r .
-
2 {v 1 , v 2 , ..., v r } es linealmente independiente.
a
r
ie
Demostracin:
en
Demostraremos en primer lugar que 1 2 . Es decir, debemos probar que el conjunto {v 1 , v 2 , ..., v r } es linealmente inde-
pendiente asumiendo que verifica 1 . Pero esto es inmediato, porque al plantear la ecuacin (1.2) se deduce que los escalares
g
A continuacin, demostraremos la implicacin 2 1 . Suponemos entonces que para cierto v V existen escalares 1 , 2 , ..., r
e
v = 1 v 1 + 2 v 2 + ... + r v r = 1 v 1 + 2 v 2 + ... + r v r
d
a
Entonces
lt
1 1 v 1 + 2 2 v 2 + ... + r r v r = 0
cu
y dada la independencia lineal de los vectores, debe ser para todo i = 1, ..., r :
a
F
i i = 0 i = i
El teorema anterior garantiza que un conjunto generador linealmente independiente tendr una nica combinacin lineal
posible para alcanzar cada vector del espacio generado. Esta clase de conjuntos ser de gran inters a lo largo del curso, lo
cual motiva la siguiente definicin.
Definicin 1.7
Un conjunto de vectores B = {v 1 , v 2 , ..., v r } del espacio vectorial V es una base de un subespacio S si y slo si es un
conjunto linealmente independiente que genera S.
Espacios vectoriales 17
Planteamos ahora la siguiente cuestin: dado un conjunto generador de un subespacio S 6= {0V } cmo podemos obtener
una base de S? La respuesta la brinda el siguiente lema.
Lema 1.1
Sea {v 1 , v 2 , ...v r , v r +1 } un conjunto generador del subespacio S. Supongamos que v r +1 depende linealmente del resto,
entonces {v 1 , v 2 , ...v r } tambin es un conjunto generador de S.
Demostracin:
Dado un vector v S, existen escalares 1 , 2 , ...r , r +1 tales que
A
v = 1 v 1 + 2 v 2 + ... + r v r + r +1 v r +1
B
U
Por otra parte, hemos supuesto que v r +1 es una combinacin lineal de los dems vectores. Es decir que existen escalares
1 , 2 , ..., r tales que
-
v r +1 = 1 v 1 + 2 v 2 + ... + r v r
Reemplazando en la ecuacin anterior tenemos
a
r
ie
v = 1 v 1 + 2 v 2 + ... + r v r + r +1 1 v 1 + 2 v 2 + ... + r v r
en
= 1 v 1 + 2 v 2 + ... + r v r + r +1 1 v 1 + r +1 2 v 2 + ...r +1 r v r
= 1 + r +1 1 v 1 + 2 + r +1 2 v 2 + ... + r + r +1 r v r
g
In
y por lo tanto existe una combinacin lineal de los vectores v 1 , v 2 , ..., v r que genera a v S.
e
d
El lema anterior nos indica un mtodo para obtener una base a partir de un conjunto generador. Supongamos que {v 1 , v 2 , ..., v r }
es un conjunto generador de un subespacio S 6= {0V }.
d
Si r = 1, es decir si el conjunto generador posee un nico elemento v 1 , teniendo en cuenta que S 6= {0V } debe ser v 1 6= 0V . Por
a
lo tanto v 1 es base de S.
lt
Supongamos ahora que r > 1. Si {v 1 , v 2 , ..., v r } es linealmente independiente, entonces es base de S. Si en cambio es lineal-
cu
mente dependiente, alguno de sus elementos depende linealmente del resto; eliminamos ese elemento del conjunto y ob-
a
tenemos un conjunto que sigue generando S pero con r 1 elementos en lugar de r . Si el conjunto obtenido es linealmente
F
independiente, es base de S; si es linealmente dependiente, algn elemento es combinacin lineal del resto. Entonces eli-
minando ese elemento del conjunto obtenemos un conjunto de generadores de S con r 2 elementos. Prosiguiendo de esta
manera, despus de un nmero finito de pasos (no ms de r 1) obtendremos un conjunto de generadores de S linealmente
independiente: una base de S. En el ms extremo de los casos llegaremos a un conjunto generador de S compuesto por un
solo vector, que forzosamente deber ser no nulo, pues S 6= {0V }, y que por ende ser base de S.
Teorema 1.4
Sea G = {v 1 , v 2 , ..., v r } un conjunto generador de un subespacio S 6= {0V } de cierto espacio vectorial V . Entonces existe
un subconjunto de G que es base de S.
Teorema 1.5
Todo subespacio finitamente generado y distinto del nulo posee una base.
En lo que sigue vamos a enunciar una serie de propiedades tiles e interesantes que se deducen de la existencia de bases 1 .
Lema 1.2
Si {v 1 , v 2 , ..., v r } es una base de un subespacio S de un espacio vectorial V , entonces todo conjunto de vectores de S
con ms de r elementos es linealmente dependiente.
A
Teorema 1.6
B
U
Sea S un subespacio no nulo finitamente generado. Entonces todas las bases de S tienen el mismo nmero de ele-
mentos.
-
a
r
Este teorema garantiza que exista un nmero de elementos comn a todas las bases y justifica la definicin que sigue.
ie
en
Definicin 1.8
g
La dimensin de un subespacio no nulo finitamente generado es el nmero de elementos que posee una base cual-
In
quiera de S. Se define tambin que el subespacio nulo tiene dimensin cero. A la dimensin de S se la denota dim(S).
e
d
d
do en los ejemplos 1.18 y 1.19 es una base tanto de Rn como de Cn . Ya vimos que E n genera cada uno de esos espacios;
por otra parte la independencia lineal es muy sencilla de probar. A la base E n se la suele denominar base cannica.
a
F
Ejemplo 1.28
Vemoslo para el caso n = 2 (el caso general es anlogo). En primer lugar, notemos que si bien {e 1 , e 2 } es un conjunto
linealmente independiente en C2 , ya no genera todo el espacio. Por ejemplo, el vector (2 + i , 1) no puede escribirse
como combinacin lineal de e 1 y e 2 si los escalares de la combinacin son nmeros reales.
Veamos ahora que la dimensin es 4. Para ello exhibiremos cuatro vectores linelamente independientes que generen
a C2 . Consideramos
(1, 0) (i , 0) (0, 1) (0, i ) (1.3)
1 Hemos optado por omitir las demostraciones, aunque el lector interesado puede encontrar los detalles en la bibliografa. Por ejemplo, en [4] y [5].
Espacios vectoriales 19
(z 1 , z 2 ) = (x 1 + i y 1 , x 2 + i y 2 )
= x 1 (1, 0) + y 1 (i , 0) + x 2 (0, 1) + y 2 (0, i )
Luego cualquier vector de C2 es una combinacin lineal (con escalares reales) de los cuatro vectores de (1.3).
Para probar que son linealmente independientes, planteamos la ecuacin
A
B
Como se trata de escalares reales, la nica solucin posible es 1 = 2 = 3 = 4 = 0. Por lo tanto, los cuatro vectores
U
de (1.3) son linealmente independientes.
-
Ejemplo 1.29 Base cannica de Kmn
a
r
ie
Las dimensiones de Rmn y de Cmn son ambas iguales a m n. En efecto, como ya mostramos en el ejemplo 1.21,
en
ambos espacios estn generados por el conjunto E mn = {E 11 , E 12 , ..., E 1n , ..., E m1 , ..., E mn } definido oportunamente y
cuya independencia lineal se prueba fcilmente. Este conjunto es la base cannica tanto de Rmn como de Cmn .
g
In
1, t , ..., t n es base de P n (verifquelo) y por lo tanto dim (P n ) = n + 1. Dicha base es la base cannica del espacio P n .
d
a
lt
cu
Ejemplo 1.31
a
espacio vectorial si se consideran las operaciones suma y producto usuales para funciones.
Ms aun, V = gen e x , xe x , x 2 e x . Afirmamos que dim(V ) = 3.
Para constatarlo, basta con ver que el conjunto generador e x , xe x , x 2 e x es linealmente independiente. Usaremos
el mismo argumento que en el ejemplo 1.26: supongamos entonces que existen escalares 1 , 2 , 3 tales que
1 e x + 2 xe x + 3 x 2 e x = 0 x [0, 1] (1.4)
1 = 0
0,5 0,5 2 0,5
1 e + 2 0,5e + 3 0,5 e =0
1 1 1
1 e + 2 e + 3 e =0
Otra forma de demostrar la independencia lineal del conjunto generador es la siguiente: como e x 6= 0 para todo x R,
la ecuacin (1.4) es equivalente a
1 + 2 x + 3 x 2 = 0 x [0, 1] (1.5)
Para que se cumpla (1.5) es necesario que sean 1 = 2 = 3 = 0 ya que 1 + 2 x + 3 x 2 debe ser el polinomio nulo.
Supongamos que la dimensin de un subespacio S es dim(S) = n. Para demostrar que un conjunto de vectores {v 1 , v 2 , ..., v r } S
es base de S, segn la definicin de base debemos probar por una parte que es linealmente independiente y por otra que
genera a S. Sin embargo, debido al siguiente resultado, la tarea es ms sencilla: basta con probar que el conjunto verifica
solamente una de las dos condiciones.
Teorema 1.7
A
Sea S un subespacio de un espacio vectorial V . Supongamos que dim(S) = n. Luego
B
1 Si {v 1 , v 2 , ..., v n } S es linealmente independiente, entonces {v 1 , v 2 , ..., v n } es base de S.
U
2 Si {v 1 , v 2 , ..., v n } S genera a S, entonces {v 1 , v 2 , ..., v n } es base de S.
-
a
r
ie
Ejemplo 1.32
en
Ejercicio.
e
d
Para finalizar esta seccin, no podemos dejar de mencionar un resultado motivado por la siguiente pregunta: dado un con-
lt
junto linealmente independiente {v 1 , v 2 , ..., v r } de vectores de un espacio vectorial V finitamente generado forman parte de
cu
alguna base de V ? Dicho de otra manera: se puede extender un conjunto linealmente independiente hasta completar una
a
base?
F
Teorema 1.8
Sea V un espacio vectorial de dimensin n y sea {v 1 , v 2 , ..., v r } V con r < n un conjunto linealmente independiente.
Entonces existen v r +1 , ..., v n V tales que B = {v 1 , v 2 , ..., v r , v r +1 , ..., v n } es una base de V .
En la seccin 1.1 identificamos los vectores de Kr con los de Kr 1 . A partir de esta seccin y en lo que resta del texto, usare-
mos libremente esta identificacin. Por lo general, ser muy ventajoso y facilitar la notacin interpretar a los vectores de Kr
como vectores columna de Kr 1 .
Espacios vectoriales 21
Dada una matriz A Kmn , cada una de sus columnas puede ser interpretada como un vector de Km . Entonces, si denomi-
namos A i a la i -sima columna de A, tenemos que A i Km y que
h i
A = A1 A2 An
Por ejemplo, si
1 2
A= 1 1 (1.6)
1 0
sus columnas son
1 2
A1 = 1 , A2 = 1
1 0
Similarmente, cada fila de A puede ser interpretada como un vector columna de Kn transpuesto y, si denominamos F i al
A
vector columna que se obtiene transponiendo la i -sima fila de A, podemos escribir
B
t
F1
U
.
A= ..
-
t
Fm
a
r
Por ejemplo, las filas transpuestas de la matriz A de (1.6) son
ie
" # " # " #
1 1 1
en
F1 = , F2 = , F3 =
2 1 0
g
Con esta notacin, el producto de la matriz A Kmn por un vector x Kn puede escribirse en la forma
In
t t
F1 F1 x
e
. .
Ax = .. x = ..
d
t t
Fm Fm x
d
a
que no expresa otra cosa que la regla usual de multiplicacin de una matriz por un vector: la i -sima componente del pro-
lt
En cada matriz podemos definir subespacios a partir de lo que generan sus filas y columnas.
a
F
Definicin 1.9
El espacio fila es el subespacio de Kn generado por las filas transpuestas de A y se denota Fil A:
Dado que transponiendo las filas de A obtenemos las columnas de A t , tenemos que el espacio fila de A no es otro que el
espacio columna de A t , es decir
22 Espacios vectoriales
Proposicin 1.1
Vamos a dar ahora una interpretacin del producto entre una matriz y un vector que usaremos a menudo. Comenzamos con
un ejemplo: sean A la matriz definida en (1.6) y x = [1 2]t , aplicamos la definicin usual de producto de matrices y luego
reescribimos el resultado
1 2 " # 1 1 + 2 (2) 1 2
1
Ax = 1 1 = 1 1 + 1 (2) = 1 1 + (2) 1
2
1 0 1 1 + 0 (2) 1 0
Esto es un ejemplo de que el producto de una matriz por un vector columna consiste en combinar linealmente las columnas
A
de la matriz empleando como escalares las componentes del vector. No es difcil demostrar el caso general.
B
Proposicin 1.2
U
Dada una matriz A Kmn y dado un vector x = [x 1 x 2 ...x n ]t Kn , el producto se puede expresar como la siguiente
-
combinacin lineal de las columnas de la matriz
a
r
x1
ie
i x2
h
Ax = A 1 A 2 A n . = x 1 A 1 + x 2 A 2 + ... + x n A n
en
..
g
xn
In
e
Cada vez que multiplicamos a una matriz A Kmn por un vector x Kn obtenemos un elemento de Col A y, recprocamente,
d
todo elemento de Col A puede escribirse en la forma Ax eligiendo un x Kn con los escalares adecuados. Luego vale la
d
siguiente afirmacin.
a
lt
Proposicin 1.3
cu
En lo que sigue, vamos a vincular los subespacios Col A y Fil A con el rango de A, al que denotaremos rango A. Recordando
que el rango de una matriz es tanto el nmero mximo de columnas linealmente independientes como el nmero mximo
de filas linealmente independientes, se llega sin dificultad a la siguiente afirmacin.
Proposicin 1.4
A continuacin vincularemos a cada matriz con el sistema de ecuaciones lineales que se le asocia naturalmente. Es decir,
dada A Kmn , consideraremos la ecuacin matricial
Ax = b (1.9)
Espacios vectoriales 23
donde b Km y x Kn es la incgnita. En el caso de que b sea el vector nulo, la ecuacin (1.9) resulta Ax = 0 y se tiene un
sistema homogneo . El conjunto solucin de dicho sistema es un subespacio de Kn (ejercicio!) y le asignamos un nombre
propio:
Definicin 1.10
Dada una matriz A Kmn , el espacio nulo es el conjunto solucin del sistema homogneo asociado a la matriz y se
denota Nul A. Es decir
Nul A = x Kn : Ax = 0
Teniendo en cuenta el trabajo hecho en esta seccin, podemos dar una nueva interpretacin de lo que significa que un sis-
tema de ecuaciones sea o no compatible. Volviendo a mirar la ecuacin (1.9), notamos ahora que el sistema es compatible
si y slo si existe una combinacin lineal de las columnas de A que resulte ser el vector b. Vale decir que el sistema ser
A
compatible si b Col A. Ms an, si Col A = Km entonces el sistema ser compatible para cualquier b.
B
U
Con esto, queda demostrado el siguiente teorema.
-
Teorema 1.9
Col A = Km
g
In
rango A = m
e
d
En cuanto a la unicidad de las soluciones, cada sistema Ax = b (con b arbitrario) tiene a lo sumo una solucin si y slo si la
ecuacin homognea tiene solucin nica (trivial), esto es, Nul A = {0}. 2 Ahora bien, que Nul A = {0} significa que la ecuacin
d
Ax = 0 tiene solamente solucin trivial y esto equivale a que las columnas de A sean linealmente independientes (por qu?).
a
lt
En consecuencia, la solucin de (1.9), en caso de existir, es nica si y slo si las columnas de A son linealmente independien-
cu
Teorema 1.10
Nul A = {0}
dim (Col A) = n
rango A = n
2 Suponiendo que Nul A = {0}, basta con sealar que si existen dos soluciones x e y, es decir si Ax = Ay = b, entonces A(x y) = 0 y se deduce que x = y.
Recprocamente, si cada sistema Ax = b tiene a lo sumo una solucin, vale en particular para b = 0 y en tal caso la nica solucin es x = 0.
24 Espacios vectoriales
Definicin 1.11
A los cuatro subespacios que hemos asociado a cada matriz A: Col A, Fil A, Nul A, Nul(A t ) se los denomina subespacios
fundamentales de A.
1.6 Coordenadas
En el teorema 1.3 qued establecido que, en los conjuntos linealmente independientes, hay una nica combinacin lineal
adecuada para cada vector del espacio que generan. Esa combinacin lineal queda caracterizada por los escalares que se
usan: en esta seccin estableceremos una correspondencia entre dichos escalares y el vector que producen. Para ello, co-
A
menzamos por establecer un orden en cada base del espacio.
B
Definicin 1.12
U
Una base ordenada de un espacio vectorial V de dimensin finita es una base en la cual se ha establecido un orden.
-
En general emplearemos la notacin
B = {v 1 ; v 2 ; ...; v n }
a
r
ie
para enfatizar que la base est ordenada. Es decir, separaremos los vectores con punto y coma.
en
g
Consideremos una base ordenada B = {v 1 ; v 2 ; ...; v n }3 de cierto espacio V . Como ya mencionamos, para cada vector v V
In
existe y es nico el conjunto de escalares 1 , 2 , ..., n (en ese orden) tales que v = 1 v 1 + 2 v 2 + ... + n v n . Esto nos permite
establecer la correspondencia entre vectores y escalares que habamos anticipado.
e
d
Definicin 1.13
d
Dados un espacio vectorial V y una base ordenada B = {v 1 ; v 2 ; ...; v n }, para cada vector v V definimos el vector de
a
lt
1
a
2
F
Kn
[v]B =
..
.
n
v = 1 v 1 + 2 v 2 + ... + n v n
t
Por otra parte, si = 1 2 ... n Kn , entonces existe un vector w V tal que [w]B = . Efectivamente, tal vector es
w = 1 v 1 + 2 v 2 + ...n v n . De acuerdo con lo que acabamos de decir, al fijar una base ordenada B de V podemos establecer
una correspondencia biyectiva entre los vectores de V y los vectores de Kn . Tal correspondencia consiste en asignar a cada
vector de V su vector de coordenadas en la base B .
3 Hacemos esta distincin con punto y coma porque en la notacin de conjuntos B = {v , v , ..., v } alude a un conjunto que contiene a los elementos
1 2 n
v 1 , v 2 , ..., v n sin tener, en principio, ningn orden. Es decir, dara lo mismo escribir B = {v 1 , v 2 , ..., v n } = {v n , v 2 , ..., v 1 }.
Espacios vectoriales 25
Ejemplo 1.33
En primer lugar, buscamos las coordenadas del polinomio p = t 2 t + 1 en la base B . Para ello es necesario encontrar
los escalares que verifican
p = 1 (t 1) + 2 (t + 1) + 3 t 2 + 1
t 2 t + 1 = 3 t 2 + (1 + 2 ) t + (1 + 2 + 3 )
3 = 1
A
1 + 2 = 1
B
1 + 2 + 3 = 1
U
Resolviendo el sistema de ecuaciones obtenemos 1 = 0,5, 2 = 0,5 y 3 = 1, con lo cual p B = [0,5 0,5 1]t .
-
a
Para ilustrar el camino inverso, buscamos un polinomio q P 2 tal que q B = [0,5 0,5 2]t . Para ello calculamos
r
ie
q = 0,5(t 1) 0,5(t + 1) + 2 t 2 + 1 = 2t 2 + 1
en
A continuacin compararemos las coordenadas de la suma de vectores con la suma de coordenadas. La suma de las
g
q B + p B = [0 1 3]t
e
= 0(t 1) 1(t + 1) + 3 t 2 + 1
a
lt
q + p B = [0 1 3]t
cu
con lo cual
a
q B + p B = q +p B (1.10)
F
Por ltimo, compararemos la multiplicacin de las coordenadas por un escalar con las coordenadas del vector multi-
plicado por un escalar. Consideramos el vector p y el escalar 2:
2 p B = [1 1 2]t
A su vez
2p = 2 0,5(t 1) 0,5(t + 1) + 1 t 2 + 1
= 1(t 1) 1(t + 1) + 2 t 2 + 1
2p B = [1 1 2]t
Las frmulas (1.10) y (1.11) del ejemplo sugieren la validez del teorema que sigue.
Teorema 1.11
Dados un espacio vectorial V y una base ordenada B = {v 1 ; v 2 ; ...; v n }, para dos vectores cualesquiera u, v V y cual-
quier escalar k K se verifica que
[ku]B = k [u]B
Demostracin:
Sean [u]B = [1 2 ... n ] y [v]B = 1 2 ... n . Vale decir que
A
u = 1 v 1 + 2 v 2 + ... + n v n
B
v = 1 v 1 + 2 v 2 + ... + n v n
U
u + v = 1 + 1 v 1 + 2 + 2 v 2 + ... + n + n v n
-
de donde se deduce que
a
r t
[u + v]B = 1 + 1 2 + 2 ... n + n
ie
t
= [1 2 ... n +]t + 1 2 ... n
en
= [u]B + [v]B
g
ku = k (1 v 1 + 2 v 2 + ... + n v n )
e
con lo cual
a
= k [1 2 ... n ]t
= k [u]B
a
F
Como hemos visto recin, al fijar una base ordenada B de V , podemos reducir todas las operaciones entre vectores de V a
operaciones entre sus coordenadas como vectores de Kn . Ms an, como veremos a continuacin, tambin es posible deter-
minar la dependencia o independencia lineal de un conjunto de vectores de V a partir de la dependencia o independencia
lineal de sus coordenadas.
Teorema 1.12
Dados un espacio vectorial V , una base ordenada B = {v 1 ; v 2 ; ...; v n } y un conjunto {u 1 , u 2 , ..., u r } de vectores de V ,
entonces son equivalentes
Demostracin:
Aplicando el teorema 1.11 y el hecho de que el vector nulo tiene coordenadas nulas, tenemos
Vale decir que las soluciones de las ecuacin en coordenadas son las mismas que las soluciones de la ecuacin con los vec-
tores originales. Por lo tanto, la ecuacin 1 [u 1 ]B + 2 [u 2 ]B + ... + r [u r ]B = 0 tiene como nica solucin 1 = 2 = ... =
r = 0 si y slo si la nica solucin de la ecuacin 1 u 1 + 2 u 2 + ... + r u r = 0 es 1 = 2 = ... = r = 0. En otras palabras,
[u 1 ]B , [u 2 ]B , ..., [u r ]B es linealmente independiente en Kn si y slo si {u 1 , u 2 , ..., u r } es linealmente independiente en V .
Ejemplo 1.34
Determinar si B = 1 + t ; 1 + t 3t 2 ; 1 + 2t 2t 2 es base de P 2 .
A
En primer lugar, sabemos que la dimensin de P 2 es 3. Luego (aplicando el teorema 1.7) bastar con estudiar su
B
independencia lineal. Ahora bien, aplicando el teorema 1.12, podemos estudiar las coordenadas de los vectores con
U
respecto a la base cannica E = 1, t , t 2 :
-
[1 + t ]E = [1 1 0]t 1 + t 3t 2 E = [1 1 3]t 1 + 2t 2t 2 E = [1 2 2]t
a
r
Para estudiar la independencia lineal de estos vectores de R3 disponemos de varios mtodos. Por ejemplo, podemos
ie
formar una matriz de tamao 3 3 disponiendo cada uno de esos vectores como fila y determinar su rango: si ste es
en
igual al nmero de filas de la matriz, los vectores son linealmente independientes. En nuestro caso, la matriz es
g
1 1 0
In
A= 1 1 3
1 2 2
e
d
1 1 0 F2 F1 1 1 0 1 1 0
F F
lt
2 3
1 1 3 0 0 3 0 3 2
cu
1 2 2 F3 + F1 0 3 2 0 0 3
a
Como el rango de la ltima matriz es 3, el rango de la matriz inicial es tambin 3 ya que, como es sabido, en cada
F
paso de triangulacin cambia la matriz pero no el espacio fila. Por lo tanto los vectores coordenados son linealmente
independientes y B es una base de P 2 .
Una alternativa es la siguiente: como A es una matriz cuadrada y solamente nos interesa saber si su rango es 3, cal-
culamos su determinante; si resulta distinto de cero entonces rango A = 3, en caso contrario es rango A < 3. Dejamos
como ejercicio completar esta alternativa.
28 Espacios vectoriales
Como hemos visto, dada una base ordenada B de un espacio vectorial V de dimensin n, podemos identificar cada vector de
V con su vector de coordenadas en la base B . Esto nos permite operar con las coordenadas en Kn , lo cual suele ser ms prc-
tico (como se ilustr en el ejemplo 1.34). En algunas aplicaciones es posible que comencemos describiendo un problema
usando las coordenadas de los vectores en una base B , pero que su solucin se vea facilitada si empleamos las coordenadas
de los vectores en otra base ordenada C . Entonces aparece naturalmente el siguiente problema:
Dadas las coordenadas de cierto vector v en la base ordenada B , obtener las coordenadas de v en la base ordenada C
A
Teorema 1.13 Matriz de Cambio de Base
B
U
Sean B y C bases ordenadas del espacio vectorial V , donde B = {v 1 ; v 2 ; ...; v n }. Entonces existe una nica matriz M
Knn tal que
-
[v]C = M [v]B v V
a
Adems, M es la matriz cuyas columnas son las coordenadas de los vectores de la base B con respecto a la base C . Es
r
decir
ie
h i
M = [v 1 ]C [v 2 ]C [v n ]C (1.12)
en
Demostracin:
e
Consideremos un vector v V arbitrario. Entonces existen y son nicas sus coordenadas con respecto a la base B : [v]B =
d
v = 1 v 1 + 2 v 2 + ... + n v n
a
[v]C = 1 [v 1 ]C + 2 [v 2 ]C + ... + n [v n ]C
a
En esta ltima expresin se aprecia que para realizar el cambio de coordenadas alcanza con saber las coordenadas con
F
respecto a la base C de los vectores de la base B . Tomando en consideracin la matriz definida en 1.12 y pensando al producto
entre matriz y vector como una combinacin lineal de las columnas de la matriz, la ltima expresin queda
como queramos probar. Falta ver la unicidad de la matriz de cambio de base. Para eso y como es usual, supongamos que
existe cierta matriz N Knn que realiza el mismo cambio de base que M , es decir [v]C = N [v]B v V . Probaremos que
todas las columnas Ni (con i = 1...n) de la matriz N coinciden con las respectivas columnas de M . Para ello, tengamos en
cuenta que las coordenadas de los vectores de la base B con respecto a esa misma base son los vectores cannicos de Kn , es
decir [v i ]B = e i . Con eso resulta
h i
M i = [v i ]C = N [v i ]B = N1 N2 Nn e i = Ni
Teorema 1.14
1 C B D = CC D C BC
2 C BC es inversible y (C BC )1 = CC B
Demostracin:
Empecemos por el punto 1 . Es suficiente comprobar que para todo v V se verifica que [v]D = (CC D C BC ) [v]B , ya que la
matriz de cambio de base es nica. Ahora bien,
En cuanto al punto 2 , notemos en primer lugar que C B B = I donde I representa la matriz identidad. En efecto, como para
A
todo v V es [v]B = I [v]B , la unicidad de la matriz de cambio de base garantiza que C B B = I . Entonces, usando el punto 1
B
deducimos que C BC CC B = CCC = I y CC B C BC = C B B = I y con ello que C BC es inversible y (C BC )1 = CC B .
U
-
Ejemplo 1.35
a
Consideremos la base B = 1 t , 1 + t , 1 + t + t 2 de P 2 y supongamos que deseamos hallar las coordenadas de
r
p = 2t 2 2t + 4 en la base B .
ie
en
Comencemos por sealar que las coordenadas de p con respecto a E = 1, t , t 2 , la base cannica de P 2 , son p E =
[4 2 2]t . De acuerdo con el teorema 1.13, p B = C E B p E . Por ende, debemos calcular C E B . Para ello sealamos dos
g
In
alternativas:
1. Obtener las coordenadas de los vectores de la base E con respecto a la base B . Esto implicara resolver los tres
e
d
1 = 1 (1 t ) + 2 (1 + t ) + 3 1 + t + t 2
a
t = 1 (1 t ) + 2 (1 + t ) + 3 1 + t + t 2
lt
cu
t 2 = 1 (1 t ) + 2 (1 + t ) + 3 1 + t + t 2
a
F
con lo cual
1 1 1
CB E = 1 1 1
0 0 1
y su inversaa es la matriz buscada:
1
12
2 0
C E B = (C B E )1 = 1 1
1
2 2
0 0 1
30 Espacios vectoriales
de modo que
1
21
2 0 4 3
1 1
p B = CE B p E = 1 2 = 1
2 2
0 0 1 2 2
a Quienes calculen la inversa con el conocido mtodo que consiste en yuxtaponer la matriz identidad y triangular, notarn la relacin con la
A
Para estudiar las posibles operaciones entre subespacios comenzamos con un ejemplo.
B
U
-
a
r
ie
en
g
In
e
d
d
a
Ejemplo 1.36
F
S 1 = x R3 : x 1 + 2x 2 + 2x 3 = 0 S 2 = x R3 : x 2 = 0
Si consideramos su unin, se trata del conjunto de vectores que pertenecen a un plano o al otro:
S 1 S 2 = x R3 : x S 1 x S 2
Elijamos los vectores u = (2, 1, 0) S 1 y v = (1, 0, 2) S 2 . Al calcular la suma resulta que u + v = (3, 1, 2) S 1 S 2 ,
como se aprecia en la figura 1.4. En consecuencia, S 1 S 2 no es subespacio pues la suma no es cerrada.
Si en cambio consideramos la interseccin de estos subespacios, es decir el conjunto de vectores que pertenecen a
ambos:
S 1 S 2 = x R3 : x S 1 x S 2
Espacios vectoriales 31
x 1 + 2x 2 + 2x 3 = 0 (1.13)
x2 = 0 (1.14)
cuya solucin consta de todos los vectores de la forma (2x 3 , 0, x 3 ) = x 3 (2, 0, 1) con x 3 R. Vale decir que
y se trata efectivamente de un subespacio: en este caso es una recta que pasa por el origen.
En general, ni la diferencia entre dos subespacios ni el complemento de un subespacio pueden ser subespacios, ya que en
ambos casos el vector nulo no pertenece al conjunto resultante. Ya hemos visto que la unin de subespacios no tiene por qu
A
ser un subespacio. El teorema siguiente confirma lo que sugiere el ejemplo: que la interseccin entre subespacios es a su vez
B
un subespacio.
U
Teorema 1.15
-
Dados S 1 , S 2 , ..., S r subespacios de un espacio vectorial V , su interseccin
a
r
S 1 S 2 ... S r = {v V : v S 1 v S 2 ... v S r }
ie
en
tambin es subespacio de V .
g
In
Demostracin:
Probaremos las tres condiciones que exige el teorema del subespacio 1.2.
e
d
2. Sean u, v S 1 S 2 ... S r . Luego para todo i = 1, ..., r resulta, usando el hecho de que todos los S i son subespacios,
a
lt
u, v S i u + v S i u + v S 1 S 2 ... S r
cu
u S i ku S i ku S 1 S 2 ... S r
Hasta ahora, hemos considerado operaciones de conjuntos: unin, interseccin, complemento y diferencia. A continuacin
definimos una nueva operacin basada en las operaciones del espacio vectorial.
Definicin 1.14
Dados S 1 , S 2 , ..., S r subespacios de un espacio vectorial V , la suma de estos subespacios se denota como S 1 +S 2 +...+S r
y se define como el conjunto de todas las sumas posibles de vectores en S 1 , S 2 , ..., S r . Es decir,
Ejemplo 1.37
Si retomamos el ejemplo 1.36, la suma de los subespacios S 1 y S 2 es, como el grfico permite anticipar, todo el espacio
R3 . Para demostrarlo formalmente, notemos que
S 1 = gen {(0, 1, 1), (2, 1, 0)} S 2 = gen {(1, 0, 0), (0, 0, 1)}
Luego los elementos de S 1 son de la forma (0, 1, 1) + (2, 1, 0) con , arbitrarios, mientras que los de S 2 son de la
forma (1, 0, 0) + (0, 0, 1) con , arbitrarios. Por ende, los elementos de S 1 + S 2 sern de la forma
Es decir que S 1 + S 2 contendr todas las combinaciones lineales de los vectores (0, 1, 1), (2, 1, 0), (1, 0, 0), (0, 0, 1), que
constituyen un conjunto generador de R3 .
A
B
En el ejemplo anterior la suma de subespacios result ser un subespacio. El teorema siguiente generaliza este hecho.
U
Teorema 1.16
-
Dados S 1 , S 2 , ..., S r subespacios de un espacio vectorial V , la suma S 1 + S 2 + ... + S r es un subespacio de V .
a
r
ie
Demostracin:
en
Una vez ms, probaremos las tres condiciones que exige el teorema del subespacio 1.2.
1. Dado que 0 S 1 0 S 2 ... 0 S r , resulta 0 = 0 + 0 + ... + 0 0 S 1 + S 2 + ... + S r
g
In
u + v = (u 1 + u 2 + ... + u r ) + (v 1 + v 2 + ... + v r )
d
= (u 1 + v 1 ) + (u 2 + v 2 ) +... + (u r + v r )
a
| {z } | {z } | {z }
S 1 S 2 S r
lt
u + v S1 + S2
cu
3. Sean u S 1 + S 2 + ... + S r y K. Entonces existen u 1 S 1 , u 2 S 2 , ..., u r S r tales que u = u 1 + u 2 + ... + u r . Por lo tanto
a
F
u = (u 1 + u 2 + ... + u r )
= u 1 + u 2 +... + u r
|{z} |{z} |{z}
S 1 S 2 S r
u S 1 + S 2 + ... + S r
Ejercicio.
1.6 Compruebe que en R2 la suma de dos rectas rectas distintas S 1 y S 2 que pasan por el origen es R2 . Interprete
grficamente. Qu sucede si las rectas estn contenidas en R3 ?
El mtodo empleado en el ltimo ejemplo para hallar un conjunto generador del subespacio suma se puede generalizar sin
mayores dificultades (dejamos los detalles como ejercicio):
Espacios vectoriales 33
Proposicin 1.5
Sean v 11 , v 12 , ..., v 1k1 , v 21 , v 22 , ..., v 2k2 , ..., v r 1 , v r 2 , ..., v r kr conjuntos generadores de los subespacios S 1 , S 2 , ..., S r
de un espacio vectorial V respectivamente. Entonces
S 1 + S 2 + ... + S r = gen v 11 , v 12 , ..., v 1k1 , v 21 , v 22 , ..., v 2k2 , ..., v r 1 , v r 2 , ..., v r kr
Ejemplo 1.38
A
S 1 = x R4 : x 1 + 2x 2 x 3 + x 4 = 0 x 1 x 4 = 0
B
U
y
S 2 = gen {(1, 1, 0, 0), (2, 1, 2, 1)}
-
a
Para resolver el problema necesitamos un conjunto generador de S 1 . Resolviendo las ecuaciones lineales homogneas
r
que definen el subespacio S 1 , obtenemos la siguiente base de S 1 : {(1, 1, 0, 1) , (0, 1, 2, 0)}. Como {(1, 1, 0, 0), (2, 1, 2, 1)}
ie
es un conjunto generador de S 1 + S 2 . Sin embargo, este conjunto no es base, ya que es linealmente dependiente. Apli-
cando, por ejemplo, eliminacin gaussiana, se verifica que el cuarto vector es combinacin lineal de los tres primeros,
e
es la base buscada.
lt
cu
a
F
N Como se desprende del ejemplo anterior, la unin de bases de los subespacios es un conjunto generador de la
suma, pero no es necesariamente base de esa suma.
El teorema que enunciamos a continuacin permite obtener nuevas conclusiones acerca de la suma de dos subespacios. 4
Teorema 1.17
4 La demostracin puede ser un buen repaso de los conceptos estudiados en este captulo. Recomendamos consultarla en la bibliografa, por ejemplo en
[4].
34 Espacios vectoriales
Ejemplo 1.39
Si retomamos el ejemplo 1.38, podemos aplicar el teorema anterior para deducir la dimensin de la interseccin. En
efecto, la frmula (1.15) resulta en este caso
3 = 2 + 2 dim (S 1 S 2 )
Como ya hemos definido en 1.14, cada elemento v de S 1 + S 2 + ... + S r puede expresarse en la forma
Sin embargo, esta descomposicin de v como suma de vectores en los subespacios S 1 , S 2 , ..., S r no tiene por qu ser nica.
A
Ejercicio. Considerando el ejemplo 1.36, encuentre dos descomposiciones distintas del vector v = (1, 1, 1) como suma
B
de elementos de S 1 y S 2 .
U
En lo que sigue, prestaremos atencin al caso en que la descomposicin es nica.
-
a
Definicin 1.15 r
Dados S 1 , S 2 , ..., S r subespacios de un espacio vectorial V , se dice que la suma es directa si cada v S 1 + S 2 + ... + S r
ie
admite una nica descomposicin en la forma (1.16). Es decir, si los v 1 S 1 , v 2 S 2 , ..., v r S r son nicos. Cuando la
en
Ejemplo 1.40
e
d
La suma de un subespacio arbitrario S de un espacio vectorial V con el subespacio nulo {0} es directa, es decir
d
S {0} = S
a
lt
pues la nica forma de expresar v S, como suma de un elemento de S con uno de {0} es v = v + 0.
cu
a
F
Ejemplo 1.41
En efecto, la suma es el plano que contiene a ambas rectas (ver ejercicio 1.6) y cada vector de ese plano puede
descomponerse en forma nica como suma de dos vectores, uno en la primera recta y otro en la segunda.
Ejercicio.
1.7 Demuestre que en R3 es directa la suma de un plano S 1 que pasa por el origen con una recta S 2 que tambin pasa
por el origen pero no est contenida en el plano.
Espacios vectoriales 35
Ejemplo 1.42
En efecto, sea L = S 1 S 2 . Entonces L es una recta que pasa por el origen (por qu no puede ser tan solo un punto?).
Sea w cualquier vector no nulo de L. Entonces w S 1 y w S 2 , con lo cual tambin w S 2 . Pero entonces 0 S 1 + S 2
admite las dos siguientes descomposiciones:
0 = 0 + 0 y 0 = w + (w)
Sealemos que en los ejemplos anteriores en los cuales la suma de los subespacios es directa, su interseccin es el subespacio
A
nulo. En cambio en el ejemplo en que la suma no es directa, la interseccin de los subespacios no es el subespacio nulo. El
teorema siguiente generaliza esta observacin.
B
U
Teorema 1.18
-
Sean S 1 y S 2 subespacios de un espacio vectorial V . Entonces la suma de S 1 y S 2 es directa si y slo si S 1 S 2 = {0}.
a
r
ie
Demostracin:
en
Para demostrar la doble implicacin, asumimos en primer lugar que la suma de S 1 y S 2 es directa. Evidentemente, 0 S 1 S 2 :
supongamos que existe otro vector v S 1 S 2 . En tal caso, como v pertenece a ambos subespacios se podran hacer dos
g
descomposiciones distintas
In
v = |{z} v = |{z}
0 + |{z} v + |{z}
0
S 1 S 2 S 1 S 2
e
d
Asumamos ahora que S 1 S 2 = {0}. Razonando nuevamente por el absurdo, supongamos que existe cierto vector v que
a
lt
Pero entonces
F
v1 w1 = w2 v2
y dado que v 1 w 1 S 1 , w 2 v 2 S 2 , como la interseccin es el vector nulo, deducimos que
v1 w1 = w2 v2 = 0 v1 = w1 v2 = w2
Ejemplo 1.43
En el espacio de matrices cuadradas Rnn consideramos el subespacio S 1 de matrices simtricas (aquellas tales
que A = A t ) y el subespacio S 2 de matrices antisimtricas (aquellas tales que A = A t ). Dejamos como ejercicio
comprobar que se trata efectivamente de subespacios. Probaremos que la suma de estos subespacios es directa e
igual a todo el espacio, es decir S 1 S 2 = Rnn .
36 Espacios vectoriales
A + At A At
A= +
2 2
El primer trmino de la descomposicin es una matriz simtrica, mientras que el segundo es una matriz antisimtrica:
t t
A + At At + At At + A A + At
= = =
2 2 2 2
t t
A At At At At A A At
= = =
2 2 2 2
Esto prueba que la suma de S 1 y S 2 es todo el espacio de matrices. Falta ver que la suma es directa. Basndonos en el
teorema 1.18, probaremos que S 1 S 2 = {0}. Sea A S 1 S 2 : entonces A es simtrica y antisimtrica. Luego
A
A = A t A = A t A = A A = 0
B
U
En lo que sigue enunciaremos una condicin que permite determinar cundo los subespacios S 1 , S 2 , ..., S r estn en suma
-
directa. Para ello, sealemos que los teoremas 1.17 y 1.18 nos permiten afirmar que la suma dos subespacios S 1 y S 2 es
a
directa si y slo si dim (S 1 + S 2 ) = dim (S 1 ) + dim (S 2 ). El teorema siguiente generaliza esta observacin.
r
ie
Teorema 1.19
en
Sea V un espacio vectorial y sean S 1 , S 2 , ..., S r subespacios de dimensin finita. Entonces la suma S 1 + S 2 + ... + S r es
g
Ejemplo 1.44
a
lt
S 1 = gen {(1, 1, 0, 0, 1), (1, 0, 1, 0, 0)} S 2 = gen (2, 1, 0, 1, 1) S 3 = gen {(1, 1, 1, 1, 0)}
a
F
es linealmente independiente y por lo tanto base de S 1 +S 2 +S 3 , con lo cual se cumple la relacin establecida en (1.17):
Ejemplo 1.45
En R3 consideremos un plano S 1 y dos rectas S 2 y S 3 , distintas y no contenidas en el plano, tales que S 1 S 2 S 3 = {0}.
Qu es S 1 + S 2 + S 3 ? Es directa la suma?
Espacios vectoriales 37
En primer lugar, S 1 +S 2 +S 3 = R3 (por qu?). La suma no es directa porque no se verifica la ecuacin (1.17): en efecto,
dim (S 1 + S 2 + S 3 ) = 3 mientras que dim (S 1 ) + dim (S 2 ) + dim (S 3 ) = 4.
Ejercicio.
no es directa.
A
B
U
-
a
r
ie
en
g
In
e
d
d
a
lt
cu
a
F
A
B
U
-
a
r
ie
en
g
In
A
B
U
2.1 Introduccin
-
a
r
En la seccin 1.5 del captulo 1, dedicada a los subespacios fundamentales de una matriz, propusimos una interpretacin de
ie
los sistemas de ecuaciones lineales de la forma Ax = b, segn la cual el sistema es compatible si y slo si b es combinacin
lineal de las columnas de A.
en
g
Una nueva interpretacin posible del sistema de ecuaciones Ax = b consiste en pensar que la expresin Ax define una
In
que permite, entre otras cosas, representar sistemas de ecuaciones. Para ello, destaquemos dos caractersticas que tiene la
d
x, y Kn : A(x + y) = Ax + Ay
lt
x Kn , K : A(x) = (Ax)
cu
a
F
Definicin 2.1
Dados dos espacios vectoriales V y W con el mismo conjunto de escalares K, la funcin f : V W es una transfor-
macin lineal si verifica
1 u, v V : f (u + v) = f (u) + f (v)
2 u V, K : f (u) = f (u)
Ejemplo 2.1
Cualquier funcin f : Kn Km definida mediante f (x) = Ax donde A Kmn es una transformacin lineal, por los
argumentos expuestos al comienzo.
40 Transformaciones lineales
f : R3 R2 , f [(x 1 , x 2 , x 3 )] = (x 1 x 3 , x 2 + 5x 3 )
para probar que es una transformacin lineal alcanza con mostrar que su expresin es de la forma Ax, en este caso
con A R23 . Usando una vez ms la identificacin entre los espacios Kr y Kr 1 , podemos escribir
f : R3 R2 , f [x 1 x 2 x 3 ]t = [x 1 x 3 x 2 + 5x 3 ]t
" # x1
1 0 1
= x2
0 1 5
x3
A
Convencin
B
U
En el ejemplo anterior hemos usado la notacin f [(x 1 , x 2 , x 3 )] para destacar que f asigna a cada vector (x 1 , x 2 , x 3 ) R3
un vector de R2 . Sin embargo, muchas veces simplificaremos la notacin escribiendo
-
a
f (x 1 , x 2 , x 3 ) = ...
r
ie
en
Ejercicio.
g
In
f : P 2 R, f (p) = p(0)
e
d
d
a
Ejemplo 2.2
lt
La funcin
cu
f : R3 R3 , f (v) = v w
a
siendo w un vector fijo, es una transformacin lineal. Veamos que cumple las dos condiciones de la definicin, usando
F
f (u + v) = (u + v) w = u w + v w = f (u) + f (v)
2 Sean u R3 , R. Entonces
f (u) = (u) w = (u w) = f (u)
Sealemos tambin que las propiedades del producto vectorial permiten afirmar que
f (0) = 0
Estas ltimas observaciones se generalizan sin dificultad, como probaremos en el siguiente teorema.
Transformaciones lineales 41
Teorema 2.1
1 f (0V ) = 0W
2 u V : f (u) = f (u)
Demostracin:
Para probar la propiedad 1 , usamos el hecho de que el cero por cualquier vector da el vector nulo (ver 2 del teorema 1.1) y
la definicin de transformacin lineal:
f (0V ) = f (0v) = 0 f (v) = 0W
Anlogamente
f (v) = f [(1)v] = (1) f (v) = f (v)
A
B
U
Las propiedades anteriores, adems de tener inters por s mismas, sirven tambin para detectar funciones que no son trans-
formaciones lineales. En efecto, como toda transformacin necesariamente las verifica, decimos que son condicin necesaria
-
para ser transformacin lineal.
a
Ejemplo 2.3
r
ie
f : R2 R2 , f (x 1 , x 2 ) = (2x 1 1, x 2 )
g
g : R2 R2 , g (x 1 , x 2 ) = x 12 , x 2
In
En el caso de f , notemos que f [(0, 0)] = (1, 0) 6= (0, 0). Por ende f no cumple una condicin necesaria y entonces no
e
d
nulo en el vector nulo no es una condicin suficiente para ser transformacin lineal. En este caso, notemos que
a
lt
Proposicin 2.1
Dados los vectores v 1 , v 2 , ..., v r V , los escalares 1 , 2 , ..., r K y la transformacin lineal f : V W , se cumple que
f (1 v 1 + 2 v 2 + ... + r v r ) = 1 f (v 1 ) + 2 f (v 2 ) + ... + r f (v r )
La demostracin surge al aplicar sucesivamente la definicin de transformacin lineal y la dejamos como ejercicio.
N A menudo diremos que las transformaciones lineales preservan las combinaciones lineales, en el sentido que
seala la propiedad anterior. Queremos destacar que, de todas las funciones posibles entre espacios vectoriales, le
prestamos atencin a las transformaciones lineales por propiedades como esta.
42 Transformaciones lineales
Para comenzar esta seccin recordamos una notacin que, si bien usaremos en el contexto de las transformaciones lineales,
tiene validez para cualquier funcin f : A B , donde A y B son respectivamente el dominio y codominio de la funcin.
Definicin 2.2
1 Dado un subconjunto del dominio M A, al conjunto de los transformados de los elementos de M por la
funcin f lo denominamos imagen de M por f . Con la notacin f (M ) resulta
B
f (M ) = f (m) : m M
U
2 Dado un subconjunto del codominio N B , al conjunto de los elementos del dominio que la funcin f trans-
-
forma en elementos de N lo denominamos preimagen de N por f . Con la notacin f 1 (N ) resulta
a
f 1 (N ) = x A : f (x) N
r
ie
Cuando el conjunto N tiene un solo elemento, o sea N = y , es usual suprimir las llaves:
en
f 1 (y) = x A : f (x) = y
g
In
e
d
d
a
lt
N La notacin f 1 (N ) suele inducir a la confusin con la funcin inversa. Por eso es imprescindible tener en cuenta
cu
que la preimagen de un conjunto queda bien definida para cualquier funcin f : A B , tenga o no inversa.
Por ejemplo, la funcin f : R R, f (x) = 1 no es biyectiva y por ende no tiene inversa. Sin embargo podemos
a
calcular las preimgenes de subconjuntos del codominio tales como f 1 (1) = R y f 1 ([1, 0]) = ;.
F
En las funciones de variable real f : R R es usual estudiar sus races o ceros , es decir los x R tales que f (x) = 0. De igual
manera definimos al ncleo de una transformacin lineal.
Definicin 2.3
Dada una transformacin lineal f : V W , se define su ncleo como el conjunto de vectores del dominio cuya imagen
es el vector nulo. Adoptando la notacin Nu f resulta
Nu f = v V : f (v) = 0W = f 1 (0W )
Otro concepto que incorporamos, al igual que en las funciones de R R, es el de conjunto imagen.
Transformaciones lineales 43
Definicin 2.4
Dada una transformacin lineal f : V W , se define su imagen como el conjunto de vectores del codominio que son
imagen por f de algn vector del dominio. Adoptando la notacin Im f resulta
Im f = f (v) : v V = f (V )
Ejemplo 2.4
A
buscaremos su ncleo e imagen. Para encontrar el ncleo, planteamos la definicin
B
Nu f = (x 1 , x 2 , x 3 ) R3 : f (x 1 , x 2 , x 3 ) = (0, 0, 0)
U
de donde llegamos a
-
(
x 1 2x 2 = 0
a
(x 1 2x 2 , 0, 2x 1 4x 2 ) = (0, 0, 0) x 1 = 2x 2
2x 1 4x 2 = 0
r
ie
Como no aparecen restricciones sobre x 3 , la forma genrica de un elemento del ncleo es
en
f (x 1 , x 2 , x 3 ) = x 1 (1, 0, 2) + x 2 (2, 0, 4)
a
F
y como x 1 y x 2 pueden asumir cualquier valor real, concluimos que la imagen est generada por todas las combina-
ciones lineales de los vectores (1, 0, 2) y (2, 0, 4):
B Im f = {(1, 0, 2)}
En el ejemplo anterior, los conjuntos ncleo e imagen resultaron ser subespacios del dominio y codominio respectivamente.
Veremos a continuacin que esto es el caso particular de una propiedad ms general.
44 Transformaciones lineales
Teorema 2.2
Demostracin:
En ambos casos, debemos probar que se verifican las condiciones de subespacio establecidas en el teorema 1.2.
Para demostrar 1 , sealemos en primer lugar que 0V S por ser subespacio, luego f (0V ) = 0W f (S).
Consideremos ahora dos vectores w 1 , w 2 f (S): esto significa que existen v 1 , v 2 V tales que f (v 1 ) = w 1 f (v 2 ) = w 2 . En-
tonces w 1 + w 2 = f (v 1 ) + f (v 2 ) = f (v 1 + v 2 ) y dado que v 1 + v 2 S, deducimos que w 1 + w 2 f (S).
A
Finalmente, consideremos w f (S) y K: debe existir v S tal que f (v) = w. Entonces w = f (v) = f (v) y dado que
B
v S, deducimos que w f (S).
U
La demostracin de la propiedad 2 es anloga y la dejamos como ejercicio.
-
a
r
Ejercicio.
ie
2.2 Demuestre que para cualquier transformacin lineal f : V W , el ncleo y la imagen son subespacios de V y de
en
W respectivamente.
g
In
Si revisamos las dimensiones del ncleo y la imagen en el ejemplo 2.4, notamos que dim Nu f + dim Im f = dim R3 .
Dada una transformacin lineal f : V W definida en un espacio V de dimensin finita, se cumple la relacin:
a
lt
dim(V ) = dim Nu f + dim Im f (2.1)
cu
a
F
Ejemplo 2.5
1 La demostracin es un poco trabajosa y hemos decidido omitirla. Sin embargo, puede ser un ejercicio muy instructivo leerla en algn texto de la
Nu f = {(0, 0, 0)}
En la seccin 1.5 del captulo 1 relacionamos cada matriz A Kmn y sus espacios fundamentales con el sistema de ecuacio-
nes que se le asocia. Ahora estamos en condiciones de interpretar un sistema de ecuaciones en trminos de transformaciones
lineales. Como ya anticipamos al comienzo de este captulo, el sistema de ecuaciones
A
Ax = b (2.2)
B
puede representarse por medio de la transformacin lineal
U
f : Kn Km , f (x) = Ax (2.3)
-
a
con lo cual el sistema (2.2) ser compatible si y slo si b Im f . r
ie
Nu f = x Kn : f (x) = 0 = x Kn : Ax = 0 = Nul A
g
In
Im f = f (x) : x Kn = Ax : x Kn = Col A
e
d
Con estas equivalencias, el teorema de la dimensin nos permite obtener nuevas conclusiones acerca de los sistemas lineales.
d
n = dim(Nul A) + dim(Col A)
cu
Teniendo en cuenta que dim(Col A) es el rango de la matriz y que n es la cantidad de incgnitas del sistema, queda demos-
a
Proposicin 2.2
N El rango de una matriz es la cantidad de columnas o filas linealmente independientes; como las operaciones
elementales entre filas no lo alteran, rango A es la cantidad de filas no nulas que quedan despus de escalonarla. A
su vez, dim(Nul A) es la cantidad de variables libres que tendr la solucin del sistema homogneo.
46 Transformaciones lineales
Ya mencionamos al comienzo de este captulo, ms precisamente en la proposicin 2.1, que las transformaciones lineales
preservan las combinaciones lineales. Teniendo esto en cuenta, se llega sin dificultad a la siguiente proposicin.
Proposicin 2.3
Sea f : V W una transformacin lineal. Entonces los transformados de una base del dominio generan la imagen. Es
decir, dada una base B = {v 1 , v 2 , ..., v n } de V :
Im f = gen f (v 1 ) , f (v 2 ) , ..., f (v n )
A
B
Demostracin:
U
En primer lugar, w Im f v V / f (v) = w. Ahora bien, cualquier v V es combinacin lineal de los elementos de la base
B , luego
-
a
w Im f 1 , 2 , ..., n K/ f (1 v 1 + 2 v 2 + ... + n v n ) = w
r
1 , 2 , ..., n K/1 f (v 1 ) + 2 f (v 2 ) + ... + n f (v n ) = w
ie
w gen f (v 1 ) , f (v 2 ) , ..., f (v n )
en
g
In
Ejemplo 2.6
e
d
" #!
22 3 x 11 x 12
f :R R ,f = (x 11 + x 12 + x 22 , x 22 , x 22 )
a
x 21 x 22
lt
cu
De acuerdo con la proposicin 2.3, alcanza con transformar una base de R22 para obtener un conjunto generador.
F
N En el caso de una transformacin lineal f : Kn Km definida mediante f (x) = Ax con A Kmn , los transforma-
dos de los vectores de la base cannica son precisamente las columnas de A, en concordancia con que Im f = Col A.
Consideremos ahora el siguiente problema: buscamos una transformacin lineal f : R2 R2 que transforme al cuadrado
rojo en el cuadrado azul, como se indica en la figura 2.1 .
A
B
U
-
a
r
ie
Para lograrlo, notemos lo siguiente: dado que f preserva las combinaciones lineales, alcanzar con describir cmo transfor-
g
x = x1 e 1 + x2 e 2
e
d
f (e 1 ) = e 1 f (e 2 ) = e 2
cu
f [(x 1 , x 2 )] = f (x 1 e 1 + x 2 e 2 )
F
= x 1 f (e 1 ) + x 2 f (e 2 )
= x1 e 1 x2 e 2
= (x 1 , x 2 )
Ejercicio.
2.3 Definir una transformacin lineal f : R2 R2 que transforme el cuadrado rojo de la figura 2.1 en:
Un paralelogramo de vrtices (0, 0), (1, 0), (2, 1), (1, 1).
En general, una transformacin lineal f : V W quedar bien determinada si conocemos cmo se transforma una base del
espacio V . Esa es la idea que queremos destacar en el siguiente teorema.
48 Transformaciones lineales
Sean V y W dos espacios vectoriales con B = {v 1 , v 2 , ..., v n } una base de V . Dados los vectores w 1 , w 2 , ..., w n de W (no
necesariamente distintos), entonces existe una nica transformacin lineal f : V W que verifica
f (v i ) = w i (i = 1, 2, ..., n)
La demostracin formal del teorema es bastante tcnica, pues implica probar que dicha transformacin existe, que es lineal
y que es nica. Se pueden consultar los detalles en la bibliografa.
Ejemplo 2.7
A
f [(1, 0)] = (0, 1, 0) f [(1, 1)] = (0, 1, 0)
B
U
De acuerdo con el teorema, existe y es nica la transformacin lineal que verifica lo pedido, porque B = {(1, 0), (1, 1)}
es una base de R2 . En este caso particular, las imgenes de los vectores de la base se repiten, por lo que podemos
-
anticipar que dim(Im f ) = 1. Para hallar la frmula de f [(x 1 , x 2 )], tendremos en cuenta que contamos con la infor-
a
macin de cmo se transforman los vectores (1, 0) y (1, 1). Luego, si logramos escribir al vector genrico (x 1 , x 2 ) como
r
combinacin lineal de ellos
ie
(x 1 , x 2 ) = (1, 0) + (1, 1)
en
= (0, 1, 0) + (0, 1, 0)
d
d
Vale decir que nos falta conocer y , las coordenadas de (x 1 , x 2 ) con respecto a la base B . Para ello planteamos
a
lt
(x 1 , x 2 ) = (1, 0) + (1, 1)
cu
+ = x1
= x2
Entonces = x 2 y = x 1 x 2 y llegamos a
Recordemos que para cualquier funcin f : A B , se dice que es inyectiva si verifica que
x 1 , x 2 A : f (x 1 ) = f (x 2 ) x 1 = x 2
vale decir que a elementos distintos del dominio corresponden imgenes distintas. Si adems dicha funcin es una transfor-
macin lineal, recibe un nombre especial.
Definicin 2.5
A
B
La propiedad siguiente caracteriza a los monomorfismos.
U
Teorema 2.5
-
La transformacin lineal f : V W es un monomorfismo si y slo si Nu f = {0V }.
a
r
ie
Demostracin:
en
En primer lugar, asumamos que f es un monomorfismo. Sabemos que f (0V ) = 0W por ser una transformacin lineal, lue-
g
go 0V Nu f . Como hemos supuesto que f es inyectiva, no puede haber otro vector que se transforme en cero. Por ende
In
Nu f = {0V }.
e
Recprocamente, supongamos que Nu f = {0V }. Necesitamos probar que f es inyectiva: de acuerdo con la definicin de
d
f (v 1 ) = f (v 2 ) f (v 1 ) f (v 2 ) = 0W
a
lt
f (v 1 v 2 ) = 0W
cu
v 1 v 2 Nu f
a
y como asumimos que el ncleo es trivial, se deduce que v 1 v 2 = 0V como queramos demostrar.
F
En general, cualquier funcin f : A B , se dice suryectiva o sobreyectiva si alcanza todos los elementos del codominio. Es
decir, si verifica que
f (A) = B
Si adems se trata de una transformacin lineal, adquiere un nombre especial.
Definicin 2.6
Definicin 2.7
Ejemplo 2.8
f : R2 R3 , f (x 1 , x 2 ) = (x 1 + x 2 , x 1 x 2 , 2x 1 )
(x 1 , x 2 ) Nu f f (x 1 , x 2 ) = (0, 0, 0)
A
(x 1 + x 2 , x 1 x 2 , 2x 1 ) = (0, 0, 0)
B
x1 = 0 x2 = 0
U
Entonces ya podemos afirmar que es un monomorfismo, puesto que Nu f = {(0, 0)}.
-
a
Por otra parte, planteando el teorema de la dimensin 2.3 tenemos para este caso
r
dim R2 = dim(Nu f ) + dim(Im f )
ie
| {z } | {z }
en
2 0
de donde deducimos que dim(Im f ) = 2 y por ende Im f 6= R3 , con lo cual f no es un epimorfismo (ni un isomorfismo).
g
In
e
d
Ejemplo 2.9
d
" #!
lt
22 2 x 11 x 12
g :R R ,g = (x 11 + x 12 , x 22 )
cu
x 21 x 22
a
" #!
x 11 x 12
g = x 11 (1, 0) + x 12 (1, 0) + x 22 (0, 1)
x 21 x 22
con lo cual
Im g = gen {(1, 0), (1, 0), (0, 1)}
Ejemplo 2.10
Tal vez sea conveniente aclarar esta definicin antes de seguir. Para ello, consideramos la imagen de (2, 3):
h (2, 3) = 2 2 (3)t = 4 + 3t
(a, b) Nu h h (a, b) = 0P 1
2a b t = 0P 1
a = 0b = 0
con lo cual Nu f = 0P 1 y se trata de un monomorfismo.
Por otra parte, al plantear el teorema de la dimensin 2.3 llegamos a
A
| {z } | {z }
2 0
B
de donde deducimos que dim(Im f ) = 2 y por ende Im f = P 1 . En este caso, h es un epimorfismo y un isomorfismo.
U
-
a
Ejercicio. r
2.4 Considere una transformacin lineal f : V W entre espacios de dimensin finita.
ie
en
La propiedad siguiente es una consecuencia directa del teorema de la dimensin 2.3 y dejamos su demostracin como ejer-
e
d
cicio.
d
Proposicin 2.4
a
Sea f : V W una transformacin lineal entre espacios de igual dimensin n. Entonces f es monomorfismo si y slo
lt
Para terminar esta seccin, profundizaremos en la relacin que existe entre los vectores de un espacio y sus coordenadas con
respecto a una base.
Sea entonces B = {v 1 ; v 2 ; ...v n } una base ordenada de un espacio vectorial V con escalares K. Consideremos la aplicacin que
a cada vector del espacio le asigna sus coordenadas con respecto a la base B :
c B : V Kn , c B (v) = [v]B
Ya hemos demostrado en el teorema 1.11 que las coordenadas son lineales con respecto a la suma de vectores y la multipli-
cacin por escalares. Por lo tanto c B es una transformacin lineal.
Estamos en condiciones de demostrar que adems se trata de un isomorfismo. Veamos en primer lugar cul es su ncleo:
Luego el ncleo de c B es trivial y se trata de un monomorfismo. Al aplicar el teorema de la dimensin 2.3 obtenemos
n = dim(V ) = dim(Im c B ), con lo cual Im c B = Kn y se trata de un epimorfismo. Agrupamos estas observaciones en un teore-
ma.
Teorema 2.6
Dada una base ordenada B = {v 1 ; v 2 ; ...; v n } de un espacio vectorial V con escalares K, la aplicacin que a cada vector
del espacio le asigna sus coordenadas con respecto a la base B
c B : V Kn , c B (v) = [v]B
A
Queda establecida entonces una correspondencia lineal y biyectiva entre los vectores de un espacio y sus coordenadas con
B
respecto a cierta base. La profunda identidad estructural que hay entre el espacio original y el espacio de coordenadas se
U
hace evidente en resultados como el teorema 1.12, segn el cual un conjunto de vectores es linealmente independiente si y
-
slo si sus coordenadas lo son.
a
r
2.5
ie
Transformacin Inversa
en
g
Al final de la seccin anterior dejamos establecida una correspondencia uno a uno entre los vectores de un espacio vectorial y
In
sus coordenadas con respecto a cierta base ordenada. Por tratarse de una biyeccin debe ser posible hacer el camino inverso,
es decir: dadas las coordenadas del vector, recuperar el vector original. Manteniendo la notacin establecida en el teorema
e
(c B )1 : Kn V, (c B )1 (1 , 2 , ..., n ) = 1 v 1 + 2 v 2 + ... + n v n
d
a
En la figura 2.2 se aprecia la relacin uno a uno entre los vectores y sus coordenadas.
lt
cu
a
F
Sealamos en primer lugar que la composicin 2 de c B y (c B )1 resulta la transformacin identidad en el espacio adecuado:
(c B )1 c B = I V c B (c B )1 = I K n
2 Recordemos que la composicin g f de dos funciones f : A B y g : C D es posible siempre que B C y se define como (g f )(x) = g f (x) .
Transformaciones lineales 53
Por lo tanto (c B )1 es la funcin inversa 3 del isomorfismo de coordenadas c B . Otra observacin importante, cuya demostra-
cin dejamos como ejercicio, es que la inversa (c B )1 es una transformacin lineal.
Teorema 2.7
Demostracin:
Por ser f una funcin biyectiva, sabemos que existe la funcin inversa f 1 : W V y es biyectiva. Falta probar su linealidad.
A
Sean entonces w 1 , w 2 W : por ser f biyectiva existen y son nicos los v 1 , v 2 V tales que f (v 1 ) = w 1 y f (v 2 ) = w 2 . Luego,
B
usando la linealidad de f :
U
f 1 (w 1 + w 2 ) = f 1 f (v 1 ) + f (v 2 ) = f 1 f (v 1 + v 2 ) = f 1 f (v 1 + v 2 )
-
a
y como la composicin f 1 f es la identidad en V resulta r
f 1 (w 1 + w 2 ) = I V (v 1 + v 2 ) = v 1 + v 2 = f 1 (w 1 ) + f 1 (w 2 )
ie
en
Esto prueba la linealidad de f 1 con respecto a la suma. La linealidad con respecto al producto por escalares es similar y se
g
Ejemplo 2.11
d
f : R2 P 1 , f (a, b) = (a b) + 2a t (2.5)
a
lt
Dejamos como ejercicio comprobar que se trata de un isomorfismo y que por ende existe la inversa.
cu
Una forma de buscar la transformacin inversa es estudiando cmo se transforma una base de R2 :
a
F
f (e 1 ) = 1 + 2t f (e 2 ) = 1
f 1 (1 + 2t ) = e 1 f 1 (1) = e 2
Dado que {1 + 2t , 1} es una base de P 1 y ya sabemos cmo se transforma, el teorema fundamental de las transfor-
maciones lineales 2.4 garantiza que f 1 ya qued bien definida.
Para hallar una expresin explcita de f 1 escribimos un polinomio genrico a + bt P 1 como combinacin lineal de
los elementos de la base:
b b
a + bt = (1 + 2t ) + a (1)
2 2
3 Recordemos que la funcin f : A B admite inversa si y slo si existe cierta funcin f 1 : B A tal que f 1 f = I y f f 1 = I . La funcin inversa
A B
existe si y slo si la funcin es biyectiva.
54 Transformaciones lineales
b 1 b
1
f (a + bt ) = f (1 + 2t ) + a f 1 (1)
2 2
b b
= e1 + a e2
2 2
b b
= , a
2 2
f 1 f (a, b) = f 1 f (a, b)
= f 1 [(a b) + 2a t ]
2a 2a
A
= , (a b)
2 2
B
= (a, b)
U
por lo que resulta efectivamente f 1 f = I R2
-
a
r
ie
2.6
en
Al comienzo de este captulo sealamos que cualquier funcin f (x) = Ax con A Kmn define una transformacin lineal de
Kn Km . Ms an, vimos en el ejemplo 2.1 cmo una transformacin lineal de Kn Km se poda representar en la forma
e
En esta seccin veremos cmo cualquier transformacin lineal entre espacios de dimensin finita se puede representar me-
a
diante la multiplicacin por una matriz. Evidentemente, si tenemos una transformacin lineal de V W con V y W espacios
lt
arbitrarios, es posible que la multiplicacin por matrices no est definida. Por eso consideraremos los espacios de coorde-
cu
nadas asociados a V y W .
a
F
Ejemplo 2.12
Consideremos entonces la transformacin lineal definida en (2.5). Una vez ms, la clave est en saber cmo se trans-
forma una base. Por eso hacemos el siguiente manejo
f (x 1 , x 2 ) = f (x 1 e 1 + x 2 e 2 ) = x 1 f (e 1 ) + x 2 f (e 2 )
La expresin anterior es una combinacin lineal de f (e 1 ) y f (e 2 ), sus coeficientes son x 1 y x 2 . Ahora bien, f (e 1 ) y
f (e 2 ) son polinomios. Para transformar esta expresin en una combinacin lineal de las columnas de una matriz,
tomamos coordenadas con respecto a la base cannica de polinomios E = {1; t }:
f (x 1 , x 2 ) E = f (x 1 e 1 + x 2 e 2 ) E = x 1 f (e 1 ) E + x 2 f (e 2 ) E (2.6)
Y ahora s estamos en condiciones de expresar esto como combinacin lineal de las columnas de una matriz, puesto
Transformaciones lineales 55
Para conocer el transformado del vector (2, 3), sencillamente hacemos la cuenta indicada:
" #" # " #
1 1 2 5
f (2, 3) E = =
2 0 3 4
A
Donde el resultado se obtiene en coordenadas con respecto a la base E . El polinomio se recupera haciendo la combi-
B
nacin lineal que indican las coordenadas:
U
f (2, 3) = (5) 1 + (4) (t ) = 5 4t
-
a
r
ie
Destacamos del ejemplo anterior que una transformacin lineal se puede representar con una matriz cuyas columnas son
en
los transformados de los vectores de la base del dominio, en coordenadas con respecto a la base del codominio. La siguiente
proposicin generaliza lo que hemos sealado en el ejemplo. 4
g
In
B = {v 1 ; v 2 ; ...; v n } B 0 = {w 1 ; w 2 ; ...; w m }
d
a
bases ordenadas de V y W respectivamente. La matriz asociada a f con respecto a las bases B y B 0 se denota f B B 0 y
lt
tiene por columnas las coordenadas con respecto a la base B 0 de los transformados de los vectores de la base B :
cu
h i
a
f BB0 = f (v 1 ) B 0 f (v 2 ) B 0 f (v n ) B 0
F
Convencin
En el caso de que sea f : V V y se considere una sola base B , adoptaremos la notacin f B para la matriz asociada.
4 La demostracin formal no es difcil, aunque tiene una notacin un poco exigente. Los lectores podrn buscarla en la bibliografa para repasar estos
conceptos.
56 Transformaciones lineales
Ejemplo 2.13
f : R2 R3 , f (x 1 , x 2 ) = (x 1 + 2x 2 , x 1 x 2 , x 2 ) (2.7)
Para construir la matriz asociada a f con respecto a estas bases, transformamos los vectores de la base B y los expre-
samos en coordenadas con respecto a la base B 0 :
4
f (0, 1) = (2, 1, 1) = 4(1, 0, 0) + (2)(1, 1, 0) + 1(0, 1, 1) f (0, 1) B 0 = 2
A
1
B
4
U
f (1, 1) = (3, 0, 1) = 4(1, 0, 0) + (1)(1, 1, 0) + 1(0, 1, 1) f (0, 1) B 0 = 1
-
con lo cual
a
4 4
r
f B B 0 = 2 1
ie
1 1
en
Para calcular f [(3, 5)], necesitamos expresar al vector en coordenadas con respecto a la base B :
g
In
luego
d
" #
2
[(3, 5)]B =
d
3
a
y por lo tanto
lt
4 4 " # 20
cu
2
f (3, 5) B 0 = 2 1 = 7
3
1 1 5
a
F
Para recuperar f (3, 5), debemos tener en cuenta que obtuvimos coordenadas con respecto a la base B 0 , luego
Dejamos como ejercicio comprobar que si se eligen las base cannicas E 2 y E 3 la matriz asociada es
1 2
f E2 E3 = 1 1
0 1
A continuacin daremos una interpretacin del rango de la matriz asociada a una transformacin lineal. El rango de una
matriz es el nmero de columnas linealmente independientes que tiene: en nuestro caso dichas columnas representan (en
coordenadas) a los transformados de los vectores de la base, que son generadores de la imagen. Resumimos este argumento
Transformaciones lineales 57
en la propiedad siguiente.
Proposicin 2.6
Sea f : V W una transformacin lineal entre espacios de dimensin finita. Sea f B B 0 la matriz asociada con res-
pecto a ciertas bases. Entonces
rango f B B 0 = dim Im f
Sealemos que en el ejemplo 2.13, las dos matrices asociadas son de rango 2, por lo que la dimensin de la imagen es 2 y el
teorema de la dimensin nos permite afirmar que el ncleo es trivial.
A
B
U
2.7 Composicin de transformaciones lineales
-
a
r
Para presentar las ideas de esta seccin retomamos (una vez ms!) el ejemplo presentado en 2.11 y continuado en 2.12.
ie
en
Ejemplo 2.14
g
Para ello deducimos, del trabajo hecho en ejemplo 2.11, que los transformados de los vectores de la base cannica de
polinomios son (verifquelo)
e
1
d
f 1 (1) = e 2 f 1 (t ) = (e 1 + e 2 )
2
d
con lo cual
a
" # " #
1 0 1 1/2
lt
f (1) E2 = f (t ) E2 =
1 1/2
cu
" #
0 1/2
F
1
f E E2 =
1 1/2
Dado que las coordenadas de un polinomio a + bt con respecto a la base cannica son [a b]t , la matriz nos permite
obtener fcilmente la expresin de f 1 :
f 1 (a + bt ) = f 1 E E 2 [a + bt ]E
E
" #" #
0 1/2 a
=
1 1/2 b
" #
b/2
=
a + b/2
Ahora que ya conocemos las matrices f 1 E E 2 y f E 2 E , estamos en condiciones de dar una interpretacin de su
58 Transformaciones lineales
producto:
" # " # " #
1
0 1/2 1 1 1 0
f E E2 f E2 E = = =I
1 1/2 2 0 0 1
" # " # " #
1 1 0 1/2 1 0
f E 2 E f 1 E E 2 =
= =I
2 0 1 1/2 0 1
Por qu las matrices asociadas son inversas? Pensemos qu sucede al multiplicar un vector x R2 por f E 2 E y luego
1 1
por f E E 2 : el producto de las matrices f E E 2 y f E 2 E da la matriz identidad porque esa es la matriz asociada a
la composicin f 1 f = I R2 .
A
Las observaciones hechas en este ejemplo pueden extenderse al caso general sin mayores cambios. Queda como ejercicio
B
demostrar las proposiciones que siguen.
U
Proposicin 2.7
-
Sean
a
f :U V
r
g :V W
ie
(g f ) : U W, (g f )(u) = g f (u)
e
producto de matrices
d
g f B1 B3 = g B2 B3 f B1 B2
a
lt
cu
La figura 2.3 ilustra la composicin de las transformaciones lineales y las respectivas transformaciones de coordenadas.
a
F
Proposicin 2.8
Sea f : V W un isomorfismo entre espacios de dimensin finita. Sean B, B 0 bases de V y W respectivamente y sea
f 1 : W V la transformacin inversa. Entonces las matrices asociadas f B B 0 y f 1 B 0 B son inversas. Es decir
1
f 1
B 0B = f BB0
La figura 2.4 ilustra la composicin de las transformaciones inversas y las respectivas transformaciones de coordenadas.
A
B
U
-
a
r
ie
Ejemplo 2.15
In
f : R3 R3 , f (x 1 , x 2 , x 3 ) = (x 1 + x 2 , x 1 x 3 , x 3 )
d
1 1 0
F
A= f E = 1 0 1
0 0 1
Como esta matriz es inversible, podemos asegurar que f es un isomorfismo (por qu?). De acuerdo con la proposi-
cin 2.8, la inversa de la matriz A ser la matriz asociada a f 1 con respecto a la base cannica:
0 1 1
1 1
A 1 = f E = f = 1 1 1
E
0 0 1
Luego la frmula para f 1 se obtiene multiplicando un vector genrico (en coordenadas) por f 1 E :
0 1 1 x1 x2 + x3
f 1 : R3 R3 , f 1 [x 1 x 2 x 3 ]t = 1
1 1 x 2 = x 1 x 2 x 3
0 0 1 x3 x3
60 Transformaciones lineales
N A la luz de lo expuesto en la proposicin 2.7, podemos ampliar lo estudiado en el teorema 1.13 acerca de la ma-
triz de cambio de una base B a otra C . Ahora podemos interpretar que es la matriz asociada a la transformacin
identidad, aunque con respecto a las bases B y C . Es decir
C BC = [I ]BC
Terminamos esta seccin con un ejemplo en que se estudia cul es la relacin entre dos matrices asociadas a una misma
transformacin lineal, pero con respecto a bases diferentes. Este ejemplo es importante, porque nos acerca al problema de
cul es la representacin matricial ms adecuada: es decir, cules bases son ms convenientes.
A
B
U
-
a
r
ie
en
g
Ejemplo 2.16
d
Sea f : R2 R2 una transformacin lineal cuya matriz asociada con respecto a la base cannica es
d
a
" #
1 3
lt
f E=
2 2
cu
y buscamos f B , siendo
a
F
Para ello, consideramos el esquema de la figura 2.5 donde se sugiere que realizar la transformacin en coordenadas
con respecto a la base B es equivalente a cambiar a coordenadas cannicas, transformar y volver a cambiar a coor-
denadas en base B . Teniendo en cuenta el orden en que la multiplicacin de matrices representa la composicin,
es
f B = CE B f E CB E (2.8)
De las dos matrices de cambio, la ms fcil de construir es la que cambia de base B a cannica:
" #
1 3
CB E =
1 2
Notablemente, la matriz asociada a f con respecto a la base B es diagonal y puede simplificar muchos clculos elegir
esta base en lugar de la cannica.
A
B
U
-
a
r
ie
en
g
In
e
d
d
a
lt
cu
a
F
A
B
U
-
a
r
ie
en
g
In
A
B
U
3.1 Introduccin
-
a
r
Al comienzo de estas notas se defini el concepto de espacio vectorial basndose en algunas propiedades fundamentales que
verifican los vectores ya conocidos de R2 y R3 . Siguiendo en esta lnea de argumentacin, sealaremos algunas propiedades
ie
que tiene el producto escalar para los vectores del plano. Esto nos permitir introducir una nocin de producto interno en
en
espacios vectoriales generales, a partir de la cual surgirn los conceptos geomtricos de longitud, distancia, ngulo...
g
In
En el espacio vectorial R2 el producto interno (o escalar) se define para dos vectores cualesquiera mediante la frmula
e
(x 1 , x 2 ) y 1 , y 2 = x 1 y 1 + x 2 y 2 (3.1)
d
d
a
lt
cu
a
F
En la interpretacin geomtrica usual de los vectores de R2 como segmentos orientados (flechas), el teorema de Pitgoras
adquiere una expresin sencilla en trminos de las componentes de cada vector u = (x 1 , x 2 ) y su norma (o longitud) kuk:
q
kuk = x 12 + x 22
Es conocido en la geometra plana el teorema del coseno 1 , que cuando se aplica a dos vectores y al tringulo que determinan
A
adquiere la expresin
B
U
ku vk2 = kuk2 + kvk2 2 kuk kvk cos (3.3)
-
a
r
Podemos despejar una frmula que permite calcular el coseno del ngulo que forman dos vectores (no nulos) y a partir
ie
de esto obtener el ngulo. Para ello, destacamos tres propiedades que tiene el producto escalar de R2 , cuya comprobacin
dejamos como ejercicio. Dados los vectores u, v, w R2 y dado k R, se cumple que
en
g
u (v + w) = u v + u w
In
u v = v u
e
(ku) v = k (u v)
d
d
Considerando la relacin (3.2), desarrollamos la expresin de la norma y aplicamos las propiedades precedentes:
a
lt
cu
ku vk2 = (u v) (u v)
= u u + u (v) + (v) u + (v) (v)
a
F
= kuk2 u v v u + v v
= kuk2 u v u v + kvk2
Al reemplazar en la frmula (3.3) y cancelar, se obtiene una expresin para el coseno del ngulo
uv
cos = (3.4)
kuk kvk
La definicin que sigue nos permitir extender las nociones de norma y ngulo a espacios mucho ms generales. Para ello,
consideraremos como producto interno a una operacin entre vectores que verifique propiedades como las ya sealadas en
el producto de R2 .
1 En todo tringulo el cuadrado de la longitud de un lado es igual a la suma de los cuadrados de las longitudes de los otros dos lados, menos el doble del
producto de dichas longitudes multiplicado por el coseno del ngulo que forman.
Producto Interno 65
Definicin 3.1
Un producto interno en un espacio vectorial real V es una funcin que a cada par de vectores u, v V le asigna un
nmero real (u, v), de modo tal que se verifican las siguientes condiciones para cualesquiera u, v, w V y k R:
2 (ku, v) = k (u, v)
3 (u, v) = (v, u)
4 (u, u) 0 (u, u) = 0 u = 0
A
Ejemplo 3.1 producto interno cannico de Rn
B
U
El producto escalar definido en R2 mediante (3.1) se extiende naturalmente al espacio Rn . El producto interno can-
nico en Rn de dos vectores arbitrarios u = (x 1 , ..., x n ) y v = y 1 , ..., y n es
-
a
n
X
(u, v) = x 1 y 1 + ... + x n y n = xi y i
r
i =1
ie
La comprobacin de las condiciones exigidas en la definicin 3.1 de producto interno es inmediata, y la dejamos
en
como ejercicio.
g
In
Teniendo en cuenta la identificacin que hacemos entre las n-uplas de Rn y los vectores columna de Rn1 , el producto
interno cannico puede escribirse como el producto entre una matriz fila y una matriz columna:
e
d
(u, v) = u t v (3.5)
d
(donde el resultado es una matriz de tamao 1 1 que identificamos con un escalar). Haremos amplio uso de esta
a
lt
La frmula (3.5) se ha definido para matrices columna y resume el procedimiento de multiplicar las componentes respectivas
F
Ejemplo 3.2
X
(A, B ) = a 11 b 11 + a 21 b 21 + a 12 b 12 + a 22 b 22 = ai j bi j
1i , j 2
La comprobacin de que esta frmula define un producto interno es inmediata y la dejamos como ejercicio.
Una forma de reescribir este producto consiste en inspeccionar el producto
" #" # " #
t a 11 a 21 b 11 b 12 a 11 b 11 + a 21 b 21 a 11 b 12 + a 21 b 22
A B= =
a 12 a 22 b 21 b 22 a 12 b 11 + a 22 b 21 a 12 b 12 + a 22 b 22
Notamos que en la diagonal se encuentran los productos entre los elementos respectivos de A y B . Entonces slo falta
66 Producto Interno
tr A t B = a 11 b 11 + a 21 b 21 + a 12 b 12 + a 22 b 22
a Recordemos que la traza de una matriz cuadrada se define como la suma de los elementos de su diagonal principal. La denotaremos tr.
Ejercicio.
A
Ejemplo 3.3
B
En el espacio C ([a, b]) de las funciones continuas en un intervalo, podemos proponer un producto interno obrando
U
por analoga con el producto cannico de Rn . Para dos funciones cualesquiera f , g C ([a, b]) definimos entonces:
-
Z b
a
f ,g = r f (t )g (t )d t (3.6)
a
ie
En primer lugar, sealamos que este producto est bien definido, en el sentido de que siempre puede puede calcularse
en
para dos elementos cualesquiera de C ([a, b]). En efecto, por ser un espacio de funciones continuas, el producto ser
una funcin continua y siempre puede calcularse su integral definida en un intervalo cerrado y acotado. Falta ver que
g
se cumplen las condiciones de la definicin 3.1. Las condiciones 1 , 2 y 3 son una consecuencia inmediata de las
In
propiedades de la integral y dejamos su comprobacin formal como ejercicio. La condicin 4 exige probar que para
cualquier funcin continua f
e
Z b Z b
d
2 2
f (t ) d t 0 f (t ) d t = 0 f = 0
a a
d
(donde f = 0 debe interpretarse como que f es la funcin nula). Sealemos en primer lugar que para cualquier fun-
a
2
lt
cin f es f (t ) 0 y entonces la primera desigualdad es inmediata. Por otra parte, si una funcin continua y no
negativa tiene su integral nula a lo largo de un intervalo [a, b], es un resultado conocido del anlisis que dicha funcin
cu
debe ser la funcin nula. El argumento para demostrar esto consiste en considerar una funcin g continua y no nega-
a
tiva en el intervalo: si fuera g (t ) > 0 para cierto t del intervalo, entonces habra un entorno de dicho punto en que la
F
La frmula (3.2) vincula, en R2 , a la norma de los vectores con el producto interno interno cannico. Usaremos esta relacin
para extender la nocin de norma.
Definicin 3.2
Dado un espacio vectorial V con producto interno, para cada vector u V definimos su norma como
p
kuk = (u, u) (3.7)
Como esta norma depende del producto interno que se haya definido, es usual nombrarla como norma inducida por
el producto interno.
Producto Interno 67
Ejercicio.
3.2
Considerando el espacio de funciones continuas C ([0, 1]) y el producto interno definido por la frmula (3.6),
calcule ( f , g ) y g siendo f (t ) = 1 y g (t ) = t .
Con la definicin de producto interno que hemos adoptado, es posible definir distintos productos internos en un mismo
espacio vectorial, que inducirn normas diferentes. Ilustramos esta afirmacin exhibiendo un producto interno en R2 que
no es el cannico.
Ejemplo 3.4
A
Para dos vectores cualesquiera de R2 , u = (x 1 , x 2 ) y v = (y 1 , y 2 ) definimos el producto interno mediante
B
(u, v) = 2x 1 y 1 + x 1 y 2 + x 2 y 1 + x 2 y 2 (3.8)
U
Para demostrar que esta frmula define un producto interno, ser de utilidad considerar a los vectores de R2 como
-
columnas y reescribir la definicin como un producto de matrices:
a
"
r
#" #
h i 2 1 y1
(u, v) = x 1 x 2
ie
1 1 y2
en
(comprobarlo!) Denominando a la matriz de 2 2 que aparece como A, la funcin definida puede expresarse como
g
(u, v) = u t Av
In
Con esta ltima expresin y usando propiedades del producto de matrices, las condiciones 1 , 2 y 3 se demuestran
e
d
t
(u, v) = u t Av = u t Av = v t A t u = v t Au = (v, u)
cu
En el ltimo rengln, se us que u t Av es un escalar y que por ende es igual a su transpuesto, junto con la propiedad
F
(u, u) = 2x 12 + 2x 1 x 2 + x 22
= x 12 + x 12 + 2x 1 x 2 + x 22
= x 12 + (x 1 + x 2 )2
La ltima expresin es una suma de cuadrados, de donde deducimos que para todo u es (u, u) 0 y
(u, u) = 0 x 1 = 0 x 1 + x 2 = 0 x 1 = x 2 = 0 u = 0
como queramos.
Evidentemente, al cambiar la definicin de producto interno en un espacio vectorial, cambiarn las nociones geom-
tricas definidas a partir del producto interno. Si consideramos por ejemplo al vector de la figura 3.1, la norma inducida
68 Producto Interno
p p
por el producto interno cannico es 32 + 22 = 13. En cambio para el producto definido por (3.8) la nueva norma
resulta, segn la definicin dada en (3.7),
p p
k(3, 2)k = 2 32 + 2 3 2 + 22 = 34
En lo que sigue introduciremos una definicin de producto interno para C espacios vectoriales. A primera vista, parece
que alcanzara con copiar la definicin dada en 3.1 para R espacios. Sin embargo, aceptar las condiciones de esa definicin
producira contradicciones al permitir escalares complejos. Consideremos por ejemplo un vector no nulo u V de un C
espacio. Entonces (u, u) > 0. Ahora bien, consideremos el producto (iu, iu), que debera ser positivo de acuerdo con 4 . Sin
embargo, al aplicar 2 y 3 resulta
A
B
Dejamos como ejercicio para el lector comprobar que la definicin siguiente evita el problema expuesto.
U
-
Definicin 3.3
a
Un producto interno en un espacio vectorial complejo V es una funcin que a cada par de vectores u, v V le asigna
r
un nmero complejo (u, v) de modo tal que se verifican las siguientes condiciones para cualesquiera u, v, w V y
ie
z C:
en
2 (zu, v) = z (u, v)
e
3 (u, v) = (v, u)
d
4 (u, u) 0 (u, u) = 0 u = 0
d
a
lt
cu
a
F
N Esta ltima definicin abarca a la anterior como un caso particular. Podra enunciarse para un K espacio vectorial
y sealar que en el caso de los R espacios la conjugacin no altera los escalares. Muchos de los enunciados que
siguen se enunciarn para un espacio vectorial con producto interno, dado que son vlidos tanto si se trata de
un R espacio como de un C espacio.
La frmula (3.7) con que se defini la norma inducida por el producto interno se aplica de idntica manera a los C espacios.
p
La condicin 4 garantiza que (u, u) es un nmero real no negativo, para el que est bien definida (u, u).
N Existen muchos autores que definen la condicin 2 de una forma alternativa. El lector que los consulte deber
hacer las adaptaciones del caso.
Producto Interno 69
La definicin del producto interno cannico en Cn de dos vectores arbitrarios u = (z 1 , ..., z n ) y v = (w 1 , ..., w n ) es
n
X
(u, v) = z 1 w 1 + ... + z n w n = zi w i (3.9)
i =1
Considerando matrices columna de Cn1 , el producto interno cannico puede escribirse como
(u, v) = u H v (3.10)
donde H indica la transposicin del vector columna y la conjugacin de cada elemento, es decir u H = u t . Esta ltima
expresin permite demostrar con sencillez las condiciones del producto interno:
A
(u, v + w) = u t (v + w) = u t v + u t w = (u, v) + (u, w)
B
(zu, v) = (zu)t v = zu t v = z(u, v)
U
t
(u, v) = u t v = u t v = v t u = v t u = (v, u)
-
(u, u) = u t u
a
r
z1
..
h i
ie
= z1 zn .
en
zn
n n
g
|z i |2 0
X X
= zi zi =
In
i =1 i =1
y por tratarse de una suma de cuadrados de mdulos, ser nula si y slo si todas las z i lo son.
e
d
De la ltima expresin se deduce que la norma, definida por la frmula (3.7), se calcula mediante
d
a
s
n
lt
|z i |2
X
kuk =
i =1
cu
a
F
Ejercicio.
3.3 En el espacio vectorial C2 con el producto interno cannico definido en (3.9) y (3.10) considere los vectores
" # " #
1+i 2i
u= v=
2 1 3i
La notacin H para referirse al transpuesto y conjugado de un vector columna puede extenderse a matrices de tamao arbi-
trario.
70 Producto Interno
Definicin 3.4
Dada una matriz A Cmn , denotamos como A H a la matriz transpuesta y conjugada A t . Es decir, si A = a i j Cmn
entonces A H = a j i Cnm .
A continuacin, presentamos algunas propiedades que se desprenden de la definicin de producto interno. Las enunciamos
y demostramos para un K espacio vectorial con producto interno. (En el caso de que sea K = R, la conjugacin no altera los
escalares).
Teorema 3.1
Sea V un espacio vectorial con producto interno. Entonces para cualesquiera u, v, w V y K se verifican
A
1 (u + v, w) = (u, w) + (v, w)
B
2 (u, v) = (u, v)
U
3 (u, 0) = (0, u) = 0
-
a
r
Demostracin:
ie
Probamos 1 :
en
2
In
Dejamos como ejercicio la demostracin de 3 . (Sugerencia: escribir al vector nulo como 0v v v).
d
d
Ejercicio.
a
lt
3.4 Demuestre que en un espacio vectorial V con producto interno la norma inducida verifica la llamada identidad
cu
del paralelogramo:
ku + vk2 + ku vk2 = 2 kuk2 + 2 kvk2
a
F
La norma inducida por el producto interno verifica las propiedades que mencionamos en el siguiente teorema. Su demos-
tracin es inmediata a partir de la definicin de norma y dejamos los detalles como ejercicio. La segunda propiedad se
corresponde, en R2 , con la interpretacin usual del producto de un escalar por un vector flecha.
Teorema 3.2
Sea V un espacio vectorial con producto interno y norma inducida kk. Entonces para cualesquiera u V y K se
verifican
1 kuk 0 kuk = 0 u = 0
2 kuk = || kuk
Producto Interno 71
El teorema siguiente establece una importante desigualdad que nos permitir desarrollar el concepto de ngulo entre vecto-
res. Remitimos a los lectores interesados en la demostracin a la bibliografa.
Sea V un espacio vectorial con producto interno y norma inducida kk. Entonces para cualesquiera u, v V se cumple
que
|(u, v)| kuk kvk
La frmula (3.4) tiene validez para vectores en el plano. Ahora la usaremos para extender el concepto de ngulo entre vectores
en R espacios arbitrarios. Para ello, notemos que la desigualdad de Cauchy-Schwarz 3.3 garantiza, para dos vectores no nulos
de un R espacio vectorial, que
A
(u, v)
1 1
B
kuk kvk
U
(u,v)
Vale decir que el cociente kuk kvk tiene el mismo rango de valores que la funcin coseno, lo cual permite la siguiente defini-
cin.
-
a
Definicin 3.5 r
Sea V un R espacio vectorial con producto interno y norma inducida kk. Entonces para cualesquiera u, v V no
ie
nulos el ngulo que forman se define como el nico [0, ] que verifica
en
(u, v)
cos =
g
kuk kvk
In
e
d
Ejemplo 3.6
d
1
cos = p =
a
2 4
F
Si en cambio consideramos el producto interno del ejemplo 3.1, definido por la frmula (3.8), obtenemos (compro-
barlo)
3 3
cos = p p = arc cos p
2 5 10
Convencin
De aqu en ms, siempre que se mencionen Rn y Cn como espacios con producto interno, se entender que es el
producto interno cannico como se lo defini en 3.1 y 3.5 respectivamente, a menos que se indique explcitamente
otra cosa.
A continuacin presentamos una desigualdad con una interpretacin geomtrica inmediata para el caso de vectores de R2 .
72 Producto Interno
Sea V un espacio vectorial con producto interno y norma inducida kk. Entonces para cualesquiera u, v V se verifi-
can
ku + vk kuk + kvk
Demostracin:
Desarrollamos la definicin de norma:
Teniendo en cuenta que (v, u) = (u, v) y que para cualquier nmero complejo z es z + z = 2 Re z, la expresin anterior queda:
A
ku + vk2 = kuk2 + kvk2 + 2 Re (u, v)
B
Por otra parte, para cualquier nmero complejo z es (Re z)2 (Re z)2 + (Im z)2 = |z|2 . Por lo tanto Re z |Re z| |z|. Con esto
U
podemos escribir
-
ku + vk2 kuk2 + kvk2 + 2 |(u, v)|
a
Aplicando ahora la desigualdad de Cauchy Schwarz 3.3 obtenemos
r
ie
En la geometra del plano R2 , para calcular la distancia entre dos puntos medimos el vector que ellos determinan. En la figura
e
Definicin 3.6
a
lt
Sea V un espacio vectorial con norma kk. Entonces para cualesquiera u, v V definimos la distancia entre ellos como
cu
d(u, v) = ku vk
a
F
Ejercicio.
3.5 Demuestre que la distancia verifica las siguientes propiedades para cualesquiera u, v, w V . Interprete geomtri-
camente en R2 .
d(u, v) 0 d(u, v) = 0 u = v
d(u, v) = d(v, u)
De la definicin de ngulo dada en 3.5 se desprende que si el ngulo que forman dos vectores es de 2, necesariamente su
producto interno ser nulo, por eso la definicin que sigue.
Producto Interno 73
Definicin 3.7
Dado un conjunto S V , la notacin u S indica que u es ortogonal a cada elemento de S. Vale decir
u S s S : (u, s) = 0
Ejercicio.
D un ejemplo de vectores de R2 que sean ortogonales para el producto interno cannico pero no para el producto
interno definido en (3.8).
A
D un ejemplo de vectores de R2 que sean ortogonales para el producto interno definido en (3.8) pero no para el
B
producto interno cannico.
U
Existe un par de vectores de R2 no nulos que sean ortogonales para ambos productos internos?
-
a
El concepto de ortogonalidad nos permite extender el teorema de Pitgoras de la geometra plana a los espacios con producto
r
interno.
ie
en
g
In
e
d
d
a
Sea V un espacio vectorial con producto interno y norma inducida kk. Entonces para cualesquiera u, v V tales que
u v resulta
ku + vk2 = kuk2 + kvk2
La demostracin consiste en desarrollar la definicin de norma y aplicar el hecho de que (u, v) = 0. Dejamos los detalles
como ejercicio.
Es vlida la implicacin recproca del teorema? En el caso de la geometra plana el enunciado recproco es: si en un tringulo
el cuadrado del lado mayor es igual a la suma de los cuadrados de los otros dos lados, entonces el tringulo es rectngulo.
Ejercicio.
3.6 Demuestre que en un R espacio con producto interno, si dos vectores u, v V verifican la relacin ku + vk2 =
kuk2 + kvk2 , entonces u v.
74 Producto Interno
Entre las propiedades que tienen las bases cannicas, tanto de Rn como de Cn , destacamos que sus vectores son ortogonales
y de norma uno. En lo que sigue extenderemos estas nociones a conjuntos ms generales de vectores.
Definicin 3.8
Sea V un espacio vectorial con producto interno. El conjunto de vectores {v 1 , v 2 , ..., v r } V se dice un conjunto orto-
gonal si sus elementos son ortogonales de a pares. Esto es, si para todo i 6= j
vi , v j = 0
Ejemplo 3.7
En R3 , el conjunto
A
{(1, 1, 1) , (1, 1, 0) , (1, 1, 2) , (0, 0, 0)}
B
es ortogonal, como se puede comprobar por un clculo directo.
U
-
a
Ejercicio. En C ([1, 1]), con el producto definido por la frmula (3.6) r
Z 1
ie
(f ,g) = f (t )g (t )d t
en
Teorema 3.6
e
d
Sea V un espacio vectorial con producto interno. Si el conjunto de vectores {v 1 , v 2 , ..., v r } V es ortogonal y ninguno
d
Demostracin:
Buscamos una combinacin lineal de los vectores que d el cero:
a
F
1 v 1 + 2 v 2 + ... + r v r = 0
A continuacin, hacemos el producto con un vector genrico v i donde i puede ser cualquier valor entre 1 y r . Usando las
propiedades del producto interno y teniendo en cuenta que v i es ortogonal al resto de los vectores del conjunto:
(v i , 1 v 1 + ... + i v i + ... + r v r ) = (v i , 0)
1 (v i , v 1 ) +... + i (v i , v i ) + ... + r (v i , v r ) = 0
| {z } | {z }
0 0
Queda entonces
i (v i , v i ) = 0
y teniendo en cuenta que (v i , v i ) > 0 por ser v i no nulo, deducimos que i = 0 para todo i = 1, ..., r .
Producto Interno 75
Ejemplo 3.8
Destacamos que el teorema anterior es vlido para cualquier producto interno definido en el espacio vectorial. Si
consideramos en R2 el producto interno definido en el ejemplo 3.4, el conjunto {(2, 1), (1, 3)} es ortogonal (com-
probarlo!), y por el teorema anterior, resulta linealmente independiente.
Definicin 3.9
Sea V un espacio vectorial con producto interno. El conjunto de vectores {v 1 , v 2 , ..., v r } V se dice un conjunto orto-
normal si es un conjunto ortogonal y todos sus elementos tienen norma uno.
A
B
U
Ejercicio. Demuestre que todo conjunto ortonormal es linealmente independiente.
-
a
r
ie
Definicin 3.10
en
El conjunto de vectores B = {v 1 , v 2 , ..., v n } se dice una base ortogonal si es un conjunto ortogonal y base del
espacio.
e
d
El conjunto de vectores B = {v 1 , v 2 , ..., v n } se dice una base ortonormal si es un conjunto ortonormal y base del
espacio.
d
a
lt
cu
Ejercicio.
a
F
3.7 Demuestre que el conjunto 1, t , t 2 13 es una base ortogonal del espacio P 2 considerando el producto interno
definido mediante Z 1
(p, q) = p(t )q(t )d t
1
Es una base ortonormal?
Para los casos ms conocidos de vectores en un plano o un espacio tridimensional, la proyeccin de un vector v sobre un
subespacio S tiene una interpretacin geomtrica clara.
76 Producto Interno
A
Figura 3.4: Proyecciones ortogonales
B
U
Consiste en construir una recta perpendicular al subespacio S, que pase por el extremo del vector v. La interseccin de la
perpendicular con el subespacio S es el extremo del vector proyeccin v = P S (v). La proyeccin as obtenida es el vector del
-
subespacio S ms prximo al vector v. En este captulo presentaremos diversas situaciones en que se busca aproximar un
a
vector con elementos de cierto subespacio. Para resolverlas, necesitaremos generalizar el concepto de proyeccin.
r
ie
Notemos que en ambos esquemas de la figura 3.4 el vector v v es ortogonal al subespacio sobre el que se proyecta. Esta
en
Definicin 3.11
In
Sea V un espacio vectorial con producto interno. Dados un subespacio S y un vector v V , decimos que v es la
e
v S v v S
d
a
lt
Notacin: v = P S (v).
cu
a
Es importante sealar que, en principio, nada garantiza que para cada vector de cierto espacio exista su proyeccin orto-
F
gonal sobre cualquier subespacio. Veremos en primer lugar que si la proyeccin existe, entonces es nica. Ms adelante
probaremos que en los espacios de dimensin finita siempre es posible encontrar la proyeccin e indicaremos un mtodo
para hacerlo.
Teorema 3.7
Sea V un espacio vectorial con producto interno. Sean v V y S un subespacio de V . Entonces si existe P S (v) es nica.
Demostracin:
Suponemos que existen dos vectores v1 y v2 proyeccin. Demostraremos que v1 v2 = 0 probando que su norma vale cero:
kv1 v2 k2 = (v1 v2 , v1 v2 )
= (v1 v2 , v1 v + v v2 )
= (v1 v2 , v1 v) + (v1 v2 , v v2 )
Producto Interno 77
Ahora bien, v1 v2 es un elemento de S por serlo v1 y v2 . A su vez v1 y v2 son proyecciones de v, de modo que v1 v y v v2
son ortogonales a cualquier elemento de S, en particular a v1 v2 . Esto prueba que kv1 v2 k2 = 0 como queramos.
Ejemplo 3.9
Consideremos en R3 el subespacio S = gen {(1, 1, 2) , (1, 1, 0)}. Buscaremos la proyeccin v del vector v = (1, 0, 0)
sobre S. Adoptando la notacin
v 1 = (1, 1, 2) v 2 = (1, 1, 0)
y teniendo en cuenta cmo se defini la proyeccin en 3.11, debemos hallar un vector en S, es decir de la forma
v = v 1 + v 2 , para el cual se cumpla que v v S. Esta ltima exigencia equivale a que v v sea ortogonal a los dos
generadores de S (por qu?). Comenzamos planteando la ortogonalidad con v 1 :
A
B
= v 1 , v v 1 v 2 = (v 1 , v) (v 1 , v 1 ) (v 1 , v 2 )
0 = (v 1 , v v)
U
Teniendo en cuenta que v 1 y v 2 son ortogonales y no nulos, resulta
-
(v 1 , v) 1
0 = (v 1 , v) (v 1 , v 1 ) =
a
=
(v 1 , v 1 ) 6
r
ie
= =
(v 2 , v 2 ) 2
g
1 1 2 1 1
P S (v) = v = (1, 1, 2) + (1, 1, 0) = , ,
6 2 3 3 3
e
Como los coeficientes resultaron nicos, podemos afirmar que en este caso la proyeccin existe y es nica.
d
d
a
lt
cu
El ejemplo precedente seala el camino para calcular la proyeccin ortogonal sobre un subespacio siempre que se conozca
una base ortogonal del mismo.
a
F
Teorema 3.8
Sea V un espacio vectorial con producto interno. Sea S un subespacio de V con una base ortogonal B = {v 1 ; v 2 ; ...; v r }.
Entonces para cualquier v V existe P S (v) y es
(v 1 , v) (v 2 , v) (v r , v) r (v , v)
X i
P S (v) = v1 + v 2 + ... + vr = vi (3.11)
(v 1 , v 1 ) (v 2 , v 2 ) (v r , v r ) i =1 (v i , v i )
Demostracin:
Buscamos un vector del subespacio S, es decir un vector de la forma v = 1 v 1 + 2 v 2 + ... + r v r , para el cual se verifique la
relacin v v S. Esto ltimo equivale a que v v v i con i = 1, ..., r . Teniendo en cuenta que se trata de una base ortogonal
78 Producto Interno
resulta
v v v i (v i , v v)
=0
(v i , v 1 v 1 2 v 2 ... r v r ) = 0
(v i , v) 1 (v i , v 1 ) 2 (v i , v 2 ) ... r (v i , v r ) = 0
(v i , v) i (v i , v i ) = 0
(v i , v)
i =
(v i , v i )
vale decir que los coeficientes de v estn unvocamente determinados y conducen a la frmula (3.11). Cabe sealar que los
i de la demostracin se obtuvieron sin conjugar porque se despejaron de la segunda componente del producto interno,
aplicando la propiedad 2 del teorema 3.1.
A
B
N La frmula (3.11) debe usarse con especial cuidado al aplicarla en C espacios. En efecto, si se alterara el orden de
U
los coeficientes (v i , v) por (v, v i ), se obtendran los conjugados de los valores correctos.
-
El ejemplo 3.9 es un caso particular de aplicacin de la frmula de proyeccin (3.11), puesto que se conoce una base ortogo-
a
r
nal del espacio sobre el que se pretende proyectar. Planteamos ahora el problema de proyectar sobre un subespacio del que
ie
no se conoce una base ortogonal.
en
g
In
e
d
d
a
lt
cu
Ejemplo 3.10
Consideremos en R3 el subespacio S = gen {(1, 1, 2) , (1, 0, 1)}. Buscaremos la proyeccin v del vector v = (1, 2, 0) sobre
S. Una base del subespacio S es B = {v 1 , v 2 }, donde
v 1 = (1, 1, 2) v 2 = (1, 0, 1)
Dado que no es una base ortogonal, nos proponemos en primer lugar hallar una base B 0 = {w 1 , w 2 } de S que s lo sea.
Para ello, definimos en primer lugar
w1 = v1
La eleccin de w 2 no es tan sencilla (de hecho, en el subespacio S existen infinitos vectores ortogonales a v 1 ). Basn-
donos en el esquema de la figura 3.5 planteamos que w 2 = v 2 + w 1 es ortogonal a w 1 para una eleccin adecuada de
:
(w 1 , v 2 )
0 = (w 1 , v 2 + w 1 ) = (w 1 , v 2 ) + (w 1 , w 1 ) =
(w 1 , w 1 )
Producto Interno 79
(w 1 , v 2 )
w2 = v2 w1 (3.12)
(w 1 , w 1 )
Dejamos como ejercicio comprobar que la base ortogonal buscada resulta entonces
7 1 2
B 0 = (1, 1, 2) ; , ,
6 6 3
A
B
U
-
a
r
Destacamos del ejemplo 3.10 que la frmula (3.12) para calcular el segundo vector de la base ortogonal consiste en restarle
ie
w 2 = v 2 P gen{w 1 } (v 2 )
e
d
d
En efecto, por ser gen {w 1 } un espacio de dimensin uno, {w 1 } es una base ortogonal y se puede aplicar la frmula de pro-
a
yeccin (3.11). Es la misma definicin de proyeccin ortogonal la que garantiza que el vector v 2 P gen{w 1 } (v 2 ) ser ortogonal
lt
a gen {w 1 }, como se aprecia en la figura 3.6. Esta idea nos permitir demostrar, en el prximo teorema, que en todo espacio
cu
de dimensin finita puede construirse una base ortogonal a partir de una base dada.
a
F
Sea V un espacio vectorial con producto interno y con una base B = {v 1 ; v 2 ; ...; v n }. Entonces el conjunto B 0 =
{w 1 ; w 2 ; ...; w n } es una base ortogonal de V si sus elementos se definen mediante
w1 = v1
(w 1 , v 2 )
w2 = v2 w 1 = v 2 P gen{w 1 } (v 2 )
(w 1 , w 1 )
..
.
(w 1 , v n ) (w n1 , v n )
wn = vn w 1 ... w n1 = v n P gen{w 1 ,...,w n1 } (v n )
(w 1 , w 1 ) (w n1 , w n1 )
Ms aun, los subespacios que generan los primeros k vectores de cada base coinciden. Esto es
A
B
gen {v 1 , ..., v k } = gen {w 1 , ..., w k } k = 1...n
U
-
Demostracin:
a
En el caso de que la base B tenga un solo vector, es decir n = 1, el teorema es inmediatamente verdadero. Para probar el caso
r
general de n vectores, usaremos un argumento de induccin, construyendo la base paso por paso. El primer paso ya esta
ie
(w 1 , v k ) (w k1 , v k )
wk = vk w 1 ... w k1 (3.13)
g
(w 1 , w 1 ) (w k1 , w k1 )
In
(Por supuesto, esta frmula requiere que se hayan construido previamente los vectores w 1 , ..., w k1 ). As, por ejemplo, la
frmula para el caso k = 2 resulta
e
(w 1 , v 2 )
d
w2 = v2 w1
(w 1 , w 1 )
d
Dado que {w 1 } es una base ortogonal de gen {w 1 } podemos afirmar que se ha definido
a
lt
w 2 = v 2 P gen{w 1 } (v 2 )
cu
a
y la definicin de proyeccin garantiza que w 2 ser ortogonal a gen {w 1 }. Por lo tanto ya tenemos un conjunto ortogonal
F
{w 1 , w 2 }. Adems, ninguno de sus vectores es nulo: w 1 = v 1 no lo es por ser elemento de una base, mientras que si w 2 fuera
nulo resultara v 2 un elemento de gen {w 1 }, lo cual es absurdo (por qu?). Por el teorema 3.6, el conjunto {w 1 , w 2 } resulta
linealmente independiente. Dado que sus elementos son combinaciones lineales de v 1 y v 2 , genera el mismo subespacio
que {v 1 , v 2 }. Este argumento se puede repetir con w 3 , w 4 , .... Para garantizar que se puede repetir hasta cubrir los n vectores,
supondremos que lo hemos aplicado k 1 veces hasta obtener un conjunto ortogonal {w 1 , w 2 , ..., w k1 } que genera el mismo
subespacio que {v 1 , v 2 , ..., v k1 }. Entonces la frmula (3.13) equivale a
w k = v k P gen{w 1 ,...,w k1 } (v k )
y una vez ms la definicin de proyeccin garantiza que el vector w k ser ortogonal a gen {w 1 , ..., w k1 }. Razonando como
antes, w k no puede ser nulo porque en tal caso sera v k un elemento de gen {w 1 , ..., w k1 } = gen {v 1 , ..., v k1 }. Este argumen-
to tiene generalidad: si k = 2, muestra cmo podemos construir {w 1 , w 2 } a partir de {w 1 }; si k = 3, {w 1 , w 2 , w 3 } a partir de
{w 1 , w 2 } ... y seguir construyendo paso a paso, hasta completar una base ortogonal.
Producto Interno 81
N Ya sabemos (por el teorema 1.4) que los espacios finitamente generados admiten una base. Adems, hemos mos-
trado cmo obtener una base ortogonal, cmo realizar la proyeccin y que dicha proyeccin es nica. Por lo tanto,
podemos afirmar que en todo espacio vectorial con producto interno, la proyeccin ortogonal de un vector v
sobre un subespacio de dimensin finita existe y es nica.
Una consecuencia inmediata del mtodo de Gram Schmidt es que para cualquier espacio de dimensin finita puede obte-
nerse una base ortonormal. En efecto, basta con aplicar el mtodo, calcular una base ortogonal y luego dividir a cada vector
por su norma.
A
B
U
Ejemplo 3.11
-
a
En el espacio vectorial R4 se considera el subespacio S determinado por la base B = {v 1 ; v 2 ; v 3 }, siendo
r
ie
v 1 = (1, 1, 1, 1) v 2 = (2, 1, 1, 1) v 3 = (0, 2, 3, 3)
en
La aplicacin del mtodo de Gram Schmidt arroja (comprobarlo) la base ortogonal B 0 = {w 1 ; w 2 ; w 3 } con
g
9 3 3 3 2 1 1
In
w 1 = (1, 1, 1, 1) w 2 = , , , w 3 = 0, , ,
4 4 4 4 3 3 3
e
n o
La base ortonormal buscada es B 00 = kw w1
; w 2 ; w 3 = {u 1 ; u 2 ; u 3 }:
d
1 k kw 2 k kw 3 k
d
( r )
00 1 2 9 3 3 3 3 2 1 1
a
B = (1, 1, 1, 1); p , , , ; 0, , ,
2 3 3 4 4 4 4 2 3 3 3
lt
cu
Queremos sealar que cuando se usa una base ortonormal para calcular la proyeccin de un vector, la frmula (3.11)
adquiere una escritura particularmente sencilla. En nuestro ejemplo, para proyectar un vector v R4 sobre S es
a
F
3
X
P S (v) = (u 1 , v) u 1 + (u 2 , v) u 2 + (u 3 , v) u 3 = (u i , v) u i
i =1
Finalizamos esta seccin demostrando que la proyeccin de un vector sobre un subespacio es la mejor aproximacin que se
puede obtener de dicho vector con elementos del subespacio. La figura 3.7 ilustra esta afirmacin: de todos los vectores en
el subespacio S, el vector ms prximo a v es P S (v). En este contexto, la mejor aproximacin se entiende en el sentido de
la distancia definida en 3.6. Vale decir que de todos los vectores u S, el valor de kv uk se hace mnimo si u = P S (v).
82 Producto Interno
A
B
Formalizamos esta afirmacin con el teorema siguiente.
U
Teorema 3.10
-
Sean V un espacio vectorial con producto interno y S un subespacio. Sea v V para el cual existe la proyeccin
a
ortogonal v = P S (v). Entonces r
kv uk u S
kv vk (3.14)
ie
Adems, la igualdad se da solamente para u = v.
en
g
In
Demostracin:
La figura 3.7 sugiere considerar el tringulo rectngulo de hipotenusa v u. Para ello escribimos
e
+ (v u)
v u = (v v)
d
d
S mientras que (v u) S. Por ende se trata de vectores ortogonales y se puede aplicar el teorema
y sealamos que (v v)
a
de Pitgoras 3.5:
lt
2 + kv uk2
kv uk2 = kv vk
cu
kv uk2 kv vk
2
F
Definicin 3.12
Sean V un espacio vectorial con producto interno y S un subespacio. Sea v V para el cual existe la proyeccin
ortogonal v = P S (v). Entonces la distancia de v al subespacio S es
d(v, S) = kv P S (v)k
Esta propiedad de la proyeccin nos permite aproximar funciones eventualmente difciles de calcular mediante otras ms
sencillas. El ejemplo siguiente nos brinda una aproximacin de la funcin exponencial mediante una funcin polinmica de
grado uno. La figura 3.8 muestra la recta que mejor aproxima al grfico de la funcin exponencial en el intervalo [1, 1].
Producto Interno 83
A
Ejemplo 3.12
B
U
En el espacio de funciones continuas C ([1, 1]) consideramos el producto interno como se defini en la frmula
(3.6). Buscaremos la proyeccin de la funcin f (x) = e x sobre el subespacio de polinomios S = P 1 = gen {1, t }. Dado
-
que {1, t } es una base ortogonal para el producto definido (verificarlo), aplicamos la frmula de proyeccin (3.11):
a
r
(1, f ) (t , f )
PS ( f ) = 1+ t
ie
(1, 1) (t , t )
1 1 3
en
= e + t
2 e e
g
r
7
e
d f , S = f P S ( f ) = 1 0,229
e2
d
d
a
Ejercicio.
lt
cu
Ahora que ya hemos dejado asentada la existencia de la proyeccin ortogonal sobre espacios de dimensin finita, comenta-
remos algunas propiedades considerando un espacio V con producto interno y un subespacio S de dimensin finita:
1. La proyeccin ortogonal, entendida como una aplicacin que a cada vector v V le asigna su proyeccin P S (v), es una
transformacin lineal. Dejamos como ejercicio verificarlo: la comprobacin es inmediata usando la frmula de proyec-
cin (3.11) y las propiedades del producto interno; tambin se puede demostrar aplicando directamente la definicin
de proyeccin.
2. Para todo vector v S es P S (v) = v. En efecto, es el propio vector v el que verifica la definicin de proyeccin 3.11: v S
y v v S.
84 Producto Interno
3. Como consecuencia de lo anterior, la composicin de proyecciones P S sobre un mismo subespacio S equivale siempre
a la misma proyeccin.
Proposicin 3.1
Sea V un espacio vectorial con producto interno y sea S un subespacio de dimensin finita. Entonces se cumplen
A
2 P S (v) = v v S
B
3 PS PS = PS
U
4 P S (v) = 0 v S
-
a
r
Dado que la proyeccin es una transformacin lineal, prestaremos atencin a a su imagen y ncleo.
ie
en
1. De acuerdo con la definicin de proyeccin, para cualquier v V es P S (v) S, con lo cual Im P S S. Usando adems
la propiedad 2 , resulta que el conjunto imagen de la proyeccin es todo el subespacio S.
g
In
2. Segn la propiedad 4 , el ncleo de la proyeccin P S est constituido por los vectores que son ortogonales a todo
elemento de S.
e
d
Proposicin 3.2
lt
cu
Sea V un espacio vectorial con producto interno y sea S un subespacio de dimensin finita. Entonces la proyeccin
ortogonal P S : V V es una transformacin lineal que verifica
a
F
1 Im P S = S
2 Nu P S = {v V : v S}
Este conjunto de vectores ortogonales a un subespacio dado ser de gran inters (an para casos de dimensin infinita) y
lleva nombre propio.
Definicin 3.13
Sea V un espacio vectorial con producto interno. Dado un subespacio S, su complemento ortogonal es el conjunto de
vectores ortogonales a S. Con la notacin S queda
S = {v V : v S} = {v V : (v, u) = 0 u S}
Producto Interno 85
A
Ejercicio. Demuestre que en un espacio con producto interno V , dado un subespacio S = gen {v 1 , v 2 , ..., v r }, un vector
arbitrario es ortogonal al subespacio S si y slo si es ortogonal a sus generadores v 1 , v 2 , ..., v r . Es decir
B
U
v S (v, v 1 ) = (v, v 2 ) = ... = (v, v r ) = 0
-
a
Ejercicio. En el espacio R3 r
ie
calcule el complemento ortogonal del subespacio gen {(1, 2, 1), (1, 2, 0)}
en
V = {0V }
d
a
{0V } = V
lt
cu
La figura 3.9 sugiere que un espacio puede descomponerse como la suma directa de un subespacio y su complemento orto-
a
Teorema 3.11
Sean V un espacio vectorial con producto interno y S un subespacio de dimensin finita. Entonces
V = S S
Demostracin:
Por tratarse de un subespacio de dimensin finita, sabemos que existe la proyeccin ortogonal P S . Luego escribimos, para
cualquier vector v V
v = P S (v) + (v P S (v))
| {z } | {z }
S S
con lo cual V = S +S . Para ver que la suma es directa, segn el teorema 1.18 basta con probar que la interseccin es el vector
nulo. Sea entonces un vector v S S . Por estar en S , debe ser ortogonal a todo vector de S, en particular a s mismo.
86 Producto Interno
Luego
(v, v) = 0 kvk2 = 0 v = 0
Otra propiedad que sugiere la figura 3.9 es que el complemento del complemento es el subespacio original. Una vez ms,
esto ser cierto en el caso de subespacios de dimensin finita.
Teorema 3.12
Sean V un espacio vectorial con producto interno y S un subespacio de dimensin finita. Entonces
S =S
A
Demostracin:
B
Probaremos la doble inclusin de los conjuntos. En primer lugar, consideramos un vector v S. Por definicin de comple-
U
mento ortogonal
= v V : (v, u) = 0 u S
S
-
Dado que v S verifica esta definicin, concluimos que S S (notemos que esta inclusin es vlida sin necesidad de
imponer ninguna restriccin sobre la dimensin del subespacio S).
a
r
ie
Para demostrar la otra inclusin, consideramos un vector v S . Aplicando el teorema 3.11, podemos descomponer al
en
espacio como V = S S . Vale decir que existen nicos v 1 S y v 2 S tales que v = v 1 + v 2 . Probaremos que v 2 = 0 y que
por lo tanto v = v 1 S, lo cual demostrar la inclusin S S. Para esto, sealamos que (v, v 2 ) = 0, puesto que v S y
g
In
v 2 S . Luego
0 = (v, v 2 ) = (v 1 + v 2 , v 2 ) = (v 1 , v 2 ) + (v 2 , v 2 ) = 0 + kv 2 k2
e
De acuerdo con los teoremas anteriores, todo vector v V puede descomponerse (de manera nica) como la suma de un
vector en S y otro en S : v = P S (v) + (v P S (v)). Afirmamos que (v P S (v)) = P S (v). En efecto, verifica la definicin de
proyeccin sobre S :
Teorema 3.13
Sean V un espacio vectorial con producto interno y S un subespacio de dimensin finita. Entonces para cualquier
v V es
v = P S (v) + P S (v)
N Existen ocasiones en que la proyeccin sobre un subespacio es ms dificultosa que la proyeccin sobre su com-
plemento ortogonal. Como sugiere la figura 3.10, puede ser conveniente entonces calcular la proyeccin sobre el
complemento ortogonal y luego despejar la proyeccin buscada. Para calcular entonces la distancia de un vector
v al subespacio S como se defini en 3.12, se puede usar que kv P S (v)k = P S (v).
A
B
U
Ejemplo 3.13
-
En R4 consideramos el subespacio S = x R4 : x 1 + x 2 + x 3 x 4 = 0 de dimensin 3. Para calcular la proyeccin del
a
vector v = [1 1 2 1]t sobre S habra que encontrar una base ortogonal de S, presumiblemente aplicando el mtodo
r
de Gram Schmidt, para recin entonces usar la frmula de proyeccin (3.11). Si en cambio consideramos que S es de
ie
dimensin 1, alcanzar con encontrar un generador: ser inmediatamente una base ortogonal con la que podremos
en
x1
In
h i x2
S= x R4 : 1 1 1 1 =0
x3
e
x4
d
h i
A= 1 1 1 1
cu
resulta que los vectores de S son aquellos vectores ortogonales a las filas de A, es decir que S = (Fil A) . Aplicando el
a
(Recordemos que en R3 esto permite detectar el vector normal a un plano). La proyeccin de v sobre S es, aplicando
la frmula (3.11):
5 5 5 5 t
P S (v) =
4 4 4 4
con lo cual
1 1 3 1 t
P S (v) = v P S (v) =
4 4 4 4
y
5
d(v, S) = kv P S (v)k = P S (v) =
2
88 Producto Interno
Ejemplo 3.14
S = v R3 : x 1 + x 2 x 3 = 0 2x 1 + 2x 2 = 0
" # x1 " #
1 1 1 0
= v R3 : x2 =
2 2 0 0
x3
A
Vale decir que considerando la matriz
B
" #
1 1 1
U
A=
2 2 0
-
el complemento ortogonal de S es el espacio nulo de la matriz A, formado por los vectores ortogonales a sus filas:
a
r
1
S = Nul A = (Fil A) = gen 1
ie
0
en
g
In
Las observaciones hechas en los ejemplos acerca de los espacios fundamentales de una matriz se pueden extender sin difi-
cultades al caso general. Dejamos los detalles como ejercicio.
e
d
Proposicin 3.3
d
Dada una matriz A Rmn , los subespacios fundamentales verifican las siguientes relaciones (en los espacios Rm o
a
lt
Rn segn corresponda):
cu
1 (Fil A) = Nul A
a
(Col A) = Nul A t
F
Ejercicio.
3.4 Descomposicin QR
En lo que sigue veremos que toda matriz A Kmn con rango A = n, es decir cuyas columnas forman un conjunto linealmen-
te independiente, se puede factorizar como producto de dos matrices, una de ellas de m n tal que sus columnas forman un
conjunto ortonormal y otra de nn que es triangular superior y con nmeros positivos en la diagonal (y por tanto inversible).
Producto Interno 89
Tal factorizacin, que se denomina descomposicin QR de A, es utilizada por varios algoritmos numricos para la resolucin
de problemas diversos, incluyendo sistemas de ecuaciones lineales.
Definicin 3.14
En principio, la definicin no garantiza que pueda obtenerse la descomposicin QR de cualquier matriz, ni cmo calcularla
efectivamente. Veremos que cualquier matriz A Kmn con rango A = n admite una descomposicin QR y mostraremos un
A
mtodo para calcularla. Para ello, comenzamos con un teorema que brinda algunas caractersticas de la descomposicin.
B
U
Teorema 3.14
-
Sea A Kmn con rango A = n tal que A = QR es una descomposicin QR. Entonces las columnas de Q forman una
base ortonormal de Col A.
a
r
ie
en
Demostracin:
g
q 1H q 1H q 1 q 1H q 2 q 1H q n
q 2H q 2H q 1 q 2H q 2 q 2H q n
e
h i
I = QHQ =
d
.. q1 q2 qn = .. .. ..
..
.
. . . .
d
q nH H
qn q1 H
qn q2 H
qn qn
a
lt
(
0 si i 6= j
q iH q j
a
=
1 si i = j
F
de modo que q 1 , q 2 , ..., q n es un conjunto ortonormal. Por lo tanto constituye una base de ColQ.
Para terminar, probaremos que ColQ = Col A: dado que ambos subespacios tienen dimensin n, alcanzar con probar una
inclusin. Sea entonces y Col A, es decir que y es combinacin lineal de las columnas de A. Por lo tanto debe existir cierto
x Kn tal que y = Ax. Usando la descomposicin QR, tenemos que y = QR x = Q(R x). Ahora bien, R x es un vector de K n ,
con lo cual y es una combinacin lineal de las columnas de Q. Luego, Col A ColQ.
Teniendo en cuenta que en una descomposicin A = QR la matriz R es triangular superior, podemos afirmar que la primera
columna de A es combinacin lineal de la primera columna de Q, la segunda columna de A es combinacin lineal de las
primeras dos columnas de Q y as sucesivamente. Como adems las columnas de Q son una base ortonormal, podemos
concluir que la descomposicin QR explica cmo se relacionan dos bases de un mismo espacio, una de ellas ortonormal.
Veremos entonces cmo el mtodo de Gram-Schmidt 3.9 nos permite construir la descomposicin.
90 Producto Interno
Ejemplo 3.15
0 1 1
Llamando v i a la i -sima columna de A, aplicamos el mtodo de Gram-Schmidt para obtener una base ortogonal
{w 1 ; w 2 ; w 3 } de Col A:
1
w1 = v1 = 1
0
1/2
w 1H v 2
w2 = v2 H = 1/2
A
w1 w1
1
B
2/3
U
w 1H v 3 w 2H v 3
w3 = v3 H = 2/3
w 1 w 1 w 2H w 2
-
2/3
a
De acuerdo con el teorema 3.14, formamos la matriz Q normalizando a los vectores {w 1 ; w 2 ; w 3 }:
r
p p p
ie
2/2 6/6 3/3
p p p
en
Dado que A = QR (probaremos en el prximo teorema que la descomposicin efectivamente existe) y por ser Q H Q =
I , podemos calcular R
e
A = QR Q H A = Q H QR = R
d
d
Luego p p p
a
2 2/2 2/2
p p
lt
H
R =Q A = 0 6/2 6/6
p
cu
0 0 2 3/3
a
F
Teorema 3.15
Demostracin:
Denominemos v 1 , v 2 , ..., v n a las columnas de A. Por hiptesis, B = {v 1 ; v 2 ; ...; v n } es un conjunto linealmente independiente.
Producto Interno 91
Aplicando el mtodo de Gram-Schmidt al conjunto B obtenemos una base ortogonal {w 1 ; w 2 ; ...; w n } de Col A que satisface
w1 = v1
w 2 = v 2 12 w 1
w 3 = v 3 13 w 1 23 w 2
..
.
w n = v n 1n w 1 ... n1,n w n1
w iH v j
donde i j = . Despejando cada v i :
w iH w i
A
v1 = w1
B
v 2 = 12 w 1 + w 2
U
v 3 = 13 w 1 + 23 w 2 + w 3
-
..
.
a
v n = 1n w 1 + ... + n1,n w n1 + w n
r
ie
en
12 13 1n
1
i 0 1 23 2n
e
h i h
A= v1 v2 vn = w1 w2 wn .. .. .. .. ..
d
.
. . . .
0 0 0 1
d
a
lt
Esta factorizacin es muy parecida a la buscada. Falta lograr que los vectores columna del primer factor sean de norma uno.
cu
kw i k
F
12 kw 1 k 13 kw 1 k 1n kw 1 k
kw 1 k
h i
0 kw 2 k 23 kw 2 k 2n kw 2 k
A= q1 q2 qn .. .. .. .. ..
.
. . . .
0 0 0 kw n k
N Mencionamos, sin demostracin, que en las condiciones de la definicin 3.14 la descomposicin QR es nica.
92 Producto Interno
Ejercicio.
1 0 1
3.10 Calcule la descomposicin QR de la matriz A = 1 2 1 .
0 1 1
A
Dada una matriz A Rmn , consideraremos una vez ms la ecuacin matricial
B
U
Ax = b (3.15)
-
donde b Rm y x Rn es la incgnita. En la seccin 1.5 habamos sealado que el sistema es compatible si y slo si existe
a
r
una combinacin lineal de las columnas de A que resulte ser el vector b. Dicho de otra forma: el sistema es compatible si y
ie
slo si b Col A. En las aplicaciones, es muy comn que un modelo se describa mediante ecuaciones lineales en la forma
de (3.15) y que, debido a mltiples factores como por ejemplo errores de medicin, no se pueda obtener un x que verifique
en
exactamente las ecuaciones. En esta seccin estudiaremos una alternativa que se presenta para el caso en que el sistema es
g
Definicin 3.15
a
Dado el sistema de ecuaciones (3.15), el vector x Rn es una solucin por cuadrados mnimos si A x minimiza la
lt
distancia a b, es decir si
cu
kb Axk x Rn
kb A xk
a
F
N Dado que estamos considerando la norma usual, el clculo de kb Axk2 es la suma de los cuadrados de las compo-
nentes de un vector de Rm . Buscamos x para que dicha suma sea mnima: de all el nombre cuadrados mnimos.
Ejercicio. Demuestre que en el caso de que el sistema (3.15) sea compatible, cualquier solucin en el sentido usual es
tambin solucin por cuadrados mnimos.
Producto Interno 93
A
B
U
Ejemplo 3.16
-
Hallaremos la solucin por cuadrados mnimos x = [x1 x2 ]t del sistema de ecuaciones
a
1 1 " 1
r #
x1
Ax = 1 0 = 2
ie
x2
2 1 0
en
La figura 3.11 ilustra este caso, en el que se tiene una matriz A R32 , con lo cual b R3 y x R2 . Por lo que se ve,
g
In
el vector b no est en Col A y el sistema es incompatible. Basndonos en el teorema de mejor aproximacin 3.10,
sabemos que el elemento de Col A ms prximo a b es la proyeccin ortogonal de b sobre Col A. Ahora bien, para
conocer la proyeccin apelamos al ejemplo 3.10, en que proyectbamos un vector [1 2 0]t sobre un subespacio S que
e
d
1
P Col A (b) = 7
a
11
lt
5
cu
Falta entonces encontrar la solucin por cuadrados mnimos x. La solucin por cuadrados mnimos x no debe confun-
dirse con la proyeccin de b sobre Col A. El vector x es un elemento de R2 tal que A x = P Col A b:
a
F
1 1 " # 16
x1 1
1 0 = 7
x2 11
2 1 5
Siguiendo con la lnea de argumentacin del ejemplo 3.16, pasamos a considerar el caso general del sistema (3.15). Una vez
ms, el teorema de mejor aproximacin 3.10 indica que el elemento de Col A ms prximo a b es la proyeccin ortogonal de
b sobre Col A. Por eso una forma de buscar la solucin por cuadrados mnimos es resolver el sistema
A x = P Col A (b)
94 Producto Interno
como ya hicimos en el ejemplo. Destacamos que este sistema es compatible, porque consiste en encontrar una combina-
cin lineal de las columnas de A que genere un elemento de Col A. Sin embargo, este procedimiento implica calcular una
proyeccin ortogonal y, eventualmente, obtener una base ortogonal de Col A. Presentamos una alternativa ms eficaz: para
ello, consideramos que
A x = P Col A (b) b A x Col A b A x (Col A)
Teniendo en cuenta que (Col A) = Nul A t (ver la proposicin 3.3) resulta
y llegamos a que la ecuacin A t A x = A t b es equivalente al planteo original; con la ventaja de que no hay que calcular expl-
citamente la proyeccin. Resumimos el mtodo propuesto en el siguiente teorema.
Teorema 3.16
A
Dado el sistema de ecuaciones (3.15), el vector x Rn es una solucin por cuadrados mnimos si y slo si verifica la
B
ecuacin normal
A t A x = A t b (3.16)
U
Adems, la ecuacin normal siempre tiene al menos una solucin.
-
a
r
Basndonos en la figura 3.11, podemos definir al error como la distancia entre el vector original y su aproximacin con un
ie
elemento de Col A.
en
Definicin 3.16
g
In
Dado el sistema de ecuaciones (3.15) y una solucin por cuadrados mnimos x Rn , el error por cuadrados mnimos
se define como la distancia entre el vector b y su proyeccin sobre Col A, es decir
e
d
E = kb A xk
d
a
lt
Ejercicio. Encuentre la solucin por cuadrados mnimos del sistema del ejemplo 3.16 planteando la ecuacin normal.
cu
Llegados a este punto, conviene mencionar una aplicacin de la descomposicin QR para encontrar soluciones por cua-
drados mnimos. Considerando una matriz A Kmn con rango A = n y descomposicin QR como se defini en 3.14, la
ecuacin normal 3.16 resulta
A t A x = A t b (QR)t (QR)x = (QR)t b R t R x = R t Q t b
donde usamos que Q t Q = I . Como adems R es una matriz inversible, tambin lo es R t (por qu?), luego podemos multi-
1
plicar a izquierda por R t para llegar a una ecuacin equivalente a la ecuacin normal
R x = Q t b
con la ventaja de que es un sistema cuya matriz de coeficientes es triangular superior y reduce la cantidad de clculos nece-
sarios.
Ejercicio. Encuentre la solucin por cuadrados mnimos del sistema del ejemplo 3.16 usando la descomposicin QR
de la matriz de coeficientes del sistema.
Producto Interno 95
Ejemplo 3.17
A
4/3 2
x = + R
0 1
B
U
El producto entre A y cualquiera de las soluciones por cuadrados mnimos da la proyeccin de b sobre Col A:
-
" # " #! " # 4/3
4/3 2 4/3
a
P Col A (b) = A + =A = 4/3
0 1 0
r
4/3
ie
El error cometido es
en
1 4/3
r2
g
2 4/3 =
3
In
1 4/3
e
d
El ltimo ejemplo pone de manifiesto que la ecuacin normal (3.16) no slo es compatible sino que podra tener infinitas
d
soluciones. Como ya habamos sealado, la ecuacin normal es equivalente a A x = P Col A b. En esta ecuacin es claro que
a
si las columnas de A son linealmente independientes, habr una nica combinacin lineal para generar cada elemento de
lt
Col A, con lo cual x ser nica. Si en cambio las columnas de A son dependientes, habr un conjunto xp + Nul A de infinitas
cu
A continuacin probaremos algunos resultados ms acerca de las soluciones por cuadrados mnimos. Para ello, necesitamos
establecer previamente una propiedad.
Teorema 3.17
y por lo tanto
rango A = rango A t A
Demostracin:
Probaremos la doble inclusin de los conjuntos Nul A y Nul A t A. En primer lugar, consideramos
x Nul A Ax = 0 A t Ax = 0 x Nul A t A
96 Producto Interno
Para la segunda inclusin, consideremos un x Nul A t A. Entonces A t Ax = 0. Multiplicando a izquierda por x t obtenemos
La igualdad de los rangos se prueba teniendo en cuenta que para cualquier matriz B Rmn vale la relacin
dim(Nul B ) + rango B = n
En el caso de que una matriz A Rmn tenga sus columnas linealmente independientes, la ecuacin normal (3.16) tendr
A
una matriz A t A de rango n y por lo tanto inversible. En tal caso, la nica solucin por cuadrados mnimos ser
B
1 t
x = A t A
A b
U
Ms an, al multiplicar a izquierda por A obtendremos la proyeccin de b sobre Col A:
-
a
1 t
A x = P Col A b = A A t A
r A b
1 t
con lo cual A A t A
ie
A es la matriz asociada a la proyeccin sobre Col A. Agrupamos estas observaciones en un teorema.
en
Teorema 3.18
g
Dado el sistema de ecuaciones (3.15), si la matriz A Rmn tiene sus columnas linealmente independientes, entonces
In
1 t
x = A t A
A b
d
(A la matriz A ] = A t A
1 t
a
1 t
P Col A b = A A t A
A b
a
F
de Rm :
A = A A ] = [P Col A ]E
1 t
A At A
Ejemplo 3.18
Retomamos el ejemplo 3.9. En este caso, buscamos una frmula para la proyeccin ortogonal P S . Por supuesto que
podemos usar la frmula de proyeccin (3.11). Sin embargo, optaremos por una opcin ms breve que se desprende
del teorema 3.18. Como nuestra intencin es proyectar sobre el subespacio S, construiremos una matriz A que tenga
por columnas una base de ese mismo subespacio: de acuerdo con 3 , la matriz asociada a la proyeccin sobre Col A = S
ser
A = A A]
1 t
[P S ]E = A A t A
Producto Interno 97
Ahora bien, si elegimos la base de modo que sea ortonormal, ser A t A = I y la expresin anterior se reducir a
[P S ]E = A A t
En nuestro caso podemos normalizar la base y presentarla como columnas de la matriz A. Con esto, la matriz asociada
a la proyeccin es
p p
1/ 6 1/ 2 " p p p # 2 1 1
p p 1/ 6 1/ 6 2/ 6 1
[P S ]E = 1/ 6
1/ 2 p p = 1 2 1
p 1/ 2 1/ 2 0 3
2/ 6 0 1 1 2
A
2 1 x 2 = x 1 + 2x 2 x 3
3 3
x3 1 1 2 x3 x 1 x 2 + 2x 3
B
U
El mtodo usado en el ejemplo para obtener la matriz asociada a la proyeccin se generaliza sin dificultad.
-
a
Teorema 3.19 r
Sea B = {u 1 ; u 2 ; ...; u r } una base ortonormal del subespacio S de Rm . Si A Rmr tiene por columnas a los vectores de
ie
la base B , entonces
en
[P S ]E = A A t
g
In
Ejercicio.
e
d
Terminamos esta seccin con un ejemplo de ajuste de datos. Ya mencionamos que un problema usual en las aplicaciones es
lt
que podemos interpretar como mediciones de cierto fenmeno. Aunque no estn exactamente alineados, buscare-
mos la recta que mejor ajuste los datos en algn sentido. Para eso, consideramos que la forma general de dicha recta
ser y = ax + b con a, b a determinar. Si hubiera un ajuste exacto, todos los puntos verificaran la ecuacin de la recta:
1 = a(1) + b
1 = a2 + b
2 = a3 + b
2 = a5 + b
A
lo cual escrito matricialmente queda
B
1 1 " # 1
U
2 1 a 1
=
b
3 1 2
-
5 1 2
a
| {z } | {z }
A b
r
y para este sistema incompatible buscamos una solucin por cuadrados mnimos. Dejamos como ejercicio obtener el
ie
resultado
en
" # " #
a 14/75
x = =
b 27/25
g
In
La recta de ecuacin
14 27
y= x+
75 25
e
d
es entonces la recta de ajuste por cuadrados mnimos. Sabemos, por la definicin de cuadrados mnimos 3.15, que el
es mnimo comparado con cualquier otra eleccin de a, b. En nuestro ejemplo, el cuadrado
valor del error kb A xk
d
de este error es
a
lt
2
1 67/75
cu
1 109/75
2
=
kb A xk
a
2 41/25
F
2 151/75
67 2 109 2 41 2 151 2
= 1 + 1 + 2 + 2
75 75 25 75
26
= 0,347
75
vale decir que cada componente del vector b A x mide la diferencia entre la altura verdadera del punto y la que
alcanza la recta. Es la suma de los cuadrados de estas diferencias lo que la recta minimiza, como se aprecia en la figura
3.12.
Ejercicio.
3.12 Ajuste los mismos datos del ejemplo 3.19 con una funcin cuadrtica y = ax 2 + bx + c.
Producto Interno 99
N Hemos optado por presentar el tema de cuadrados mnimos en el contexto de los R espacios vectoriales. Sin
embargo, la adaptacin al caso de C espacios no presenta mayor dificultad. La ecuacin normal (3.16), por ejemplo,
debe plantearse como A H A x = A H b.
Dedicaremos esta seccin a algunos aspectos geomtricos de las transformaciones lineales y los espacios con producto in-
terno. Aunque muchas de las ideas que expondremos pueden extenderse a espacios ms generales, limitaremos nuestra
atencin al espacio Rn con el producto interno cannico.
A
B
U
-
a
r
ie
en
g
In
e
d
d
a
lt
cu
a
F
Consideramos el problema de lograr en una reflexin (simetra) con respecto a un subespacio S. En la figura 3.13 se aprecia
un esquema general. Dado un vector v es posible descomponerlo como v = P S (v) + P S (v); su reflexin con respecto a S
surge de preservar la componente en S e invertir la componente en S .
Definicin 3.17
Por tratarse de una suma de proyecciones, resulta inmediato que la reflexin R : Rn Rn es una transformacin lineal.
100 Producto Interno
Ejercicio.
3.13 Demuestre que la reflexin de un vector v Rn con respecto a cierto subespacio S verifica
Consideremos en R3 el subespacio S = gen [1 1 2]t , [1 0 1]t que ya se estudi en el ejemplo 3.10. Usaremos nue-
vamente al vector v = [1 2 0]t , aunque esta vez para calcular su reflexin con respecto al plano S. Como ya habamos
A
calculado su proyeccin sobre S resulta
B
t
5 15 5 t
16 7 5
U
v = P S (v) + (v P S (v)) = +
11 11 11 11 11 11
-
y de acuerdo con la frmula (3.17) obtenemos
a
r t
21 8 10
R(v) = P S (v) (v P S (v)) =
ie
11 11 11
en
La complicacin del mtodo utilizado es que para calcular P S (v) hubo que construir una base ortogonal de S. A con-
tinuacin, exponemos una alternativa que se basa en la proyeccin sobre S , con la ventaja de que es un subespacio
g
In
Dado que u = p1 [1 3 1]t constituye una base ortonormal de S , aplicamos la frmula de proyeccin del teorema
11
d
1 3 1
1
cu
t
P S (v) = uu v = 3 9 3 v
11
1 3 1
a
F
Entonces la reflexin es
R(v) = v 2 uu t v
= I 2 uu t v
9 6 2
1
= 6 7 6 v
11
2 6 9
Los argumentos empleados en el ejercicio anterior pueden generalizarse sin dificultad: I 2 uu t es la matriz asociada a
una reflexin con respecto a un subespacio, cuyo complemento ortogonal est generado por un vector normalizado u.
Producto Interno 101
Definicin 3.18
H = I 2 uu t
(3.18)
T : Rn Rn , T (x) = H x = I 2 uu t x
(3.19)
A
Ejemplo 3.21 Reflexin con respecto a una recta
B
Hallaremos la frmula de la transformacin lineal R : R3 R3 que es la reflexin con respecto a la recta
U
S = gen [1 1 2]t .
-
a
Como ya se indic en la frmula (3.17), para calcular R(v) debemos descomponer al vector en sus proyecciones sobre
r
S y S . En este caso, es ms fcil proyectar sobre S puesto que es de dimensin uno:
ie
6
In
con lo cual
2 1 2
1
d
= 1 2 2 v
3
a
2 2 1
lt
Debido a la naturaleza geomtrica del problema, existen muchos recursos para validar los resultados obtenidos. Una
cu
verificacin (parcial) de la frmula consiste en elegir un vector v R3 , transformarlo y comprobar que 21 (v + R(v)) S.
a
1
1
R(v) = 5
3
17
5
1 1
(v + R(v)) = 5 S
2 3
10
A
B
U
-
a
r
ie
en
g
In
A
B
U
4.1 Introduccin
-
a
r
Comenzamos esta seccin retomando el ejemplo 3.20. All habamos obtenido la frmula
ie
9 6 2
1
en
R(v) = 6 7 6 v
11
2 6 9
g
In
La matriz que aparece en la frmula anterior es la matriz asociada a la reflexin R : R3 R3 con respecto a la base cannica
d
9 6 2
lt
1
[R]E = 6 7 6 (4.1)
cu
11
2 6 9
a
Ahora bien, la matriz asociada a una transformacin tiene por columnas a los transformados de los vectores de una ba-
F
se, expresados en coordenadas con respecto a cierta base (eventualmente la misma). En el caso de [R]E , sus columnas son
los transformados de los vectores de la base cannica. Ya habamos mencionado que un problema importante es encon-
trar una base del espacio para la que la matriz asociada sea mejor en algn sentido. Las caractersticas geomtricas de la
transformacin R nos hacen prestarle atencin a los subespacios S y S . Destacamos que los vectores de S permanecern
fijos, mientras que los de S se transformarn en sus opuestos: esto es todo lo que se necesita para describir la reflexin.
En otras palabras: es mucho ms simple describir la reflexin explicando cmo se transforman los vectores de S y S que
describiendo cmo se transforma la base cannica. Definiendo una base ordenada de R3 con vectores de S y S
resulta
R [1 1 2]t = 1 [1 1 2]t
R [1 0 1]t = 1 [1 0 1]t
y las coordenadas de los transformados con respecto a la base B son sencillamente [1 0 0]t , [0 1 0]t y [0 0 1]t . La matriz
asociada resulta entonces mucho ms simple
1 0 0
[R]B = 0 1 0 (4.2)
0 0 1
y ms fcil de interpretar en trminos geomtricos que [R]E .
Ejercicio.
4.1
A
| {z }
n veces
B
Es inmediato que det [R]B = 1. Explique por qu det [R]E = 1 tambin.
U
-
Las observaciones anteriores ponen de manifiesto que la clave para lograr una matriz asociada diagonal es encontrar una
a
base de vectores que se transformen en mltiplos de ellos mismos. r
ie
Definicin 4.1
en
Dada una matriz A Knn , un escalar K es un autovalor de la matriz si existe un vector no nulo x Kn1 tal que
g
In
Ax = x (4.3)
Todo vector no nulo que verifica la relacin (4.3) se dice un autovector de la matriz A asociado al autovalor .
e
d
d
a
Una propiedad que se desprende inmediatamente de la definicin es que los autovectores asociados a un autovalor, junto
lt
con el vector nulo, constituyen un subespacio. Dejamos la demostracin formal como ejercicio.
cu
Proposicin 4.1
a
F
Dada una matriz A Knn , el conjunto de autovectores asociados a un autovalor, junto con el vector nulo, es decir
S = x Kn1 : Ax = x
Ejemplo 4.1
Dada la matriz
1 2 2
1
A= 2 1 2
3
2 2 1
buscaremos sus autovalores y autovectores. Para ello, planteamos la ecuacin (4.3) que los define y buscamos alguna
Autovalores y autovectores 105
Ax = x Ax I x = 0 (A I )x = 0 (4.4)
De acuerdo con la ltima expresin, el problema de hallar autovectores equivale a encontrar elementos no triviales
de Nul(A I ). En principio, nada garantiza que existan tales elementos: podra ser Nul(A I ) = {0}. Por lo tanto,
debemos elegir valores adecuados de , para los cuales sea Nul(A I ) 6= {0}, y esto equivale a que el determinante de
la matriz (A I ) se anule. Ahora bien,
1/3 2/3 2/3
det(A I ) = det 2/3 1/3 2/3
A
= ( 1)( + 1)2
B
Por lo tanto, slo eligiendo = 1 = 1 la ecuacin (4.4) tendr soluciones no triviales.
U
Si elegimos = 1, los autovectores sern las soluciones no triviales de
-
a
4/3 r 2/3 2/3
(A 1I )v = 0 2/3 4/3 2/3 v = 0
ie
2/3 2/3 2/3
d
T : R3 R3 , T (x) = Ax
notamos que todos los vectores de S 1 permanecen fijos, mientras que los de su complemento ortogonal S 1 se trans-
forman en su opuesto. Se trata, por lo tanto, de una reflexin con respecto al eje S 1 .
El argumento usado en el ejemplo 4.1 para encontrar los autovalores y autovectores tiene generalidad. Basndonos entonces
en la ecuacin (4.4), agrupamos las observaciones hechas.
106 Autovalores y autovectores
Proposicin 4.2
1 K es un autovalor de A.
2 Nul(A I ) 6= {0}
3 rango(A I ) < n
4 det(A I ) = 0
Como ya se vio en el ejemplo 4.1, det(A I ) es un polinomio que tiene a por indeterminada. Ms aun, de la definicin de
determinante se desprende que es un polinomio de grado n. Por ser de gran inters, recibe nombre propio.
A
Definicin 4.2
B
Dada una matriz A Knn , su polinomio caracterstico a es
U
p A (t ) = det(A t I )
-
a Lo escribiremos usualmente en la indeterminada t para evitar confusin con los autovalores.
a
r
ie
Podemos ahora enunciar y demostrar algunas propiedades interesantes sobre los autovalores de una matriz a partir de su
en
polinomio caracterstico.
g
Teorema 4.1
In
p A (t ) = (1)n (t 1 ) (t 2 ) ... (t n )
cu
Demostracin:
El enunciado 1 es una consecuencia inmediata de la proposicin 4.2.
y de acuerdo con el teorema fundamental del lgebra, todo polinomio con coeficientes en C y grado n 1 tiene n races en C
(contando multiplicidades). Por lo tanto siempre es posible factorizar al polinomio caracterstico como
p A (t ) = (1)n (t 1 ) (t 2 ) ... (t n )
donde los 1 , 2 , ..., n C son los autovalores de A. Entonces A tiene a lo sumo n autovalores distintos.
Autovalores y autovectores 107
Ejemplo 4.2
Consideremos la matriz asociada a una rotacin de ngulo 3 con centro en (0, 0). En la figura 4.1 se aprecian los
transformados de los vectores de la base cannica. Luego la matriz asociada para esta base es
p
cos 3 sen 3
" # " #
1/2 3/2
A= = p
sen 3 cos 3 3/2 1/2
Antes de hacer clculos, podemos anticipar un dato sobre los autovalores basndonos en las caractersticas geom-
tricas de la transformacin: ningn vector (distinto del nulo) se transformar en un mltiplo real de s mismo al rotar
un ngulo de 3 . Luego los autovalores deben ser nmeros complejos. En efecto, el polinomio caracterstico es
p p
p A (t ) = t 2 t + 1 = t 1+i2 3 t 1i2 3
Llamando
A
p p
1+i 3 1i 3
1 = 2 =
B
2 2
U
los autoespacios correspondientes son
-
(" #) (" #)
i i
S 1 = gen S 2 = gen
a
1 r 1
ie
en
g
In
e
d
d
a
lt
cu
a
F
En este ltimo ejemplo, las races del polinomio caracterstico son simples. Si en cambio observamos la factorizacin del
polinomio caracterstico para la reflexin del ejemplo 4.1, detectamos que = 1 es una raz simple mientras que = 1 es
una raz doble. Esto se vincula con el hecho de que hay una recta (dimensin 1) de vectores que permanecen fijos, mientras
que hay un plano (dimensin 2) de vectores que se transforman en sus opuestos. A lo largo del captulo estudiaremos la
relacin que hay entre la multiplicidad de las races del polinomio caracterstico y la dimensin del autoespacio asociado.
Comenzamos con una definicin.
Definicin 4.3
Dada una matriz A Knn , para cada autovalor definimos su multiplicidad algebraica como su multiplicidad en
cuanto raz de p A (t ).
A
B
Ejercicio.
U
4.2 Considere la matriz " #
-
2 1
A=
a
1 r 2
A continuacin, indagaremos el polinomio caracterstico de una matriz A = a i j K22 para establecer una relacin con
g
In
p A (t ) = det (A t I )
e
d
!
a 11 t a 12
= det
d
a 21 a 22 t
a
= t 2 (a 11 + a 22 ) t + (a 11 a 22 a 12 a 21 )
lt
= t 2 (tr A) t + det A
cu
p A (t ) = (t 1 ) (t 2 )
= t 2 (1 + 2 ) t + 1 2
De esta forma, igualando las dos expresiones obtenidas para p A (t ), podemos establecer una relacin entre los autovalores
de una matriz y los coeficientes de su polinomio caracterstico.
Proposicin 4.3
2 det A = 1 2
3 tr A = 1 + 2
Autovalores y autovectores 109
Una pregunta que surge naturalmente en este contexto es si estas relaciones pueden extenderse de alguna forma a matrices
de mayor tamao. La respuesta es que, efectivamente, para cualquier matriz A Knn la traza es la suma de los autovalores
y el determinante es el producto de los autovalores.
Proposicin 4.4
1 det A = 1 2 n
2 tr A = 1 + 2 + ... + n
A
B
U
La demostracin del caso general usa las mismas ideas que para A K22 , aunque es ms exigente en cuanto a notacin y la
-
dejamos como ejercicio para los lectores interesados.
a
r
Ejercicio. Dada una matriz A Knn con autovalores 1 , 2 , ..., n C y adoptando para su polinomio caracterstico
ie
1. a n1 = (1)n1 tr A
g
In
2. a 0 = det A
3. tr A = 1 + 2 + ... + n
e
d
4. det A = 1 2 n
d
a
lt
cu
Finalizamos esta seccin mencionando un concepto que abarca al de autoespacio como caso particular.
a
F
Definicin 4.4
Dados un subespacio S de Kn1 y una matriz A Knn , se dice que S es un subespacio invariante por A si para todo
vector x S se cumple que Ax S.
Ejercicio. Demuestre que todo autoespacio de una matriz A Knn es un subespacio invariante de Kn1 .
El ejemplo siguiente ilustra la diferencia que existe entre las nociones de autoespacio y subespacio invariante.
110 Autovalores y autovectores
A
B
Figura 4.2: Rotacin de ngulo 3 en torno del eje x 3
U
-
Ejemplo 4.3
a
r
En R3 consideramos una rotacin de 3 en torno del eje x 3 . Razonando como en el ejemplo 4.2, deducimos que la
ie
cos 3 sen 3 0
1/2 3/2 0
p
A = sen 3 cos 3 0 = 3/2 1/2 0
g
In
0 0 1 0 0 1
Antes de hacer ningn clculo, podemos anticipar que el eje x 3 ser un autoespacio asociado al autovalor uno. El
e
polinomio caracterstico es a
d
p p
p A (t ) = (t 1) t 2 t + 1 = (t 1) t 1+i2 3 t 1i2 3
d
a
Llamando p p
lt
1+i 3 1i 3
1 = 2 = 3 = 1
cu
2 2
los autoespacios correspondientes son
a
F
i
i
0
S 1 = gen 1 S 2 = gen 1 S 3 = gen 0
0 0 1
Es claro que el plano x 1 x 2 no puede ser autoespacio, porque ninguno de sus vectores (distinto del nulo) se transforma
en mltiplo de s mismo. Sin embargo, es un subespacio invariante. En efecto, llamando S al plano x 1 x 2 , tenemos que
S = gen {e 1 , e 2 }. Sus elementos son de la forma e 1 + e 2 con , R. Luego sus transformados son elementos del
mismo subespacio:
p
1/2 3/2 0 1 0
p
A e 1 + e 2 = 3/2 1/2 0 0 + 1
0 0 1 0 0
p
1/2 3/2
p
= 3/2 + 1/2
0 0
Autovalores y autovectores 111
que al menos una raz es un nmero real. Esto seala una notable diferencia con los movimientos en R2 .
Ejercicio. Demuestre que la suma de autoespacios de una matriz A Knn es un subespacio invariante por A. Es
siempre esta suma un autoespacio?
Ejercicio. Demuestre que si A es una matriz con elementos en R y C es un autovalor con un autovector asociado
v Cn , entonces es un autovalor con un autovector asociado v (es decir, con todos sus elementos conjugados).
A
B
U
-
a
r
ie
en
g
In
e
d
d
a
lt
cu
a
F
112 Autovalores y autovectores
Al comienzo de la seccin anterior habamos considerado la reflexin con respecto a un subespacio y elegido una base
B adecuada para que la matriz asociada [R]B fuera diagonal. Dicha base contiene lo que llamamos autovectores. Con los
cambios de base, la relacin entre las matrices (4.1) y (4.2) es
En esta seccin generalizaremos esta idea, buscando para cada matriz A una matriz inversible P de modo tal que resulte
A = P DP 1 siendo D una matriz diagonal. Veremos en qu condiciones es posible lograr esto. Para ello, daremos previamente
algunas definiciones.
A
B
Definicin 4.5
U
Dadas las matrices A Knn y B Knn , se dice que son semejantes si existe una matriz inversible P Knn tal que
-
A = P B P 1
a
r
ie
en
g
In
N Evidentemente, las matrices [R]E y [R]B son semejantes: basta con observar la ecuacin (4.5) y considerar P = C B E .
No es difcil extender este razonamiento para concluir que dos matrices f B 1 y f B 2 asociadas a una misma
e
transformacin lineal f con respecto a dos bases distintas son semejantes. En otras palabras: podemos interpretar
d
A la luz de este ltimo comentario, es de esperar que las matrices semejantes tengan muchas propiedades y caractersticas
lt
en comn: las llamaremos propiedades invariantes por semejanza. Recogemos algunas de ellas en el teorema siguiente.
cu
a
Teorema 4.2
F
Sean A Knn y B Knn matrices semejantes, es decir que existe una matriz inversible P Knn tal que A = P B P 1 .
Entonces se cumple que
1 p A (t ) = p B (t )
3 det A = det B
4 tr A = tr B
5 rango A = rango B
Demostracin:
Autovalores y autovectores 113
p A (t ) = det(A t I ) = det(P B P 1 t I )
= det(P B P 1 t P P 1 ) = det P (B t I )P 1
= det(B t I ) = p B (t )
B
U
Ejercicio.
-
4.3 Considere las matrices
a
" # r " #
1 1 1 0
A= y I=
0 1 0 1
ie
en
La definicin que sigue refleja la idea con que comenzamos este captulo: buscar una base para la que la representacin
e
d
Definicin 4.6
lt
Como primer ejemplo de matriz diagonalizable, retomamos la que ya fuera estudiada en el ejemplo 4.1.
Ejemplo 4.4
La matriz
1 2 2
1
A= 2 1 2
3
2 2 1
representa, en coordenadas con respecto a la base cannica, una reflexin. Consideramos una base formada por
autovectores asocidados, respectivamente, a los autovalores 1 = 1, 2 = 3 = 1:
Siguiendo la ecuacin (4.5), proponemos una matriz P que sea el cambio de coordenadas de la base B a la base
114 Autovalores y autovectores
cannica y una matriz diagonal D que representa a la reflexin con respecto a la base de autovectores:
1 1 1 1 0 0
P = 1 1 0 D = 0 1 0
1 0 1 0 0 1
Ejercicio.
A
B
4.4 Demuestre que la matriz A del ejemplo 4.2 es diagonalizable. Encuentre una matriz inversible P y una matriz
U
diagonal D de modo tal que sea A = P DP 1 . Son nicas?
-
El ejemplo y el ejercicio anteriores involucran matrices diagonalizables. Llegados a este punto nos preguntamos entonces si
a
toda matriz A Knn es diagonalizable. La respuesta ser negativa. Sin embargo, tenemos hasta ahora pocos elementos para
r
asegurar que no se puede diagonalizar cierta matriz: habra que probar que no es semejante a ninguna matriz diagonal. Para
ie
Teorema 4.3
g
In
Una matriz A Knn es diagonalizable si y slo si existe una base de Kn1 formada por autovectores de A.
e
d
Demostracin:
d
Debemos probar una doble implicacin: comenzamos por el caso que ya se vio en los ejemplos, es decir, suponemos que
a
existe una base B = {v 1 , v 2 , ..., v n } formada por autovectores de A. Denotamos como i a los autovalores correspondientes.
lt
1
0
a
h i . . ..
F
P = v1 v2 vn D = .. .. .
0 n
La matriz P Knn es de rango n (por qu?) y por lo tanto inversible. Si logramos probar que AP = P D, multiplicando a
derecha por P 1 obtendremos A = P DP 1 como queremos.
h i
AP = A v 1 v 2 v n
h i
= Av 1 Av 2 Av n
h i
= 1 v 1 2 v 2 n v n
1
0
. .. ..
h i
= v1 v2 vn .. . .
0 n
= PD
Autovalores y autovectores 115
Recprocamente, suponemos ahora que la matriz A es diagonalizable, es decir que A = P DP 1 para cierta matriz inversible
h i
P = p1 p2 pn
0 n
Probaremos que las columnas de P constituyen la base de autovectores buscada. En primer lugar, dichas columnas son
una base de Kn1 , puesto que P es inversible. Falta ver que son autovectores de A. Para ello deducimos de A = P DP 1 que
AP = P D, con lo cual h i h i
Ap 1 Ap 2 Ap n = 1 p 1 2 p 2 n p n
A
vale decir que Ap i = i p i para i = 1, 2, ..., n como queramos.
B
Usaremos este teorema para nuestro primer ejemplo de matriz no diagonalizable.
U
-
Ejemplo 4.5
Consideremos la matriz
a
"
r #
4 1
ie
A=
0 4
en
Su polinomio caracterstico es p A (t ) = (t 4)2 , de modo que su nico autovalor es 1 = 4 con multiplicidad algebraica
g
(" #)
1
S 2 = gen
0
e
d
Destacamos del ejemplo anterior que el autoespacio asociado al autovalor 1 = 4 es de dimensin uno: como no hay ms
lt
cu
autovalores, ser imposible construir una base de autovectores. Dicho de otra manera: dado que la multiplicidad algebraica
de 1 = 4 es dos, habramos necesitado que el autoespacio asociado tuviera la misma dimensin para poder diagonalizar.
a
Esta observacin se puede generalizar: una matriz es diagonalizable si y slo si la multiplicidad algebraica de cada autovalor
F
Demostrar esta ltima afirmacin no es inmediato y lo haremos en varios pasos. Aunque algunas demostraciones son un
poco exigentes, creemos que sern un buen repaso de los conceptos sobre autovectores y autovalores. Comenzamos con
una definicin.
Definicin 4.7
Dada una matriz A Knn , para cada autovalor definimos su multiplicidad geomtrica como la dimensin del
autoespacio asociado.
Teorema 4.4
Dado un autovalor de una matriz A Knn , su multiplicidad geomtrica es menor o igual que su multiplicidad
algebraica:
m
Demostracin:
Como es usual, denotamos mediante S al autoespacio asociado al autovalor . Abreviamos como su multiplicidad geo-
mtrica: = dim (S ). Consideramos una base B = v 1 , v 2 , ..., v del autoespacio S y la completamos para obtener una
A
la base B , o sea
B
M = [T ]B
U
por lo que A y M son matrices semejantes. La matriz M , de acuerdo con la proposicin 2.5, tiene por columnas las coorde-
-
nadas con respecto a la base B de los transformados de los vectores de esa base. En el caso de los autovectores tenemos, para
a
i = 1, ..., : r
T (v i ) = v i [T (v i )]B = [v i ]B
ie
donde [v i ]B es una columna de ceros, salvo en la i -sima posicin, donde hay un uno. De esta forma, las primeras columnas
en
de M son
0 0
g
0 0
In
. . . ..
. . .
. . . .
e
0 0
d
0 0 0
d
.. .. . . .
. . . ..
a
0 0 0
lt
cu
M=
0 D
F
donde el primer bloque I K es una matriz diagonal con valor en la diagonal. El resto de los bloques son matrices con
los tamaos adecuados 1 . Por ser A y M semejantes, tienen igual polinomio caracterstico (teorema 4.2) y por ende
p A (t ) = p M (t ) = det (M t I )
" #
( t )I C
= det
0 D tI
(El smbolo I debe interpretarse como una matriz identidad del tamao adecuado). Se puede deducir de la definicin de
determinante (cualquiera que se haya estudiado), que en este caso equivale al producto de los determinantes de los bloques
diagonales:
p A (t ) = det [( t )I ] det [D t I ]
= ( t ) det [D t I ]
1 C K(n) , D K(n)(n) y 0 K(n)
Autovalores y autovectores 117
La ltima expresin muestra al polinomio caracterstico de A como un producto de polinomios: el segundo de ellos se des-
conoce, por lo tanto la multiplicidad de como raz de p A (t ) es al menos igual a , como queramos probar.
Teorema 4.5
Sea A Knn y sean v 1 , v 2 , ..., v r autovectores correspondientes a autovalores distintos. Entonces v 1 , v 2 , ..., v r son li-
nealmente independientes.
Demostracin:
Llamamos 1 , 2 , ..., r a los autovalores (todos distintos) de modo tal que
Av i = i v i i = 1, ..., r
A
B
En primer lugar, el conjunto {v 1 } es linealmente independiente, porque v 1 no es nulo. Probaremos que se pueden agregar
U
sucesivamente todos los autovectores v 2 , ..., v r obteniendo en cada paso un conjunto linealmente independiente. Para ello,
y razonando inductivamente, probaremos que agregar uno de estos vectores siempre produce un nuevo conjunto lineal-
-
mente independiente. Consideramos entonces que el conjunto {v 1 , ..., v h } es linealmente independiente (donde h podra ser
a
1, 2, ..., r 1); mostraremos que al agregarle un autovector se mantiene independiente. Planteamos una combinacin lineal
r
del conjunto {v 1 , ..., v h , v h+1 } que da cero
ie
i (h+1 i ) = 0 i = 1, ..., h
i = 0 i = 1, ..., h
con lo cual hemos probado que la nica solucin de la ecuacin (4.6) es la trivial 1 = ... = h = h+1 = 0, de modo que
{v 1 , ..., v h , v h+1 } es independiente.
118 Autovalores y autovectores
Ejercicio. Demuestre que una matriz A Cnn con todos sus autovalores de multiplicidad algebraica uno es diagona-
lizable.
Si reunimos los resultados de los ltimos teoremas 4.3, 4.4 y 4.5 resulta que para poder diagonalizar una matriz A Knn es
condicin necesaria y suficiente encontrar una base de autovectores. Ahora bien, si la matriz tiene r autovalores distintos i ,
sus multiplicidades algebraicas m i verifican
m 1 + m 2 + ... + m r = n
Sabemos que a cada autovalor i correspondern i autovectores independientes (que tambin sern independientes del
resto de los autovectores). Como i m i resulta
1 + 2 + ... + r n
y la igualdad se dar si i = m i para todo i = 1, ..., r . Esta es la nica forma de que exista una base de n autovectores.
A
Resumimos este argumento en el teorema siguiente.
B
Teorema 4.6
U
Una matriz A Cnn es diagonalizable si y slo para cada autovalor coinciden sus multiplicidades algebraica y geo-
-
mtrica.
a
r
ie
Ejercicio.
en
2 5 3
In
A= 5 2 c
0 0 3
e
d
Decida para qu valores de c R es diagonalizable. Encuentre, en tales casos, una matriz inversible P y una matriz
diagonal D tales que A = P DP 1 .
d
a
lt
cu
Comenzamos esta seccin retomando el ejemplo 4.2 de la rotacin en R2 . Vamos a indagar qu ocurre al componer rotacio-
nes y cmo resulta la representacin matricial.
Ejemplo 4.6
Consideremos la rotacin de ngulo 3 con centro en (0, 0). Si denotamos por f : R2 R2 a esta transformacin lineal,
la matriz asociada con respecto a la base cannica es, como ya habamos visto,
p
cos 3 sen 3
" # " #
1/2 3/2
A= f E = = p
sen 3 cos 3 3/2 1/2
Como ya habamos sealado en el captulo 2, el producto de las matrices se corresponde con la composicin de las
transformaciones que representan. Por lo tanto, hemos de esperar que A.A sea la matriz que representa una rotacin
de ngulo 3 + 3 = 2 3 :
p p p
cos 2 3 sen 2 3
" #" # " # " #
1/2 3/2 1/2 3/2 1/2 3/2
A.A = p p = p =
sen 2 3 cos 2 3
3/2 1/2 3/2 1/2 3/2 1/2
Para representar con generalidad esta clase de producto, adoptamos la notacin ms obvia.
A
Definicin 4.8
B
Dada una matriz A Knn definimos para cualquier n N su potencia n-sima mediante
U
A0 = I A n = |A A{z A}
-
n veces
a
r
ie
en
Ejercicio.
g
In
A=
d
sen cos
d
El clculo de las potencias se simplifica mucho para el caso de las matrices diagonalizables. En efecto, dada una matriz
diagonalizable A Knn , sabemos que existen P inversible y D diagonal tales que A = P DP 1 , con lo cual
a
F
n
A n = P DP 1 = P DP 1 P DP 1 P DP 1 = P D n P 1
(4.7)
| {z }
n veces
y en la ltima expresin la matriz D n es una matriz diagonal con las potencias n-simas de los autovalores de A.
Ya mencionamos que las potencias de una matriz se asocian con la composicin de transformaciones lineales. En el ejemplo
siguiente veremos cmo estas potencias pueden usarse en las aplicaciones para representar la repeticin de cierto proceso.
Los lectores interesados encontrarn ms ejemplos de aplicaciones en [6] y [5].
Ejemplo 4.7
Consideremos que dos empresas lcteas abastecen de leche a cierta poblacin. Con el tiempo, parte de los clientes
cambian su preferencia por distintas razones (publicidad o costo entre otras). Buscamos modelar y analizar el mo-
vimiento de clientes entre los proveedores asumiendo, por simplicidad, que el nmero total de clientes permanece
constante. Supongamos que al comenzar nuestro modelo las dos empresas, E 1 y E 2 , controlan a 0 = 32 y b 0 = 13 (res-
120 Autovalores y autovectores
Estamos suponiendo que ninguna otra productora de leche interviene en el mercado, por eso se cumple que a 0 +b 0 =
1. Supongamos que despus de un mes la empresa E 1 ha logrado mantener el 80 % de sus propios clientes y ha atrado
al 30 % de los clientes de E 2 . Por otra parte, la empresa E 2 ha logrado atraer al 20 % de los clientes de E 1 y conserva el
70 % de su propia clientela. Teniendo en cuenta las consideraciones anteriores, pueden obtenerse las fracciones a 1 y
b 1 de clientes que tiene cada una de las empresas al cabo de un mes:
a 1 = 0, 8a 0 + 0, 3b 0
b 1 = 0, 2a 0 + 0, 7b 0
En forma matricial
A
" # " #" #
a1 0, 8 0, 3 a0
=
B
b1 0, 2 0, 7 b0
U
| {z } | {z } | {z }
x1 A x0
La matriz A contiene la informacin sobre el intercambio de clientes entre ambas empresas. Si asumimos que esta
-
forma de intercambiar clientes se mantiene estable, podemos obtener una sucesin de vectores en R2
a
r
x 1 = Ax 0
ie
x 2 = Ax 1
en
..
.
g
In
x k = Ax k1
donde cada x k es el vector de estado al cabo de k meses. Esta sucesin puede expresarse en trminos de las potencias
e
x 1 = Ax 0
a
x 2 = Ax 1 = A Ax 0 = A 2 x 0
lt
..
cu
.
x k = Ax k1 = A Ax k2 = = A k x 0
a
F
Calculemos las potencias de A aplicando diagonalizacin. Dejamos a cargo del lector verificar que
" # " #
1 3 1 1 0
A = P DP con P = y D=
2 1 0 0, 5
El aspecto ms interesante es la posibilidad de predecir el comportamiento de un sistema (en este caso el compor-
tamiento del mercado lcteo) a largo plazo. Esto significa preguntarnos qu ocurre con x k cuando consideramos un
nmero grande de perodos de tiempo (meses en este caso). Cuando k tiende a infinito, la matriz D k tiende a a
" #
1 0
D =
0 0
Autovalores y autovectores 121
El vector lmite x indica que, si se cumplen las suposiciones que hicimos, las empresas E 1 y E 2 tendern a controlar
el 60 % y el 40 % del mercado respectivamente.
a Entendemos que este lmite es intuitivamente claro y omitimos su definicin formal. Tan slo mencionamos que se puede usar la norma de
matrices que induce el producto interno del ejemplo 3.2, con la cual el lmite D k D significa que D k D 0 conforme k .
A
B
Ejercicio. Compruebe que en el ejemplo anterior el vector lmk x k es independiente de cul sea el vector de estado
U
inicial. " #
a
Sugerencia: considere x 0 = donde 0 a 1
-
a 1
a
r
A continuacin indagamos si es siempre posible encontrar un lmite para una sucesin de matrices o de vectores.
ie
en
Ejemplo 4.8
g
Consideramos " #
In
2 3
A=
0 1/2
e
" # " #
d
1 1 2 2 0
A = P DP con P = y D=
a
0 1 0 1/2
lt
Luego
cu
" #
k 2k 0
D =
a
0 (1/2)k
F
Como no existe el lmite de 2k cuando k , no podemos hallar un lmite para la sucesin de matrices A k .
Observamos cmo la convergencia de una sucesin de matrices depende de los autovalores de A.
Dado un vector v R2 , qu ocurre con la sucesin de vectores A k v? Consideremos en primer lugar el caso de los
autovectores de la matriz:
Si v es un autovector asociado al autovalor 2, no existe el lmite de la sucesin de vectores. En efecto, para este
caso es A k v = 2k v.
Entonces, la sucesin de vectores A k v ser convergente si y slo = 0, es decir si v pertenece al autoespacio asociado
al 1/2.
Ejercicio.
" #
2/3 1
A
k 2
4.7 Encuentre, si es posible, lmk A v para v R y A = .
0 1
B
U
La definicin que sigue contiene a las potencias de matrices como un caso particular.
-
a
r
Definicin 4.9
ie
en
Dados un polinomio p(t ) = a k t k + a k1 t k1 + ... + a 1 t + a 0 con a i R (i = 0, 1, ..., k), a k 6= 0 y una matriz A Knn , el
polinomio matricial p(A) es
g
p(A) = a k A k + a k1 A k1 + ... + a 1 A + a 0 I
In
e
d
d
a
Ejemplo 4.9
lt
cu
Consideramos en R3 la reflexin con respecto a un plano S, como en la figura 3.13. Su complemento ortogonal es
S = gen {u}, donde u es un vector que por sencillez elegimos de norma 1. De acuerdo con la definicin 3.18, H =
a
I 2 uu t es la matriz (de Householder) asociada a la reflexin con respecto a S. A su vez uu t es la matriz asociada
F
p(t ) = 2t + 1
p(0) = 2 0 + 1 = 1 p(1) = 2 1 + 1 = 1
obtenemos los autovalores de la reflexin. Ms an, para uu t el autoespacio asociado al 1 es S y pasa a ser el
Teorema 4.7
Dados un polinomio p(t ) = a k t k + a k1 t k1 + ... + a 1 t + a 0 con a i R (i = 0, 1, ..., k), a k 6= 0 y una matriz A Knn
Demostracin:
El caso en que k = 0, es decir con p(t ) = a 0 es inmediato y se deja como ejercicio. En lo que sigue suponemos k 1.
Para probar 1 , consideramos que v es un autovector de A asociado al autovalor . Vale decir que Av = v. Razonando
inductivamente, llegamos a que para cualquier k N: A k v = k v. Demostraremos entonces que p() es autovalor de p(A) y
A
que el mismo v es un autovector asociado:
B
p(A) v = a k A k + a k1 A k1 + ... + a 1 A + a 0 I v
U
= a k A k v + a k1 A k1 v + ... + a 1 Av + a 0 I v
-
= a k k v + a k1 k1 v + ... + a 1 v + a 0 v
a
r
= a k k + a k1 k1 + ... + a 1 + a 0 v = p() v
ie
en
En cuanto a 2 , definimos un polinomio q(t ) = p(t ) . Probaremos en primer lugar que la matriz q(A) = p(A) I es
singular. En efecto, sea v un autovector asociado al autovalor , entonces se tiene
g
In
q(t ) = a k (t t 1 ) (t t 2 ) (t t k )
a
lt
con t i C (i = 1, 2, ..., k). Una consecuencia inmediata de la definicin de polinomio matricial es que si un polinomio se
cu
factoriza como r (t ) = r 1 (t ) r 2 (t ) entonces para cualquier matriz cuadrada A es r (A) = r 1 (A) r 2 (A). Con esto llegamos a
a
q(A) = a k (A t 1 I ) (A t 2 I ) (A t k I )
F
Entonces, al menos uno de estos factores debe anularse. Llamemos t al valor para el cual
det A t I = 0
q t = 0 = p(t )
N Al usar las propiedades 1 y 2 juntas, podemos concluir que calculando = p() para cada autovalor de A,
se agotan todos los autovalores de p(A). Sin embargo, esto no implica una preservacin de las multiplicidades
geomtricas ni algebraicas.
Ejemplo 4.10
La matriz
1 1 0 0
0 1 0 0
A=
0 0 1 1
0 0 0 1
tiene dos autovalores 1 = 1 y 2 = 1, ambos de multiplicidad algebraica dos:
A
B
det(A t I ) = (1 t )2 (1 t )2
U
Sin embargo, las multiplicidades geomtricas son ambas uno:
-
a
S 1 = gen [1 0 0 0]t S 2 = gen [0 0 1 0]t
r
Al considerar el polinomio p(t ) = t 4 2t 2 resulta
ie
en
1 0 0 0
g
0 1 0 0
p(A) = A 4 2A 2 =
In
0 0 1 0
0 0 0 1
e
d
det(A t I ) = (1 t )4 S = R4
a
lt
Por lo tanto, en este caso la matriz no diagonalizable A se transform en la matriz diagonalizable p(A).
cu
a
F
" #
0 1
Ejercicio. Demuestre que la matriz A = no es diagonalizable y que sin embargo A 2 lo es.
0 0
Ejercicio.
A es inversible.
A 2 + 2A es singular.
dim [Nul(A 3I )] = 2
Ejercicio.
4.9 Existen una matriz A Knn y un polinomio p P tales que A es diagonalizable pero p(A) no lo es?
A
B
U
-
a
r
ie
en
g
In
e
d
d
a
lt
cu
a
F
A
B
U
-
a
r
ie
en
g
In
A
B
U
5.1 Matrices ortogonales y unitarias
-
a
r
Comenzamos este captulo sealando algunos aspectos de la reflexin con respecto a un subespacio. En el ejemplo 3.20
ie
habamos obtenido, para la reflexin con respecto a un plano de R3 , la siguiente matriz asociada con respecto a la base
en
cannica:
9 6 2
1
g
A= 6 7 6 (5.1)
In
11
2 6 9
e
1. Es simtrica: A = A t .
d
a
2. Es involutiva: A 2 = I , lo cual puede anticiparse por las caractersticas de la reflexin y comprobarse por un clculo
lt
directo.
cu
At A = I
Ya habamos mencionado (al estudiar la descomposicin QR en el teorema 3.14) que si esto ocurre es porque las columnas
de A son una base ortonormal de Col A. Dado que las columnas de A son los transformados de los vectores de la base can-
nica, destacamos que en esta reflexin la base cannica se transforma en otra base ortonormal.
Convencin
En todo este captulo, siempre que se mencionen Rn y Cn como espacios con producto interno, se entender que es
el producto interno cannico como se lo defini en 3.1 y 3.5 respectivamente.
Definicin 5.1
PHP = PPH = I
o, de manera equivalente, si P H = P 1 .
En el caso particular de una matriz unitaria P Rnn resulta
PtP = PPt = I
A
Ejercicio.
B
Demuestre que si una matriz P Knn es unitaria entonces P H tambin lo es.
U
Demuestre que el producto de matrices unitarias es una matriz unitaria.
-
a
r
El teorema que sigue establece formalmente lo que ya habamos sealado acerca de las columnas ortonormales. Se enuncia
para matrices en Cnn y entre parntesis puede leerse la versin para matrices en Rnn .
ie
en
Teorema 5.1
g
1 P es unitaria (ortogonal).
e
d
Demostracin:
a
Slo demostraremos el caso en que P es unitaria, ya que el caso en que la matriz es ortogonal se deduce empleando los
F
mismos argumentos.
En primer lugar, para probar que 1 2 , el argumento es el mismo que se us en el teorema 3.14 al estudiar la descompo-
sicin QR.
Recprocamente, si las columnas de P forman una base ortonormal de Cn , entonces P H P = I . Ahora bien, esto significa que
la matriz P H es la inversa de P . 1 Luego P H = P 1 y por lo tanto 2 1 .
Para probar las restantes equivalencias, alcanza con demostrar que 1 3 . Suponiendo en primer lugar que vale 1 , es decir
que P es unitaria, entonces P t tambin es unitaria (prubelo!) con lo cual, apelando a 2 resulta que sus columnas son una
base ortonormal. Pero las columnas de P t son las filas de P y por ende 1 3 .
Recprocamente, si las filas de P forman una base ortonormal de Cn , entonces las columnas de P t forman una base ortonor-
mal. Apelando a 2 deducimos que P t es unitaria y luego P es tambin unitaria. Esto prueba que 3 1 .
1 Una propiedad de las matrices cuadradas es que B A = I B = A 1 , es decir que alcanza con ser inversa por izquierda para ser la inversa (ver [4]).
Matrices simtricas y hermticas 129
Al comienzo de esta seccin estudiamos un ejemplo de la reflexin y su representacin matricial. Por tratarse de un movi-
miento debe preservar la norma de los vectores y los ngulos: veremos a continuacin que cualquier transformacin deter-
minada por una matriz unitaria verifica estas propiedades.
Teorema 5.2
3 Si C es un autovalor de P , entonces || = 1.
4 |det P | = 1
A
B
Demostracin:
U
Para demostrar 1 usamos la definicin del producto interno cannico:
-
(Pu, P v) = (Pu)H P v = u H P H P v = u H v = (u, v)
a
r
La propiedad 2 es una consecuencia de 1 y la dejamos como ejercicio.
ie
Sea C un autovalor de P . Vale decir que existe un vector no nulo v Cn tal que P v = v. Luego, usando 2 y teniendo en
en
De acuerdo con la proposicin 4.4, el determinante de una matriz es el producto de sus autovalores contando multiplicida-
des. Como en este caso se trata de autovalores de mdulo uno, resulta la propiedad 4 .
e
d
4
a
lt
cu
a
F
130 Matrices simtricas y hermticas
En esta seccin estudiaremos una clase de matrices diagonalizables de especial inters: las matrices simtricas y su genera-
lizacin a C espacios.
Definicin 5.2
At = A
A
B
y se dice que A es una matriz simtrica.
U
-
Ejercicio. Demuestre que los elementos de la diagonal principal de una matriz hermtica son siempre nmeros reales.
a
r
ie
Ejemplo 5.1
en
" #
1 3
In
A=
3 1
e
Su polinomio caracterstico es
d
p A (t ) = t 2 2t 8 = (t 4)(t + 2)
d
con lo cual sus autovalores son 1 = 4 y 2 = 2. En cuanto a los autoespacios, estos son
a
lt
Entonces definiendo v 1 = [1 1]t y v 2 = [1 1]t resulta B = {v 1 , v 2 } una base ortogonal de R2 . Si adems normalizamos
a
v1 v2 1 t 1 t
1 1
B= , = p p , p p
kv 1 k kv 2 k 2 2 2 2
Observamos que A no slo es diagonalizable, sino que adems hemos podido elegir la matriz de autovectores que
aparece en su diagonalizacin de forma que sea ortogonal.
Matrices simtricas y hermticas 131
Ejercicio.
5.1 Considere la matriz asociada a la reflexin (5.1) presentada al comienzo de este captulo y encuentre una diagona-
lizacin como en (5.2), es decir, con la matriz P ortogonal.
Sugerencia: en lugar de hacer los clculos del polinomio caracterstico y autoespacios, se pueden conocer sus autovalo-
res y autovectores asociados considerando la interpretacin geomtrica del ejemplo 3.20.
Ejemplo 5.2
A
p A (t ) = t 2 2t = t (t 2)
B
y sus autovalores son 1 = 2 y 2 = 0, ambos reales. En cuanto a los autoespacios, estos son
U
S 1 = gen [i 1]t S 2 = gen [i 1]t
a
con lo cual, llamando v 1 = [i 1]t y v 2 = [i 1]t resulta B = {v 1 , v 2 } una base ortogonal de C2 . Si adems normalizamos
r
a estos vectores obtenemos una base ortonormal de C2 compuesta por autovectores de A:
ie
en
v1 v2 i 1 t i 1 t
B= , = p p , p p
kv 1 k kv 2 k 2 2 2 2
g
In
i/ 2 i / 2 2 0
P= p p y D=
d
1/ 2 1/ 2 0 0
d
A = P DP 1 = P DP H (5.3)
lt
cu
En este caso hemos podido elegir la matriz de autovectores de forma que sea unitaria.
a
F
Las diagonalizaciones (5.2) y (5.3) sern de especial inters y llevan nombre propio.
Definicin 5.3
Una matriz A Rnn se dice diagonalizable ortogonalmente si existen P Rnn ortogonal y D Rnn diagonal
tales que
A = P DP t (5.4)
Una matriz A Cnn se dice diagonalizable unitariamente si existen P Cnn unitaria y D Cnn diagonal tales
que
A = P DP H (5.5)
Es obvio que toda matriz diagonalizable unitariamente es, en particular, diagonalizable. Adems, por lo que ya sabemos so-
bre diagonalizacin de matrices, las columnas de la matriz P son autovectores de A. Queda claro que si A es diagonalizable
132 Matrices simtricas y hermticas
Teorema 5.3
Una matriz A Cnn (A Rnn ) es diagonalizable unitariamente (ortogonalmente) si y slo si existe una base orto-
normal de Cn (Rn ) compuesta por autovectores de A.
El teorema siguiente ratifica la generalidad de los comentarios hechos en los ejemplos 5.1 y 5.2.
A
Teorema 5.4 (Espectral)
B
Sea A Cnn una matriz hermtica. Entonces vale lo siguiente:
U
1 Todos sus autovalores son nmeros reales.
-
a
2 Autoespacios asociados a diferentes autovalores son mutuamente ortogonales.
r
ie
3 Es diagonalizable unitariamente.
en
Demostracin:
En lo que sigue, usaremos la siguiente propiedad de las matrices hermticas, vlida para u, v Cn :
e
d
Para demostrar 1 , consideremos un autovalor de A. Sea v un autovector asociado a . Entonces, por una parte es
a
F
Luego (v, v) = (v, v) y por ser (v, v) 6= 0 resulta = . Entonces es necesariamente real.
Para demostrar 2 , consideremos y dos autovalores distintos de A. Para probar que S S bastar con ver que si u S
y v S entonces (u, v) = 0. Teniendo en cuenta que , R:
1
f (x) =
x
Su grfico, que se aprecia en la figura 5.1, es usualmente conocido como hiprbola equiltera2 y queda caracterizado por la
ecuacin
xy =1
que, a primera vista, no parece tener mucha relacin con la ecuacin cannica de las hiprbolas
A
x2 y 2
B
=1
a2 b2
U
Se trata realmente de una hiprbola? Veremos que s, que la curva grfico de la funcin f es efectivamente una hiprbola: lo
-
que sucede es que sus ejes principales estn rotados con respecto a los ejes x e y.
a
r
ie
en
g
In
e
d
d
a
lt
cu
a
F
x1 x2 = 1
y destacamos que la matriz A es simtrica. Por lo tanto, y de acuerdo con el teorema espectral 5.4, es diagonalizable ortogo-
nalmente. Es decir, existe una base ortonormal B = {b 1 , b 2 } cuyos vectores podemos expresar como columnas de una matriz
P de modo tal que A = P DP t , siendo D una matriz diagonal:
" p p #" #" p p #
1/ 2 1/ 2 1/2 0 1/ 2 1/ 2
A= p p p p
1/ 2 1/ 2 0 1/2 1/ 2 1/ 2
La matriz P expresa el cambio de coordenadas de base B a base cannica, es decir P = C B E . Por ende C E B = P 1 = P t . De
esta forma, la expresin P t x indica las coordenadas del vector x con respecto a la nueva base de autovectores. Adoptamos la
notacin " #
y1
A
t
P x=y=
y2
B
con lo que la ecuacin original en coordenadas cannicas equivale, en coordenadas con respecto a la base B , a la ecuacin
U
" #
1/2 0 1 1
-
t t
y Dy =1 y y = 1 y 12 y 22 = 1
0 1/2 2 2
a
r
que reconocemos como la ecuacin cannica de una hiprbola.
ie
en
La exposicin anterior pretende poner de manifiesto la importancia que tienen las expresiones de la forma x t Ax y los cam-
bios de coordenadas que admiten. La definicin que sigue permitir generalizar estas ideas.
g
In
Definicin 5.4
e
Q(x) = x t Ax
d
a
Ejemplo 5.3
Q : Rn R, Q(x) = kxk2
Ejemplo 5.4
Un sencillo clculo muestra que Q(x) = 4x 12 + 3x 22 . En general, si A = a i j Rnn es una matriz diagonal se tiene que
Q(x) = a 11 x 12 + ... + a nn x n2 = a i i x i2
X
1i n
A este tipo de forma cuadrtica se la denomina forma diagonal o sin productos cruzados.
Ejercicio.
5.2 Decida si una forma cuadrtica Q(x) = x t Ax define una transformacin lineal de Rn R.
A
Ejemplo 5.5
B
Sea Q : R3 R, Q(x) = x t Ax con
U
5 1 2
A= 1 2 3
-
2 3 1
a
r
Efectuando el producto x t Ax obtenemos (verificarlo!)
ie
Q(x) = 5x 12 + 1x 1 x 2 2x 1 x 3 + 1x 2 x 1 2x 22 + 3x 2 x 3 2x 3 x 1 + 3x 3 x 2 1x 32
en
que es la sumatoria de todos los posibles productos x i x j multiplicados por el correspondiente coeficiente a i j de la
g
In
matriz A, es decir
X
Q(x) = ai j xi x j
1i , j 3
e
d
Q(x) = 5x 12 + 2 1x 1 x 2 2 2x 1 x 3 2x 22 + 2 3x 2 x 3 1x 32
a
lt
con lo cual slo aparecen trminos de la forma x i x j con i j multiplicados por a i i si i = j y por 2a i j si i < j . En otras
cu
palabras
a i i x i2 + 2
X X
a
Q(x) = ai j xi x j
F
1i 3 1i < j 3
El argumento del ejemplo anterior se generaliza sin dificultad para dar la expresin general de una forma cuadrtica.
Proposicin 5.1
a i i x i2 + 2
X X
Q(x) = ai j xi x j
1i n 1i < j n
136 Matrices simtricas y hermticas
Ejercicio.
5.3
1 0 3
A
B
Ejemplo 5.6
U
Sea una funcin Q : R2 R definida mediante Q(x) = x t B x con
-
" #
5 1
a
B= r
4 2
ie
Aparentemente Q(x) no es una forma cuadrtica, pues B no es simtrica. Sin embargo s lo es, ya que
en
Q(x) = 5x 12 + x 1 x 2 4x 2 x 1 2x 22 = 5x 12 3x 1 x 2 2x 22 = x t Ax
g
In
donde " #
5 3/2
A=
e
3/2 2
d
d
a
lt
El ltimo ejemplo sugiere que cualquier expresin de la forma x t B x define una forma cuadrtica. Veamos que es efectiva-
cu
Q : Rn R, Q(x) = x t B x
F
Entonces
t
x t B x = x t B x = x t B t x 2Q(x) = x t B x + x t B t x = x t B + B t x
y por lo tanto
B +Bt
Q(x) = x t x
2
B +B t
de modo que Q(x) es una forma cuadrtica, porque 2 es una matriz simtrica.
Ahora que ya hemos establecido las definiciones bsicas, mostraremos con un nuevo ejemplo que mediante un cambio de
variable adecuado es posible transformar una forma cuadrtica con productos cruzados en una forma diagonal.
Matrices simtricas y hermticas 137
Ejemplo 5.7
Podemos realizar un cambio de variable adecuado para que, en coordenadas con respecto al nuevo sistema de re-
ferencia, no tenga trminos de producto cruzado. Para ello, realizamos una diagonalizacin ortogonal de la matriz
A: " # " # " #
1 1 1 1 0 1 1 1
A= p p (5.6)
2 1 1 0 3 2 1 1
| {z } | {z } | {z }
P D Pt
A
Luego la expresin de Q(x) puede escribirse como
B
t
Q(x) = x t P DP t x = P t x D P t x
-
y con el cambio de variables y = P t x equivale a
a
= y t D y = y 12 + 3y 22
Q(y)
r
ie
en
Como la diagonalizacin ortogonal puede aplicarse a cualquier matriz simtrica, el mtodo aplicado en el ejemplo anterior
g
tiene generalidad.
In
Sea A Rnn una matriz simtrica. Entonces existe un cambio ortogonal de variable x = P y (con P Rnn ortogonal)
d
que cambia la forma cuadrtica Q(x) = x t Ax en una sin productos cruzados, es decir,
d
a
Q(x) = Q(y) = ytD y
lt
cu
con D Rnn diagonal. Adems, los elementos de la diagonal de D son los autovalores de A y las columnas de la matriz
P son autovectores de A y forman una base ortonormal de Rn .
a
F
Demostracin:
Con el objeto de simplificar la expresin de Q(x), es decir, de eliminar los trminos de la forma x i x j con i 6= j , consideramos
el cambio de variable x = P y con P inversible:
Como queremos que Q(y) est libre de productos cruzados, debemos elegir P de modo tal que la matriz D = P t AP sea
diagonal. Esto siempre es posible dado que A, por ser simtrica y de acuerdo con el teorema espectral 5.4, es diagonalizable
ortogonalmente. Es decir, existen P ortogonal y D diagonal tales que A = P DP t . Entonces, tomando tal P (cuyas columnas
son autovectores de A y forman una base ortonormal de Rn ) y efectuando el cambio de variable x = P y, tenemos que
Al realizar el cambio de variables x = P y para eliminar los productos cruzados, hemos adoptado una base ortonormal B =
{b 1 , b 2 , ..., b n } (y por ende un sistema de ejes) donde la variable y representa las coordenadas de x (y = [x]B ) de modo tal que
la expresin de Q(x) en trminos de esas coordenadas carece de productos cruzados. Por esta razn a las rectas que generan
los vectores de la base B se las denomina ejes principales de la forma cuadrtica.
N Para construir la matriz de cambio de base P , lo usual es ordenar la base B de modo que resulte det P = 1, pues de
esa manera el sistema de ejes ortogonales definidos por las columnas de P se obtiene rotando el sistema de ejes
cartesiano original.
A
B
U
5.4 Conjuntos de nivel
-
a
r
Comenzamos esta seccin retomando el ltimo ejemplo, para ilustrar una aplicacin del teorema de los ejes principales 5.5.
ie
en
g
In
Ejemplo 5.8
e
Consideramos nuevamente la forma cuadrtica Q : R2 R, Q(x) = 2x 12 2x 1 x 2 + 2x 22 del ejemplo 5.7. Por ser una
d
funcin de R2 R, su grfico es una superficie en R3 , como se aprecia en la figura 5.2a. En este contexto, la ecuacin
d
a
2x 12 2x 1 x 2 + 2x 22 = 4 Q(x) = 4 (5.7)
lt
cu
puede leerse como la pregunta Cules son los elementos [x 1 x 2 ]t del dominio de Q cuya imagen es 4?. De acuerdo
con el teorema de los ejes principales 5.5, y como ya vimos en el ejemplo 5.7, podemos realizar un cambio de variable
a
F
adecuado para que la ecuacin (5.7), en coordenadas con respecto al nuevo sistema de referencia, no tenga trminos
de producto cruzado. Elegimos entonces una base B = {b 1 , b 2 } formada por las columnas de la matriz P con que
diagonalizamos A en (5.6): (" p # " p #)
1/ 2 1/ 2
B= p , p
1/ 2 1/ 2
t
Es decir que, considerando coordenadas y 1 y 2 con respecto a la base B , los puntos que buscamos deben verificar
la ecuacin
y2 y2
Q(x) = 4 Q(y) = 4 y 12 + 3y 22 = 4 12 + 22 = 1
2 p2
3
2
En el nuevo sistema de referencia, resulta claro que los puntos de R que verifican la restriccin constituyen una
elipse, como puede verse en la figura 5.2b.
Destacamos que la nueva base se obtiene mediante una rotacin de la base cannica, porque det P = 1.
Matrices simtricas y hermticas 139
A
B
U
-
(a) Grfico de la funcin Q (b) Conjunto de nivel Q(x) = 4
a
r
Figura 5.2: Forma cuadrtica Q : R2 R
ie
en
Ejercicio.
g
In
5.4 Considere la ecuacin 2x 12 2x 1 x 2 + 2x 22 = k y describa los conjuntos solucin para distintos valores de k R.
e
En el ejemplo anterior hemos indagado el conjunto de puntos del dominio para los que una forma cuadrtica alcanza cierto
d
Definicin 5.5
lt
cu
Dada una forma cuadrtica Q : Rn R y dado un nmero k R, el conjunto de nivel k es el conjunto de puntos de Rn
para los cuales Q toma el valor k. Adoptando la notacin Nk (Q), resulta
a
F
Nk (Q) = x Rn : Q(x) = k
N Aunque nuestra atencin se centra en las formas cuadrticas, el concepto de conjunto de nivel puede extenderse
sin modificaciones a cualquier funcin de Rn R.
Ejercicio.
5.5 Dada la forma cuadrtica Q : R2 R, Q(x) = x 12 8x 1 x 2 5x 22 , estudie y describa N1 (Q), N1 (Q) y N0 (Q).
140 Matrices simtricas y hermticas
La forma cuadrtica definida en el ejemplo 5.8 tiene un grfico que se aprecia en la figura 5.2a: queremos destacar que para
cualquier elemento del dominio R2 , excepto el vector nulo, el valor de la funcin es positivo. Si en cambio consideramos la
forma cuadrtica
Q 1 (x) = x 12 x 22 (5.8)
cuyo grfico se ilustra en la figura 5.3a, en cualquier entorno del (0, 0) existen puntos para los que es positiva (por ejemplo
los (x 1 , 0) con x 1 6= 0); pero tambin existen puntos para los que es negativa (por ejemplo los (0, x 2 ) con x 2 6= 0). Si ahora
definimos la forma cuadrtica
Q 2 (x) = x 12 (5.9)
A
podemos apreciar en su grfico de la figura 5.3b que para cualquier punto es Q 2 (x) 0. Adems, la funcin vale 0 en todos
los puntos del eje x 2 .
B
U
-
a
r
ie
en
g
In
e
d
d
a
lt
cu
Definicin 5.6
5 indefinida si no es ninguna de las anteriores. Es decir, si existen vectores u, v Rn tales que Q(u) > 0 y Q(v) < 0
Matrices simtricas y hermticas 141
De acuerdo con esta clasificacin, la forma cuadrtica graficada en 5.2a es definida positiva, mientras que la graficada en
5.3a es indefinida. En cuanto a la graficada en 5.3b, resulta semidefinida positiva.
Ejercicio.
Q : R3 R, Q(x) = x 12 + 2x 22 + 3x 32
Q : R3 R, Q(x) = x 12 + 2x 22
Q : R4 R, Q(x) = x 12 + 2x 22 3x 32
Q : R3 R, Q(x) = x 12 2x 22 3x 32
Q : R3 R, Q(x) = x 12 2x 22
A
B
U
Definicin 5.7
-
Dada una matriz simtrica A Rnn , decimos que es definida positiva si la forma cuadrtica asociada Q(x) = x t Ax es
a
definida positiva. Anlogamente se define matriz definida negativa, indefinida, etc.
r
ie
Cuando una forma cuadrtica Q : Rn R carece de productos cruzados, es decir, cuando Q(x) = x t D x con
en
g
1
0 0
In
0 2 0
D = .. .. .. ..
.
. . .
e
n
d
0 0
d
Q(x) = 1 x 12 + ... + n x n2 = i x i2
X
lt
1i n
cu
Si Q(x) = x t Ax tiene productos cruzados, es decir, si A no es una matriz diagonal, empleando un cambio de variables orto-
gonal x = P y que elimine productos cruzados, tenemos que
Q(x) = y t D y = Q(y)
con D diagonal. Como Q y Q tienen el mismo signo, y el signo de esta ltima est determinado por los elementos en la
diagonal de D, que son los autovalores de A, tenemos el siguiente resultado.
142 Matrices simtricas y hermticas
Teorema 5.6
Sea A Rnn una matriz simtrica y sean 1 , 2 , ..., n sus autovalores (son todos nmeros reales). Entonces la forma
cuadrtica Q(x) = x t Ax es
A
B
Ejercicio.
U
2 3 0
5.7 Clasifique la forma cuadrtica Q(x) = x t Ax con A = 3 2 4
-
0 4 2
a
r
ie
Ejercicio.
en
5.6
d
En la seccin anterior presentamos a las formas cuadrticas como funciones definidas en todo Rn . Dedicaremos esta seccin
lt
a estudiar las formas cuadrticas y sus extremos cuando estn restringidas a tomar valores en un subconjunto de Rn .
cu
a
Ejemplo 5.9
F
Retomamos la forma cuadrtica Q 1 (x) definida en (5.8) cuyo grfico, como funcin con dominio R2 , est en la figura
5.3a. Evidentemente, la funcin no alcanza extremos absolutos, puesto que
Para puntos de la forma (x 1 , 0) la imagen es x 12 y puede hacerse arbitrariamente positivo. Luego no hay mximo
absoluto.
Para puntos de la forma (0, x 2 ) la imagen es x 22 y puede hacerse arbitrariamente negativo. Luego no hay mnimo
absoluto.
Si en cambio consideramos que la forma cuadrtica slo se evala en los puntos de la circunferencia de centro (0, 0) y
radio uno, es decir si restringimos el dominio al conjunto
D = x R2 : kxk2 = 1
el grfico correspondiente es el de la figura 5.4. Podemos ver que la funcin alcanzar extremos sobre puntos de la
Matrices simtricas y hermticas 143
kxk2 x 12 x 22 x 12 x 22 x 12 + x 22 kxk2
| {z }
Q 1 (x)
resulta
y teniendo en cuenta la restriccin x D,
1 Q 1 (x) 1
Q 1 (x) = 1 kxk2 = 1 x 12 x 22 = 1 x 12 + x 22 = 1
x 12 x 22 = x 12 + x 22 x 12 + x 22 = 1
A
x 22 = 0 x 12 + x 22 = 1
B
x 2 = 0 |x 1 | = 1
U
En este caso, los vectores de la restriccin D sobre los que la forma realiza un valor mximo son x = (1, 0). Dejamos
-
como ejercicio probar que el mnimo sujeto a la restriccin se realiza sobre los vectores x = (0, 1).
a
r
Destacamos que la forma cuadrtica es Q 1 (x) = x t Ax con
ie
en
" #
1 0
A=
0 1
g
In
y que los valores mximo y mnimo que alcanza sujeta a la restriccin kxk = 1 coinciden con los autovalores de A. Ms
aun, dichos extremos se alcanzan sobre los autovectores de norma uno.
e
d
a Un argumento propio del anlisis matemtico es que una funcin continua realiza extremos absolutos cuando su dominio es un subconjunto
cerrado y acotado de Rn . De todos modos, para el caso de las formas cuadrticas lo demostraremos por medios algebraicos.
d
a
lt
cu
a
F
Los argumentos del ltimo ejemplo pueden generalizarse a formas cuadrticas sujetas a una restriccin de la clase kxk2 = k
(donde k > 0).
Sean A Rnn una matriz simtrica y Q(x) = x t Ax la forma cuadrtica que define. Sean M y m los autovalores
mximo y mnimo de A respectivamente, con S M y S m los autoespacios asociados. Entonces para todo x Rn se
verifica que
m kxk2 Q(x) M kxk2
Demostracin:
A
Probaremos la segunda desigualdad y que la forma cuadrtica realiza su mximo en los autovectores asociados al autovalor
mximo. La otra desigualdad es completamente anloga y se deja como ejercicio.
B
U
Por ser A una matriz simtrica, sabemos que existen una matriz ortogonal P y una matriz diagonal D tales que A = P DP t .
-
Adems, las columnas de P forman una base ortonormal de autovectores de A y los elementos de la diagonal de D son los
autovalores respectivos. Elegimos presentar los n autovalores de A en forma decreciente, denotando por a la multiplicidad
a
r
(algebraica y geomtrica) de M :
M = 1 = ... = > +1 ... n
ie
en
h i
De esta forma, denotando P = v 1 v n resulta el autoespacio
g
S M = gen v 1 , ..., v
In
Q(x) = Q(y) = y t D y = 1 y 12 + ... + n y n2
d
2
Q(x) M y 12 + ... + M y n2 = M y 12 + ... + y n2 = M y
cu
vlida para todo x Rn . Como P es una matriz ortogonal, de acuerdo con el teorema 5.2, es kP xk = kxk, luego y = kxk y
a
F
Q(x) = M kxk2
Teniendo en cuenta el cambio de variable x = P y, esto equivale a encontrar los y Rn que verifican
2
1 y 12 + ... + n y n2 = M y = M y 12 + ... + y n2
de donde
2
M y 12 + ... + M y 2 ++1 y +1 + ... + n y n2 = M y 12 + ... + M y n2
| {z }
trminos
Los factores (M i ) de la ltima expresin son todos positivos (por qu?) luego se deduce que debe ser
y +1 = ... = y n = 0
Como v 1 , ..., v es una base de S M , hemos demostrado que Q(x) = M kxk2 si y slo si x S M .
Ejemplo 5.10
A
Consideremos la forma cuadrtica Q(x) = x t Ax con
B
U
3 1 2
A = 1 3 2
-
2 2 0
a
Su polinomio caracterstico es p(t ) = (t +2)(t 4)2 con lo cual los autovalores mximo y mnimo son respectivamente
r
M = 4 y m = 2. Por lo tanto y de acuerdo con el teorema anterior, los valores extremos que alcanza Q sujeta a la
ie
Para hallar los maximizantes y minimizantes, es decir los vectores sobre los que se realizan los extremos, debemos
In
y
d
Entonces Q(x) sujeto a la restriccin kxk = 1 alcanza el mnimo en los vectores unitarios de S m , que en este caso son
d
slo dos
a
2 t 1 2 t
1 1 1
v1 = p p p y v 2 = v 1 = p p p
lt
6 6 6 6 6 6
cu
Con respecto a los maximizantes, son los vectores unitarios de S M , es decir los de la forma
x = [1 1 1]t + [1 1 0]t con kxk = 1
a
F
Para obtener una expresin algo ms explcita de los maximizantes, es conveniente trabajar con una base ortonormal
{v 1 , v 2 } del autoespacio, ya que entonces k1 v 1 + 2 v 2 k2 = 21 +22 . Con esto resulta que los x que maximizan Q sujeta
a la restriccin son aquellos de la forma
x = 1 v 1 + 2 v 2 con 21 + 22 = 1
Como en nuestro caso una base ortonormal de S M es
1 1 1 t
t
1 1
p p p , p p 0
3 3 3 2 2
los maximizantes son los x R3 de la forma:
1 1 1 t
t
1 1
x = 1 p p p + 2 p p 0 con 21 + 22 = 1
3 3 3 2 2
Notamos que en este caso hay un nmero infinito de maximizantes y que constituyen la circunferencia de radio uno
centrada en el origen y contenida en el plano S M .
146 Matrices simtricas y hermticas
A
B
U
Figura 5.5: Forma cuadrtica con dominio restringido a una elipse
-
Ejemplo 5.11
a
r
Buscamos los extremos de la forma cuadrtica Q : R2 R, Q(x) = 4x 1 x 2 sujeta a la restriccin
ie
x 12 + 2x 22 = 2
en
g
Vale decir que debemos encontrar los extremos que realiza la funcin Q cuando su dominio se restringe a la elipse de
In
ecuacin
x1 2
p + x 22 = 1 (5.10)
e
2
d
Para poder aplicar el teorema de Rayleigh 5.7, sealamos que el cambio de variable
lt
x1
cu
y1 = p y 2 = x2
2
a
F
2 p
Luego el valor mximo de Q(y) sujeto a la restriccin y = 1 es 2 2 y se realiza en los vectores de coordenadas
p p t
y = 1/ 2 1/ 2 . Para conocer los vectores originales, debemos deshacer el cambio de coordenadas: entonces el
p p t
valor mximo de Q(x) sujeta a la restriccin (5.10) es 2 2 y se realiza en los vectores x = 1 1/ 2 (vase el grfico).
Se puede comprobar que estos vectores verifican la ecuacin de la elipse y al evaluar Q(x) en ellos se obtiene el valor
predicho.
p p t
Dejamos como ejercicio probar que el valor mnimo es 2 2 y se realiza en los vectores x = 1 1/ 2 .
Ejercicio.
5.9 Encuentre el valor mnimo que realiza la forma cuadrtica Q(x) = 49 x 12 80 125 2 2
9 x 1 x 2 9 x 2 sujeta a la restriccin 4x 1 +
25x 22 = 9. Indique sobre qu vectores se alcanza dicho mnimo.
A
B
Otra dificultad con que podramos encontrarnos es el caso en que la restriccin tiene trminos de producto cruzado. En el
U
ejemplo que sigue presentamos dos estrategias de resolucin, la segunda de gran generalidad.
-
Ejemplo 5.12
a
Buscamos los extremos de la forma cuadrtica Q : R2 R, Q(x) = x 12 + x 22 sujeta a la restriccin
r
ie
2x 12 2x 1 x 2 + 2x 22 = 4
en
La forma cuadrtica es el cuadrado de la norma, mientras que la restriccin ya fue estudiada en el ejemplo 5.8 y
g
graficada en la figura 5.2b. Por lo tanto, el problema tiene una interpretacin geomtrica inmediata: se trata de
In
En primer lugar, y para no confundir con la forma Q(x) = kxk2 , caracterizamos a la restriccin mediante
d
" #
2 2 t 2 1
a
R(x) = 2x 1 2x 1 x 2 + 2x 2 = x x
1 2
lt
| {z }
cu
y 12 y 22
y 12 + 3y 22 = 4 + 2 = 1 (5.13)
22 p2
3
Los puntos de la elipse cuya distancia al origen es mxima tienen, en el nuevo sistema de referencia, coordenadas
[2 0]t . De acuerdo con el cambio de coordenadas x = P y, la mxima distancia al origen se realiza en los puntos
" #" # " # " p #
1 1 1 2 1 2 2
x=p = p = p
2 1 1 0 2 2 2
148 Matrices simtricas y hermticas
El valor que alcanza la forma cuadrtica sobre estos puntos es Q(x) = 4 (verifquelo) porque Q es el cuadrado de la
h q q it
norma. De manera anloga se puede comprobar que en los puntos x = 23 23 se realiza el valor mnimo sobre
la elipse y es Q(x) = 34 .
Presentamos a continuacin una alternativa que tiene mayor generalidad, puesto que se puede aplicar a problemas
sin una interpretacin geomtrica tan inmediata (por ejemplo, aquellos en que Q(x) no es el cuadrado de la norma).
En este problema la dificultad radica en que la restriccin no es de la forma x 12 + x 22 = 1 que ya sabemos manejar. Lo
que buscamos entonces es un cambio de variable que transforme nuestra restriccin en una de la forma estndar.
Se propone entonces un segundo cambio de variable a partir de (5.13) que permita escribir la restriccin en la forma
kuk2 = 1. Dado que
2
y 2 y
1 2
+ = 1
A
2 p2
3
B
y1 y2
la propuesta es u 1 = 2 , u2 = , con la cual la restriccin se reduce a
U
p2
3
-
u 12 + u 22 = 1
a
r
Despejando y 1 = 2u 1 , y 2 = p2 u 2 , el cambio de variable es, matricialmente,
ie
3
en
" #
2 0
y= u
0 p2
g
3
In
| {z }
M
!
t 1 0
Q(x) = x x = (P Mu)t A (P Mu) = u t |M t P{z
t
AP M} u
d
0 1
a
| {z } S
lt
A
cu
Entonces se deben hallar los extremos de u t Su sujeta a la restriccin kuk2 = 1. Dado que
a
!
F
4 0
S=
0 4/3
En este caso, y por haber resultado una matriz diagonal, podemos leer inmediatamente sus autovalores y autovectores.
La desigualdad de Rayleigh 5.7 nos permite afirmar, una vez ms, que
p p t
El mximo es 4 y se alcanza para u = [1 0]t , es decir para x = P Mu = 2 2
h q q it
4
El mnimo es 3 y se alcanza para u = [0 1]t , es decir para x = P Mu = 23 23
Ejercicio.
5.10 Hallar los puntos de la curva de ecuacin 6x 12 +4x 1 x 2 +6x 22 = 1 cuya distancia al origen es mnima y aquellos cuya
distancia es mxima.
Matrices simtricas y hermticas 149
N Los recursos utilizados en el ejemplo anterior pueden generalizarse para demostrar que dada una forma cuadr-
tica Q(x) = x t Ax, sujeta a la restriccin x t B x = k, siempre es posible hallar los extremos cuando B es definida
positiva.
El ejemplo que sigue ilustra las dificultades que pueden ocurrir en otros casos.
Ejemplo 5.13
A
1 2 1 2
B
y y =1
2 1 2 2
U
t
y es claro que pueden elegirse vectores de coordenadas y = y 1 y 2 de modo tal que y = kxk sea arbitrariamen-
-
te grande. De esta forma, no existe un mximo para la norma restringida a la hiprbola, como el grfico permita
a
anticipar. r
ie
en
Ejercicio.
g
5.11 Encuentre los extremos que realiza la forma cuadrtica Q(x) = x 1 x 2 sujeta a la restriccin 2x 12 2x 1 x 2 + 2x 22 = 4.
In
Ejercicio.
d
Encuentre los valores mximo y mnimo que alcanza sujeta a la restriccin kxk2 = 1. Indique en qu vectores
alcanza dichos extremos.
A
B
U
-
a
r
ie
en
g
In
A
B
U
6.1 Introduccin
-
a
r
Como en la ltima seccin del captulo anterior, consideramos el problema de conocer los valores extremos que alcanza una
ie
forma cuadrtica sujeta a una restriccin. En este caso, comenzamos por definir una trasformacin lineal mediante
en
T : R2 R3 , T (x) = Ax
g
In
donde
e
1 0
d
A= 1 1 (6.1)
d
0 1
a
lt
Consideraremos la forma cuadrtica que calcula, para cada vector x R2 , el cuadrado de la norma de su transformado:
cu
Q : R2 R, Q(x) = kAxk2
a
(6.2)
F
donde el producto interno es el cannico. Veamos que la frmula de Q se puede escribir de la manera usual (definida en 5.4)
con una matriz simtrica:
En la figura 6.1 se ilustra cmo T transforma el espacio R2 en un plano de R3 (recordemos que para una transformacin
definida como T (x) = Ax es Im T = Col A). En particular, los vectores de R2 que verifican la restriccin kxk = 1 se transforman
en una elipse. 1
1 Aunque es intuitivamente aceptable, esta afirmacin no es obvia. Ms adelante en este mismo captulo tendremos elementos para demostrarla.
152 Descomposicin en valores singulares
A
B
U
-
a
r
ie
en
Buscamos ahora los vectores de R2 sujetos a la restriccin kxk = 1 en los que Q alcanza sus extremos. De acuerdo con el
teorema de Rayleigh 5.7, esto ocurrir en los autovectores de norma uno de la matriz A t A que define a la forma cuadrtica.
e
En el caso de la matriz en (6.3) los autovalores son 3 y 1 y sus correspondientes autoespacios son
d
1 1
S 3 = gen p [1 1]t S 1 = gen p [1 1]t
d
2 2
a
lt
Por lo tanto, el mximo de kAxk2 sujeta a la restriccin kxk = 1 es 3 y se alcanza en los vectores v 1 = p1 [1 1]t . El mnimo es
2
cu
1 y se alcanza en los vectores v 2 = p1 [1 1]t . De acuerdo con nuestra interpretacin geomtrica, los semiejes de la elipse
p 2
a
en la figura 6.1 miden 3 y 1: estos valores surgen de kAv 1 k y kAv 2 k. Por cierto, Av 1 y Av 2 generan los ejes de simetra de la
F
elipse.
Las definiciones que siguen apuntan a generalizar, para cualquier matriz A Rmn , las observaciones e interpretaciones he-
chas en este ejemplo.
Sealamos, en primer lugar, algunas propiedades que sern de gran utilidad a lo largo del captulo.
Proposicin 6.1
Dada una matriz A Rmn , la matriz A t A Rnn resulta simtrica y semidefinida positiva.
Demostracin:
Verificamos que A t A es simtrica trasponindola:
t t
At A = At At = At A
Descomposicin en valores singulares 153
Por lo tanto, de acuerdo con el teorema espectral 5.4, sus autovalores son nmeros reales. Adems, para cualquier vector
x Rn resulta
x t A t Ax = (Ax)t (Ax) = kAxk2 0
con lo cual es semidefinida positiva y sus autovalores son, como ya vimos en el teorema 5.6, nmeros mayores o iguales que
cero.
Ejercicio.
6.1 Probar que para toda A Rmn , la matriz A t A Rnn resulta definida positiva si y slo si Nul A = {0}.
Definicin 6.1
A
Sea A Rmn . Sean 1 , 2 , ..., n los autovalores de A t A Rnn ordenados en forma decreciente, es decir
B
U
1 2 ... n 0
-
Entonces i = i con i = 1, 2, ..., n es el i -simo valor singular de A. O sea, los valores singulares de una matriz A
p
p p
max = 1 mn = n
g
In
Ya habamos observado que los autovalores de A t A dan cuenta del mximo y mnimo alcanzados por kAxk2 sujeta a la
e
restriccin kxk = 1. A continuacin, generalizamos los argumentos usados y los explicamos en trminos de valores singulares.
d
d
Teorema 6.1
a
lt
y
kxk=1 kxk=1
a
F
Demostracin:
Sea max = 1 el mximo autovalor de A t A. Entonces, usando el teorema de Rayleigh 5.7
y entonces q
p r r
max = max = max x t A t A x = max kAxk2 = max kAxk2 = max kAxk
kxk=1 kxk=1 kxk=1 kxk=1
Como corolario del teorema obtenemos una desigualdad que expresa, en trminos de los valores singulares, cmo afecta a
la norma la multiplicacin por una matriz A.
2 Para intercambiar la raz con el mximo hemos tenido en cuenta que la funcin raz cuadrada es creciente, por lo tanto alcanzar su mximo cuando el
Proposicin 6.2
Demostracin:
x
Si x = 0 las desigualdades son inmediatamente ciertas. En el caso de x 6= 0 podemos definir el vector unitario v = kxk y
kAxk
aplicarle el teorema anterior, con lo cual mn kAvk max . Como kAvk = kxk obtenemos
kAxk
mn max
kxk
A
B
Al ser A t A una matriz simtrica, siempre podemos hallar una base ortonormal de autovectores. El teorema que sigue esta-
U
blece importantes propiedades acerca de estas bases.
-
Teorema 6.2
a
r
Sea A Rmn . Supongamos que 1 , ..., n son los autovalores de A t A, estn ordenados en forma decreciente y la
ie
Sea {v 1 , v 2 , ..., v n } una base ortonormal de Rn formada por autovectores de A t A asociados a 1 , 2 , ..., n respectiva-
mente. Entonces se cumple que
e
d
i = i .
p
1 {Av 1 , Av 2 , ..., Av n } es un conjunto ortogonal y para todo i = 1, ..., n es kAv i k =
d
n o
Av 1 Av 2 Av r
2
1 , 2 , ..., r es una base ortonormal de Col A.
a
lt
Demostracin:
Para demostrar 1 tenemos en cuenta que {v 1 , v 2 , ..., v n } es una base ortonormal:
Av i , Av j = (Av i )t Av j = v it A t Av j = v it j v j = j v it v j = j v i , v j
Entonces si i 6= j resulta Av i , Av j = 0. Para el caso i = j tenemos (Av i , Av i ) = kAv i k2 = i , de donde sigue la tesis.
n o
Av r
En cuanto al punto 2 , ya sabemos que el conjunto Av 1
1 Av 2
, 2 , ..., r es ortonormal y por lo tanto linealmente independiente:
falta probar que genera Col A. Para ello, consideramos la transformacin lineal T : Rn Rm , T (x) = Ax. Entonces, teniendo
en cuenta que Im T est generada por los transformados de los vectores de cualquier base de Rn :
donde la ltima igualdad se debe a que, como ya demostramos en 1 , Av i = 0 si i > r . De esto se deduce inmediatamente 3 .
Finalmente, para probar la propiedad 4 comenzamos por sealar que dim (Nul A) = n r . Dado que {v r +1 , v r +2 , ..., v n } es un
Descomposicin en valores singulares 155
conjunto ortonormal de n r vectores que pertenecen a Nul A (por qu?) tenemos la base buscada.
En la figura 6.2 se ilustran las relaciones establecidas por el teorema 6.2. Los vectores {v r +1 , v r +2 , ..., v n } constituyen una
base ortonormal de Nul A. Por lo tanto {v 1 , v 2 , ..., v r } es una base del complemento ortogonal de Nul A, es decir, Fil A. Si
consideramos la transformacin lineal T : Rn Rm , T (x) = Ax, el espacio de partida Rn puede descomponerse como la suma
directa de Nul A y Nul A . Evidentemente, los vectores de Nul A se transforman en cero. Por su parte,
n la base {v 1 ,ov 2 , ..., v r } de
Nul A se transforma en una base ortogonal de la imagen Col A, que puede normalizarse como 1 , 2 , ..., Av
Av 1 Av 2 r
r .
A
B
U
-
a
r
ie
en
g
In
Ejemplo 6.1
a
lt
En el caso de la matriz
cu
1 0
A= 1 1
a
0 1
F
Av 1 Av 2 Av 1 Av 2
1 1
B= , = , = p [1 2 1]t , p [1 0 1]t (6.5)
kAv 1 k kAv 2 k 1 2 6 2
156 Descomposicin en valores singulares
Ejercicio.
En el prximo ejemplo demostramos formalmente la afirmacin que habamos hecho al comienzo del captulo acerca de la
circunferencia unitaria y su transformacin en elipse. Aunque su lectura no es indispensable para lo que sigue, pensamos
que puede resultar de inters.
A
B
Ejemplo 6.2
U
Consideremos una transformacin lineal T : R2 R3 , T (x) = Ax con rango A = 2. Probaremos que, como ya se
-
mencion al comienzo del captulo e ilustr en la figura 6.1, la imagen de la circunferencia unitaria es una elipse
a
(eventualmente una circunferencia).
r
ie
Para demostrarlo, usaremos el teorema 6.2. Consideramos entonces {v 1 , v 2 } una base ortonormal de R2 formada por
en
autovectores de A t A. Los vectores de R2 son de la forma v 1 + v 2 , y los que pertenecen a la circunferencia quedan
g
caracterizados por tener norma uno. Usando el hecho de que {v 1 , v 2 } es una base ortonormal de R2 resulta
In
v 1 + v 2 2 = 1 2 + 2 = 1
e
d
x = v 1 + v 2 con 2 + 2 = 1
a
lt
Ax = Av 1 + Av 2 con 2 + 2 = 1
a
F
A continuacin, expresaremos Ax a partir de la base ortonormal de Col A descrita en el tem 2 del teorema anterior:
Av 1 Av 2
Ax = 1 + 2 con 2 + 2 = 1
1 2
n o
De esta forma, las coordenadas de Ax con respecto a la base ortonormal B = Av 1 Av 2
1 , 2 son
t t
[Ax]B = 1 2 = y 1 y 2
Ejercicio.
6.3 Considere la transformacin lineal T : R2 R3 , T (x) = Ax definida al comienzo del captulo mediante la matriz
(6.1). Pruebe que la circunferencia unitaria se transforma, eligiendo un sistema de coordenadas adecuado en Col A, en
2
y 2
la elipse de ecuacin p1 + y 2 = 1.
3
Ejercicio.
1 1
A
y describa el conjunto de R3 en que transforma a la circunferencia unitaria.
B
U
Ejemplo 6.3
-
Consideramos ahora una transformacin lineal T : R3 R2 , T (x) = Ax con rango A = 2 definida por la matriz
a
r
" #
1 2 2
ie
A=
2 4 1
en
Probaremos que, como se ilustra en la figura 6.3, la imagen de la esfera unitaria es una regin de borde elptico. Los
g
recursos que emplearemos son totalmente anlogos a los del ejemplo 6.2.
In
5 10 0
d
A t A = 10 20 0
a
0 0 5
lt
cu
Sea entonces {v 1 , v 2 , v 3 } una base ortonormal de R3 formada por autovectores de A t A. Dado que los autoespacios son
a
definimos
1 0 2
1 1
v1 = p 2 v2 = 0 v3 = p 1
5 5
0 1 0
Luego los vectores de R3 que pertenecen a la esfera unitaria son de la forma
x = v 1 + v 2 + v 3 con 2 + 2 + 2 = 1
Ax = Av 1 + Av 2 + Av 3 con 2 + 2 + 2 = 1
Teniendo en cuenta que Av 3 = 0, resulta que los vectores de la esfera unitaria se transforman en vectores de la forma
Ax = Av 1 + Av 2 con 2 + 2 1
158 Descomposicin en valores singulares
Falta expresar Ax en trminos de una base ortonormal de Col A. Para ello apelamos al tem 2 del teorema 6.2:
Av 1 Av 2
Ax = 1 + 2 con 2 + 2 1
1 2
p p
En este caso es 1 = 25 = 5 y 2 = 5, luego
" p # " #
Av 1 1 5 Av 2 1 2
= p =p
1 5 2 5 2 5 1
n o
Av 1 Av 2
Con lo cual las coordenadas de Ax con respecto a la base ortonormal B = 1 , 2 son
h p it t
[Ax]B = 5 5 = y 1 y 2
A
p
y determinan una regin de borde elptico cuyos semiejes miden 5 y 5:
B
y 2 y2 2
U
1
+ p = 2 + 2 1
5 5
-
a
r
ie
en
g
In
e
d
d
a
lt
cu
a
F
Ejercicio.
6.5 Considere una transformacin lineal T : R3 R3 , T (x) = Ax y estudie la imagen de la esfera unitaria para los dos
casos siguientes
1 0 1 1 1 1
A= 1 1 1 A= 1 1 1
1 1 0 1 1 0
A
En el captulo 4 presentamos la diagonalizacin de matrices cuadradas buscando una factorizacin de la forma A = P DP 1 ,
B
siendo D una matriz diagonal. Una de las ideas que motivan esta factorizacin es que al elegir bases de autovectores po-
demos comprender mejor la transformacin lineal asociada con la matriz A. Evidentemente, tal factorizacin slo puede
U
lograrse (y no en cualquier caso) para matrices cuadradas, puesto que la ecuacin Av = v no tiene sentido si A Rmn con
-
m 6= n. En esta seccin presentaremos una factorizacin que puede obtenerse para cualquier matriz rectangular y brinda
a
informacin acerca de los subespacios fundamentales. r
ie
Cada matriz A Rmn determina una transformacin lineal T : Rn Rm , T (x) = Ax. Como ya mencionamos en la seccin
previa y de acuerdo con el teorema 6.2, podemos elegir una base ortonormal del espacio Rn tal que sus transformados permi-
en
ten obtener una base ortonormal de Col A, conociendo adems cules son los vectores de norma uno que realizan la mxima
g
y mnima dilatacin al transformarse. La factorizacin que sigue pone en evidencia toda esta informacin.
In
Definicin 6.2
e
d
Sea A Rmn . Una descomposicin en valores singulares (DVS) de A es una factorizacin de la forma
d
A = U V t
a
(6.6)
lt
1
a
0 0
F
2
" #
D 0
0 0
=
donde D = .. .. .. .. (6.7)
0 0
. . . .
0 0 r
y 1 2 ... r > 0. Vale decir que es una matriz con un primer bloque diagonal y el resto de los bloques son
matrices de ceros con el tamao adecuado.
N La descomposicin en valores singulares es de gran utilidad y tiene muchas aplicaciones en la ingeniera. Aunque
no las expondremos en este curso, los lectores interesados pueden consultar la bibliografa, por ejemplo [5].
160 Descomposicin en valores singulares
Definicin 6.3
Dada una matriz A Rmn con descomposicin en valores singulares A = U V t como la definida en 6.2, a los vectores
que aparecen como columnas de la matriz V se los denomina vectores singulares derechos de A mientras que a los que
aparecen como columnas de U se los denomina vectores singulares izquierdos de A.
Hasta ahora hemos definido la descomposicin en valores singulares, pero no hemos garantizado su existencia ni exhibido
un mtodo para construirla. El teorema que sigue resuelve ambas cuestiones: garantiza la existencia de la descomposicin
para cualquier matriz y en la demostracin se explica cmo construirla.
Teorema 6.3
A
Sea A Rmn . Entonces existe una descomposicin en valores singulares de A.
B
U
Demostracin:
-
Siguiendo la exposicin del teorema 6.2, llamamos 1 , ..., n a los autovalores de A t A, de manera que estn ordenados en
forma decreciente y la cantidad de elementos no nulos sea r :
a
r
ie
Sea {v 1 , v 2 , ..., v n } una base ortonormal de Rn formada por autovectores de A t A de modo tal que para todo i = 1, ..., n resulta
g
h i
V= v1 v2 vn
e
d
1
0 0
lt
2
" #
D 0
0 0
cu
=
donde D = .. .. .. ..
0 0
. . . .
a
0 0 r
F
n o
Av 1 Av 2 Av r
y i = i con i = 1, ..., r . Para definir U , tenemos en cuenta que el conjunto
p
1 , 2 , ..., r es ortonormal, luego defini-
mos
Av 1 Av 2 Av r
u1 = u2 = ... ur =
1 2 r
Si r < m, es decir si los u i no completan una base de Rm , buscamos vectores u r +1 , ..., u m de modo tal que {u 1 , u 2 , ..., u m } sea
una base ortonormal de Rm . Con esto definimos la matriz ortogonal
h i
U= u1 u2 um
A continuacin, comprobamos que efectivamente es A = U V t para las matrices definidas. En primer lugar, teniendo en
cuenta la definicin de los u i y que Av i = 0 si i > r :
h i h i
AV = Av 1 Av 2 Av n = 1 u 1 2 u 2 r v r 0 0
Descomposicin en valores singulares 161
Ejemplo 6.4
A
Una vez ms, consideramos la matriz (6.1) definida al comienzo del captulo y estudiada en el ejemplo 6.1. Siguiendo
B
los pasos de la demostracin del teorema 6.3, sealamos en primer lugar los autovalores de A t A:
U
1 = 3 2 = 1
-
de donde obtenemos los valores singulares
a
p r
1 = 3 2 = 1
ie
3 0
= 0 1
g
0 0
In
1 1
d
{v 1 , v 2 } = p [1 1]t , p [1 1]t
2 2
d
y ya podemos definir
a
" #
1 1 1
lt
V=p
1 1
cu
2
A continuacin definimos la base ortonormal de Col A como en (6.5):
a
F
Av 1 Av 2
1 1
{u 1 , u 2 } = , = p [1 2 1]t , p [1 0 1]t
1 2 6 2
Falta un vector u 3 que complete una base ortonormal de R 3 : de las dos posibilidades que existen elegimos u 3 =
p1 [1 1 1]t y definimos
3
p1 p1 p1
6 2 3
p2 0 p1
U = 6 3
p1 p1 p1
6 2 3
Con lo cual la descomposicin en valores singulares resulta
p
p1 p1 p1
1 0 6 2 3 3 0 " #
2 1 1 1
0 p1
A= 1 1 = p 0 1 p
6 3 1
2 1
0 1 p1 p1 p1 0 0 |
6 2 3
{z }
}| Vt
| {z {z }
U
162 Descomposicin en valores singulares
N Debe notarse que para una matriz dada A Rmn hay ms de una descomposicin en valores singulares.
Al releer la demostracin del teorema 6.3 se aprecia que puede haber diversas maneras de completar la base
{u 1 , u 2 , ..., u m }. Tambin es posible elegir otros autovectores v i de A t A. El ejemplo ms obvio son las descomposi-
ciones A = U V t = (U ) (V )t .
Ejercicio.
6.6 Encuentre una descomposicin en valores singulares de la matriz estudiada en el ejercicio 6.2.
Ya hemos mencionado que para una misma matriz pueden encontrarse distintas descomposiciones en valores singulares.
De todos modos, existen algunas caractersticas que toda DVS necesariamente tiene, independientemente de la forma en
que haya sido obtenida. Aunque no sern indispensables para los temas que siguen, ofrecemos al lector interesado ciertas
A
cualidades que debe tener cualquier DVS.
B
U
Teorema 6.4
Sea A = U V t una descomposicin en valores singulares de A Rmn , con U , y V como en la definicin 6.2. Enton-
-
a
ces r
1 1 , 2 , ..., r son los valores singulares no nulos de A.
ie
en
entonces los vectores columna constituyen una base ortonormal {v 1 , v 2 , ..., v n } de Rn y verifican que A t Av i =
2i v i para todo i = 1, ..., r y A t Av i = 0 para i = r + 1, ..., n.
e
d
h i
U= u1 u2 um
a
lt
Demostracin:
Como A = U V t , tenemos que A t A = V t U t U V t = V t V t donde
21 0 0 0 0
0 22 0 0 0
.. .. .. .. .. .. ..
. . . . . . .
t
= 2r
0 0 0 0
0 0 0 0 0
.. .. .. .. .. .. ..
. .
. . . . .
0 0 0 0 0
de modo tal que V t V t es una diagonalizacin ortogonal de la matriz simtrica A t A. En consecuencia, 21 , 22 , ..., 2r , son
los autovalores no nulos de A t A ordenados en forma decreciente. 3 Por lo tanto sus races cuadradas 1 , 2 , ..., r son los
3 Estamos usando el teorema 4.3 que garantiza que en cualquier diagonalizacin A = P DP 1 de una matriz los elementos de la diagonal son necesaria-
A
6.3
B
La DVS y los subespacios fundamentales de una matriz
U
En esta seccin veremos que en una descomposicin en valores singulares A = U V t , las matrices U y V estn compuestas
-
a
por bases ortonormales de los cuatro subespacios fundamentales de A. r
ie
Teorema 6.5
en
h i h i
In
U = u1 u2 um y V = v1 v2 vn
h i h i
d
Ur = u1 ur Umr = u r +1 um (6.8)
d
junto con h i h i
a
Vr = v1 vr Vnr = v r +1 vn (6.9)
lt
resulta
cu
Demostracin:
Como el rango de A es r , de acuerdo con la propiedad 3 del teorema 6.2, A es una matriz con r valores singulares no nulos.
Por lo tanto A t A tiene r autovalores no nulos. Por el teorema 6.4, los vectores {v 1 , v 2 , ..., v n } son autovectores de A t A, estando
los primeros r de ellos asociados a los autovalores no nulos de A t A y los restantes al autovalor nulo de A t A. Por lo tanto, por
la propiedad 4 del teorema 6.2, {v r +1 , ..., v n } es una base ortonormal de Nul A. Como adems {v 1 , ..., v n } es base ortonormal
164 Descomposicin en valores singulares
de Rn , necesariamente {v 1 , ..., v r } es una base ortonormal de (Nul A) = Fil A. Con esto, y la forma en que se construyen las
matrices asociadas a una proyeccin ortogonal (explicada en el teorema 3.19), quedan demostrados 1 , 2 y 3 .
La demostracin de 4 , 5 y 6 es anloga y se deja como ejercicio.
Ejercicio. Sea A Rmn una matriz de rango r . Manteniendo la notacin del teorema 6.5, demuestre que
t t
Vnr Vnr = I y Vnr Vnr = [P Nul A ]E
t t
Umr Umr = I y Umr Umr = P Nul A t E
Ejemplo 6.5
Dada p p p p
1 1 0 2 0 0 1/ 2 0 1/ 2 1 3 2 1
A
p p
A= 1 1 0 0 18 0 0 1 0 = 1 3 2 1
B
p p
0 0 1 0 0 0 1/ 2 0 1/ 2 0 0 0
U
Buscamos los valores singulares de A, bases de sus cuatro subespacios fundamentales y calculamos las matrices
asociadas a la proyeccin sobre dichos subespacios.
-
a
r
La descomposicin que tenemos de A es similar a una DVS, salvo por el hecho de que la matriz que aparece a la
izquierda, aunque tiene columnas mutuamente ortogonales, no son de norma uno. Procedemos entonces a norma-
ie
lizar sus columnas, dividiendo cada una de ellas por su norma. Para que el producto siga siendo A, multiplicamos
en
p p p p p p
1/ 2 1/ 2 0 2 2 0 0 1/ 2 0 1/ 2
In
p p p p
A = 1/ 2 1/ 2 0 0 2 18 0 0 1 0
p p
0 0 1 0 0 0 1/ 2 0 1/ 2
e
d
Esta factorizacin no es an una DVS, porque los elementos de la diagonal de la matriz central no estn ordenados de
d
mayor a menor. Para ello lo que hacemos es permutar las dos primeras columnas de la matriz de la izquierda y las dos
a
p p
1/ 2 1/ 2 0 6 0 0 0 1 0
cu
p p p p
A = 1/ 2 1/ 2 0 0 2 0 1/ 2 0 1/ 2 (6.10)
p p
a
0 0 1 0 0 0 1/ 2 0 1/ 2
F
Los valores singulares de A son 1 = 6, 2 = 2 y 3 = 0. Como A tiene dos valores singulares distintos de cero, deduci-
mos que su rango es dos. Las primeras dos columnas de V son una base ortonormal de Fil A, mientras que la ltima
columna de V es una base ortonormal de Nul A. Con respecto a Col A, las dos primeras columnas de U son una ba-
se ortonormal de ese subespacio, mientras que la ltima columna de U es base ortonormal de Nul A t . Las matrices
asociadas a las proyecciones son
p
0 1/ 2 " # 1/2 0 1/2
0 1 0
[P Fil A ]E = 1
0
p p =
0 1 0
p 1/ 2 0 1/ 2
0 1/ 2 1/2 0 1/2
Descomposicin en valores singulares 165
1/2 0 1/2
[P Nul A ]E = I [P Fil A ]E = 0 0 0
1/2 0 1/2
0 h i 0 0 0
P Nul A t E = 0 0 0 1 = 0 0 0
1 0 0 1
1 0 0
[P Col A ]E = I P Nul A t E = 0 1 0
0 0 0
A
B
U
-
a
Ejercicio. r
ie
6.7 Considere la matriz definida en el ejercicio 6.2, cuya DVS se obtuvo en el ejercicio 6.6.
en
Si releemos la ecuacin (6.10) del ejemplo anterior, se aprecia que la ltima fila de V t no aportar nada al producto, en el
a
sentido de que todos sus elementos estarn multiplicados por los ceros de la ltima columna de . Algo anlogo ocurrir
lt
con la ltima columna de U . Por lo tanto, en la DVS de A podemos prescindir de estos elementos y reducir el producto a la
cu
expresin
a
p p
1/ 2 1/ 2 "
F
#" #
p p 6 0 0 1 0
A = 1/ 2
1/ 2 p p (6.11)
0 2 1/ 2 0 1/ 2
0 0
Esta factorizacin de A permite leer sus valores singulares no nulos, una base ortonormal de Col A y una base ortonormal de
Fil A.
Veamos que para cualquier matriz A Rmn puede obtenerse una factorizacin como en (6.11). En efecto, si mantenemos la
notacin usada en el teorema 6.5 y la matriz como se defini en (6.7), entonces una DVS de A puede escribirse como
" #" #
t
h i D 0 Vrt
A = U V = Ur Umr t = Ur DVrt
0 0 Vnr
Definicin 6.4
Sea A Rmn . Una descomposicin en valores singulares (DVS) reducida de A es una factorizacin de la forma
A = Ur DVrt (6.12)
obtenida a partir de una DVS como se defini en 6.2, siendo Ur Rmr y Vr Rnr las matrices definidas en (6.8) y
(6.9) respectivamente.
Ejercicio.
A
B
U
6.4 Matriz seudoinversa. Cuadrados mnimos.
-
a
Consideramos, una vez ms, la matriz estudiada en el ejemplo 6.5. All habamos obtenido la DVS
r
p p p
ie
1 3 2 1 1/ 2 1/ 2 0 6 0 0 0 1 0
p p p p p
en
A = 1 3 2 1 = 1/ 2 1/ 2 0 0 2 0 1/ 2 0 1/ 2
p p
0 0 0 0 0 1 0 0 0 1/ 2 0 1/ 2
g
| {z }| {z }| {z }
In
U Vt
Observamos que
e
1. Las filas de V t , esto es las columnas de V , constituyen una base ortonormal de B = {v 1 , v 2 , v 3 } de R3 , donde
d
p p
d
0 1/ 2 1/ 2
a
v1 = 1 v2 = 0 v3 = 0
p p
lt
0 1/ 2 1/ 2
cu
de modo tal que {v 1 , v 2 } es una base ortonormal de Fil A y {v 3 } es una base ortonormal de Nul A. Adems, la matriz V
a
0 0 1
de modo tal que {u 1 , u 2 } es una base ortonormal de Col A y {u 3 } es una base ortonormal de (Col A) . En este caso,
U = CC E .
T : R3 R3 , T (x) = Ax
con respecto a la base cannica, mientras que es la matriz con respecto a las bases B y C :
[T ]E = A = CC E [T ]BC C E B
|{z} | {z } |{z}
U Vt
Descomposicin en valores singulares 167
Evidentemente, la transformacin T no es inversible. Sin embargo, y como sugiere la figura 6.2, si restringimos el dominio a
Fil A obtenemos una transformacin biyectiva de Fil A Col A. Nos proponemos entonces invertir T en esta restriccin en
que es posible. La transformacin est caracterizada por cmo transforma a la base B :
Av 1 = 6u 1 Av 2 = 2u 2 Av 3 = 0
De esta manera, si pretendemos definir una transformacin seudoinversa y representarla con una matriz A , deber verificar
1
A (6u 1 ) = v 1 A u 1 = v 1
6
1
A (2u 2 ) = v 2 A u 2 = v 2
2
A
Para que la pseudoinversa quede bien definida sobre la base C = {u 1 , u 2 , u 3 }, imponemos
B
A u3 = 0
U
-
Todo este proceso se resume matricialmente:
a
r
1
6 0 0 1/4 1/4 0
t p p
ie
A = |{z}
V 0 12 U = 2/12
0 |{z} 2/12 0
en
CB E 0 0 0 C EC 1/4 1/4 0
| {z }
g
In
Donde la matriz representa la transformacin seudoinversa con respecto a las bases C y B , mientras que U t y V realizan
e
Esta misma matriz puede obtenerse a partir de la DVS reducida de A, calculada en 6.11 como A = Ur DVrt . All se encuentra
a
p
0 1/ 2 " #" p p # 1/4 1/4 0
1/6 0 1/ 2 1/ 2 0 p p
A = Vr D 1Urt = 1
a
0 p p = 2/12 2/12 0
p
F
0 1/2 1/ 2 1/ 2 0
0 1/ 2 1/4 1/4 0
A continuacin mostraremos cmo es posible aplicar la matriz A a la resolucin de un problema de cuadrados mnimos.
Consideremos el sistema incompatible
p
1 3 2 1 x1 1
p
Ax = 1 3 2 1 x2 = 1 = b
0 0 0 x3 1
Dado que la matriz A tiene sus columnas linealmente dependientes, podemos anticipar que habr infinitas soluciones por
cuadrados mnimos x = [x1 x2 x3 ]t . Ahora bien, dado que b Col A, resolver el problema de cuadrados mnimos equivale
(como ya se vio en la seccin 3.5 del captulo 3) a encontrar los x tales que
A
B
U
-
Figura 6.4: A y su relacin con los subespacios fundamentales
a
r
Como sugiere la figura 6.4, aqu es donde podemos usar la seudoinversa A : con ella obtenemos el nico elemento x en Fil A
ie
que verifica (6.13). En efecto, si descomponemos a b como la suma de sus proyecciones sobre Col A y (Col A) , y teniendo en
en
cuenta que por su propia definicin A se anula sobre los elementos de (Col A) , resulta
g
A b = A P Col A (b) + P (Col A) (b) = A P Col A (b) = x
In
1/4 1/4 0 1 1/2
d
p p
x = A b = 2/12 2/12 0 1 = 0
d
La solucin x tendr una caracterstica notable dentro del conjunto de soluciones x por cuadrados mnimos: dado que los
lt
A t A x = A t b
a
cualquier solucin se obtiene como una solucin particular sumada con una solucin del sistema homogneo asociado, es
F
decir un elemento de Nul A t A = Nul A. Por ende, podemos escribir la solucin general por cuadrados mnimos en la forma
n o
x + Nul A = x + x 0 : x 0 Nul A
En nuestro ejemplo, este conjunto solucin es una recta paralela a Nul A cuyo punto ms cercano al origen es justamente x .
En otras palabras: x es la solucin por cuadrados mnimos de norma mnima.
Dedicaremos el resto de esta seccin a formalizar y generalizar las observaciones hechas hasta aqu.
Definicin 6.5
A = Vr D 1Urt (6.14)
N Ya sabemos que la DVS reducida de una matriz A no es nica. Sin embargo, para cualquier DVS reducida que se
elija se obtiene la misma matriz seudoinversa. Esto se puede justificar pensando que A representa una transfor-
macin lineal que est totalmente determinada por cmo transforma a las bases de Col A y de (Col A) . El lector
interesado podr encontrar detalles en la bibliografa.
Ejercicio.
A
Teorema 6.6
B
Sean A Rmn y A Rnm su seudoinversa. Entonces
U
1 A A = [P Fil A ]E
-
a
2 A A = [P Col A ]E r
ie
en
Demostracin:
g
A = Ur D Vrt
e
d
A = Vr D 1Urt
a
lt
Las propiedades 1 y 2 surgen como consecuencia del teorema 6.5 al realizar los productos indicados
cu
Ejercicio.
A A A = A A A A = A
Teorema 6.7
Ax = b
el vector
x = Ab
Demostracin:
Para ver que x es solucin por cuadrados mnimos, debemos probar que Ax = P Col A (b). Ahora bien, usando la propiedad
A
2 del teorema 6.6 tenemos
Ax = A A b = [P Col A ]E b
B
U
Para probar que x es la solucin de norma mnima, tendremos en cuenta que las soluciones por cuadrados mnimos son de
la forma x + x 0 con x 0 Nul A, como ya justificamos al comienzo de esta seccin. Para calcular el cuadrado de la norma de
-
una solucin genrica x + x 0 aprovechamos que x Fil A = (Nul A) y por ende podemos aplicar el teorema de Pitgoras
a
2 2 r 2
x + x 0 = x + kx 0 k2 x
ie
en
Ejercicio.
Resuelva el sistema de ecuaciones Ax = b con b = [1 1]t . Utilice la matriz seudoinversa calculada en el ejercicio
d
6.9.
a
lt
Compruebe que las matrices A y A verifican las propiedades del teorema 6.6.
cu
a
F
7 Ecuaciones diferenciales y
sistemas de ecuaciones diferenciales
A
B
U
-
7.1
a
Introduccin r
ie
en
Este captulo tiene por objetivo mostrar cmo pueden aplicarse los recursos del lgebra lineal para estudiar algunas ecua-
ciones diferenciales. Por eso es que la exposicin quedar limitada a ciertas ecuaciones especficas, pudiendo los lectores
g
interesados en profundizar estos temas consultar la abundante bibliografa que existe sobre el tema. De ningn modo pre-
In
tende ser un curso de ecuaciones diferenciales, como s lo son los textos [10] y [2], que hemos consultado para elaborar estas
notas y recomendamos.
e
d
Comencemos considerando un tema clsico y familiar: el movimiento rectilneo de una partcula. En la figura 7.1 se aprecia
d
a
un sistema de referencia vertical en el que hemos elegido el sentido positivo hacia abajo, puesto que pretendemos repre-
lt
Dada una partcula de masa m, su altura ser una funcin y(t ). Es decir, una cantidad y que depende del tiempo t . Para
poder aplicar la segunda ley de Newton
F = ma (7.1)
a las fuerzas que concurren en la partcula, recordemos que la primera derivada de la posicin es la velocidad instantnea
y 0 (t ) = v(t )
y 00 (t ) = v 0 (t ) = a(t )
Suponemos, en una primera aproximacin, que no existe fuerza de rozamiento. Entonces la nica fuerza que acta sobre la
partcula es el peso P = mg , donde g es la aceleracin gravitatoria debida a la atraccin terrestre (razonablemente podemos
A
suponerla constante para alturas bajas). De esta forma, la segunda ley de Newton (7.1) resulta
B
mg = m y 00 (t ) y 00 (t ) = g (7.2)
U
Vale decir que la posicin y(t ) es una funcin con derivada segunda constante. O sea que se trata de una funcin polinmica
-
de grado dos:
a
1
y(t ) = g t 2 + At + B con A, B R
r (7.3)
2
ie
Es usual en esta clase de problemas conocer datos iniciales como la posicin y 0 y la velocidad v 0 al comienzo del movimiento.
en
En tal caso, al evaluar la frmula (7.3) en t = 0 deducimos que y(0) = B = y 0 . De manera similar, derivando la frmula (7.3) y
evaluando en t = 0 deducimos que y 0 (0) = A = v 0 . Con esto llegamos a la clsica expresin
g
In
1
y(t ) = g t 2 + v 0 t + y 0 (7.4)
2
e
d
Debemos tener en cuenta que la ecuacin (7.4) es tan slo una aproximacin a la posicin verdadera de la partcula. Esto se
debe a las simplificaciones que hemos hecho, como suponer que no existe el rozamiento. As, la frmula (7.4) puede ser de
d
utilidad para intervalos relativamente breves de tiempo, aunque no puede tomarse seriamente cuando t .
a
lt
cu
Para dar cuenta de estas dificultades, incorporamos ahora la fuerza de rozamiento: como se ve en la figura 7.1, se trata de
una fuerza de sentido opuesto al peso. El rozamiento es proporcional a la velocidad: 1
a
F
F r = kv
donde k es una constante positiva que depende del aire y de las caractersticas aerodinmicas del cuerpo que cae. El signo
menos da cuenta de que el sentido de F r es siempre opuesto al del movimiento. En este caso, al aplicar la ley de Newton (7.1)
queda
mg k y 0 (t ) = m y 00 (t ) (7.5)
Encontrar las funciones y(t ) que verifican la relacin (7.5) no es tan sencillo como en el caso anterior. Sin embargo, podemos
anticipar algo aun cuando no conozcamos una frmula explcita de y(t ). Dado que la velocidad y 0 (t ) tiende a crecer durante
la cada, la fuerza peso y la fuerza de rozamiento tienden a compensarse. Por eso esperamos que a largo plazo la aceleracin
y 00 (t ) tienda a cero: este movimiento tiende a un movimiento de velocidad constante (es fcil de imaginar pensando, por
ejemplo, en un paracadas).
1 En rigor, el fenmeno del rozamiento es un amplio tema de la fsica. Existen, por ejemplo, modelos alternativos en los que el rozamiento es proporcional
La relacin (7.5) involucra derivadas de primer y segundo orden. Podemos simplificarla si la escribimos en trminos de la
velocidad v(t ) = y 0 (t ), con lo cual obtenemos
k
mg kv(t ) = mv 0 (t ) v 0 (t ) + v(t ) = g (7.6)
m
Un recurso habitual para encontrar las funciones v(t ) que verifican esta relacin es usar lo que se denomina un factor inte-
k
grante . En este caso, el factor integrante es la funcin e m t : como nunca se anula, si multiplicamos ambos miembros por este
factor obtenemos un problema equivalente al original
k k k k
v 0 (t )e m t + v(t )e m t = g e m t
| {zm }
d k
dt
v(t )e m t
A
con la ventaja de que el primer miembro es la derivada de un producto 2 , por lo que integramos para obtener
B
k m k
v(t )e m t = g e m t +C con C R
U
k
-
y por lo tanto
m k
g +C e m t con C R
a
v(t ) =
k
r
Si adems conocemos la velocidad inicial v 0 , evaluando la solucin en t = 0 llegamos a
ie
m m k
en
v(t ) = g + v 0 g e m t (7.7)
k k
g
m
lm v(t ) = g
e
t k
d
d
Las ecuaciones (7.2), (7.5) y (7.6) son ejemplos de lo que denominamos ecuaciones diferenciales , es decir, problemas en los
a
que se trata de encontrar aquellas funciones que verifican cierta ecuacin que involucra a sus derivadas. En particular (7.2) y
lt
(7.5) son ecuaciones diferenciales de segundo orden porque contienen derivadas segundas de la funcin incgnita, mientras
cu
que (7.6) es una ecuacin diferencial de primer orden. En las secciones que siguen estudiaremos algunas de las ecuaciones
llamadas ecuaciones diferenciales lineales, que abarcan a estos ejemplos como casos particulares.
a
F
En esta seccin generalizamos el estudio de ecuaciones como (7.6). Ya vimos en la ecuacin (7.6) cmo una ecuacin de la
forma
a 1 (t )y 0 (t ) + a 0 (t )y(t ) = b(t )
Definicin 7.1
(donde p(t ) y f (t ) son funciones continuas en cierto intervalo abierto I ) se denomina ecuacin diferencial lineal de
primer orden.
En el caso de que sea f (t ) = 0 para todo t I se dice que es una ecuacin homognea.
Si adems se buscan soluciones que verifiquen una condicin de la forma y(t 0 ) = y 0 para cierto t 0 I se tiene un
problema de valor inicial.
A
Ejercicio. Considere la ecuacin diferencial homognea
B
1
y0 + y = 0
U
t
-
1
Verifique que la funcin : (0, +) R, (t ) = t es una solucin.
a
Encuentre dos soluciones ms en el mismo intervalo (0, +).
r
ie
Convencin
In
A menudo abreviaremos la notacin omitiendo la variable independiente de las funciones. As, por ejemplo, en lugar
e
de y(t ) escribiremos meramente y. El contexto debera permitir en cada caso discernir qu clase de funciones se est
d
manejando.
d
a
lt
Ya hemos visto en la seccin anterior cmo una ecuacin diferencial puede tener infinitas soluciones. Tambin vimos que al
cu
imponer ciertas condiciones iniciales quedaba determinada una nica solucin. Esto permite suponer que, bajo hiptesis
adecuadas, un problema de valor inicial tiene solucin y adems es nica. El teorema que sigue establece esta afirmacin
a
para el caso de la ecuacin diferencial lineal de primer orden. La demostracin es especialmente instructiva porque adems
F
Teorema 7.1
Demostracin:
Como en la seccin anterior, multiplicamos por un factor integrante para transformar la ecuacin. Consideramos entonces
una primitiva de p(t ): esto es, una funcin P (t ) tal que P 0 = p. Si multiplicamos ambos miembros de la ecuacin por el factor
integrante e P (t ) (que no se anula para ningn valor de t ) obtenemos la ecuacin equivalente
e P (t ) y 0 + e P (t ) P 0 (t )y = e P (t ) f
Ecuaciones diferenciales y
sistemas de ecuaciones diferenciales 175
d P (t )
e y = e P (t ) f (t )
dt
y = e P (t ) [F (t ) +C ] = F (t )e P (t ) +C e P (t ) con C R (7.9)
Esta ltima expresin es la solucin general de la ecuacin diferencial definida en 7.1, pues contiene todas las posibles solu-
A
ciones.
B
U
Finalmente, si en la solucin general (7.9) imponemos la condicin inicial resulta
-
y(t 0 ) = F (t 0 )e P (t0 ) +C e P (t0 ) = y 0
a
r
de donde se deduce que hay una sola eleccin posible de la constante de integracin.
ie
en
Ejemplo 7.1
g
In
y(1) = 1
d
Siguiendo los pasos de la demostracin del teorema 7.1, calculamos un factor integrante hallando una primitiva de
a
2
la funcin p(t ) = t . En este caso proponemos P (t ) = t2 (aunque podramos haber elegido cualquiera de la forma
lt
2 t2
P (t ) = t2 + k). Luego el factor integrante es e 2 y la ecuacin diferencial original es equivalente a
cu
d
2
t2 t2
a
t
e 2 y0 t e 2 y = 0 e 2 y = 0
F
dt
1 t2 t 2 1
(t ) = e 2 e 2 = e 2
En la figura 7.2 se aprecian varios elementos de la solucin general, incluyendo la solucin del problema de valor
inicial. Este grfico permite una interpretacin sencilla del teorema 7.1 de existencia y unicidad de soluciones: de las
infinitas curvas solucin de la ecuacin diferencial, estamos eligiendo la nica que pasa por el punto (1, 1).
Ecuaciones diferenciales y
176 sistemas de ecuaciones diferenciales
A
B
U
Figura 7.2: Diversas curvas solucin
-
a
r
ie
Ejemplo 7.2
en
y(0) = 0
tenemos dada la condicin inicial es t = 0, trabajamos en el intervalo 2 , 2 . Para calcular el factor integrante
d
sen t
Z Z
tan t d t = d t = ln |cos t | +C
a
cos t
lt
En el intervalo considerado es |cos t | = cos t , por lo que elegimos factor integrante e ln cos t = cos t . La ecuacin original
cu
es entonces equivalente a
a
F
sen t d
cos t y 0 cos t
y = sen t cos t cos t y = sen t cos t
cos t dt
con lo cual
cos2 t
cos t y = +C con C R
2
y la solucin general resulta
cos t C
y(t ) = + con C R
2 cos t
Imponiendo la condicin inicial resulta
1 1
y(0) = +C = 0 C =
2 2
con lo cual la solucin buscada es
cos t 1
(t ) = +
2 2 cos t
En la figura 7.3 se aprecian diversas curvas solucin y los intervalos en los que estn definidas las funciones y(t ).
Ecuaciones diferenciales y
sistemas de ecuaciones diferenciales 177
A
B
U
Figura 7.3: Diversas curvas solucin
-
a
r
Ejercicio.
ie
(
cosh t t
y 0 + senh
g
ty= senh t
In
1
y(1) = 2 senh 1
7.3
lt
En esta seccin aplicaremos los conceptos del lgebra lineal para caracterizar las soluciones de la ecuacin diferencial lineal
F
de primer orden. Para ello, comenzamos por sealar que la ecuacin diferencial lineal definida en 7.1 puede pensarse en
trminos de una transformacin lineal. En efecto, si definimos la funcin
L : C 1 (I ) C (I ), L(y) = y 0 + p y (7.10)
es inmediato que L es una transformacin lineal (es usual en este contexto denominarlo operador lineal). Por lo tanto, resol-
ver la ecuacin diferencial lineal de primer orden
y0 + py = f
equivale a encontrar las funciones y C 1 (I ) tales que L(y) = f . En otras palabras, la solucin general es la preimagen de f
por L:
L 1 f = y C 1 (I ) : L(y) = f = y C 1 (I ) : y 0 + p y = f
(Insistimos con la advertencia, ya hecha en el captulo de transformaciones lineales, de no confundir preimagen con funcin
inversa). En el caso particular de la ecuacin homgenea, la solucin general es la preimagen de la funcin nula, o sea el
ncleo del operador: L 1 (0) = Nu L.
Ecuaciones diferenciales y
178 sistemas de ecuaciones diferenciales
En lo que sigue veremos cmo la estructura de la solucin general es totalmente anloga a la que ya hemos estudiado para
los sistemas de ecuaciones lineales. Esto se debe a que resolver un sistema de ecuaciones lineales, tanto como resolver una
ecuacin diferencial lineal, consiste en estudiar preimgenes de una transformacin lineal.
Teorema 7.2
Dada una transformacin lineal T : V W entre dos espacios vectoriales V y W , dados w Im T y v p V tal que
T (v p ) = w, el conjunto de soluciones de la ecuacin
T (v) = w
es
A
T 1 (w) = v p + Nu T = v p + v h : v h Nu T
B
U
-
Demostracin:
a
Debemos probar una doble inclusin. Probaremos en primer lugar que todos los elementos de la forma v p + v h pertenecen
r
a T 1 (w). Para ello, alcanza con ver que T (v p + v h ) = T (v p ) + T (v h ) = w + 0 = w.
ie
Consideramos ahora un elemento v T 1 (w). Probaremos que es de la forma v p + v h para algn v h Nu T . En efecto, dado
en
El resultado anterior es conocido para el caso de los sistemas de ecuaciones lineales: cualquier solucin es una solucin
e
particular v p sumada con algn elemento del ncleo, esto es, con una solucin del problema homogneo. Veamos cmo se
d
Teorema 7.3
cu
Sea y p una solucin particular de la ecuacin diferencial lineal (7.8). Entonces la funcin y C 1 (I ) es solucin de
a
dicha ecuacin si y slo si es de la forma y = y p + y h siendo y h una solucin de la ecuacin homognea asociada.
F
Este resultado nos dice que para hallar todas las soluciones de la ecuacin diferencial lineal alcanza con resolver la ecuacin
homognea asociada y hallar una solucin particular de la ecuacin no homognea.
En cuanto a la la ecuacin homognea, ya hemos mencionado que su conjunto solucin es el ncleo de L, por lo que se
trata de un subespacio de C 1 (I ). Dejamos como ejercicio para el lector adaptar la demostracin del teorema 7.1 al caso
homogneo y 0 + p y = 0, para ver que la solucin general es
y = C e P (t ) con C R
donde P (t ) es una primitiva de p(t ). Por lo tanto el ncleo del operador L est generado por e P (t ) y es un subespacio de
dimensin uno. Resumimos estas observaciones en un teorema.
Ecuaciones diferenciales y
sistemas de ecuaciones diferenciales 179
Teorema 7.4
y0 + py = 0
Dada cualquier solucin no trivial h de la ecuacin diferencial, h es una base de soluciones. Esto es, cual-
2
A
B
Ejercicio.
U
7.2 Considere el operador lineal
-
1
L : C 1 (0, +) C (0, +), L(y) = y 0 y
a
r t
Resuelva la ecuacin diferencial L(y) = 3t
ie
en
Encuentre Nu L.
g
In
Ejercicio. Considere una vez ms el problema de valor inicial del ejercicio 7.1.
t
Calcule L 1 senh
a
t
lt
t
Elija el elemento de L 1 senh t que verifica la condicin inicial dada.
cu
a
F
En la introduccin de este captulo hemos visto ejemplos de ecuaciones diferenciales con derivadas segundas, como (7.2) y
(7.5). La forma general de la ecuacin diferencial lineal de segundo orden es
a 2 (t )y 00 + a 1 (t )y 0 + a 0 (t )y = b(t )
con a 2 (t ), a 1 (t ), a 0 (t ) y b(t ) funciones continuas en cierto intervalo abierto. Asumiendo que a 2 (t ) no se anula en dicho
intervalo, podemos reescribir la ecuacin como
a 1 (t ) 0 a 0 (t ) b(t )
y 00 + y + y=
a 2 (t ) a 2 (t ) a 2 (t )
Para la ecuacin de primer orden habamos exhibido un mtodo general de resolucin en 7.1. Como es de imaginar, el caso
de segundo orden presenta mayores dificultades. Por ello es que limitaremos nuestra atencin al caso en que las funciones
a 2 (t ), a 1 (t ) y a 0 (t ) son constantes.
Ecuaciones diferenciales y
180 sistemas de ecuaciones diferenciales
Definicin 7.2
donde a 1 , a 0 R y f (t ) es una funcin continua en cierto intervalo abierto I , se denomina ecuacin diferencial lineal
de segundo orden con coeficientes constantes.
En el caso de que sea f (t ) = 0 para todo t I se dice que es una ecuacin homognea.
A
para cierto t 0 I y a, b dos valores dados, se tiene un problema de valores iniciales.
B
U
Muchos de los recursos y resultados acerca de la ecuacin de primer orden pueden adaptarse sin dificultad para la de segun-
-
do orden. Como en (7.10), si definimos un operador lineal
a
r
L : C 2 (I ) C (I ), L(y) = y 00 + a 1 y 0 + a 0 y (7.12)
ie
resolver la ecuacin de segundo orden definida en 7.2 equivale a encontrar la preimagen de f por L:
en
L 1 f = y C 2 (I ) : L(y) = f = y C 2 (I ) : y 00 + a 1 y 0 + a 0 y = f
g
In
Aplicando el teorema 7.2 como en el caso de primer orden, podemos concluir nuevamente que las soluciones de la ecuacin
se obtienen con una solucin particular sumada a una solucin de la ecuacin homognea.
d
a
Teorema 7.5
lt
cu
Sea y p una solucin particular de la ecuacin diferencial lineal (7.11). Entonces la funcin y C 2 (I ) es solucin de
a
dicha ecuacin si y slo si es de la forma y = y p + y h con y h una solucin de la ecuacin homognea asociada.
F
Volvamos a pensar la ecuacin diferencial (7.2) con que describimos la cada libre de los cuerpos
y 00 = g
aplicando ahora los conceptos que hemos estudiado. Ya sabemos que la solucin general es la descrita en (7.3)
1
y(t ) = g t 2 + At + B con A, B R
2
y ahora podemos sealar que y p = 12 g t 2 es una solucin particular, mientras que las funciones de la forma At +B con A, B R
son soluciones de la ecuacin homognea asociada
y 00 = 0
L : C 2 (I ) C (I ), L(y) = y 00
Ecuaciones diferenciales y
sistemas de ecuaciones diferenciales 181
Parece razonable conjeturar que el ncleo de cualquier operador de la forma (7.12) ser de dimensin dos. Ms adelante
probaremos que esto es efectivamente cierto, lo cual resulta de gran importancia. En efecto, si el ncleo del operador es de
dimensin dos, est generado por dos funciones y 1 , y 2 linealmente independientes. Luego para resolver una ecuacin como
la definida en 7.2 alcanzar con
A
y p + Ay 1 + B y 2 con A, B R (7.13)
B
El ejemplo que sigue ilustra este mtodo.
U
Ejemplo 7.3
-
Consideramos el problema de valores iniciales
a
00 2
r
y 9y = t + 2
ie
y(0) = 0
0
en
y (0) = 1
En primer lugar buscamos las soluciones de la ecuacin homognea, sabiendo que alcanza con encontrar dos solu-
g
In
ciones independientes:
y 00 9y = 0 y 00 = 9y
e
Como se trata de una funcin cuya derivada segunda es un mltiplo de la misma funcin, proponemos soluciones de
d
r 2 e r t 9e r t = 0 e r t r 2 9 = 0
a
lt
2
r 9 = 0
a
F
y 1 (t ) = e 3t y 2 (t ) = e 3t
Dejamos como ejercicio comprobar que son efectivamente linealmente independientes. Luego, las soluciones de la
ecuacin homognea son de la forma
Ae 3t + B e 3t con A, B R
Buscamos ahora una solucin particular. Dado que la ecuacin contiene derivadas que deben dar por resultado un
polinomio, podemos suponer que existe una solucin polinmica. Proponemos entonces una funcin de la forma
y p (t ) = C t 2 + D t + E . Al reemplazar en la ecuacin queda
2C 9(C t 2 + D t + E ) = t 2 + 2 9C t 2 9D t + 2C 9E = t 2 + 2
20
y(0) = + A +B = 0
81
y 0 (0) = 3A 3B = 1
47 7
de donde deducimos que A = 162 y B = 162 . La solucin al problema de valores iniciales resulta
A
1 20 47 3t 7 3t
y(t ) = t 2 + e e
B
9 81 162 162
U
-
Ejercicio.
y(0) = 1
0
y (0) = 0
g
In
e
d
Como ya habamos anticipado en la seccin anterior, probaremos que el conjunto solucin de la ecuacin homognea
cu
y 00 + a 1 y 0 + a 0 = 0 (7.14)
a
definida en 7.2 es un subespacio de C 2 (I ) de dimensin dos. Ms aun, indicaremos un mtodo para calcular las soluciones.
F
La demostracin es un poco extensa y los lectores que tan slo busquen un resumen del mtodo podrn encontrarlo en los
teoremas de esta seccin. Para los lectores ms curiosos ofrecemos los lineamientos de la demostracin, aunque omitimos
algunos detalles. Consideramos que leer cuidadosamente los argumentos puede ser un buen repaso de los temas estudiados
hasta ahora y abrir un interesante panorama acerca de cmo se aplican las ideas del lgebra lineal.
Comenzamos con una definicin que nos permitir caracterizar al operador definido en (7.12).
Definicin 7.3
Adoptando la notacin
D y = y0 D 2 y = D(D y) = y 00 ... D n y = y (n) ...
N Destacamos la completa analoga que existe entre el operador p(D) y el polinomio matricial p(A) estudiado en el
captulo 4: en el caso de p(A) la matriz A tambin representa un operador, aunque entre espacios de dimensin
finita.
Ejemplo 7.4
A
y 00 + y 0 2y = 0 D 2 y + D y 2y = 0 (D 2 + D 2)y = 0
B
En este caso, el polinomio definido en (7.15) es p(r ) = r 2 + r 2 = (r 1)(r + 2). Veamos que el operador (D 2 + D
U
2) puede factorizarse como (D 1)(D + 2). Para ello, probamos que (D 1)(D + 2) aplicado a cualquier funcin da
exactamente lo mismo que la aplicacin de (D 2 + D 2). Usamos las definiciones y la propiedad asociativa de los
-
operadores:
a
r
(D 1)(D + 2)y = (D 1) (D + 2)y
ie
= (D 1)(D y + 2y)
en
= (D 2 + D 2)y
In
(D 1)(D + 2)y = 0 (D 1) (D + 2)y = 0
d
vale decir que la funcin (D + 2)y debe ser un elemento del ncleo del operador (D 1). Este ncleo no es difcil de
d
a
calcular:
lt
(D 1)v = 0 D v = v v = ke t con k R
cu
(D + 2)y = ke t y 0 + 2y = ke t (7.16)
F
e 2t y 0 + e 2t 2y = ke 3t
2t 0
e y = ke 3t
k 3t
e 2t y = e +C 2 con C 2 R
3
Entonces la solucin general de (7.16), que coincide con la de la ecuacin homognea, es el conjunto de funciones de
la forma
k
y(t ) = e t +C 2 e 2t
3
y renombrando las constantes queda
y(t ) = C 1 e t +C 2 e 2t con C 1 ,C 2 R
Ecuaciones diferenciales y
184 sistemas de ecuaciones diferenciales
Los argumentos usados en el ejemplo anterior se pueden adaptar a cualquier caso en que las races del polinomio p(r ) =
r 2 + a 1 r + a 0 sean dos nmeros reales distintos. De all el inters en la siguiente definicin.
Definicin 7.4
r 2 + a1 r + a0 = 0
Dejamos como ejercicio para el lector generalizar el trabajo hecho en el ejemplo para demostrar el teorema siguiente.
A
B
Si la ecuacin caracterstica de la ecuacin homognea (7.14) tiene dos races reales distintas r 1 y r 2 , entonces
r t r t
U
e 1 , e 2 es una base del conjunto de soluciones y la solucin general est formada por las funciones de la forma
y = C 1 e r 1 t +C 2 e r 2 t con C 1 ,C 2 R
-
a
r
ie
Ejercicio.
en
In
00 0
y + y 12y = 0
y(0) = 1
e
0
y (0) = 2
d
d
Si la ecuacin caracterstica tiene una raz real doble, no podremos encontrar dos soluciones independientes de la forma
a
Si la ecuacin caracterstica de la ecuacin homognea (7.14) tiene una raz real doble r 1 , entonces t e r 1 t , e r 1 t es una
F
base del conjunto de soluciones y la solucin general est formada por las funciones de la forma
y = C 1 t e r 1 t +C 2 e r 1 t con C 1 ,C 2 R
Demostracin:
Como en este caso es (r r 1 )2 = 0, la ecuacin (7.14) se escribe como
(D r 1 )(D r 1 )y = 0 (D r 1 ) (D r 1 )y = 0
Luego la funcin (D r 1 )y debe ser un elemento del ncleo del operador (D r 1 ). Vale decir que (D r 1 )y debe ser de la
forma
(D r 1 )y = C 1 e r 1 t con C 1 R
De esta forma, la ecuacin original es equivalente a la ecuacin de primer orden
y 0 r 1 y = C 1 e r1 t (7.17)
Ecuaciones diferenciales y
sistemas de ecuaciones diferenciales 185
e r 1 t y 0 r 1 e r 1 t y = C 1
r t 0
e 1 y = C1
e r 1 t y = C 1 t +C 2 con C 2 R
y(t ) = C 1 t e r 1 t +C 2 e r 1 t
Ejercicio.
A
B
7.5 Resuelva el siguiente problema de valores iniciales
U
00 0
y + 4y + 4y = 0
-
y(0) = 1
0
y (0) = 0
a
r
ie
Siendo el polinomio definido en (7.15) con coeficientes reales, slo nos queda por considerar el caso en que tiene dos races
en
complejas conjugadas. Para poder pensar esta situacin, consideraremos funciones de I C donde I es un intervalo abierto
en R. Podemos representarlas con la forma general
g
In
f (t ) = u(t ) + i v(t )
e
donde u(t ) y v(t ) son funciones de I R. En caso de que u(t ) y v(t ) sean derivables, la derivacin se define mediante3
d
f 0 (t ) = u 0 (t ) + i v 0 (t )
d
a
lt
La resolucin de las ecuaciones diferenciales que hemos estudiado puede extenderse sin dificultades a esta clase de funcio-
cu
nes. En particular, prestaremos atencin a la funcin exponencial e i t . De acuerdo con la frmula de Euler, es
a
e i t = cos t + i sen t
F
f : R C, f (t ) = e i bt = cos(bt ) +i sen(bt )
| {z } | {z }
u(t ) v(t )
resulta
0
e i bt = b sen(bt ) + i b cos(bt )
= i b [cos(bt ) + i sen(bt )]
= i be i bt
Usando estas funciones y sus propiedades, se puede probar un teorema totalmente anlogo al 7.6 demostrado para races
reales distintas, con lo cual la solucin general est formada por las funciones de la forma
y = z1 e r1 t + z2 e r2 t
donde r 1 = a +bi y r 2 = a bi son las races conjugadas y z 1 , z 2 C. Usualmente, de toda esta familia ampliada de soluciones
interesan las funciones a valores reales, como las que habamos obtenido en los problemas anteriores. Para hallar estas
funciones a valores reales, debemos desarrollar la expresin de la solucin general:
z 1 e r 1 t + z 2 e r 2 t = z 1 e (a+bi )t + z 2 e (abi )t
A
= z 1 e at e bi t + z 2 e at e bi t
B
U
= z 1 e at [cos(bt ) + i sen(bt )] + z 2 e at [cos(bt ) i sen(bt )]
= e at [(z 1 + z 2 ) cos(bt ) + (i z 1 i z 2 ) sen(bt )]
-
a
Dado que z 1 , z 2 C son arbitrarias pueden elegirse de manera que verifiquen el sistema (siempre compatible)
r
ie
z1 + z2 = C 1
en
i z1 i z2 = C 2
g
e at [C 1 cos(bt ) +C 2 sen(bt )]
e
d
Si la ecuacin caracterstica de la ecuacin homognea (7.14) tiene dos races complejas conjugadas r 1 = a + bi y
cu
r 2 = a bi (con b 6= 0), entonces e at cos(bt ), e at sen(bt ) es una base del conjunto de soluciones y la solucin general
reales.
cuya ecuacin caracterstica es r 2 + 16 = 0. Sus races son los nmeros complejos conjugados r 1 = 4i y r 2 = 4i . De
acuerdo con el teorema 7.8, una base del conjunto de soluciones ser e 0t cos(4t ), e 0t sen(4t ) = {cos(4t ), sen(4t )}. La
solucin general es
y = C 1 cos(4t ) +C 2 sen(4t ) con C 1 ,C 2 R
Ecuaciones diferenciales y
sistemas de ecuaciones diferenciales 187
En las aplicaciones, es muy comn encontrar problemas en que la solucin debe verificar ciertas condiciones en
los extremos de un intervalo. Es lo que se conoce como un problema con valores en la frontera. Consideremos, por
ejemplo, el problema
00
y + 16y = 0
y(0) = 0
y 8 =1
Al evaluar la solucin general en t = 0 deducimos que debe ser C 1 = 0, mientras que al evaluar en t = 8 deducimos
que C 2 = 1. Por lo tanto, la nica solucin al problema de valor en la frontera es
y(t ) = sen(4t )
Ejercicio.
A
B
7.6 Resuelva, cuando sea posible, los siguientes problema de valores en la frontera
U
00 00
y + 16y = 0
y + 16y = 0
-
y(0) = 0 y(0) = 0
a
y 4 =0 r y 4 =1
ie
Ejercicio.
en
00 0
y 2y + 5y = 0
y(0) = 2
e
0
y (0) = 1
d
d
a
lt
Como ya sealamos en el teorema 7.5, para resolver la ecuacin de segundo orden definida en 7.2 necesitamos la solucin ge-
neral de la ecuacin homognea y una solucin particular. En la seccin anterior hemos indicado cmo resolver la ecuacin
homognea. En cuanto a encontrar una solucin particular, en el ejemplo 7.3 lo hicimos basndonos en una conjetura: dado
que el trmino independiente de la ecuacin era un polinomio, propusimos como solucin un polinomio con coeficientes a
determinar. Veamos algunos ejemplos ms en que se usan recursos similares.
Ejemplo 7.6
y = C 1 t e t +C 2 e t con C 1 ,C 2 R
Para encontrar una solucin particular, observamos que las derivadas de cualquier orden de la funcin e 2t son ml-
Ecuaciones diferenciales y
188 sistemas de ecuaciones diferenciales
y = 3e 2t +C 1 t e t +C 2 e t con C 1 ,C 2 R
Ejemplo 7.7
A
y 00 3y 0 + 2y = 3e t
B
En este caso, la ecuacin caracterstica es r 2 3r + 2 = (r 1)(r 2) = 0. De acuerdo con el teorema 7.6, la solucin
U
general de la ecuacin homognea tiene a todas las funciones de la forma
-
y = C 1 e t +C 2 e 2t con C 1 ,C 2 R
a
r
La novedad en este problema es que no podemos proponer soluciones de la forma y p (t ) = Ae t , puesto que son so-
ie
luciones del problema homogneo y se anulan al reemplazarlas en la expresin y 00 3y 0 + 2y. Proponemos entonces
y p (t ) = At e t . Antes de reemplazar en la ecuacin, calculamos las derivadas necesarias:
en
g
y p0 = Ae t + At e t
In
y p00 = Ae t + Ae t + At e t = 2Ae t + At e t
e
y entonces
d
3e t = y p00 3y p0 + 2y p
d
a
= 2Ae t + At e t 3 Ae t + At e t + 2At e t
lt
= Ae t
cu
y = 3t e t +C 1 e t +C 2 e 2t con C 1 ,C 2 R
Ejemplo 7.8
La ecuacin
y 00 3y 0 + 2y = 2 cos t
tiene asociada la misma ecuacin homognea que el ejemplo anterior. Slo nos falta entones encontrar una solu-
cin particular. En este caso, debemos tener en cuenta que las derivadas de la funcin coseno son, alternativamente,
mltiplos del seno y del coseno. Proponemos entonces y p (t ) = A cos t + B sen t y calculamos las derivadas necesarias:
y p0 = A sen t + B cos t
y p00 = A cos t B sen t
Ecuaciones diferenciales y
sistemas de ecuaciones diferenciales 189
y entonces
2 cos t = y p00 3y p0 + 2y p
= A cos t B sen t 3 (A sen t + B cos t ) + 2 (A cos t + B sen t )
= (A 3B ) cos t + (3A + B ) sen t
Dado que cos t y sen t son funciones linealmente independientes, existe una nica combinacin lineal de ellas que da
la funcin 2 cos t . Esto justifica que podamos igualar los coeficientes respectivos y plantear el sistema de ecuaciones
A 3B = 2
3A + B = 0
1
de donde deducimos que A = 5 y B = 35 ; la solucin particular buscada es y p (t ) = 51 cos t 35 sen t y la solucin general
A
resulta
1 3
B
y= cos t sen t +C 1 e t +C 2 e 2t con C 1 ,C 2 R
5 5
U
-
Los ejemplos anteriores ilustran los recursos que usualmente se usan cuando el trmino independiente de la ecuacin dife-
a
r
rencial es un polinomio, una exponencial, un seno o un coseno. Creemos que deberan ser claros e indicar cmo proceder en
cada situacin. De todos modos, dejamos asentada una expresin general del mtodo, cuya comprobacin puede buscarse
ie
en la bibliografa.
en
g
Si en la ecuacin diferencial
y 00 + a 1 y 0 + a 0 y = f (t )
e
d
lt
donde q es un polinomio a coeficientes reales y , R, entonces existe una solucin particular de la forma
cu
y p (t ) = t s e t q 1 (t ) cos(t ) + q 2 (t ) sen(t )
a
donde q 1 y q 2 son polinomios a coeficientes reales de grado menor o igual que el de q y s es la multiplicidad de + i
como raz de la ecuacin caracterstica (en particular, s = 0 si + i no es raz).
Dejamos como ejercicio para el lector comprobar que todos los ejemplos anteriores se pueden interpretar como casos par-
ticulares de esta proposicin.
N Una pregunta que naturalmente surge en este contexto es cmo encontrar una solucin particular cuando no se
cumplen las condiciones del mtodo de los coeficientes indeterminados, vlido tan slo para una clase reducida
de funciones. Aunque no lo expondremos en este curso, mencionamos que existe un mtodo general conocido
como variacin de parmetros. Remitimos a los lectores interesados a la bibliografa de ecuaciones diferenciales.
Ecuaciones diferenciales y
190 sistemas de ecuaciones diferenciales
Ejercicio.
A
Para presentar este tema, comenzaremos planteando un modelo de crecimiento de una poblacin (entendida en sentido
B
amplio: podra ser de humanos, animales, plantas...). Una primera aproximacin al problema sera considerar que el creci-
miento es proporcional a la cantidad de individuos que dicha poblacin tiene. Adoptando la notacin x(t ) para representar
U
la cantidad de individuos en funcin del tiempo, la ecuacin diferencial
-
x 0 (t ) = kx(t )
a
r
representa nuestro modelo: x 0 da cuenta de la variacin de individuos por unidad de tiempo, que resulta proporcional a la
ie
cantidad de individuos que la poblacin efectivamente tiene.4 La constante de proporcionalidad k es un dato emprico de
en
x(t ) = C e kt con C R
In
y la primera objecin que puede hacerse a este modelo es que la poblacin tiende a infinito conforme avanza el tiempo (si
e
d
k > 0). Evidentemente, se trata de un modelo poco realista, que no tiene en cuenta las limitaciones con que se encuentra una
poblacin creciente. Un modelo un poco ms sofisticado es el que admite las poblaciones x 1 (t ) y x 2 (t ) de dos especies que
d
x 10 (t ) = a 11 x 1 (t ) + a 12 x 2 (t )
cu
x 20 (t ) = a 21 x 1 (t ) + a 22 x 2 (t )
a
F
(donde a 11 , a 12 , a 21 , a 22 R) reflejan esta interaccin, puesto que el cambio de cada poblacin depende de las dos especies.
Consideremos el caso en que x 1 (t ) es una poblacin de ratones y x 2 (t ) de lechuzas: estamos frente a un modelo de predador-
presa. La cantidad de ratones tender a aumentar proporcionalmente a si misma, pero disminuir proporcionalmente a la
cantidad de lechuzas que los cazan. Vale decir que deber ser a 11 > 0 y a 12 < 0. A su vez, la poblacin de lechuzas deber cre-
cer proporcionalmente a la cantidad de ratones disponibles para alimentarse. Por otra parte, cuanto mayor sea la poblacin
de lechuzas menor disponibilidad de alimento tendr para cada individuo. Esto permite suponer que ser a 21 > 0 y a 22 < 0.
Para ilustrar este modelo, consideramos el sistema de ecuaciones diferenciales5
x 10 (t ) = 1x 1 (t ) 2x 2 (t )
x 20 (t ) = 2x 1 (t ) 4x 2 (t )
4 Cualquier poblacin tiene una cantidad entera de individuos. Al pensarla como una funcin derivable x(t ) que puede asumir valores fraccionarios
estamos haciendo una simplificacin que nos permite aplicar los recursos del clculo.
5 El lector debe estar al tanto de todas las simplificaciones que se han hecho en este modelo y, por ende, reconocer sus limitaciones. Los modelos biol-
X 0 = AX = P DP 1 X
A
Multiplicando a izquierda por P 1 queda
B
P 1 X 0 = DP 1 X
U
Dado que P 1 es una matriz que contiene constantes, las reglas usuales de derivacin nos permiten escribir
-
1 0
P X = D P 1 X
a
De esta forma, el cambio de variable Y (t ) = P 1 X (t ) transforma al sistema original en un sistema desacoplado
r
ie
" # " #" # " # (
0 y 10 (t ) 3 0 y 1 (t ) 3y 1 (t ) y 10 (t ) = 3y 1 (t )
Y = DY = =
en
0
y 2 (t ) 0 0 y 2 (t ) 0 y 20 (t ) = 0
g
donde cada funcin incgnita se encuentra en una ecuacin diferencial lineal sin vnculo con la otra. La resolucin en este
In
caso es
" # " #
y 1 (t ) C 1 e 3t
e
= con C 1 ,C 2 R
y 2 (t ) C2
d
X (t ) = P Y (t ) = = con C 1 ,C 2 R
2 1 C2 2C 1 e 3t +C 2
cu
o sea que
a
x 1 (t ) = C 1 e 3t + 2C 2
F
x 2 (t ) = 2C 1 e 3t +C 2
Las constantes C 1 ,C 2 R quedan determinadas por las condiciones iniciales. Si, por ejemplo, la poblacin inicial de ratones
cuenta con 500 individuos y la de lechuzas con 400, al evaluar la solucin general en t = 0 queda el sistema de ecuaciones
C 1 + 2C 2 = 500
2C 1 +C 2 = 400
x 1 (t ) = 100e 3t + 400
x 2 (t ) = 200e 3t + 200
El modelo predice que a medida que pasa el tiempo, las poblaciones de ratones y lechuzas tendern a estabilizarse en 400 y
200 individuos respectivamente. Ms an, en la solucin general general se aprecia que, para cualquier condicin inicial, la
poblacin de ratones tender a duplicar a la de lechuzas.
Ecuaciones diferenciales y
192 sistemas de ecuaciones diferenciales
Ejercicio.
x 10 (t ) = 3x 1 (t ) x 2 (t )
x 20 (t ) = 2x 1 (t ) + 2x 2 (t )
Encuentre la solucin que verifica las condiciones iniciales x 1 (0) = 50 x 2 (0) = 250.
A
Definicin 7.5
B
Un sistema de ecuaciones diferenciales de la forma
U
x 0 (t ) = a 11 x 1 (t ) + ... + a 1n x n (t ) + f 1 (t )
1
-
..
.
a
0
r
x n (t ) = a n1 x 1 (t ) + ... + a nn x n (t ) + f n (t )
ie
donde las funciones derivables x i (t ) son las incgnitas, los coeficientes a i j R son constantes y las f i (t ) son funciones
en
continuas en cierto intervalo abierto I , se denomina sistema de ecuaciones diferenciales lineales con coeficientes
constantes.
g
In
Adoptando la notacin
e
x 10 (t )
d
x 1 (t ) a 11 a 1n f 1 (t )
.. .. . .. .. ..
X 0 (t ) =
X (t ) = A = .. F (t ) =
d
. . . . .
a
x n (t ) x n0 (t ) a n1 a nn f n (t )
lt
cu
Si adems se buscan soluciones que verifiquen una condicin de la forma X (t 0 ) = X 0 para ciertos t 0 I y X 0 Rn , se
tiene un problema de valores iniciales.
Como ya hicimos en el caso de la ecuacin de segundo orden, comenzaremos estudiando el caso homogneo para luego
pasar al general.
En los textos de ecuaciones diferenciales se demuestra que cualquier sistema homogneo en las condiciones que estamos
estudiando tiene una solucin general, que dicha solucin es un subespacio del espacio de funciones C 1 (I , Rn ) y que la
Ecuaciones diferenciales y
sistemas de ecuaciones diferenciales 193
dimensin de ese subespacio es n. Nuestro estudio se limitar al caso en que la matriz es diagonalizable, para el que aplica-
remos los mismos recursos que en el ejemplo de la seccin anterior.
Teorema 7.9
X 0 = AX
con las condiciones definidas en 7.5, si existe una base {v 1 , ..., v n } de Rn compuesta por autovectores de A de modo tal
que Av i = i v i con i = 1, ..., n y i R, entonces
n o
e 1 t v 1 , ..., e n t v n
A
es una base del espacio de soluciones del sistema.
B
U
Demostracin:
Planteamos en primer lugar la diagonalizacin de la matriz de coeficientes del sistema: A = P DP 1 donde
-
a 1
0 0
r
0 2 0
ie
h i
P= v1 v2 vn D = .. .. .. ..
.
en
. . .
0 0 n
g
In
0
y 1 (t )
= 1 y 1 (t )
lt
.. ..
Y 0 = DY . .
cu
= n y n (t )
0
y n (t )
a
F
Dado que las ecuaciones estn desacopladas, la solucin se calcula inmediatamente como
C 1 e 1 t
..
con C 1 , ...,C n R
Y (t ) =
.
C n e n t
C 1 e 1 t
Esto prueba que el conjunto e 1 t v 1 , ..., e n t v n genera todas las soluciones. Para probar su independencia lineal, planteamos
C 1 e 1 t v 1 + ... +C n e n t v n = 0 t I
Ecuaciones diferenciales y
194 sistemas de ecuaciones diferenciales
Ahora bien, como los vectores v 1 , ..., v n son independientes, los coeficientes deben ser nulos:
C 1 e 1 t = 0
..
.
C n e n t = 0
y dado que las funciones exponenciales no se anulan, se deduce que C 1 = ... = C n = 0, como queramos.
Ejemplo 7.9
x 10 (t ) = x 1 (t ) + x 2 (t )
A
x 20 (t ) = x 1 (t ) + 2x 2 (t ) 3x 3 (t )
B
x 30 (t ) = x 1 (t ) + x 2 (t ) 2x 3 (t )
U
-
a
cuya matriz de coeficientes r
1 1 0
ie
A= 1 2 3
1 1 2
en
C 1 e 2t +C 2 e t +C 3
1 1 1
d
X (t ) = C 1 e 2t 1 +C 2 e t 2 +C 3 1 = C 1 e 2t + 2C 2 e t +C 3
a
lt
1 1 1 C 1 e 2t +C 2 e t +C 3
cu
donde C 1 ,C 2 ,C 3 R.
a
F
Ejercicio.
x 10 (t ) = x 2 (t ) x 3 (t )
x 20 (t ) = 2x 2 (t ) 2x 3 (t )
x 30 (t ) = x 2 (t ) x 3 (t )
De manera similar a lo que haba ocurrido en el caso de las ecuaciones diferenciales de segundo orden, es posible que la ma-
triz de coeficientes del sistema tenga autovalores complejos. En tal caso, vale un teorema como 7.9 admitiendo autovalores
complejos y autovectores en Cn . La demostracin es idntica a la que hemos hecho para el caso real. Como en las ecuaciones
de segundo orden, ser de inters encontrar una base de soluciones en R.
Ecuaciones diferenciales y
sistemas de ecuaciones diferenciales 195
Ejemplo 7.10
Los autovalores son dos nmeros complejos conjugados: 1 = 4 3i y 2 = 4 + 3i . Los autoespacios asociados son
S 1 = gen [1 i ]t S 2 = gen [1 i ]t
A
donde C 1 ,C 2 C. Para encontrar funciones de I R que generen la solucin general, desarrollamos la expresin
obtenida:
B
U
" # " #
4t 1 4t 1
X (t ) = C 1 e [cos(3t ) i sen(3t )] +C 2 e [cos(3t ) + i sen(3t )]
i i
-
" # " #
a
4t C 1 cos(3t ) +C 2 cos(3t ) 4t C 1 sen(3t ) +C 2 sen(3t )
=e +ie
r
C 1 sen(3t ) +C 2 sen(3t ) C 1 cos(3t ) C 2 cos(3t )
ie
" # " #
4t cos(3t ) 4t sen(3t )
= (C 1 +C 2 )e + i (C 1 C 2 )e
en
sen(3t ) cos(3t )
g
" # " #
4t cos(3t ) 4t sen(3t )
X (t ) = D 1 e + D2e
e
sen(3t ) cos(3t )
d
con D 1 , D 2 R.
d
a
lt
" # " #
4t cos(3t ) 4t sen(3t )
1 (t ) = e 2 (t ) = e
a
sen(3t ) cos(3t )
F
obtenida a partir de 1 .
Al final del ejemplo anterior sealamos que las partes real e imaginaria de una solucin eran a su vez dos soluciones reales.
Este hecho no es una casualidad sino que puede generalizarse adaptando el desarrollo hecho en el ejemplo.
Ecuaciones diferenciales y
196 sistemas de ecuaciones diferenciales
Teorema 7.10
X 0 = AX
con las condiciones definidas en 7.5, si la matriz A tiene un autovalor complejo = a+bi (con b 6= 0) con un autovector
asociado v entonces
1 (t ) = e t v y 2 (t ) = e t v
A
2 2 (t ) = 1 (t )
B
3 Las partes real e imaginaria de 1 (t ) son soluciones a valores reales del sistema y resultan linealmente indepen-
U
dientes.
-
a
Demostracin: r
Veamos que 1 (t ) es solucin:
ie
01 (t ) = e t v = e t Av = A e t v = A1 (t )
en
El caso de 2 (t ) se basa en el hecho (estudiado en el captulo 4) de que para matrices reales el conjugado de un autovalor
g
Av = Av = v = v
e
d
y se demuestra de manera anloga. La independencia lineal surge de plantear la combinacin que da la funcin nula
d
C 1 1 (t ) +C 2 2 (t ) = 0 C 1 e t v +C 2 e t v = 0
a
lt
y recordar que a autovalores distintos corresponden autovectores independientes, con lo cual deben ser
cu
C 1 e t = C 2 e t = 0
a
F
y necesariamente C 1 = C 2 = 0.
La propiedad 2 es una consecuencia inmediata de las propiedades de la conjugacin y se deja como ejercicio.
Para demostrar 3 , sealamos que por ser el conjunto solucin del sistema homogneo un subespacio, cualquier combina-
cin lineal
C 1 1 (t ) +C 2 2 (t ) = C 1 1 (t ) +C 2 1 (t ) (7.18)
ser solucin. Recordando entonces que las parte real e imaginaria de un nmero complejo z surgen de
z +z z z
Re z = Im z =
2 2i
1 (t ) + 1 (t )
= Re 1 (t )
2
Ecuaciones diferenciales y
sistemas de ecuaciones diferenciales 197
1 1
y con C 1 = 2i , C 2 = 2i :
1 (t ) 1 (t )
= Im 1 (t )
2i
La independencia lineal de Re 1 (t ) e Im 1 (t ) se deduce de la independencia de 1 y 2 y se dejan los detalles como ejerci-
cio.
Ejercicio.
7.11 Encuentre una base del espacio de soluciones del siguiente sistema de ecuaciones diferenciales
x 10 (t ) = 2x 1 (t ) x 2 (t )
x 20 (t ) = x 1 (t ) + 2x 2 (t )
A
B
U
7.9 Sistemas no homogneos
-
a
Al comenzar a estudiar sistemas de ecuaciones diferenciales vimos que si la matriz de coeficientes es diagonalizable, enton-
r
ces un cambio de variable permite resolver el caso homogneo. Veremos ahora que ese mismo cambio resuelve el caso no
ie
homogneo
en
X 0 = AX + F
g
como fue definido en 7.5. Para ello, consideramos nuevamente la factorizacin A = P DP 1 y reemplazamos en el sistema
In
X 0 = P DP 1 X + F
e
1 0
d
P X = D P 1 X + P 1 F
a
Y 0 = DY + P 1 F
cu
Como P 1 F es un vector de funciones conocidas, lo que queda por resolver son n ecuaciones desacopladas en las incgnitas
a
F
Ejemplo 7.11
1
y 10 (t ) = y 1 (t ) + e t
2
1
y 20 (t ) = 3y 2 (t ) + e t
2
Se trata de ecuaciones diferenciales lineales, cuyas soluciones son
tet
y 1 (t ) = C 1 e t +
A
2
B
3t et
y 2 (t ) = C 2 e
U
4
con C 1 ,C 2 R. Para conocer la solucin del problema original deshacemos el cambio de variables:
-
a
" #" t
# " t #
1 1 C 1 e t + t 2e r C 1 e t +C 2 e 3t + (2t 1)e
X (t ) = P Y (t ) = t = 4
t con C 1 ,C 2 R
1 1 C 2 e 3t e4 C 1 e t C 2 e 3t + (2t +1)e
ie
4
en
t 1 3t 1
X (t ) = C 1 e +C 2 e + 4 con C 1 ,C 2 R
In
1 1 (2t +1)e t
4
e
para apreciar que la solucin consta, como era de esperarse, de la solucin general del problema homogneo X 0 = AX
d
a Los lectores interesados en conocer la generalizacin de este comentario podrn consultar la bibliografa.
a
lt
cu
Ejercicio.
a
F
x 10 = x 1 3x 2
x 20 = 3x 1 + x 2 e t
Soluciones
A
B
1.1 Lo primero que observamos es que las operaciones que se han definido son cerradas, porque tanto el producto de n-
U
meros positivos como las potencias de un nmero positivo son nmeros positivos. Con respecto a las propiedades de la
suma y el producto, es sencillo comprobarlas usando los resultados conocidos sobre nmeros reales. As, por ejemplo, para
-
comprobar la propiedad 5 consideramos
a
r
= x 1 x 1 , x 2 x 2 = x 1 , x 2 + x 1 , x 2 = (x 1 , x 2 ) + (x 1 , x 2 )
(+) (+)
( + )(x 1 , x 2 ) = x 1 , x2
ie
en
Por ltimo, el elemento neutro para la suma es 0V = (1, 1) y el opuesto del vector u = (x 1 , x 2 ) es u = (x 11 , x 21 ).
g
1.2 Planteando la combinacin lineal w = 1 v 1 + 2 v 2 resulta (1 + i , 2) = 1 (1, 0) + 2 (0, 1) = (1 , 2 ). Esto implica que nece-
In
sariamente 1 = 1 + i 2 = 2.
e
d
1.3 Considerando la equivalencia trigonomtrica sen(a + b) = sen a cos b + cos a sen a resulta para todo x R:
p p
d
2 2
a
p p
cu
2 2
Por lo tanto f = 2 f 1 + 2 f2.
a
F
1.4 Como se trata de una doble implicacin, supondremos en primer lugar que los vectores {v 1 , v 2 , ..., v r } constituyen un
conjunto linealmente dependiente. Esto significa que existen escalares 1 , 2 = ... = r no todos nulos tales que 1 v 1 +
2 v 2 + ... + r v r = 0V . Podemos suponer, sin perder generalidad, que 1 6= 0. Entonces
2 r
1 v 1 = 2 v 2 ... r v r v 1 = v 2 ... vr
1 1
0V = (1)v 1 + 2 v 2 + ... + r v r
1.5 Una alternativa es demostrar que es un conjunto generador y aplicar el teorema 1.7. Para ello alcanza con mostrar que
los polinomios de la base cannica pueden obtenerse como combinacin lineal de 1 t , 1 + t y t 2 .
Ecuaciones diferenciales y
200 sistemas de ecuaciones diferenciales
1.6 Por ser rectas distintas, existen dos vectores linealmente independientes u, v tales que S 1 = gen {u} y S 2 = gen {v}. Por lo
tanto S 1 + S 2 contiene a todas las combinaciones lineales de u y v. Luego si las rectas estn en R2 es S 1 + S 2 = R2 , mientras
que si las rectas estn en R3 , S 1 + S 2 es el plano que las contiene.
1.7 El plano S 1 admite una base {u, v}, mientras que la recta S 2 admite una base {w}. El vector w no es combinacin lineal
de u y v (por qu?). Luego el conjunto {u, v, w} es un base de R3 . De esta forma, para cada vector v R3 existen y son nicos
los escalares , , tales que
v = u + v + w = u + v + w
| {z } |{z}
S 1 S 2
(1.17), puesto que dim (S 1 + S 2 + S 3 ) = 3 mientras que dim (S 1 ) + dim (S 2 ) + dim (S 3 ) = 4 (probarlo).
A
Soluciones del Captulo 2
B
U
-
2.1 Es posible que para algunos lectores no sea clara la definicin de la funcin f . Cuando eso ocurre, antes de lanzarse a la
a
resolucin del planteo propiamente dicho, es recomendable hacer un ejemplo sencillo de uso de la definicin. En este caso,
r
consideramos el polinomio p(t ) = 3t 2 5. Entonces la transformacin consiste en evaluar al polinomio en cero: f (p) = p(0) =
ie
5.
en
Ahora s, para demostrar que es una transformacin verificamos que se cumplen las dos condiciones.
1 dados p, q P 2 : f (p + q) = (p + q)(0) = p(0) + q(0) = f (p) + f (q) (donde hemos usado la definicin de suma en P 2 ).
g
2 dados p P 2 , R : f (p) = (p)(0) = p(0) = f (p) (donde hemos usado la definicin de producto por escalar en
In
P 2 ).
e
d
2.3
a
lt
2.4
Para que f sea un isomorfismo, debe cumplirse que dim(Nu f ) = 0 y a la vez que Im f = W , con lo cual el teorema de la
dimensin queda para este caso dim(V ) = 0 + dim(W ).
con lo cual, teniendo en cuenta que dim(V ) > dim(W ) dim(V ) dim(W ) > 0
3.1 Dadas matrices arbitrarias A, B,C Rmn y k R, comprobamos que se verifican las condiciones de la definicin.
1 (A, B +C ) = tr A t (B +C ) = tr A t B + A t C = tr A t B + tr A t C = (A, B ) + (A,C )
2 (k A, B ) = tr (k A)t B = tr k A t B = k tr A t B = k (A, B )
3 (A, B ) = tr A t B = tr B t A = (B, A)
t
4 (A, A) = tr A A 0 (A, A) = 0 A = 0
p p
1 3 6
3.2 En el espacio C ([0, 1]) es ( f , g ) = 3 . En el espacio C
2 y g = ([1, 1]) es ( f , g ) = 0 y g = 3 .
p p
3.3 (u, v) = 4 + 4i , kuk = 6, kvk = 14.
A
3.4 La igualdad surge de aplicar la definicin de norma junto con las propiedades del teorema 3.1:
B
U
ku + vk2 + ku vk2 = (u + v, u + v) + (u v, u v)
-
= (u, u) + (v, u) + (u, v) + (v, v) + (u, u) (u, v) (v, u) + (v, v)
a
= 2 kuk2 + 2 kvk2 r
ie
Si u y v son vectores de R2 , determinan un paralelogramo cuyas diagonales se corresponden con u + v y u v, por lo que se
en
puede decir que la suma de los cuadrados de las diagonales de un paralelogramo es igual a la suma de los cuadrados de los
lados. (Notar que en el caso de los rectngulos se deduce inmediatamente del teorema de Pitgoras).
g
In
3.5 Las dos primeras son inmediatas a partir de la definicin y las propiedades de la norma. En cuanto a la tercera, es una
consecuencia de la desigualdad triangular 3.4:
e
d
Re (u, v) = 0
3.7 Como ya se prob en un ejercicio anterior, las funciones son ortogonales para el producto interno definido. Como ade-
ms no son nulas, constituyen un conjunto linealmente independiente de tres elementos en P 2 y por lo tanto son una base
ortogonal. Como las normas no son uno (comprobarlo), la base no es ortonormal.
2 1 1 p1 .
3.8 P S (v) = 3,3,3 , d(v, S) =
3
n o
3.11 Un paso previo a la construccin de la matriz es obtener una base ortonormal: B = p1 [1 0 1 0]t , p1 [1 2 1 0]t . Luego
2 6
2 1 1 0
1 1 2 1 0
[P S ]E =
3 1 1 2 0
0 0 0 0
1 2 37 53
3.12 y = 60 x + 300 x + 50
3.13
1 1
(v + R(v)) = P S (v) + P S (v) + P S (v) P S (v) = P S (v).
A
2 2
B
d(v, S) = P S (v) = P S (v) = d (R(v), S).
U
Soluciones del Captulo 4
-
a
r
4.1
ie
en
([R]B )n = [R]B si n es impar, mientras que ([R]B )n = I si n es par. Geomtricamente: al aplicar dos veces la misma
reflexin a un vector, se obtiene el vector original.
g
In
det [R]E = det (C B E [R]B C E B ) = detC B E det [R]B det (C B E )1 = det [R]B
e
4.2 S 3 = gen [1 1]t ; S 1 = gen [1 1]t ; m 3 = m 1 = 1. Geomtricamente, la transformacin produce una dilatacin de factor
d
3 en la direccin del autovector [1 1]t , mientras que en la direccin perpendicular los vectores quedan fijos. Se puede ilustrar
d
considerando que el cuadrado de vrtices [0 0]t , [1 1]t , [0 2]t , [1 1]t se transforma en un rectngulo (cul?).
a
lt
4.3 La verificacin de las propiedades es inmediata. En cuanto a la semejanza, si A fuera semejante a I , existira una matriz
cu
inversible P tal que A = P I P 1 = I lo cual es absurdo. Por lo tanto, las propiedades enunciadas en el teorema 4.2 no son
suficientes para que exista semejanza entre matrices.
a
F
4.4
" # " p # " #
1+i 3
i i 2 0 1 1 i 1
P= D= p
1i 3
P =
1 1 0 2 i 1
2
Esta no es la nica posibilidad. Se puede alterar, por ejemplo, el orden de los autovalores y usar mltiplos (no nulos) de los
autovectores.
4.5 p A (t ) = t 3 +t 2 +33t +63 = (t 7)(t +3)2 . Llamando 1 = 7, el autoespacio asociado es S 1 = gen [1 1 0]t . Para 2 = 3,
tenemos que m 2 = 2 y
5 5 3 5 5 3
Nul(A (3)I ) = Nul 5 5 c = Nul 0 0 c 3
0 0 0 0 0 0
Por ende, si c = 3 el autoespacio asociado es S 2 = gen [3 0 5]t , [1 1 0]t y ser 2 = m 2 = 2, con lo cual A ser diagonali-
zable. Si c 6= 3 el autoespacio asociado a 2 ser de dimensin 1, es decir que 2 < m 2 y la matriz no ser diagonalizable.
Ecuaciones diferenciales y
sistemas de ecuaciones diferenciales 203
Para demostrarlo formalmente, conviene estudiar primero el caso n = 2, que se demuestra usando las equivalencias trigono-
mtricas sen( + ) = sen cos + cos sen y cos( + ) = cos cos sen sen .
4.7
" # " #
1 3 1 1 0
A = P DP con P = y D=
1 0 0 2/3
A
" # " #
3 1
v = +
B
1 0
U
para y adecuados. Por lo tanto, para cualquier v R2
-
" # " # " # k " # " #
3 1 3 2 1 3
a
k k k
A v = A + A = +
1 0 1 3 0 1
r
ie
a medida que k .
en
4.8 De dim [Nul(A 3I )] = 2 se deduce que 3 es un autovalor de multiplicidad geomtrica 2. Se sabe que para el polinomio
g
p(t ) = t 2 +2t resulta p(A) singular, es decir que un autovalor de p(A) es cero (por qu?). Entonces, de acuerdo con el teorema
In
4.7, existe un autovalor de A tal que p() = 0. Esto es, p() = 2 +2 = (+2) = 0. Ahora bien, no puede ser cero porque A
es inversible, luego = 2. En resumen, los autovalores de A son 2 y 3, este ltimo de multiplicidad algebraica y geomtrica
e
4.9 Si A es diagonalizable existe una base {v 1 , v 2 , ...v n } de autovectores. De acuerdo con 1 estos mismos autovectores sern
a
5.1 Por tratarse de la matriz asociada a una reflexin con respecto a un plano, resulta S 1 = gen [1 1 2]t , [1 0 1]t y S 1 =
1 1 1
B = p [1 1 2]t , p [7 1 4]t , p [1 3 1]t
6 66 11
y una diagonalizacin posible es
p p p p p p
1/ 6 7/ 66 1/ 11 1 0 0 1/ 6 1/ 6 2/ 6
p p p p p p
A = 1/ 6 1/ 66 3/ 11 0 1 0 7/ 66 1/ 66 4/ 66
p p p p p p
2/ 6 4/ 66 1/ 11 0 0 1 1/ 11 3/ 11 1/ 11
5.2 En general, no se cumple la relacin Q(x + y) = Q(x)+Q(y) ni Q(kx) = kQ(x). (Sin embargo, hay una matriz A para la cual
Q(x) = x t Ax define una transformacin lineal: cul es?).
5.3
Ecuaciones diferenciales y
204 sistemas de ecuaciones diferenciales
Q(x) = 2x 12 + x 1 x 2 2x 1 x 3 + 3x 22 + 3x 32
2 3/2 1/2
A = 3/2 4 1
1/2 1 1
5.4 Con el cambio de variables como en el ejemplo 5.8 queda la ecuacin y 12 +3y 22 = k. Es decir que se trata de elipses si k > 0,
un punto si k = 0 y un conjunto vaco si k < 0.
5.5
" # " # " # " #
1 4 1 2 1 3 0 1 2 1
A= =p p
4 5 5 1 2 0 7 5 1 2
Con el cambio de variable x = P y la forma es Q(y) = 3y 12 7y 22 . Por lo tanto, los conjuntos de nivel N1 (Q), N1 (Q) son
A
hiprbolas (con distintos ejes) y N0 (Q) es un par de rectas.
B
5.6 Definida positiva, semidefinida positiva, indefinida, definida negativa, semidefinida negativa.
U
5.7 Como A es simtrica y sus autovalores son 7, 2 y 3, tenemos que Q(x) es indefinida.
-
" #
a
t 1 c
5.8 Como Q(x) = x Ax con A = , basta con determinar para qu valores de c los autovalores de A son positivos.
r
c 1
ie
Estudiando la ecuacin det(A t I ) = 0 se deduce que debe ser |c| < 1.
en
h it
3 6
5.9 El valor mnimo es 7 y se realiza en x = p p .
2 5 5 5
g
In
5.10 (Para resolver el problema se usa el cuadrado de la distancia, es decir la norma). La distancia mnima al origen es p1 y
8
t
se realiza en los vectores x = 14 14 . La distancia mxima al origen es 12 y se realiza en los vectores x = p1 [1 1]t .
8
e
d
p t
qel ejemplo 5.12). El mximo es 2 y se realiza en los vectores x = 2 [1 1] . El mnimo
5.11 (La restriccin ya fue estudiada en
d
5.12 La forma cuadrtica se puede escribir como Q(x) = (3x 1 x 2 )2 . Luego los conjuntos de nivel Nk = x R2 /Q(x) = k
cu
estn vacos si k < 0, son un par de rectas si k > 0, una recta si k = 0. Se trata de una forma semidefinida positiva. El valor
mnimo sujeto a la restriccin kxk2 = 1 es cero y se alcanza en los vectores p1 [1 3]t ; el mximo es 10 y se alcanza en los
a
10
vectores p1 [3 1]t .
F
10
6.1 Es una consecuencia de que Nul A = Nul A t A como probamos en el teorema 3.17.
p p
6.2 Los autovalores de A t A son 1 = 360, 2 = 90 y 3 = 0. Luego los valores singulares de A son 1 = 360 = 6 10, 2 =
p p
90 = 3 10 y 3 = 0. Los autoespacios de A t A son
Luego B = {v 1 , v 2 , v 3 } = 31 [1 2 2]t , 31 [2 1 2]t , 13 [2 2 1]t es la base ortonormal buscada. Dado que Av 3 = 0 una base de
Av 1 Av 2
1 1
, = p [3 1]t , p [1 3]t
1 2 10 10
Ecuaciones diferenciales y
sistemas de ecuaciones diferenciales 205
6.3 De acuerdo con las observaciones hechas en los ejemplos 6.1 y 6.2, los vectores definidos en (6.4) constituyen una base
ortonormal de R2 formada por autovectores de A t A, mientras que una base ortonormal de Col A es la que ya se describi en
t
la ecuacin (6.5). En coordenadas y 1 y 2 con respecto a esta base, los transformados de la circunferencia unitaria verifican
la ecuacin pedida.
" #
t 3 3
con los autoespacios S 6 = gen [1 1]t y S 0 = gen [1 1]t . Razonando como en el ejemplo 6.2, se
6.4 A A =
3 3
deduce que los vectores de R2 con norma uno se transformarn en vectores del subespacio generado por A [1 1]t . Ms an,
p
describirn un segmento de longitud 2 6.
6.5 Pueden adaptarse los argumentos del ejemplo 6.3 para concluir que en el primer caso es una matriz de rango 3 y T
transforma a la esfera unitaria en un elipsoide, mientras que en el segundo caso es una matriz de rango 2 y T transforma a la
esfera unitaria en una regin plana de borde elptico.
A
6.6
B
p 1 2 2
U
p3 p1
" # " #" #
4 11 14 10 10 6 10 0 0 1
A= = p 2 1 2
8 7 2 p1 p3 0 3 10 0 3
-
10 10 2 2 1
10 10
en
1 1 1
[1 2 2]t , [2 1 2]t y [2 2 1]t
3 3 3
e
d
6.8
lt
p
p3 p1
" # " #" # " #
4 11 14 6 10 0 1 1 2 2
cu
A= = 10 10 p
8 7 2 p1 p3 0 3 10 3 2 1 2
10 10
a
F
6.9
1/180 13/180
A = 1/45 2/45
1/18 1/18
1 1
t
6.10 El sistema es compatible determinado y x = A b =
15 15 0 es la nica solucin.
1
7.1 : (0, +) R, (t ) = 1 12 t 2
senh t
7.2
y(t ) = 3t 2 +C t con C R
Ecuaciones diferenciales y
206 sistemas de ecuaciones diferenciales
Nu L = gen {t }.
7.3 y(t ) = 18 1 + 2t + 2t 2 + 85 e 2t + 12 e 2t
7.4 y(t ) = 17 e 4t + 67 e 3t
7.5 y(t ) = 2t e 2t + e 2t
7.6 El primer problema admite como solucin cualquier funcin de la forma y = C 2 sen(4t ), mientras que el segundo no
tiene solucin.
A
7.9 x 1 (t ) = 50e 4t + 100e t , x 2 (t ) = 50e 4t + 200e t
B
U
C 1 e t +C 3
1 0 1
7.10 X (t ) = C 1 e t 2 + C 2 1 + C 3 0 = 2C 1 e t +C 2 donde C 1 ,C 2 ,C 3 R (destacamos que el autoespacio aso-
-
1 1 0 C 1 e t +C 2
a
ciado al cero es de dimensin dos, por lo que existen muchas alternativas para escribir la solucin general).
r
" # " #
ie
2t sen t 2t cos t
7.11 Una base posible es {1 , 2 }, donde 1 (t ) = e y 2 (t ) = e .
en
cos t sen t
g
t
" #
C 1 e 4t +C 2 e 2t e3
con C 1 ,C 2 R
In
7.12 X (t ) =
C 1 e 4t +C 2 e 2t
e
d
d
a
lt
cu
a
F
ndice alfabtico
races, 42
rango, 22
recta
de ajuste por cuadrados mnimos, 98
reflexin, 99
semejanza
de matrices, 112
propiedades invariantes, 112
seudoinversa de Moore-Penrose, 168
simetra, 99
sistema
de ecuaciones, 22
de ecuaciones diferenciales, 192
homogneo, 23, 192
sobreyectiva, 49
solucin por cuadrados mnimos, 92
subespacio, 8
generado, 11
invariante, 109
trivial, 8
subespacios fundamentales, 24
suma
de subespacios, 31
de vectores, 3
directa, 34
suryectiva, 49
transformacin lineal, 39
[2] C. Henry Edwards, Ecuaciones Diferenciales y problemas con valores en la frontera, Pearson Educacin, cuarta
edicin, 2009.
[3] Stanley Grossman, lgebra Lineal con Aplicaciones, McGraw-Hill, tercera edicin, 1990.
[4] Kenneth Hoffman y Ray Kunze, lgebra Lineal, Prentice Hall, 1984.
[5] David Lay, lgebra Lineal y sus Aplicaciones, Addison Wesley Longman, 1999.
[6] Ben Noble y James Daniel, lgebra Lineal Aplicada, Prentice Hall, tercera edicin, 1989.
[7] David Poole, lgebra Lineal: una introduccin moderna, Thomson, 2004.
[9] Gilbert Strang, lgebra Lineal y sus Aplicaciones, Addison Wesley Iberoamericana, 1989.
[10] Dennis G. Zill, Ecuaciones Diferenciales con aplicaciones de modelado, Cengage Learning, novena edicin, 2009.